OpenAIの共同創設者で元主任科学者のイリヤ・スツケヴァー氏が、新たなAI研究所「Safe Superintelligence(SSI)」のために10億ドルの資金調達に成功しました。この動きは、AI業界に大きな波紋を呼んでいます。
SSIの概要と目標
SSIは、人間の能力をはるかに超える安全なAIシステムの開発を目指しています。スツケヴァー氏は、この新しいベンチャーについて「自分が取り組んでいたものとは少し異なる山を見つけた」と語っています。
設立 | 2023年6月 |
共同創設者 | ・イリヤ・スツケヴァー(元OpenAI主任科学者) ・ダニエル・レヴィ(元OpenAI研究者) ・ジョナ・グロス(元Apple AI部門リーダー) |
評価額 | 50億ドル |
資金調達の詳細
SSIは、著名なベンチャーキャピタルや投資家から10億ドルの資金を調達しました。
主な投資家
- アンドリーセン・ホロウィッツ(a16z)
- セコイア・キャピタル
- DSTグローバル
注目すべきは、これらの投資家の中にはOpenAIにも投資している企業があることです。特にa16zは、カリフォルニア州のAI安全法案に公然と反対していることで知られています。
SSIの戦略と文化
SSIは、資金を主に以下の2点に投資する予定です。
- 優秀な人材の採用
- コンピューティングパワーの獲得
人材採用に関しては、SSIは独自のアプローチを取っています。グロス氏によると、候補者の「良い性格」を重視し、資格や経験よりも「並外れた能力」を持つ人材を求めているとのことです。
スケーリングへの新たなアプローチ
スツケヴァー氏は、AIモデルのスケーリングに対して新しいアプローチを取ると述べています。従来のスケーリング仮説(膨大なコンピューティングパワーがあればAIモデルのパフォーマンスが向上するという考え)に対して、SSIは異なる視点を持っているようです。
スツケヴァー氏は次のように述べています。
「誰もがスケーリング仮説だけを言う。何をスケーリングしているのか、誰も問わない」 「長時間働いても、同じ道をより速く進む人もいる。それはあまり私たちのスタイルではない。しかし、何か違うことをすれば、何か特別なことをすることが可能になる」
今後の展望
SSIは現在、製品開発の初期段階にあり、CEOの発言によれば、実際の製品リリースまでにはまだ数年かかる可能性があります。しかし、スツケヴァー氏の実績とSSIの野心的な目標を考えると、AI業界に大きな影響を与える可能性があります。
OpenAIとの競争関係や、AI安全性に対するアプローチの違いなど、SSIの今後の動向は注目に値します。AI技術の急速な発展と並行して、安全性や倫理的な問題にも焦点が当たる中、SSIがどのような革新をもたらすのか、業界関係者だけでなく一般の人々からも高い関心が寄せられています。