OpenAIの共同設立者でAI研究の第一人者であるIlya Sutskever氏は、先日“個人的なプロジェクト”のためにOpenAIを退社した。同氏のその後の動向に注目が集まっていたが、今回2人のパートナーとともに「Safe Superintelligence Inc.(SSI)」という新会社を設立したことが明らかになった。彼らの目標は、安全性を常に先行させながら超知能AIを開発することである。
安全性を第一に、超知能AIの開発を迅速に進める計画
Sutskever氏の新会社SSIは、投資家のDaniel Gross氏と元OpenAIエンジニアのDaniel Levy氏と共に立ち上げられ、現在米国カリフォルニア州パロアルトとイスラエルのテルアビブに拠点を構えている。
SSIは、「我々の時代の最も重要な技術的問題」として、安全で信頼性のある人間を超える知能を持つ「超知能AI」の開発に取り組むことを目指している。これを達成するために、SSIは「世界最高のエンジニアと研究者からなる精鋭チーム」を組織する計画とのことだ。
発表によると、「SSI(Safe Superintelligence:安全な超知能)は我々のミッションであり、名前であり、そして全製品ロードマップそのものです。なぜなら、我々の唯一の焦点がSSIだからです。我々のチーム、投資家、そしてビジネスモデルはすべてSSIの達成に向けて一致しています」と、述べられている。
同社の目的はシンプルで、「安全な超知能AIの開発」にのみあり、そのために、技術と科学の両面で変革的な飛躍を遂げるために、AIの能力と安全性を並行して開発を進めることを目指している。「我々は能力を可能な限り迅速に進める一方で、安全性が常に先行するようにする計画です」としており、OpenAIと袂を分かつ原因となった製品開発・展開スピードと安全性のバランスについてが明確に言及されている。
Sutskever氏は、10年間勤めたOpenAIを5月中旬に退社したが、その際に多くのAI安全研究者が彼と共に退社している。
OpenAIの取締役として、Sutskever氏は2023年11月にAltmanがCEOから一時的に解任された際に関与していたとされる。報道によると、彼は以前からAltmanが推進する急速な商業化とそれがもたらす安全リスクについて懸念を表明していた。
Sutskever氏と共に退社したメンバーの何人かは今後彼の新会社に合流する可能性もありそうだ。AIの先駆者である彼が、自らの会社で何を考え出すのか、そしてそれがOpenAIの取り組みを飛び越えることができるのか、興味深いところだ。
Source
コメント