OpenAIのSam Altman氏が先日解任され、数日で再びCEOとして復帰したが、事情に詳しい人物の話として、この解任理由の真実は、Altman氏が「取締役会に対して誠実ではなかった」事にあるのではなく、OpenAIの研究者が人類にとって危険な程に高度なAIの開発に繋がる画期的な発見をした結果、これに不安を抱いた取締役会が起こしたアクションの結果かも知れないと、The InformationやReutersによって報じられている。
Altman氏が解雇される数日前、OpenAIの従業員数人が、『人類を脅かす』可能性のあるAI領域におけるチームの技術的躍進について懸念を表明する書簡を取締役会に送ったというのだ。
内部関係者によると、OpenAIのチーフ・サイエンティストであるIlya Sutskever氏が主導するこの開発は「Q*」または「Q-star」と呼ばれ、潜在的に、より強力な人工知能モデルの作成を可能にするものだという。この問題に詳しい情報筋の話として、取締役会はAIがどのように進歩し、Altman氏がどのような結果になるのか知らなかった可能性があることに懸念を深めていると報じた。
最近開発されたこのモデルは、広範なコンピューティング・リソースを活用し、特定の数学的問題に取り組むことができる、と同社の匿名の情報筋が明かしている。
生成AIの特徴のひとつは、以前に学習した情報を基に答えを導き出すことである。しかし、現代のAI技術には認知能力はなく、人間のように理性的に判断することはできない。
Q*は、汎用人工知能(AGI)の分野における重要なブレークスルーになると考えられており、意思決定を推論することができる自律的なシステムであるため、さまざまなタスクや分野においても人間と競争することができる。今回、Q*の能力は、数学的問題の解決において1つのブレークスルーを達成した。研究者らは数学の問題を解く場合、正解はひとつしかなく、AIがこの障害を乗り越えることができれば、それは大きなマイルストーンになると考えている。AIが一貫して数学の問題を解くことができるようになれば、科学研究に取り組む一方で、人間の知性に似た判断を下すことができるようになると、研究者らは考えているのだ。
Q*がクリアできた問題はまだ小学生レベルのものであったが、それをクリアしたことで、OpenAIの研究者たちはQ*の将来について非常に楽観的になった。レベル云々の話ではなく、これは非常に重要なことで、このような進歩は、Q*が推論や意思決定を必要とする様々な分野で、広範囲に及ぶ意味合いや応用が可能であることを示唆しているからだ。
その結果、OpenAIの研究者数名が理事会に書簡を送り、人類に重大な脅威をもたらす可能性があると考えられるAIモデルの発見を強調した。この書簡は、Altman氏が会社や生成AIの分野に貢献しているにもかかわらず、彼のリーダーシップに信頼が置けないとして、取締役会がAltman氏を解雇する決断に至る決定的な要因となったと言われている。
Reutersの取材に応じたOpenAIは、プロジェクトQ*と手紙の存在を認めた。しかし、同社は状況の詳細や報道の正確性についてはコメントを控えた。
Source
コメント