OpenAIとAnthropicが、米国政府のAI安全研究所に未公開の人工知能(AI)モデルを提供することで合意した。この画期的な動きは、AIの安全性と責任ある開発を推進する上で重要な一歩となる。
米国AI安全研究所との協力合意
OpenAIとAnthropicは、米国商務省の国立標準技術研究所(NIST)内に設置された米国AI安全研究所と正式な協力関係を結んだ。この合意により、両社は新たなAIモデルを一般公開前と公開後の両方で研究所に提供し、安全性評価を受けることになる。
この取り組みは、2023年に米Biden大統領が発した行政命令を受けて設立された米国AI安全研究所の活動の一環である。研究所は、企業や専門家のコンソーシアムと協力し、AIシステムの安全性ガイドラインと優れた実践方法を確立することを目指している。
Elizabeth Kelly米国AI安全研究所長は、「安全性は画期的な技術革新を促進するために不可欠です。これらの合意により、AnthropicとOpenAIとの技術的な協力を開始し、AI安全の科学を進歩させることを楽しみにしています」と語った。また、「これらの合意は始まりに過ぎませんが、AIの未来を責任を持って管理するための重要なマイルストーンです」と付け加えた。
協力の具体的内容と影響
今回の合意により、米国AI安全研究所は両社の主要な新モデルに、一般公開前後でアクセスできるようになり、AIの能力や安全性リスクの評価、およびそれらのリスクを軽減する方法について、協調的な研究が可能となる。
研究所は、英国のAI安全研究所とも協力し、モデルの潜在的な安全性リスクを特定する。両研究所は、OpenAIとAnthropicに対してモデルの安全性改善に関するフィードバックを提供する予定だ。
この取り組みは、AI企業が米政権に対して行った自主的なAI安全性コミットメントを基盤としており、リスクを検出するためのモデル評価を行うことを約束している。
Anthropicの共同創設者であるJack Clark氏は、「米国AI安全研究所との協力により、広範な専門知識を活用して、広範囲に展開する前にモデルを厳密にテストすることができます。これにより、リスクを特定し軽減する能力が強化され、責任あるAI開発が進むでしょう」とReutersに語った。
一方、OpenAIのChief Strategy OfficerであるJason Kwon氏は、「米国AI安全研究所の使命を強く支持しており、AIモデルの安全性に関するベストプラクティスと基準を策定するために協力することを楽しみにしています」とコメントした。
この協力関係は、AI業界における安全性と倫理に関する懸念が高まる中で実現した。OpenAIのCEOであるSam Altman氏は、「これが国レベルで行われることは重要です。米国はリードし続ける必要があります!」とX上で述べている。
この動きは、AIの安全性と責任ある開発に向けた重要な一歩であり、政府と民間企業の協力が技術の進歩と公共の利益のバランスを取る上で不可欠であることを示している。今後、この取り組みがAI業界全体にどのような影響を与えるか、注目が集まりそうだ。
Sources
コメント