先月、OpenAIは、大規模な人工知能(AI)モデルの開発者に基本的な安全基準を設定することを目指すカリフォルニア州の未施行の法律に反対を表明した。これは同社の姿勢の変化であり、CEOのSam Altman氏は以前AIの規制を支持する発言をしていた。
2022年にChatGPTのリリースで注目を集めた元非営利組織のOpenAIは、現在最大1,500億ドルの評価額を得ている。先週、より複雑なタスクに取り組むための新しい「推論」モデルをリリースし、依然としてAI開発の最前線に立っている。
同社は最近数ヶ月間、データ取得への意欲の高まりを示すいくつかの動きを見せている。これは現在の生成AIツールのトレーニングに使用されるテキストや画像だけでなく、オンライン行動、個人的な交流、健康に関連する親密なデータも含む可能性がある。
OpenAIがこれらの異なるデータストリームを統合する計画があるという証拠はないが、そうすることで強力な商業的利益が得られるだろう。このような広範な情報へのアクセスの可能性さえも、プライバシーと中央集権的なデータ管理の倫理的影響について重大な疑問を提起する。
メディア企業との契約
今年、OpenAIはTime誌、Financial Times、Axel Springer、Le Monde、Prisa Media、そして最近ではVogue、The New Yorker、Vanity Fair、Wiredなどを所有するCondé Nastを含む複数のメディア企業とパートナーシップを締結した。
これらのパートナーシップにより、OpenAIは大量のコンテンツにアクセスできるようになる。OpenAIの製品は、読書習慣、嗜好、プラットフォーム全体でのエンゲージメントパターンなど、ユーザーの行動や相互作用の指標を分析するためにも使用される可能性がある。
OpenAIがこのデータにアクセスできれば、ユーザーが様々な種類のコンテンツとどのように関わっているかを包括的に理解できるようになり、これは詳細なユーザープロファイリングやトラッキングに使用される可能性がある。
ビデオ、生体認証、健康
OpenAIはまた、OpalというWebカメラスタートアップに投資している。目的はカメラに高度なAI機能を付加することである。
AI搭載Webカメラによって収集された映像は、表情や推測される心理状態などのより機密性の高い生体認証データに変換される可能性がある。
7月、OpenAIとThrive GlobalはThrive AI Healthを立ち上げた。同社は、健康における「行動変容をハイパーパーソナライズし、スケールアップする」ためにAIを使用すると述べている。
Thrive AI Healthは「堅固なプライバシーとセキュリティの保護措置」を設けると述べているが、それらがどのようなものになるかは不明確である。
過去のAI健康プロジェクトでは、個人データの広範な共有が行われていた。例えば、米国のMicrosoftとProvidence Healthのパートナーシップや、英国のGoogle DeepMindとRoyal Free London NHS Foundation Trustのパートナーシップなどがある。後者の場合、DeepMindは個人の健康データの使用について法的措置を受けた。
Sam Altman氏の眼球スキャンサイドプロジェクト
Altman氏はまた、特に論争を呼んでいる暗号通貨プロジェクトWorldCoin(彼が共同創設者)など、他のデータに飢えたベンチャーにも投資している。WorldCoinは生体認証、特に虹彩スキャンを使用してグローバルな金融ネットワークと識別システムを作成することを目指している。
同社は、すでに40カ国近くで650万人以上の眼球をスキャンしたと主張している。一方で、十数の管轄区域がその運営を停止させるか、データ処理を精査している。
バイエルン州当局は現在、WorldCoinが欧州のデータプライバシー規制に準拠しているかどうかを審議している。否定的な判断が下されれば、同社は欧州での事業を禁止される可能性がある。
調査されている主な懸念事項には、機密性の高い生体認証データの収集と保存が含まれる。
なぜこれが重要なのか?
OpenAIの主力製品GPT-4oなどの既存のAIモデルは、主にインターネット上で公開されているデータで学習されてきた。しかし、将来のモデルにはより多くのデータが必要となり、その入手はますます困難になっている。
昨年、同社は「すべての主題、産業、文化、言語を深く理解する」AIモデルを望んでおり、そのためには「可能な限り幅広いトレーニングデータセット」が必要だと述べた。
この文脈において、OpenAIのメディアパートナーシップの追求、生体認証や健康データ収集技術への投資、そしてCEOのWorldCoinなどの論争を呼ぶプロジェクトとの関連性は、懸念すべき図式を描き始めている。
膨大な量のユーザーデータへのアクセスを獲得することで、OpenAIは次世代のAIモデルを構築する態勢を整えているが、プライバシーがその犠牲になる可能性がある。
リスクは多面的である。個人データの大規模な収集は、侵害や悪用に脆弱である。例えば、Medisecureのデータ侵害では、オーストラリア人のほぼ半数の個人データと医療データが盗まれた。
大規模なデータ統合の可能性は、プロファイリングと監視に関する懸念も提起する。ここでも、OpenAIが現在そのような慣行に従事する計画があるという証拠はない。
しかし、OpenAIのプライバシーポリシーは過去に完璧とは言えなかった。さらに広く見れば、テクノロジー企業には疑問の余地のあるデータ慣行の長い歴史がある。
多種多様なデータに対する中央集権的な管理により、OpenAIが個人的および公的な領域の両方で人々に重大な影響力を行使できるシナリオを想像するのは難しくない。
安全性は後回しになるのか?
OpenAIの最近の歴史は、安全性とプライバシーの懸念を和らげるものではない。2023年11月、Altman氏は一時的にCEOの座を追われた。これは報道によると、同社の戦略的方向性に関する内部対立が原因だったとされている。
Altman氏は、AIテクノロジーの迅速な商業化と展開の強力な支持者だった。彼は報道によれば、しばしば安全対策よりも成長と市場浸透を優先してきたとされる。
Altman氏の解任は短期間で、すぐに復帰し、OpenAIの取締役会は大幅に刷新された。これは、潜在的なリスクにもかかわらず、同社の指導部が現在、彼のAI展開に対する積極的なアプローチを支持していることを示唆している。
このような背景を踏まえると、OpenAIが最近カリフォルニア州法案に反対したことの意味は、単なる1つの政策の不一致を超えている。この反規制の姿勢は、懸念すべき傾向を示唆している。
コメント