人工知能(AI)の世界で戦いが繰り広げられている。一方には、高度なソフトウェアの背後にあるデータセットとアルゴリズムを非公開かつ機密にすべきだと考える企業がある。他方には、洗練されたAIモデルの内部構造を公開すべきだと考える企業がある。
これはオープンソースAIとクローズドソースAIの戦いと考えることができる。
最近、Facebookの親会社であるMetaは、新しい大規模AIモデルのコレクションをリリースすることで、オープンソースAIの戦いに大きく関与した。これには、Llama 3.1 405Bという名前のモデルが含まれており、Metaの創業者兼最高経営責任者であるMark Zuckerberg氏は、これを「最初のフロンティアレベルのオープンソースAIモデル」と呼んでいる。
AIの恩恵を誰もが享受できる未来を重視する人々にとって、これは良いニュースである。
クローズドソースAIの危険性とオープンソースAIの可能性
クローズドソースAIとは、専有的で機密に保たれているモデル、データセット、アルゴリズムを指す。例としては、ChatGPT、GoogleのGemini、AnthropicのClaudeなどがある。
これらの製品は誰でも使用できるが、AIモデルやツールの構築に使用されたデータセットやソースコードを知る方法はない。
これは企業が知的財産と利益を守るには優れた方法だが、公共の信頼と説明責任を損なう危険性がある。AIテクノロジーをクローズドソースにすることは、イノベーションを遅らせ、企業や他のユーザーがAIのニーズに関して単一のプラットフォームに依存することにもつながる。これは、モデルを所有するプラットフォームが変更、ライセンス、更新を管理するためである。
AIの公平性、説明責任、透明性、プライバシー、人間による監視を改善しようとする様々な倫理的フレームワークが存在する。しかし、これらの原則は、専有システムに内在する透明性と外部からの説明責任の欠如により、クローズドソースAIでは完全には達成されないことが多い。
ChatGPTの場合、その親会社であるOpenAIは最新のAIツールのデータセットもコードも公開していない。これにより、規制当局が監査することが不可能になっている。サービスへのアクセスは無料だが、ユーザーのデータがどのように保存され、モデルの再トレーニングに使用されているかについては懸念が残る。
対照的に、オープンソースAIモデルの背後にあるコードとデータセットは、誰でも見ることができる。
これにより、コミュニティの協力を通じた急速な開発が促進され、小規模な組織や個人でさえもAI開発に関与することが可能になる。また、大規模AIモデルのトレーニングコストが莫大であるため、中小企業にとっても大きな違いをもたらす。
おそらく最も重要なのは、オープンソースAIが潜在的な偏見や脆弱性の精査と特定を可能にすることである。
しかし、オープンソースAIは新たなリスクと倫理的懸念も生み出す。
例えば、オープンソース製品の品質管理は通常低い。ハッカーもコードとデータにアクセスできるため、モデルはサイバー攻撃を受けやすく、ダークウェブのデータでモデルを再トレーニングするなど、悪意のある目的でカスタマイズされる可能性がある。
オープンソースAIの先駆者
主要なAI企業の中で、MetaはオープンソースAIの先駆者として台頭している。新しいAIモデルスイートにより、Metaは2015年12月に立ち上げられた時のOpenAIが約束したこと、つまり「人類全体に最も利益をもたらす可能性が高い方法で」デジタルインテリジェンスを進歩させるということを実行している。
Llama 3.1 405Bは、史上最大のオープンソースAIモデルである。これは大規模言語モデルとして知られ、複数の言語で人間の言語テキストを生成する能力を持つ。オンラインでダウンロードできるが、その巨大なサイズのため、ユーザーは実行に強力なハードウェアを必要とする。
全ての指標で他のモデルを上回っているわけではないが、Llama 3.1 405Bは非常に競争力があると考えられており、推論やコーディングタスクなど、特定のタスクでは既存のクローズドソースや商用の大規模言語モデルよりも優れた性能を発揮する。
しかし、このモデルは完全にオープンではない。なぜなら、Metaはトレーニングに使用した巨大なデータセットをリリースしていないからである。これは現在欠けている重要な「オープン」要素である。
それでもなお、MetaのLlamaは研究者、小規模組織、スタートアップにとって競争の場を平等にする。なぜなら、大規模言語モデルをゼロから訓練するのに必要な莫大なリソースなしに活用できるからである。
AIの未来を形作る
AIの民主化を確実にするために、我々は3つの重要な柱を必要とする:
- ガバナンス:AIテクノロジーが責任を持って倫理的に開発・使用されることを保証する規制および倫理的フレームワーク
- アクセシビリティ:開発者とユーザーに公平な環境を保証するための、手頃な価格の計算リソースとユーザーフレンドリーなツール
- オープン性:透明性を確保するために、AIツールのトレーニングと構築に使用されるデータセットとアルゴリズムはオープンソースであるべき
これら3つの柱を達成することは、政府、産業界、学術界、そして一般市民の共同責任である。一般市民は、AIにおける倫理的政策を提唱し、AI開発について情報を得続け、AIを責任を持って使用し、オープンソースAIの取り組みを支援することで重要な役割を果たすことができる。
しかし、オープンソースAIについては、いくつかの疑問が残る。知的財産を保護しつつ、オープンソースAIを通じてイノベーションを促進するバランスをどのようにとればよいのか。オープンソースAIを取り巻く倫理的懸念をどのように最小限に抑えることができるのか。オープンソースAIの潜在的な悪用をどのように防ぐことができるのか。
これらの疑問に適切に対処することで、AIが全ての人のための包括的なツールとなる未来を創造するのに役立つだろう。我々は、AIがより大きな善のために役立つことを保証するという課題に立ち向かうのだろうか。それとも、AIが排除と管理のためのもう一つの厄介なツールになることを許すのだろうか。未来は我々の手の中にある。
コメント