AIは基礎科学の中心的存在となっている。2024年のノーベル化学賞と物理学賞の5人の受賞者には共通点があった:それはAIである。
実際、多くの科学者たち – ノーベル賞委員会を含む – はAIを科学を変革する力として称賛している。
受賞者の一人が述べたように、科学的発見を加速させるAIの可能性は「人類史上最も変革的な技術の一つ」である。しかし、この変革は科学にとって実際には何を意味するのだろうか。
AIは科学者がより少ない費用で、より早く、より多くのことを行うのを支援すると約束する。しかし、それは同時に新たな懸念ももたらす。科学者たちがAIの採用を急ぎすぎると、科学が一般市民の理解や信頼を超えたものとなり、社会のニーズを満たせなくなるリスクがある。
理解の錯覚
専門家たちは、すでにAIを使用する研究者たちを捕らえる少なくとも3つの錯覚を特定している。
1つ目は「説明的深さの錯覚」である。ノーベル化学賞を受賞したタンパク質構造を予測するAlphaFoldのように 、AIモデルが現象の予測に優れているからといって、それを正確に説明できるわけではない。神経科学の研究ではすでに、予測の最適化のために設計されたAIモデルが、基礎となる神経生物学的メカニズムについて誤った結論を導く可能性があることが示されている。
2つ目は「探索的広さの錯覚」である。科学者たちは探索的研究において検証可能な仮説をすべて調査していると考えがちだが、実際にはAIを使用して検証できる限られた仮説群のみを見ている。
最後に「客観性の錯覚」がある。科学者たちはAIモデルにバイアスがないと信じたり、あらゆる人間のバイアスを説明できると考えたりする。しかし実際には、すべてのAIモデルは必然的に、その訓練データと開発者の意図に存在するバイアスを反映する。
より安価で迅速な科学
科学においてAIの魅力が増している主な理由の一つは、はるかに低いコストで、より早く、より多くの結果を生み出す可能性にある。
この推進の極端な例が、Sakana AI Labsが最近開発した「AI Scientist」マシンである。同社のビジョンは「完全にAI駆動の自動化された科学的発見システム」を開発することで、各アイデアを15ドルで完全な研究論文に変換できるというものである – ただし批評家たちは、このシステムは「終わりのない科学的な粗製乱造」を生み出すと指摘している。
科学の「加速」のために、わずか数回のクリックで研究論文を生産できる未来を本当に望むのだろうか。これは、すでに過負荷状態にある査読システムにさらなる負担をかけ、意味も価値もない論文で科学のエコシステムを氾濫させるリスクがある。
かつて私たちが知っていた科学が、AI生成コンテンツのノイズに埋もれてしまう世界に陥る可能性がある。
文脈の欠如
科学におけるAIの台頭は、科学と科学者に対する公衆の信頼がまだ比較的高い時期に起きているが、それを当然のことと考えることはできない。信頼は複雑で脆弱なものである。
COVID-19パンデミックで学んだように、「科学を信頼せよ」という呼びかけは不十分な場合がある。なぜなら、科学的証拠や計算モデルは、しばしば議論の的となり、不完全であり、様々な解釈の余地があるからである。
しかし、世界は気候変動、生物多様性の損失、社会的不平等など、専門家の判断を伴う公共政策を必要とする多くの問題に直面している。この判断は、地域の文化や価値観を通じて解釈されなければならない様々な分野や生活体験からの意見を集めながら、特定の状況に敏感でなければならない。
昨年発表されたInternational Science Council のレポートが主張したように、科学は公衆の信頼を回復するために、ニュアンスと文脈を認識しなければならない。AIに科学の未来を形作らせることは、この分野で得られた進歩を損なう可能性がある。
科学的探究においてAIに主導権を与えると、AIに最も適した種類の問題、手法、視点、専門家を優先する知識の単一文化を作り出すリスクがある。
これは、責任あるAIに不可欠な学際的アプローチや、社会的・環境的課題に取り組むために必要な微妙な公共の推論と対話から遠ざかることになりかねない。
科学の新しい社会契約
21世紀が始まる時、科学者たちには新たな社会契約があると主張する人々がいた。その契約では、科学者たちは公的資金と引き換えに、現代の最も差し迫った問題に才能を集中させる。その目標は、社会が生態学的に健全で、経済的に実行可能で、社会的に公正なより持続可能な生物圏に向かって進むことを支援することである。
AIの台頭は、科学者たちに自身の責任を果たすだけでなく、契約自体を活性化させる機会を提供している。しかし、科学コミュニティはまず、AIの使用に関するいくつかの重要な問題に取り組む必要がある。
例えば、科学におけるAIの使用は、公的資金による研究の完全性を損なう可能性のある一種の「アウトソーシング」なのだろうか。これはどのように扱われるべきなのか。
AIの増大する環境フットプリントについてはどうか。また、研究プロセスにAIを統合しながら、社会の期待に沿い続けるにはどうすればよいのか。
この社会契約を確立する前にAIで科学を変革しようとする考えは、本末転倒のリスクがある。
多様な声や分野からの意見なしにAIに研究の優先順位を形作らせることは、社会が実際に必要としているものとの不一致を引き起こし、資源の不適切な配分につながる可能性がある。
科学は社会全体に利益をもたらすべきである。科学者たちは、自分たちの実践コミュニティと研究の利害関係者との間で、AI の未来について真剣な対話を行う必要がある。これらの議論では、共有された目標と価値観を反映しながら、この新たな社会契約の次元を扱うべきである。
AIが科学のために可能にする、あるいは阻止する様々な未来を積極的に探求し、その可能性を責任を持って活用するために必要な基準とガイドラインを確立する時が来ている。
コメント