学術出版大手のWileyが発表した最新調査「ExplanAItions」第2版は、研究コミュニティにおける人工知能(AI)の浸透が新たな局面に入ったことを浮き彫りにした。研究者によるAIツールの利用率は2024年の57%から2025年には84%へと爆発的に増加した一方で、AIが既に人間の能力を超えていると考える研究者の割合は、前年の53%から3分の1未満へと劇的に減少したのである。この逆説的なデータが示すのは、AIという技術が過度な期待の段階を終え、研究現場での実践を通じてその真価と限界が厳しく見極められている「現実的再調整」の時代の到来だ。

AD

爆発的に普及するAI、しかしその内実は

2025年8月に世界中の研究者2,430人を対象に行われたWileyの調査によれば、AIツールの利用経験がある研究者は84%に達した。 これは2024年の調査から27ポイントもの驚異的な伸びであり、AIが研究活動において特殊なツールから、日常的なユーティリティへと急速に変化していることを物語っている。

実際に、AIを利用する研究者の多くがその恩恵を実感している。85%が「効率が向上した」と回答し、4分の3近くが「仕事の量と質が向上した」と答えているのだ。 主な用途としては、論文執筆支援、大量の文献レビュー、翻訳、校正といった、従来多大な時間を要していたタスクが挙げられる。 これらはAIが得意とする領域であり、研究者が本来注力すべき創造的な思索や実験に時間を割くことを可能にしている。

しかし、この急速な普及の影で、より深刻な変化が進行していた。

利用経験が促す「期待値の劇的な再調整」

今回の調査で最も注目すべきは、AIの能力に対する研究者の評価が著しく現実的になった点だろう。2024年の調査では、調査対象となったユースケースの半数以上(53%)において、研究者は「AIは既に人間の能力を超えている」と回答していた。 ところが2025年、その数字は3分の1未満にまで急落したのだ。

これは一体何を意味するのか。Wileyはこれを「研究者がAIへのアプローチにおいて深刻な成熟を遂げている」と表現する。 つまり、単なるハイプ(誇大広告)に踊らされることなく、日々の研究活動でAIを実際に使う中で、その強みと弱みを冷静に見極め始めたということだ。

この傾向は、AIの導入時期によっても明確な差となって現れている。いち早くAIを導入した「アーリーアダプター」層では、依然として59%がAIは人間を上回ると考えている。 一方で、この1年で新たに使い始めた大多数の研究者は、AIの能力に対してより懐疑的な見方をしている。これは、アーリーアダプターの初期の熱狂が、後続の利用者たちの現実的な利用経験によって冷却されている構図を示唆している。もはやAIは「魔法の杖」ではなく、あくまで「便利な道具」の一つとして認識され始めているのだ。

AD

なぜ期待は低下したのか? 顕在化するAIの課題

研究者の期待値が現実的な水準に落ち着いた背景には、AIが抱える根本的な課題への認識が深まったことがある。特に、科学研究の根幹である「信頼性」を揺るがす問題への懸念が顕著に高まっている。

深刻化する「ハルシネーション」への懸念

AIがもっともらしい嘘を生成する「ハルシネーション」に対する懸念は、2024年の51%から2025年には64%へと大幅に上昇した。 事実の正確性と再現性が絶対的な価値を持つ科学の世界において、この問題は単なる不便さを超え、研究の信頼性そのものを破壊しかねない致命的な欠陥となる。存在しない論文を引用したり、データを誤って解釈・生成したりするリスクは、研究者にとって看過できるものではない。利用経験が増えるほど、このリスクを肌で感じる機会も増え、結果としてAIへの過信が是正されていったと考えられる。

プライバシーとセキュリティへの不信感

同様に、プライバシーとセキュリティに関する懸念も47%から58%へと上昇した。 未発表の研究データや新規性のあるアイデアを、セキュリティポリシーが不透明な外部の汎用AIサービスに入力することへの抵抗感は根強い。特に、国家間や企業間で熾烈な研究開発競争が繰り広げられる分野では、情報漏洩は研究者生命を脅かすリスクに直結する。

思考プロセスへの影響

さらに、AIが研究者の思考そのものに与える影響も懸念され始めている。今回の調査では、AIが「クリティカルシンキング(批判的思考)に役立った」と回答した研究者は48%に留まった。 これは、AIが情報の要約や整理には長けている一方で、複数の情報を統合し、独自の洞察や新たな仮説を生み出すといった高度な知的作業の代替にはなり得ない、という研究者の冷静な評価を反映している。AIは思考の「補助線」にはなっても、思考の「主体」にはなれないという現実認識が広まりつつあるのだ。

ツールの選択に見る「理想と現実」の乖離

研究者がどのようなAIツールを使っているかというデータも、現場の状況を雄弁に物語っている。

  • 汎用AIツールの圧倒的優位: ChatGPTのような汎用AIツールを利用している研究者は80%にのぼる。
  • 研究特化型ツールの低迷: 一方で、科学研究に特化したAIリサーチアシスタントの利用はわずか25%に過ぎない。

この大きな差が生まれる主な理由は「認知度の低さ」だ。調査対象となった専門ツールのうち、その存在を知っていた研究者は平均でわずか11%だった。 加えて、多くの研究者(70%)が無料ツールを利用しているという事実も、高価な専門ツールへのアクセス障壁を示唆している。

結果として、多くの研究者は研究に最適化されていない汎用ツールを、手探りで工夫しながら使う「パッチワーク的な解決策」を強いられている。 これが、AIのポテンシャルを最大限に引き出せない一因ともなっており、期待と現実のギャップをさらに広げている可能性がある。

AD

求められるサポートとガイドライン:孤立する研究者

AIの導入が進む一方で、研究者が所属する機関からのサポート体制は著しく立ち遅れている。自身の組織が適切なサポートを提供していると感じている研究者は、全体の41%に過ぎない。

このサポート不足を埋める存在として期待されているのが、皮肉にも学術出版社だ。大多数の研究者(73%)が、出版社に対してAIの適切な利用に関する明確なガイドラインの提供を求めている。 実際、AI導入の最大の障壁として57%の研究者が「ガイドラインとトレーニングの欠如」を挙げており、コミュニティ全体としての方針が定まらない中、個々の研究者が手探りでAIと向き合っている孤独な状況がうかがえる。

AIとの「賢い付き合い方」を模索する時代へ

Wileyの調査が明らかにしたのは、AIに対する熱狂的なブームが終わり、研究コミュニティがAIという強力なツールとどう向き合うべきかを真剣に模索し始めた「幻滅期の先」にある姿だ。利用率の急増は、もはやAIが無視できない存在であることを示している。一方で、期待値の低下や懸念の高まりは、技術の限界とリスクを直視し、より現実的で持続可能な共存関係を築こうとする健全な動きと捉えるべきだろう。

注目すべきは、こうした現実的な評価が広がる中でも、AIの将来性に対する期待が失われたわけではない点だ。「もし高性能なAIエージェントツールが利用可能になれば、平均57%の研究者が自律的なタスク実行を許可する」と回答しており、より信頼性が高く、研究に特化したツールが登場すれば、AIの活用は新たなステージに進む可能性を秘めている。

我々はAIの能力を過大評価していたのか、それともこれは、真の意味でAIが研究のパートナーとなるための産みの苦しみに過ぎないのだろうか。確かなことは、研究の現場がAIとの「賢い付き合い方」を学び始めたということだ。この試行錯誤の先にこそ、AIが科学の進歩に真に貢献する未来が待っているに違いない。


Sources