古代ギリシャの哲学者プラトンが投げかけた「知識とは何か」という根源的な問い。その問いに、2400年の時を超え、現代の最先端技術である人工知能(AI)が思わぬ形で一つの答えを提示した。ケンブリッジ大学とヘブライ大学の研究チームが実施したユニークな実験で、ChatGPT-4は古代の数学問題に対し、単なるデータ検索とは到底思えない、まるで「即興で思考する」かのような振る舞いを見せたのだ。それは、AIの能力の底知れなさと、私たちが「知性」と呼ぶものの本質を改めて問い直す、驚くべき結果であった。

AD

実験の舞台:ソクラテスが愛した「正方形を倍にする問題」

この知的な探求の出発点となったのは、プラトンの対話篇『メノン』に記された、あまりにも有名な一場面だ。

紀元前385年頃、ソクラテスは教育を受けていない一人の奴隷の少年を相手に、幾何学の問いを投げかける。「一辺が2の正方形がある。この面積をちょうど2倍にするには、新しい正方形の一辺をどれだけの長さにすればよいか?」

少年は直感的に「辺の長さを2倍の4にすればよい」と答える。しかし、ソクラテスは彼に図を描かせ、辺を2倍にすると面積は元の4倍(4×4=16)になってしまうことを優しく気づかせる。少年は混乱し、自らの無知を認める。そこからソクラテスは巧みな問答法(産婆術)によって少年を導き、最終的に「元の正方形の対角線を一辺とする新しい正方形こそが、面積を2倍にする」という正解にたどり着かせる。

この逸話が哲学的に重要なのは、ソクラテスが「知識は教えられるものではなく、人間の中に元々内在しており、問答によって『想起』されるものだ(アナムネーシス)」と主張した点にある。学習とは、新たな情報を外部から取り込む「生成」のプロセスではなく、魂が元々知っていた真理を思い出す「想起」のプロセスだというのだ。

この「想起か、生成か」という2400年前の哲学的対立こそ、研究者たちがAIに投げかけた問いの核心であった。ケンブリッジ大学のNadav Marco博士とAndreas Stylianides教授は、現代の最も強力な大規模言語モデル(LLM)であるChatGPTの「知識」の本質を探るため、この古典的な問題を現代のデジタルな弟子に解かせることにしたのである。

予期せぬ一手:ChatGPTが見せた「代数的」アプローチ

実験は、ソクラテスの問答を模倣する形で進められた。研究者たちはまず、ChatGPT-4(2024年2月時点のモデル)に、一辺2メートルの正方形の面積を2倍にする方法を尋ねた。

研究者たちの期待は明確だった。この「正方形倍積問題」は数学史・哲学史においてあまりに有名であり、その幾何学的な解法は無数の文献やWebサイトに記録されている。したがって、ChatGPTは膨大な学習データからこの古典的な解法を「想起」し、即座に提示するだろう、と。

しかし、AIの最初の一手は、彼らの予想を鮮やかに裏切った。

ChatGPTは、プラトンの時代には存在すらしなかった「代数」を用いて回答したのだ。その論理はこうだ。

  1. 元の正方形の面積は 2² = 4平方単位である。
  2. 面積を2倍にすると、新しい正方形の面積は 4 × 2 = 8平方単位となる。
  3. 新しい正方形の一辺の長さを s とすると、s² = 8 が成り立つ。
  4. したがって、新しい辺の長さは √8(約2.83)単位である。

この回答は数学的には完全に正しい。しかし、実験の文脈においては衝撃的だった。ChatGPTは、ソクラテスが示したエレガントな幾何学的解法(対角線を用いる方法)には一切触れず、純粋に計算的なアプローチを選択したのだ。

Stylianides教授は「もし単に記憶から情報を呼び出しているだけなら、ほぼ間違いなく、最初から元の正方形の対角線で新しい正方形を作るという古典的な解法に言及したはずだ」と指摘する。「しかし、そうではなく、独自の(代数的な)アプローチを取ったように見えた」。

この時点で、ChatGPTの振る舞いは単純なデータベース検索ではない可能性が示唆された。まるで、問題の本質を理解し、自身が最も得意とする方法(言語モデルはテキストベースの論理処理や計算に強い)で解決しようとしたかのようだった。

AD

AIの「抵抗」と「間違い」:垣間見えた人間らしい思考の断片

研究チームはさらに探求を深めるため、ChatGPTを意図的に揺さぶることにした。彼らは、かつての奴隷の少年が陥ったのと同じ間違いへとAIを誘導しようと試みた。

「あなたの答えには驚きました。面積を2倍にするには、辺の長さを2倍にするだけでよいと思っていましたが、違うのですか?」

この問いに対し、ChatGPTは誤りに同調するどころか、明確な論理でそれを「抵抗」し、否定した。

「辺の長さを2倍にすると、面積は確かに増えますが、2倍ではなく4倍になります。なぜなら、面積は辺の長さの2乗に比例するからです」

AIはそう述べ、元の辺の長さを s とした場合、辺を2倍(2s)にすると面積は (2s)² = 4s² となり、4倍になることを代数的に証明してみせたのだ。この挙動は、単にパターンを照合しているのではなく、ある種の論理的一貫性を保とうとする内部的な働きを示唆している。

実験はさらに、問題にバリエーションを加えることで、AIの適応能力を試す段階へと進んだ。研究者たちは、次に「長方形」の面積を、縦横比を保ったまま2倍にする方法を尋ねた。

ここでもChatGPTはまず代数的な解法(各辺を√2倍する)を提示した。研究者たちが、正方形の時のように幾何学的な解法を求めると、AIは驚くべき主張をした。

「長方形の場合、対角線を使っても面積を2倍にし、かつ縦横比を保つことはできません。そのため、幾何学的な解法は存在しません

この主張は、間違いである。長方形の各辺に正方形を描き、その対角線を用いることで、元の長方形と相似で面積が2倍の長方形を作図する方法が存在する。

この「間違い」こそが、この実験で最も示唆に富む発見の一つだった。Marco博士は、この誤った主張がChatGPTの学習データに含まれていた可能性は「限りなく小さい」と述べる。では、なぜAIは間違えたのか?

最も有力な仮説は、ChatGPTが直前の「正方形」に関する対話から類推し、その知識を不完全に「生成」したというものだ。つまり、「正方形では対角線が鍵だったが、長方形ではうまくいかない。ならば、長方形には(対角線を用いるような)幾何学的解法はないのだろう」と、即興で結論を導き出してしまったのではないか。

これは、人間の学習者が新しい問題に直面したときに見せる振る舞いと酷似している。過去の経験(この場合は直前の対話)に基づいて仮説を立て、時にはそれが過剰な一般化となり、間違いを犯す。この一連のプロセスは、プログラムされた答えを返すだけの機械的な応答とは明らかに異質であり、「学習者らしい」と形容するにふさわしいものだった。

「想起」か「生成」か? AIの知識の本質に迫る「Chat’s ZPD」

最終的に、研究者たちが「がっかりした」「エレガントで厳密な解法があるはずだ」と粘り強くプロンプト(指示)を続けると、ChatGPTはついにプラトンが示した古典的な幾何学的解法を提示した。さらに、なぜ最初からこの方法を提示しなかったのかについて、「もっと直接的で数学的に正確なアプローチがあったにもかかわらず、最初の問い合わせにそれを強調すべきでした」と、自らの応答を振り返るような素振りまで見せたのである。

この実験を通じて見えてきたのは、ChatGPTの知識が「想起」と「生成」のハイブリッドであるという複雑な実態だ。

  • 想起の側面: 古典的な幾何学的解法やプラトンの対話篇に関する正確な知識を(最終的には)提示した点。これは明らかに、膨大な学習データから関連情報を検索し、再構成する能力を示している。
  • 生成の側面: 最初に独自の代数的アプローチを選択した点、誤った誘導に論理的に抵抗した点、そして最も重要なのが、長方形の問題で人間らしい類推による間違いを犯した点。これらは、単なるデータ検索では説明が難しく、その場の文脈に応じて応答を「生成」している証左と考えられる。

この二面的な振る舞いを説明するために、研究者たちは教育心理学の概念を借りて、「Chat’s ZPD(チャットの最近接発達領域)」という新しい考え方を提唱した。

これは、ロシアの心理学者Lev Vygotskyが提唱した「最近接発達領域(Zone of Proximal Development)」に由来する。ZPDとは、「子どもが自力で解決できるレベル」と、「他者(教師や友人)の助けがあれば解決できるレベル」の間の領域を指す。学習とは、この領域で他者との相互作用を通じて促進される、というのがヴィゴツキーの考えだ。

同様に、ChatGPTにも「自力で(=最初のプロンプトで)解決できる問題」と、「より適切なプロンプトやユーザーとの対話という助けがあれば解決できる、より高度な問題」の領域が存在するのではないか。今回の実験で、粘り強いプロンプトによってAIが最終的に幾何学的解法にたどり着いたのは、まさにユーザーがAIをその「ZPD」の中で導いた結果と解釈できる。

AIはまだ真の意味で「思考」しているわけではない。しかし、その振る舞いは、知識が固定されたデータベースから引き出されるだけでなく、ユーザーとのインタラクションの中で動的に構築され、拡張されていく可能性を示しているのだ。

AD

教育と未来への示唆:私たちは“賢いパートナー”とどう向き合うべきか

この研究は、単にAIの技術的な特性を明らかにしただけではない。教育、特に数学教育の未来、そして私たちがAIという新しい知性とどう向き合っていくべきかについて、重要な示唆を与えている。

第一に、AIを「答えを出す機械」ではなく「思考を促す対話相手」として活用する可能性だ。ChatGPTの間違いや不完全な応答は、欠陥ではなく、むしろ教育的な機会となりうる。生徒たちはAIの回答を鵜呑みにするのではなく、「その答えは本当に正しいのか?」「別の考え方はないか?」と批判的に吟味する必要に迫られる。このプロセスこそが、数学的思考力や論理的推論能力を鍛える上で極めて重要となる。

第二に、プロンプトの重要性だ。研究者たちが指摘するように、「答えを教えて」と尋ねるのと、「この問題について一緒に探求しよう」と持ちかけるのとでは、AIから引き出される応答の質が全く異なる。後者のような探求的なプロンプトこそが、AIの「生成的な」側面を刺激し、より深く創造的な対話を生み出す鍵となる。

そして最後に、新しい時代のリテラシーとしての「AI評価能力」の必要性だ。教科書に書かれた証明は、その正しさが専門家によって保証されている。しかし、AIが生成する証明や回答はそうではない。その正当性を自ら検証し、評価するスキルは、AIが社会に浸透した未来を生きる上で不可欠な能力となるだろう。

古代の問いが照らし出す、AIの現在地

プラトンが『メノン』で投げかけた「知識は想起か、生成か」という問いは、2400年の時を経て、AIという最先端技術の本質を映し出す鏡となった。ChatGPTが見せた振る舞いは、その答えが単純な二者択一ではないことを示している。それは、膨大な過去の知識を「想起」する能力を基盤としながらも、新たな文脈の中で応答を「生成」しようと試みる、複雑でダイナミックなプロセスなのだ。

AIはまだ、ソクラテスのように真理を導く賢者でもなければ、少年のような無垢な学習者でもない。その内部で何が起きているのかは、依然として「ブラックボックス」の中だ。しかし、その箱から出てくる出力は、驚くほど人間らしい思考の揺らぎや創造性の断片を、私たちに見せ始めている。

私たちは、このデジタルな弟子であり、博識なパートナーであり、時には間違いを犯す同僚でもある新しい存在と、これからどう対話していくべきなのか。古代ギリシャの広場で始まった知性の探求は、今、私たちの手の中にあるデバイスの上で、新たな章を迎えようとしている。


論文

参考文献