私たちの多くが頭の中だけで考えられることには限界がある。16,951を67で割ることを、紙とペンを使わずに、あるいは電卓を使わずにやってみてほしい。先週のレシートの裏に書いたメモや携帯電話なしで、週の買い物をやってみてほしい。
このような機器に頼って生活を楽にすることで、私たちは賢くなっているのか、それとも愚かになっているのか。効率性の向上と引き換えに、種としての愚かさに一歩一歩近づいているのだろうか。
この問いは、ChatGPTのような生成型人工知能(AI)技術に関して特に重要である。ChatGPTは、技術企業OpenAIが所有するAIチャットボットで、執筆時点で週間3億人が利用している。
米国のMicrosoftとカーネギーメロン大学の研究チームによる最近の論文によると、その答えは「イエス」かもしれない。しかし、この問題にはより多くの側面がある。
よく考えること
研究者たちは、生成AIが利用者自身のクリティカルシンキングに与える影響について、利用者の認識を評価した。
一般的に言えば、クリティカルシンキングは「よく考えること」に関係している。
その一つの方法は、自分の思考プロセスを、確立された規範や優れた推論方法と照らし合わせて判断することである。これらの規範には、精密さ、明確さ、正確さ、広さ、深さ、関連性、重要性、論証の説得力といった価値が含まれる。
思考の質に影響を与える他の要因には、既存の世界観の影響、認知バイアス、不完全または不正確なメンタルモデルへの依存などがある。
最近の研究の著者たちは、1956年に米国の教育心理学者Benjamin Bloomらが開発したクリティカルシンキングの定義を採用している。これは実際には定義というよりも、情報の想起、理解、応用、分析、統合、評価といった認知スキルを分類する階層的な方法である。
著者たちは、この分類(「分類学」としても知られる)が単純で適用しやすいため、これを好んでいると述べている。しかし、考案されて以来、Robert Marzanoや、Bloom自身によっても否定されており、支持を失っている。
特に、この分類法は認知スキルに階層があり、いわゆる「高次」のスキルが「低次」のスキルの上に構築されるという前提に立っている。これは論理的にも証拠に基づいても成り立たない。例えば、通常は集大成的あるいは高次のプロセスとされる評価が、探究の始まりとなったり、ある文脈では非常に容易に実行できたりする。思考の洗練度を決定するのは、認知よりもむしろ文脈なのである。
この研究でこの分類法を使用することの問題点は、多くの生成AI製品もまた、自身の出力を導くためにこの分類法を使用しているように見えることである。したがって、この研究は、生成AIがその設計方法によって、利用者のクリティカルシンキングについての考え方を形作ることに効果的かどうかを検証していると解釈することもできる。
Bloomの分類法に欠けているのは、クリティカルシンキングの基本的な側面である。すなわち、クリティカルシンカーは、これらの認知スキルやその他多くのスキルを単に実行するだけでなく、それらを上手く実行するということである。彼らがそうできるのは、真実への包括的な関心を持っているからであり、これはAIシステムにはないものである。
AIへの信頼が高いほど、クリティカルシンキングは低下する
今年初めに発表された研究では、「AIツールの頻繁な使用とクリティカルシンキング能力との間に重要な負の相関関係がある」ことが明らかになった。
新しい研究ではこの考えをさらに探求している。医療従事者、教育者、エンジニアなど319人のナレッジワーカーを対象に、生成AIを使用して実行した936のタスクについて調査を行った。興味深いことに、この研究では、利用者は検証や編集段階での監督において、タスクの実行時よりもクリティカルシンキングを使用していると考えていることが分かった。
重要度の高い職場環境では、高品質な仕事を生み出したいという欲求と、叱責への恐れが、利用者がAIの出力を検証する際にクリティカルシンキングを働かせる強力な動機となっている。
しかし全体として、参加者は効率性の向上が、そのような監督に費やす労力を十分に補うと考えている。
研究によると、AIに対する信頼が高い人ほどクリティカルシンキングの使用が少なく、自己への信頼が高い人ほどクリティカルシンキングの使用が多い傾向が見られた。
これは、生成AIは元々クリティカルシンキング能力を持っている人においては、その能力を損なわないことを示唆している。
問題として、この研究は自己申告に過度に依存しており、これはさまざまなバイアスや解釈の問題の影響を受ける可能性がある。これを別にしても、クリティカルシンキングは利用者によって「明確な目標の設定、プロンプトの改良、特定の基準や標準を満たすための生成コンテンツの評価」と定義されている。
ここでの「基準や標準」は、クリティカルシンキングの目的というよりも、タスクの目的により関係している。例えば、出力が「クエリに適合している」場合に基準を満たし、「生成された成果物」が職場で「機能的である」場合に標準を満たすとされる。
これは、この研究が本当にクリティカルシンキングを測定していたのかという疑問を提起する。

クリティカルシンカーになること
新しい研究では、監督段階でクリティカルシンキングを行使することは、少なくとも生成AIへの無反省な過度の依存よりは良いという考えが暗示されている。
著者たちは、生成AI開発者に対して、利用者のクリティカルな監督を促す機能を追加することを推奨している。しかし、これで十分だろうか?
クリティカルシンキングは、AIを使用する前とその最中のあらゆる段階で必要である。質問や検証すべき仮説を形成する際、また、出力にバイアスや不正確さがないか調べる際にも必要である。
生成AIがクリティカルシンキングを損なわないことを確実にする唯一の方法は、それを使用する前にクリティカルシンカーになることである。
クリティカルシンカーになるには、主張の背後にある暗黙の前提を特定し、それに挑戦し、多様な視点を評価する必要がある。また、体系的で方法論的な推論を実践し、他者と協力して推論を行い、自分のアイデアや思考を検証する必要もある。
チョークと黒板は私たちの数学力を向上させた。生成AIは私たちのクリティカルシンキングを向上させることができるだろうか?慎重であれば、生成AIを使って自分に挑戦し、クリティカルシンキングを強化できるかもしれない。
しかし当面は、AIに考えさせるのではなく、私たちが自らのクリティカルシンキングを向上させるために常に取れる、そして取るべき手段が存在する。
コメント