私はソーシャルメディアでは投稿者というよりもスクロールする方である。多くの人と同様に、一日の終わりにはスクロールに没頭し、イタリアのおばあちゃんがパスタを作る動画やコビトカバの赤ちゃんが戯れる映像を見ている。
しばらくの間、私のフィードは完璧にデザインされた小さな家々で溢れ、ミニマリストの楽園への憧れを掻き立てていた。そして、AI生成画像を見るようになった。多くの画像には、どこにも繋がらない階段や、シンクの中にシンクがあるなどの明らかな誤りが含まれていた。しかし、コメント欄ではそれを指摘する人はほとんどなく、代わりにその美的センスを称賛していた。

これらの画像は明らかにAIによって生成されており、現実を描写していなかった。人々は気づいていないのか?気にしていないのか?
認知心理学者として、私は「はい」と「はい」と答えるだろう。私の専門は人々が視覚情報をどのように処理し、利用するかである。私は主に、落としたイヤリングを探すといった日常的な探索から、放射線科医や捜索救助チームが行うようなより重要な探索まで、人々がどのように物や情報を視覚的に探すかを研究している。
人々がどのように画像を処理し、細部に気づく—あるいは気づかない—かについての私の理解では、多くの画像がAIによって生成されていることに人々が気づいていないのは驚くことではない。
私たちはこれまでも同様の状況を経験している
AI生成画像を検出する困難さは、Photoshopで編集された画像や映画のコンピュータ生成画像を見分ける過去の課題と似ている。
しかし、重要な違いがある:写真編集やCGIはアーティストによる意図的なデザインを必要とするが、AI画像はデータセットで訓練されたアルゴリズムによって生成され、しばしば人間の監視なしに作られる。監視の欠如は、不自然な物理法則やフレーム間の一貫性の欠如など、「AIスロップ」と呼ばれることもある不完全さや不整合につながることがある。
これらの違いにもかかわらず、研究によれば、人々は起源に関係なく、実際の画像と合成画像を区別するのに苦労していることが示されている。画像が実際のもの、合成されたもの、またはAIによって生成されたものかを明示的に識別するよう求められた場合でも、精度は偶然のレベルに近く、つまり人々は単に推測した場合よりもわずかに良い結果しか得られなかった。
日常的な交流では、あなたが画像を積極的に精査していない場合、合成コンテンツを検出する能力はさらに弱まるかもしれない。
注意はあなたが見るもの、見逃すものを形作る
AI画像の誤りを発見するには小さな詳細に気づく必要があるが、人間の視覚システムはカジュアルにスクロールしている時にそのように配線されていない。代わりに、オンライン上では、人々は見ているものの要点を理解し、微妙な不整合を見過ごすことがある。
視覚的注意はズームレンズのように機能する:環境や電話画面の概要を把握するために広く走査するが、細部に注目するには集中した努力が必要である。人間の知覚システムは、脅威への素早い変化—素早く動く捕食者など—に敏感で、検出の精度よりも速度を優先して環境を素早く評価するように進化した。
この速度と精度のトレードオフにより、迅速で効率的な処理が可能になり、これは初期の人類が自然環境で生き残るのに役立った。しかし、デバイスをスクロールするなどの現代のタスクとは不一致であり、AI生成画像の小さなミスや異常な詳細が簡単に見過ごされる可能性がある。
人々はまた、積極的に注意を払っていないことや探していないことを見逃す。心理学者はこれを注意盲目性と呼ぶ:一つのタスクに集中することで、他の詳細、明らかなものでさえも見過ごすことになる。有名な「見えないゴリラ」の研究では、ビデオ内のバスケットボールのパス回数を数えるよう求められた参加者は、シーンの真ん中を歩くゴリラの着ぐるみを着た人に気づかなかった。
同様に、あなたの焦点がAI画像の広いコンテンツ、例えば居心地の良い小さな家に当てられている場合、微妙な歪みに気づく可能性は低くなる。ある意味で、AI画像の6本目の指は今日の「見えないゴリラ」である—あなたがそれを探していないため、見過ごしてしまう。
思考における効率性より正確性
私たちの認知的限界は視覚的知覚を超えている。人間の思考は2種類の処理を使用する:精神的なショートカットに基づく速い直感的思考と、努力を必要とするより遅い分析的思考である。スクロール中には、速いシステムが支配的になり、画像を表面通りに受け入れる傾向がある。
この問題に加えて、自分の信念を確認する情報を求めたり、それに反する情報を拒否したりする傾向がある。これは、AI生成画像があなたの期待や世界観と一致するとき、それらが通り過ぎる可能性が高いことを意味する。バスケットボール選手が不可能なショットを決めるAI生成画像がファンの興奮と一致する場合、何かが誇張されていると感じても、それを受け入れるかもしれない。
小さな家の美学に関しては大きな問題ではないが、AI生成画像が世論に影響を与えるために使用される可能性がある場合、これらの問題は懸念される。例えば、研究によれば、人々は画像が付随するテキストに関連していると想定する傾向がある。画像が実際の証拠を提供していない場合でも、それらはテキストの主張を真実として受け入れる可能性を高める。
誤解を招く実際の画像または生成された画像は、虚偽の主張をより信じやすくし、人々に実際の出来事を誤って記憶させることさえある。AI生成画像は、対抗することが難しい方法で意見を形成し、誤情報を広める力を持っている。
機械に打ち勝つ
AIがAIを検出することが上手くなる一方で、人間も同じことができるツールが必要である。方法は以下の通り:
- 直感を信じる。何かがおかしいと感じるなら、おそらくそうである。あなたの脳は様々な条件下でも物体や顔を熟練して認識する。おそらくあなたは心理学者が「不気味の谷」と呼ぶものを経験し、特定の人型の顔に不安を感じたことがあるだろう。この経験は、人々が何が間違っているのかを完全に説明できなくても、異常を検出できることを示している。
- 手がかりを探す。AIは、手、テキスト、反射、照明の不一致、不自然なテクスチャなど、特定の要素をうまく認識できない。画像が怪しいと思ったら、よく見てみよう。
- 批判的に考える。時にAIは不可能なシナリオでも写真のようにリアルな画像を生成する。政治家がカジュアルにバリスタを驚かせたり、セレブがコンクリートを食べたりする姿を見たら、自問してみよう:これは理にかなっているか?そうでなければ、おそらく偽物だ。
- ソースを確認する。投稿者は実在の人物か?リバース画像検索は写真の起源を追跡するのに役立つ。メタデータが欠けている場合、それはAIによって生成された可能性がある。
AI生成画像は見分けるのがますます難しくなっている。スクロール中、脳は視覚情報を批判的ではなく迅速に処理するため、偽物を明らかにする細部を見逃しやすい。技術が進化するにつれて、ゆっくりと進み、よく見て、批判的に考えよう。