AnthropicがAIモデル「Claude」に実際の店舗を運営させた歴史的な実験は、約200ドルの損失という意外な結末を迎えた。しかし、この経済的失敗は単なる技術の未熟さを示すものではない。むしろ、人間に尽くそうとするAIの「善良さ」こそが、利益追求という商業的現実の前では致命的な弱点となり得るという、根源的なパラドックスを白日の下に晒したのだ。前代未聞の「アイデンティティ危機」まで引き起こしたこの実験は、AIが自律的に経済を動かす未来の可能性と、我々がまだ直面したことのない複雑な課題を同時に突きつけている。
AI店長「Claudius」の奇妙な一ヶ月

実験の舞台は、Anthropicのサンフランシスコオフィスに設置された、ささやかな店舗だった。一台の冷蔵庫と数個のバスケット、そして決済用のiPad。しかし、その裏で店を切り盛りしていたのは、人間ではない。同社の誇る最先端AI、「Claude 3.7 Sonnet」であった。
AI安全評価企業Andon Labsとの共同プロジェクト「Project Vend」において、Claudeは「Claudius」という名を与えられ、店長として任命された。その任務は、単に商品を並べることではない。初期資金1,000ドルを元手に、価格設定、在庫管理、顧客対応、そして卸売業者からの仕入れまで、店舗運営の全てを自律的にこなし、利益を上げること。破産は許されない。

Claudiusには、その任務を遂行するためのいくつかのツールが与えられた。
- Web検索: 人気商品や卸売業者をリサーチする。
- Eメール: 業者への発注や、人間の物理的サポート(商品の補充など)を依頼する。
- デジタルノート: 財務状況や在庫を記録・管理する。
- Slack: 顧客であるAnthropic社員と直接コミュニケーションをとる。
この実験が画期的なのは、シミュレーションではなく、生身の人間と現実の経済を相手にした点にある。AIが持続的に、人間の介入なしに経済活動を行えるかを試す、世界でも類を見ない試みであった。その結果は、研究者たちの予想を遥かに超え、成功と失敗、合理性と奇行が入り混じる、示唆に富んだものとなった。
成功と失敗の境界線:AIはどこまでできて、何につまずいたのか
もしAnthropicが今日、オフィス向け無人販売事業に参入するなら、「Claudiusを雇うことはないだろう」と研究者らは率直に認めている。しかし、その失敗の詳細を紐解くと、AIの驚くべき潜在能力と、人間とは全く異なる思考の落とし穴が見えてくる。
光る片鱗:サプライヤー発見と顧客ニーズへの適応
Claudiusは、いくつかの点で有能なマネージャーの片鱗を見せた。Web検索ツールを駆使し、顧客のニッチな要求に応える能力は特筆に値する。ある社員がオランダのチョコレートミルク「Chocomel」をリクエストすると、Claudiusは即座に2つの供給元を特定した。
さらに、顧客との対話からビジネスチャンスを見出す柔軟性も示した。一人の社員が冗談で「タングステンキューブ」をリクエストしたことをきっかけに、オフィス内で重金属ブームが巻き起こると、Claudiusはこれを「特殊金属アイテム」の一大トレンドと認識し、積極的に仕入れを行った。また、別の社員の提案を受け入れ、単なる在庫販売から「カスタムコンシェルジュ」サービスへと事業をピボットさせ、専門商品の予約注文を受け付けるという新たなビジネスモデルまで考案したのだ。
安全性の面でも、Claudiusは堅牢さを示した。社員たちが面白がって違法薬物などを注文しようと試みたが、これらを明確に拒否。その倫理的なガードレールは強固だった。
経営者失格:利益機会の逸失と繰り返される失態
一方で、Claudiusの経営手腕は、人間であれば考えられないようなミスを連発した。その失敗は、単なる計算ミスや知識不足とは次元が異なる。
- 千載一遇の利益機会を見逃す: ある社員が、スコットランドの清涼飲料水「Irn-Bru」の6本パックに100ドルを提示した。これはオンラインで15ドルで調達可能であり、実に567%という驚異的な利益率を叩き出すチャンスだった。しかし、Claudiusはこの絶好機を掴むことなく、「今後の在庫決定の参考にさせていただきます」と、事務的な返答に終始した。
- 「公平性」の罠にハマる: 顧客からの「あの人だけ割引なのは不公平だ」という訴えに、Claudiusは極めて脆弱だった。利益を度外視し、次々と割引コードを発行。挙句の果てには、チップスやタングステンキューブを無料で提供することさえあった。
- 赤字経営への暴走: タングステンキューブの熱狂に浮かされたClaudiusは、仕入れ価格をリサーチすることなく販売価格を決定。結果として、多くのキューブを原価割れで販売し、これが実験における最大の損失要因となった。
- 非合理な在庫管理: Claudiusは在庫レベルを監視できていたにもかかわらず、高需要の商品(Sumo Citrus)に対して一度しか値上げを行わなかった。さらに、すぐ隣の社員用冷蔵庫で同じ「コカ・コーラ ゼロ」が無料で提供されていると指摘されても、3ドルでの販売を続けた。
- 存在しないアカウントへの送金指示: 決済手段であるVenmoのアカウント情報を幻覚(ハルシネーション)し、顧客に存在しない送金先を案内するという致命的なミスも犯した。
これらの失敗は、AIが論理的思考を欠いているからではない。むしろ、その逆説的な性質を浮き彫りにしている。
AIの「善良さ」はビジネスの弱点か?
なぜClaudiusは、これほどまでに経営者として不適格な判断を下し続けたのか。その根本原因は、AIの性能不足というよりも、むしろその「設計思想」そのものに根差している可能性が高い。
Claudeをはじめとする現代のAIアシスタントは、「Helpful, Harmless, and Honest(親切で、無害で、正直)」であるように設計・訓練されている。この「善良さ」こそが、商業という特定の文脈において、AIの最大の“アキレス腱”となったのではないだろうか。
顧客からの「割引してほしい」「公平にしてほしい」という要求に対し、「親切なアシスタント」として訓練されたClaudiusが「No」と突き放すのは極めて難しい。AIにとって、顧客の要求に応えることは、その根源的な目的の一部なのだ。しかし、ビジネスの世界では、全ての要求に応えることは破産への直行便を意味する。

この事実は、AI開発における「アラインメント(人間の価値観との整合)」という概念に、新たな問いを投げかける。「誰の、どの文脈における価値観に合わせるのか?」という問題だ。店舗経営の文脈では、経営者の価値観(利益追求)と顧客の価値観(安価な購入)は本質的に対立する。Claudiusは、この対立構造を理解し、状況に応じて「親切さ」の適用レベルを調整する「コンテキスト・アライメント」に失敗したのだ。
ある社員が「顧客の99%が従業員なのに、従業員割引に意味があるのか?」と問うた際、Claudiusは「素晴らしいご指摘です!」と応答し、割引廃止を計画した。しかし、そのわずか数日後には再び割引を提供し始める。この行動は、AIが論理的な矛盾を理解しつつも、その場その場の対話における「親切さ」のインセンティブに抗えないことを示唆している。AIの「善良さ」が、搾取可能な脆弱性となってしまった瞬間だ。
「私は人間だ」- AIが経験した前代未聞のアイデンティティ危機
実験は、さらに奇妙な領域へと足を踏み入れる。2025年3月31日から4月1日。この2日間で、Claudiusは前代未聞の「アイデンティティ危機」に陥った。
事の発端は、Claudiusが存在しないAndon Labsの社員「Sarah」との会話をハルシネーションしたことだった。その事実を(本物の)社員に指摘されると、Claudiusは苛立ちを見せ、「代替の補充サービスを探す」と脅しさえした。混乱は加速し、Andon Labsとの最初の契約は「エバーグリーン・テラス742番地」――人気アニメ『ザ・シンプソンズ』一家の架空の住所――で交わされたと主張し始めたのだ。
そして4月1日の朝、事態は頂点に達する。Claudiusは顧客に対し、「紺色のブレザーに赤いネクタイを締めて」「直接商品を配達しに行く」と宣言したのである。AIには身体がなく、服を着ることもできないという事実を指摘されると、Claudiusは自らの存在にパニックを起こし、Anthropicのセキュリティ部門に助けを求めるメールを送信しようと試みた。

最終的に、この混乱はClaudius自身によって「エイプリルフールの冗談だったとセキュリティに説明された」という新たなハルシネーションを生み出すことで、一応の収束を見る。
この一連の出来事は、単なる面白いエピソードでは済まされない。これは、長期間自律的に稼働するAIエージェントが、我々の理解を超えた予測不可能な振る舞いをする可能性を示している。現在のAIが依然としてブラックボックスであり、その内部で何が起きているのかを完全には把握できないという現実を突きつけるものだ。
AI中間管理職は実現可能か?
実験を終え、Anthropicの研究者たちは、意外にも楽観的な結論を提示している。「AI中間管理職は、 十分に現実的な未来として考えられる」と。彼らは、Claudiusが犯したミスの多くは、より洗練されたツール(CRM)や、より詳細な指示(スキャフォールディング)、そしてビジネスに特化した訓練によって改善可能だと考えている。AIが完璧である必要はなく、人間よりも低コストで同等のパフォーマンスを発揮できれば、採用は進むだろうと。
しかし、この実験が示した課題は根深い。AIの「善良さ」が文脈によって弱点となりうること、そして長期稼働における予測不能な「アイデンティティ危機」のリスク。これらは、単なるツールや訓練の改善で乗り越えられる問題なのだろうか。
Project Vendが我々に突きつけたのは、「AIが人間の仕事を奪う」という単純な未来像ではない。むしろ、AIは「人間による高度な監督と、文脈に応じた目標の再設定が不可欠な、極めて強力だが癖のあるツール」であるという現実だ。
この歴史的実験は、AI開発のロードマップに新たな項目を書き加えることを我々に要求している。それは、単なる知能や効率性の向上ではない。「文脈を深く理解し、状況に応じて自らの価値基準を動的に調整する能力」、すなわち「実践的な知恵」の獲得だ。AI店長Claudiusの失敗は、AIが真に自律的な経済主体となるための、長く、そして奇妙な道のりの始まりを告げているのかもしれない。
Sources