検索やリンクのクリックに応じて「存在しない記事」をリアルタイム生成するWikipedia風サイト「Halupedia」が登場した。
- 「Write-forward(前方書き込み)」と呼ばれるメタデータ管理機構により、無作為なハルシネーションの中に一貫した架空の「正史(カノン)」を構築しようと試みている。
- 本作は、LLM(大規模言語モデル)の構造的な脆弱性と、プロンプトインジェクションに対する独自の耐性を観察できる特異な技術的サンドボックスである。
ハルシネーションを「バグ」から「仕様」へ反転させる試み
生成AIの社会実装において最大の障壁となっているのが「ハルシネーション(もっともらしい嘘)」である。現在、シリコンバレーの巨大テック企業群はRAG(検索拡張生成)などの技術を用いてLLMを正確な事実へグラウンディング(関連付け)させることに膨大なリソースを投じている。企業向けシステムでは外部データベースから事実を引き出し、AIの推論を現実世界に縛り付けることが至上命題となっている。
しかし、全く逆のアプローチをとるプロジェクトがGitHub上で公開された。それが、記事の100%がAIのハルシネーションによって生成される百科事典「Halupedia(ハルペディア)」である。一見すると標準的なWikipediaのクローンサイトに見えるが、データベース内に事前作成された記事は一つも存在しない。ユーザーが検索窓にキーワードを入力するか、ページ上のリンクをクリックした瞬間に、バックエンドのLLMがプロンプトを受け取り、記事を「その場(オンザフライ)」で生成する。
生成される文体は19世紀の学術出版物を模倣した「ドライで無感情(deadpan)」なトーンに設定されており、架空の脚注や学術誌からの引用文まで精巧に捏造される。たとえば「1887年の偉大なる鳩の国勢調査」という架空の出来事について、その目的や「王立鳥類計数協会」なる架空組織の歴史が、本物の歴史的事実であるかのように詳細に記述される。これはAIが持つ「尤もらしさの生成能力」を極限まで引き出した結果であり、情報空間におけるファクトとフィクションの境界がいかに容易に曖昧になるかを示す実例である。
動的生成システムにおける「設定の矛盾」を回避する技術的アプローチ
Halupediaのアーキテクチャの特異点は、生成される無数の架空記事群の間に「世界観の一貫性(Lore-consistency)」を持たせようとする工夫である。独立して生成される記事が相互に矛盾(ある記事では1927年解散とされた組織が、別の記事では1891年解散とされる等)を引き起こすことは、動的生成システムの構造的な課題である。

この問題を解決するため、開発チームは「Write-forward(前方書き込み)」と呼ばれるメタデータ機能を利用している。LLMが新しい記事を生成する際、本文中に含まれる「まだクリックされていない未作成のリンク」に対して、背後で不可視のメタデータ(重要な日付、人物の生死、組織の存続期間など)を埋め込む。その後、ユーザーがそのリンクをクリックして新たな記事生成のトリガーが引かれたとき、LLMはこのメタデータを「正史(カノン)」として読み込み、事前設定された事実関係を順守しながら新しいテキストを構築する。プロンプトレベルでは「この百科事典は幻覚であり不条理なものであるが、自らと矛盾してはならない」という厳格な制約が与えられている。
コンテキストウィンドウの限界と「自己崩壊」のメカニズム
しかし、このメタデータ継承システムは技術的な限界も提示している。記事が無限に派生し、継承すべき「正史」のデータ量が増大していくと、LLMのコンテキストウィンドウ(一度に処理できるトークン数の上限)を圧迫し始める。現在のLLMは巨大なプロンプトを処理できるようになったものの、長文コンテキストの中で特定の細かい事実関係(特定の人物の生没年やマイナーな条約の年号など)を正確に保持し続ける「長期的推論能力(Long-horizon reasoning)」には依然として課題がある。
実際にHalupedia上では、派生が進むにつれて「王立鳥類計数協会の解散年」が記事間でズレるなどの論理的破綻が発生している。これはメタデータのペイロードが肥大化し、AIが設定の海の中で「アテンション(Attention: どの情報に注目すべきかの重み付け)」を見失った結果である。この現象は、現実の企業システムにおいて長大なドキュメントをLLMに読み込ませた際に発生する「Lost in the middle(文脈の中間情報の喪失)」問題の完全な相似形であり、LLMのメモリ管理の限界を視覚化している。
アンチ・グラウンディングによる「意図せぬ安全性」
インターネット上のオープンな生成AIプロジェクトが直面する不可避のリスクが、悪意あるユーザー(いわゆるエッジロード)による攻撃である。Halupediaに対しても、検索窓を通じてレイシズム(人種差別)や攻撃的なプロンプトを注入し、AIに不適切なコンテンツを生成させようとする試みが相次いでいる。
ここで注目すべきは、Halupediaのバックエンドがこれらの攻撃に対して独自の耐性を示している点である。LLMは入力された攻撃的なプロンプトの持つ社会的・政治的な文脈を根本から無視し、19世紀の学術的トーンを用いた「完全に無関係で無害なナンセンス」へと変換してしまうのである。
この現象は、イーロン・マスク氏主導のAI「Grok」によるWikipedia風機能「Grokipedia」が引き起こした騒動と対比すると非常に示唆に富む。Grokipediaは検閲を排除して現実世界の情報を要約しようとした結果、実際のネオナチ系サイトを情報源として引用してしまうという重大な倫理的欠陥を露呈した。これはシステムが「現実世界にグラウンディングしようとしたが、情報の質を評価できなかった」ために起きた悲劇である。
対照的に、Halupediaは最初から「現実世界からの完全な切断(アンチ・グラウンディング)」を前提としている。システムは攻撃者の意図を道徳的に拒絶するのではなく、設定されたペルソナ(19世紀の架空の学者)と生成ルール(幻覚の出力)に強制的に従わせる。結果として、いかなる悪意も「架空の学術世界の難解なノイズ」へと変換され、事実上の無毒化(Toxicity neutralization)が達成されている。
ハルシネーションの可視化がもたらす情報リテラシーへの警鐘
Halupediaの存在意義は、単なる技術的なジョークを超えたところにある。AI企業がハルシネーションを「稀に起こるエラー」として矮小化し、自社のモデルを「公平で客観的な事実の裁定者」としてパッケージングしようとする現在の風潮に対する、痛烈なアンチテーゼである。
AIは本質的に「確率的に最もあり得そうな文字列を推測する機械」であり、真実を理解しているわけではない。Halupediaは、その技術的本質を隠蔽することなく、むしろ前面に押し出すことで、我々が日常的に利用しているAIツールがいかに容易に「もっともらしい虚偽」を生成し得るかを視覚的に証明している。
検索エンジンやAI探索プラットフォームへの依存度が高まる中、情報を鵜呑みにすることの危険性はかつてなく増大している。Halupediaのような「透明性のあるナンセンス」は、AIが出力するテキストの構造的な不確実性をユーザーに突きつけ、情報検証(ファクトチェック)の重要性を再認識させるための、逆説的なリテラシー教育のツールとなる。