
"3分で読める"シリーズの第3弾、AIに関するコラムです。
是非ご覧ください。
≪ 本コラムの記事一覧はこちら
第3回:AIは正しいのか — ハルシネーションの原理と法的リスク
ハルシネーション(幻覚)の構造的不可避性

生成AIを利用する上で避けて通れない問題が ハルシネーション(Hallucination)です。
これは、AIが事実に基づかない情報を、あたかも真実であるかのように自信を持って出力する現象を指します。
なぜAIは嘘をつくのか。
その答えは、AI(特に大規模言語モデル)の動作原理にあります。
AIはデータベースから事実を検索して回答しているのではなく、「文脈的に最も確からしい次の単語」を確率的に予測して繋げているに過ぎません。
- 確率的妥当性と事実的正確性の乖離
AIにとって、「日本の首都は」の後に「東京」が続く確率は高いですが、
マイナーなトピックや複雑な文脈では、事実とは異なる単語が「確率的に高い」と判断されて選択される場合があります。
AIは意味を理解しているわけではなく、単語の共起関係(統計的な結びつき)を計算しているだけであるため、論理的に破綻していなくても事実とは異なる文章が生成されることがあります。 - 内在的ハルシネーション
学習データに存在しない情報を問われた際、無理やりパターンを適用して事実に基づかない情報を捏造する現象を指します。 - 外在的ハルシネーション
外部情報の誤りや、古い学習データ(情報の鮮度不足)に起因する誤り。
例えば、2024年6月までのデータしか学習していないモデルに、それ以降の出来事を尋ねると、過去のデータから推測して虚偽を述べることがあります。
衝撃的な実例:Mata v. Avianca 事件
ハルシネーションの危険性が法廷で明らかになった象徴的な事例として、
2023年にニューヨーク南部地区連邦地方裁判所で審理された「Mata v. Avianca」裁判があります。
この事件では、原告側の弁護士が準備書面の作成にChatGPTを使用しましたが、AIが提示した判例はすべて架空のものでした。
- 事件の経緯
原告の弁護士(またはそのリサーチ担当)は、航空会社に対する訴訟のために類似の判例を探すようChatGPTに指示しました。
ChatGPTは「Varghese v. China Southern Airlines」など、もっともらしい事件名、裁判所名、日付を含む複数の判例を出力しました。 - AIによる再保証の罠
弁護士がChatGPTに対し「この判例は実在するのか?」と確認したところ、
AIは「実在します」「WestlawやLexisNexis(判例データベース)で見つかります」と虚偽の回答を重ねました。
これはAIが「ユーザーが期待する肯定的な回答」を確率的に生成しやすい性質を持っているためです。 - 結末
裁判所や相手方弁護士の調査により判例が存在しないことが発覚。
架空の判例を提出した弁護士とその所属事務所には制裁金が科され、法曹界におけるAI利用のリスク管理に対する重大な教訓となりました。
この事例は、AIの出力を専門家が検証なしに利用することの致命的なリスクを示しています。
「Human in the Loop(人間による確認プロセス)」の介在なしに、AIを業務の最終決定に使用することは、現代において最大のコンプライアンス違反となり得るのです。
お読みいただきありがとうございました。
次回のコラムは2月5日(木)更新予定です。