「AIが書いた記事をそのまま公開したら、存在しない法律について解説していた」 「架空の論文を根拠として提示された」

これらは笑い話ではなく、実際に起きている事故です。 AIは確率で言葉を繋ぐため、事実ではないことをもっともらしく語る 「ハルシネーション(幻覚)」 を起こします。

AI執筆において、ファクトチェック(事実確認)は人間の最も重要な責任 です。

1. 疑うべきポイント

AIの出力のすべてを疑うのは大変です。特に以下のポイントは重点的にチェックしましょう。

  • 固有名詞: 人名、社名、サービス名、商品名。
  • 数字・データ: 年号、統計データ、価格、パーセンテージ。
  • 出典・引用: 「〇〇という論文によると」「〇〇法によると」。架空の出典を捏造することがよくあります。
  • URL: リンク先が存在しない(404)ことがよくあります。

2. 効率的なチェック方法

検索機能付きAIを使う

ChatGPT (SearchGPT) や Perplexity AI、Gemini など、Web検索機能を持ったAIを使って裏取りをします。 「この情報は正しいですか? ソースURLと共に教えて」と聞くのが有効です。

一次ソースに当たる

AIが提示した出典を鵜呑みにせず、必ず元の論文や公式サイト(一次ソース)を確認します。 「孫引き」は危険です。

Google検索演算子を使う

Google検索で site:ac.jp(大学)や site:go.jp(政府機関)などを付けて検索し、信頼できるドメインの情報と照らし合わせます。

3. そもそもハルシネーションを防ぐには?

「知らないなら知らないと言って」

プロンプトに以下の指示を加えることで、無理やり嘘をつくのを防げます。

確信が持てない情報については、無理に答えず「分かりません」と答えてください。
事実に基づかない創作はしないでください。

参考資料を与える(RAG的アプローチ)

AIに知識を問うのではなく、「以下の資料に基づいて答えて」 と、信頼できるテキストを渡して、それを要約・加工させる使い方が安全です。

まとめ

AIは「知ったかぶりの天才」です。 その流暢な嘘に騙されず、真実を見極める目を持つこと。 それが、AI時代のクリエイターに求められる「信頼」の源泉です。