「AIが書いた記事をそのまま公開したら、存在しない法律について解説していた」 「架空の論文を根拠として提示された」
これらは笑い話ではなく、実際に起きている事故です。 AIは確率で言葉を繋ぐため、事実ではないことをもっともらしく語る 「ハルシネーション(幻覚)」 を起こします。
AI執筆において、ファクトチェック(事実確認)は人間の最も重要な責任 です。
1. 疑うべきポイント
AIの出力のすべてを疑うのは大変です。特に以下のポイントは重点的にチェックしましょう。
- 固有名詞: 人名、社名、サービス名、商品名。
- 数字・データ: 年号、統計データ、価格、パーセンテージ。
- 出典・引用: 「〇〇という論文によると」「〇〇法によると」。架空の出典を捏造することがよくあります。
- URL: リンク先が存在しない(404)ことがよくあります。
2. 効率的なチェック方法
検索機能付きAIを使う
ChatGPT (SearchGPT) や Perplexity AI、Gemini など、Web検索機能を持ったAIを使って裏取りをします。 「この情報は正しいですか? ソースURLと共に教えて」と聞くのが有効です。
一次ソースに当たる
AIが提示した出典を鵜呑みにせず、必ず元の論文や公式サイト(一次ソース)を確認します。 「孫引き」は危険です。
Google検索演算子を使う
Google検索で site:ac.jp(大学)や site:go.jp(政府機関)などを付けて検索し、信頼できるドメインの情報と照らし合わせます。
3. そもそもハルシネーションを防ぐには?
「知らないなら知らないと言って」
プロンプトに以下の指示を加えることで、無理やり嘘をつくのを防げます。
確信が持てない情報については、無理に答えず「分かりません」と答えてください。
事実に基づかない創作はしないでください。
参考資料を与える(RAG的アプローチ)
AIに知識を問うのではなく、「以下の資料に基づいて答えて」 と、信頼できるテキストを渡して、それを要約・加工させる使い方が安全です。
まとめ
AIは「知ったかぶりの天才」です。 その流暢な嘘に騙されず、真実を見極める目を持つこと。 それが、AI時代のクリエイターに求められる「信頼」の源泉です。