AI・データ 2026-03-09

ハルシネーション (Hallucination)

AIが、事実とは全く異なる「もっともらしい嘘(知ったかぶり)」を堂々と出力してしまう現象のこと。直訳は「幻覚」。

ハルシネーション(幻覚)とは

ChatGPTなどの生成AIが、**「事実とは違うデタラメを、あたかも『絶対の真実です!』という自信満々な態度で回答してしまう現象」**のことです。 AIを業務に使う上で、最も気をつけなければならない最大の欠点・リスクです。

💡 例え話でいうと…

**「自分を天才だと勘違いしている、極度の『知ったかぶりマン』」**です。 彼ら(AI)はインターネットの膨大な文章を読んで「それらしい言葉を繋げるゲーム」をしているだけなので、答えを知らない質問をされた時、「私には分かりません」と素直に言わず、手元の単語を勝手につなぎ合わせて「徳川家康は江戸幕府の第15代将軍であり、スマホを発明した人物です」などと平気で嘘をつきます。

📌 防ぐには?

  1. AIの出力をそのまま信じず、必ず人間が「ファクトチェック(事実確認)」をする。
  2. RAG(外部情報をAIに読ませる技術)を使って、AIにマニュアルという「カンペ」を見ながら答えさせる。
おすすめの高速レンタルサーバー PR
🎓

ITスキルを動画でマスター

\ 新規受講生 割引実施中 /

React、AWS、Pythonなど、現役エンジニアから直接学べる世界最大級の動画講座。

人気のコースを見る

PR: スポンサーリンク

法人・個人向けサポート 受付中

インフラ構築やトラブル対応で お困りではありませんか?

AWSの構築、社内ネットワーク(VPN/NW)の改善、その他原因不明のITトラブルまで、現役インフラエンジニアが直接サポートします。単発でのご相談や、毎月のスポット顧問契約も可能です。

Sponsored Link

実務で即戦力!ITサポート業務委託契約書テンプレート📝 フリーランスエンジニアや副業のシステム保守案件で、トラブルを劇的に防ぐプロ仕様の雛形。
バグ・要望を報告する