目次
ハルシネーションとは
「ハルシネーション(幻覚)」とは、一言で言うと「AIがつく噓」のことです。
AIは最もらしく答えてくるので、一見すると正しそうに見えてしまうのが恐ろしいところです。
※もう少し厳密に言うと、テキスト生成や言語翻訳といった自然言語処理を行う大規模言語モデル(LLM)というものがあり、その生成系AIが問いかけに対して事実とは異なる回答を生成することを指します。
ハルシネーションの原因は、AIが誤ったデータを学習したり、回答として体裁を無理に整えようとしたりなど様々です。AIは人ではないので常識や社会通念を考慮して、多くの人が感じる違和感を修正するような力はありません。
特にビジネスで利用したり、多くの人に向け情報公開する場合には、ハルシネーションを見破るためにも、必ずファクトチェック(出力された内容の事実確認をする)を行うようにしましょう。
ハルシネーションの例はこちら
原因
- 学習データの誤り
- 学習データの意訳
- 異なる学習データの組み合わせ
- 学習データの不足による推測回答
- 出力文の最適化による差異
対策
- 出力された内容の事実確認をする(ファクトチェック)
- 追加情報を提供して再度AIに回答を求める
- 一つの生成AIに依存するのではなく、複数を並行して活用する
- 検索機能つき生成AIやWebサイトで確認する
ハルシネーションへの対応
ChatGPTに尋ね、アイデアの助言や文章作成の支援として使うことは非常に効果的です。
しかし、大前提として「人が正しくアカデミックな知識や定義を知っていることが重要」です。
ChatGPTを活用して高い効果を得るためには、自分がその分野のプロである事、プロの知識を習得してChatGPTの回答を評価できる力、ハルシネーションを見破れる力が必須なのです。

