医薬品ビジネスのための「戦略思考」が身につくblog

S.I Lab (戦略向上研究会)では、戦略によって製薬会社で働くMRの仕事を、より楽しくすることを目的にしています。

AIが「もっともらしい嘘」をつくとき──ハルシネーションと、AIを正しく使い分ける力

生成AIがビジネスや研究の現場に入り込むスピードは凄まじく、私たちは「AIが書いた文章」や「AIが作った分析」に日常的に触れるようになりました。その一方で、「ハルシネーション」という現象も同じ速度で問題になっています。

ハルシネーションとは、AIが自信満々に、しかし事実と異なる情報を語る現象のこと。しかもそれが往々にして、非常にもっともらしい形で出てくるため、専門家でも一瞬だまされることがあるほどです。

ただ、この問題を理解するには「AIとは何か?」をより深く知る必要があります。
実は、私たちが“AI”とひとまとめに呼んでいるものは、大きく異なる性質を持つ複数のAIが存在しています。
そして、ハルシネーションは、特にテキスト生成AI(LLM)に固有の問題なのです。


テキスト生成AI(LLM)は「文章を予測するマシン」

ChatGPTなどの生成AIは、膨大な文章データを学習し、

文脈上もっとも適切に見える「次の単語」
を確率的に予測する

という仕組みで動いています。

彼らが最適化しているのは
「正しい答え」ではなく「自然で一貫した文章」です。

そのため、

  • 統計解析
  • 病態の推論
  • 因果関係の判定
  • 経営判断
  • 論文の信頼性チェック

など、「正確さ」を必要とする領域では、平然ともっともらしい嘘を生成することがあります。


一方、エージェント型AIは「タスクを実行するAI」

近年増えてきているのが、
「エージェント型AI」と呼ばれる別タイプのAIです。

これらは、

  • 実際にPythonコードを実行する
  • データベースにアクセスして検索する
  • 外部ツールと連携して分析する
  • 長いタスクを分割し、手順を設計して完遂する

といった**“行動するAI”**に近い性質を持ちます。

つまり、テキスト生成AI(文章生成)とは異なり、
手を動かして結果を取得する仕組みを備えています。


万能なのは「AI」ではなく、人間の“AIの使い分け能力”

ここで重要になってくるのが、

全てのAIが万能ではない
むしろ、AIごとに用途が全く違う

という視点です。

AIを「ひとまとめの万能な機械」と捉えるのではなく、
専門性の異なるツール群として扱うことが必須です。

具体的には次のように整理できます。


用途別:AIの“正しい使い分け”

▼ 1. テキスト生成AI(ChatGPTなど)

適した用途:

  • 論文・レポートの文章化
  • メール文作成
  • アイデア出し
  • 背景・考察の整理
  • 文章の構成改善

適さない用途(=ハルシネーションが起きる領域):

  • 統計解析
  • 因果推論
  • p値やORの生成
  • 実データの分析
  • 臨床判断
  • ビジネスの重要意思決定

▼ 2. エージェント型AI(Code Interpreter、データ分析エージェント等)

適した用途:

  • PythonやRを使った“本物の計算”
  • データの読み込み・加工・分析
  • 因果推論・統計解析(実行ベース)
  • 論文の図・回帰表の作成
  • 長いタスクの自動化

適さない用途:

  • 感情的ニュアンスや文章の“巧さ”が求められるタスク
  • 医療や法律など、判断が倫理・制度に深く依存する場面

まとめ:AIは「道具」であり、万能ではない

  • テキスト生成AIは「作文」に強いが「計算」はしない
  • エージェント型AIは「行動」「計算」には強いが万能ではない
  • 全てのAIを同じものとして扱うのは危険
  • ハルシネーションはAIの限界ではなく“本質的な性質”
  • 最も重要なのは、AIを正しく使い分ける人間側の能力

AIと共に働く時代において問われているのは、「AIをどう賢く使いこなすか」という、人間側の成熟です。

AIはあくまでツールであり、
その価値を最大化するのは“使い手の知性”にほかなりません。

最近の投稿