地震の発生「10年以内○%」と聞くと、当たるも八卦当たらぬも八卦のような気分になります。

その日の天気予報ですら予測が外れるのに、まして地下で起きる破壊現象を「いつ起きるか」まで当てるのは、現代科学ではまだまだ難しいのではないでしょうか。

それでも情報は、地震について「10年以内○%」のような確率論です。知りたいのは今日は傘を持っていけと言ってるの?です。問題は、結果的にその数字が当たる/外れるではありません。意思決定のプロセスになっているかです。

その数字が、何に依存していて、どこまでが観測で、どこからが仮定なのか。
ここが見えないまま確率が“答え”として独り歩きすることが、本質的な違和感の元です。

地震確率は「予測値」ではありません。
仮定・観測不足・モデル選択が圧縮された“合成物”です。
必要なのは予言ではなく、監査(audit)です。


既存の確率提示が抱える「科学的な穴」

地震の長期評価には、だいたい次の仮定が混ざっています。

  • 定常性:発生率は一定とみなします(ポアソン的)
  • 周期性:再来間隔があるとみなします(更新過程/BPT的)
  • 独立性:他断層イベントの影響を薄く扱います
  • 可観測性の幻想:地下応力のような主要因は観測できないため、代理指標で代替します

ここで最も危ないのは、これらが議論されるのではなく、確率1点に折り畳まれることです。1点になった瞬間に前提が消え、前提が消えた確率は社会の中で“権威の数字”になりやすいです。


DSA+DAGがやることは「地震を当てる」ではありません

DSA+DAGでは、次のように定義されます。

  • DSA:確率を点で出さず、確率そのものの分布を生成します(確率を確率変数として扱います)
  • DAG:地震を因果で当てるのではなく、推定が歪む経路(不可観測→代理観測→モデル仮定→出力)を固定します

つまりDSA+DAGは、予測器ではなく、「確率生成プロセスの検査装置」です。


確率が“作られる”経路(推定が歪む経路のDAG)

以下は「地震を因果で当てるDAG」ではなく、確率推定がどこで歪むかを固定するDAGです。

この図のポイントは、R(T)が「自然から直接出てくる」わけではなく、
不可観測→代理観測→推定→モデル選択を経由して生成される、という構造を固定することです。


尖ったミニ・シミュレーション:確率監査(Probability Audit)

「30年以内70%」のような数字が出たとき、DSA+DAGではこう扱います。

Step 1:確率を作っている“部品”を分解します

  • K:モデル選択(ポアソンか/更新過程BPTか)
  • μ:平均再来間隔(推定誤差を含みます)
  • α:周期の乱れ(周期性の強さの不確実性です)
  • t0:最新イベント時期(推定幅があります)
  • I:断層相互作用(周辺イベントの影響の強さです)

これらを 点ではなく分布として置きます。

Step 2:モデルを“混合”として扱います(ここが尖りです)

「どちらのモデルが正しいか」ではなく、モデル選択そのものを不確実性として扱います。

  • K = Poisson(確率 1−w)
  • K = BPT(確率 w)
  • さらに w自体も固定せず分布として扱います(専門家の分布、合議の幅、など)

Step 3:10万回回して「確率の分布」を出します

各回で(K, μ, α, t0, I)をサンプルして P(10年), P(30年) を計算します。
すると出力は、単一の70%ではなく「確率分布」になります。

出力イメージ:P(30年)が二峰性+ロングテールになる例(概念図)

ここまで来ると、単一の「70%」は科学的にはこう見えます。

70%は結論ではありません。相反する仮説群を平均して丸めた“見かけの安定”である可能性があります。


不確実性の会計(Uncertainty Accounting)

監査の核心はここです。P(30年)の「揺れ」を、どの要因が支配したかを分解します。

この分解ができることで議論が変わります。

  • K支配なら:追加の地質調査を増やしても確率は収束しにくい(モデル不確実性が残ります)
  • μ/t0支配なら:追加観測・追加調査が「確率の品質」を上げ得ます
  • 尾部(最悪側)を支配する要因が分かれば:防災は平均ではなく 尾を削る方向に設計できます

予測から「説明可能な意思決定」へ

地震に限らず、医療、政策、インフラ、金融など「当てにくいが決めねばならない領域」は、同じ構造を持っています。

点の確率は、説明責任を弱めます。分布と寄与分解は、説明責任を強めます。

DSA+DAGが提供するのは予言ではなく、“確率の説明責任”を実装する形式です。
私はこれを「予測」ではなく、Accountable Risk(説明可能なリスク)の設計だと捉えています。

議論のテーマは地震の当て方ではありません。
確率が社会で誤用される構造と、それを監査可能に戻す方法です。
(地震を例にしましたが、RWD→RWEでも同じです。)

RWD(リアルワールドデータ)の活用は、ここ数年で急速に進みました。
データは集まり、統計手法も揃い、研究デザインの教科書も整っています。にもかかわらず、RWDからRWE(意思決定に耐えるエビデンス)へ到達できない案件が、現場には山ほどあります。

原因は単純です。
既存概念の再構築は、あくまで既存の枠内での最適化だからです。

「RQから逆算して変数を揃える」
「交絡を調整する」
「PSMや回帰で差を見る」
「論文の型に落とし込む」

これらは正しい。だからこそ、誰も否定できません。
しかし、正しいのに詰む。ここに“壁”がある。


壁①:平均値の世界から抜け出せない(異質性が消える)

既存の枠組みは、最終的に“平均の結論”へ収束しやすい。
有効性は平均で語られ、安全性は平均で比較されます。

しかしリアルワールドは、そもそも均質ではありません。
同じ薬で「効く人」と「効かない人」が混ざっている。
副作用が出る人と出ない人が混ざっている。
病院、医師、地域、併存疾患、生活背景…条件が違いすぎる。

平均は便利です。
でも平均は、意思決定に必要な情報を消します。

現場が知りたいのはこうです。

  • どんな条件の人に効くのか
  • どんな条件の人に効かないのか
  • 効かない側を効く側に移すには、何が必要か

ここは、既存概念の“改善”では届かない。
枠組みそのものを変える必要があります。


壁②:「説明責任」が最後まで残る(相関の疑いが消えない)

既存の手法は、統計的に整っていても、最後にこう言われます。

「それって、交絡を取り切れてますか?」
「その結果、因果だと言えますか?」

そして議論は、統計の作法の話にすり替わっていく。
分析の巧拙ではなく、解釈の信頼性の問題です。

つまり、RWD→RWEの本当の難所は“計算”ではなく、
因果を説明できる形で合意を取れるかにあります。

既存概念の再構築は、説明を上手くすることはできても、
「説明の形式」を標準化することが難しい。


壁③:属人性から抜け出せない(再現性が担保できない)

同じデータ、同じRQなのに、解析者が変わると結論がブレる。
現場では珍しくありません。

なぜか。
既存の枠組みは「手順」ではなく「作法」だからです。
最後は経験のある人の判断に依存します。

だから、組織としてはこうなります。

  • できる人に仕事が集中する
  • できない人は“レビュー待ち”になる
  • スピードが出ない
  • 品質が統一されない
  • 結果として、意思決定が遅れる

再構築で改善はできても、属人性そのものは残る。
ここも“超えられない壁”です。


既存概念の再構築ができるのは「料理の改善」まで

既存概念の再構築は、たとえるなら「料理の腕を上げる」ことです。
同じ食材、同じ厨房、同じ道具で、より美味しくする。

しかしRWD→RWEで必要なのは、そこではありません。

  • そもそも献立が間違っていないか
  • 誰が作っても同じ味になる厨房設計になっているか
  • “この人に何が効くか”まで出せる栄養設計になっているか

必要なのは、料理の上手さではなく、
献立と厨房そのものの設計思想です。


「超えられない壁」を越えるのは、新しい概念だけ

ここで初めて、DSA+DAGのような新しい概念の意味が出てきます。

  • 平均に回収される前に、分布構造として現実を捉える(DSA)
  • 因果の仮説を図として固定し、説明責任を標準化する(DAG)
  • 解析を“個人技”から“ワークフロー”へ落とし、再現性を担保する

これは、既存概念の延長線ではありません。
既存概念が扱いきれなかった「異質性」「説明責任」「再現性」を、最初から設計に組み込む発想です。


結論:改善では越えられない領域がある

既存概念の再構築は、必要です。
ただし、それは改善に強い一方で、突破には弱い。

そして、RWD→RWEが止まっている理由は、まさにその「突破」が必要な局面に来ているからです。

データが集まった今、競争の焦点はこう変わりました。

何があるか”ではなく、
“それで意思決定できるか”。

改善で届く範囲は、もう終わりつつあります。
次に必要なのは、概念そのものの更新です。

1. 背景と課題(現状認識)

フォーミュラリは医療費削減を目的としますが、実務では「安価な薬剤を選ぶ」だけでは成立しません。汎用性、必要性、エビデンス、安全性、供給安定性、運用容易性など選定基準が多く複雑であり、さらに採用・非採用・制限の判断には説明責任(妥当性の根拠提示)が求められます。
一方、平均値ベースの評価や単純なコスト比較では、患者集団の多様性(反応の二峰性、ロングテールの有害事象、特定集団での不利益)を取りこぼし、結果として増悪・再入院・運用破綻により総医療費が逆に増える
リスクがあります。

2. 提案概要

本提案は、フォーミュラリの意思決定を「多基準のまま」扱いつつ、議論の混乱点である基準間の因果関係と、現場で破綻を起こす分布の端(例外・少数集団)を可視化し、合意形成と説明責任を支える枠組みを導入するものです。

  • DAG(因果グラフ)
    多基準(費用・有効性・安全性・運用性等)が最終成果(総医療費・アウトカム)にどう影響するかを因果経路として整理し、交絡・バイアスを明示します。
  • DSA(分布構造分析)
    患者反応や有害事象が「平均」ではなく、どのような分布構造(二峰性・ロングテール・層別の偏り)を持つかを把握し、「多数派に最適だが少数派で破綻する」設計を回避します。

3. アウトプット

  1. 三層フォーミュラリ設計
  • A:標準推奨(多数派で妥当、供給・運用も安定)
  • B:条件付き推奨(腎機能、併用薬、重症度等で層別ルール化)
  • C:例外(裁量を残し、理由をテンプレ記録して次回改定に反映)
  1. 説明責任パッケージ
  • 目的(薬剤費だけでなく総医療費・アウトカム・安全性)
  • DAGによる「因果の筋道」
  • DSAによる「誰に利益/不利益が出るか」
  • 採用ルールと例外運用、見直し指標(KPI)

4. 進め方(最小構成で短期に成果を出す)

  • 対象は、費用影響・使用量・代替選択肢が大きい薬効群から開始(例:糖尿病、PPI、脂質、抗菌薬、喘息/COPD 等)
  • 最小データ:処方・患者背景(主要項目)・主要イベント(入院等)・コスト近似
  • まずは1薬効群×施設運用でプロトタイプを作成し、委員会合意→運用→改定サイクルを確立します。

5. 期待効果(医療費削減を“総医療費”で達成)

  • 平均値の罠を回避し、少数の悪化・再入院・有害事象集中によるコスト増を抑制
  • 多基準の複雑性をDAGで統一し、委員会の合意形成を迅速化
  • 層別ルール化により、現場が回る「守れるフォーミュラリ」を実現
  • 説明責任(根拠提示)を標準化し、対外・院内説明の負担を低減

6. 次アクション

  • 対象薬効群を1つ選定し、DSA+DAGによる試作(PoC)を実施
  • 成果物:三層フォーミュラリ案、層別ルール、説明資料(A4 1枚)
  • PoC完了後、適用範囲を薬効群へ段階拡張

DSA+DAG は“複雑な選定基準を、因果の筋と分布構造で一貫したルールにして、説明責任まで自動生成”します。

これまで、とりあえずなんでもかんでもデータを取っておけば、あとで分析すれば「なにか予期せぬ面白い発見があるかも」と思っても、現実には、あとから解析してみても「期待は不発」で終わる。これ、けっこうよく聞く話です。

この「期待は不発」でおわる問題は、データ不足というより、後から解析する側が置いている前提に起因しています。典型的には次の3つです。

1) 解析は「平均の世界」に引っ張られる

多くの解析は、まず平均(差)や線形関係を見にいきます。
平均は全体を一言で言える反面、現実に多い「混ざりもの」を消します。

  • 効く人と効かない人が混在している(二峰性)
  • 少数の強い反応者が全体を支配している(ロングテール)
  • ある条件を境に挙動が変わる(閾値)

こういう構造は、平均を取った瞬間に無効化します。つまり、面白いはずの“差”が、解析の入口で既に平坦化される。これが「何も出ない」の第一原因です。

2) 「問い」がないまま解析すると、出てくるのは“説明しやすいもの”だけ

とりあえず集めたデータは、裏を返すと「何を見るか」が固定されていません。
この状態で後から解析すると、人はどうしても

  • 手元にある変数で説明できる
  • 絵にしやすい
  • 既存の枠に当てはめやすい

方向へ寄ります。結果として、出てくるのは「想定内」「教科書的」「既視感のある結論」になりがちです。
発見がないのではなく、発見の入口が“都合の良い説明”に偏るということです。

3) 現実データは「原因と結果」が最初から混ざっている(交絡・選択・介入の歪み)

特にRWDでは、データは自然発生的に集まるので、純粋な比較になりません。

  • そもそも治療や介入が“選ばれている”(重症度や医師判断など)
  • 測定の頻度自体が状態に依存する
  • 欠測がランダムではない
  • フォローアップが均一ではない

この状態で単純に相関を見ると、「関係がある/ない」が揺れます。
そして解析者は、揺れを収束させるために

  • 調整変数を足す
  • 欠測を補完する
  • 分布を整える

方向へ進みますが、ここで“本来の構造”がさらに見えにくくなることがあります。
つまり、RWDの世界では、解析の難しさがデータの中に埋め込まれている。これが「後からやっても成果が出ない」第二原因です。

とりあえず集めたデータが、あとから“問いを生む”状態を作る
そして、その問いが“検証できる形”で残るようにする

ということです。

「集めたのに何も出ない」という経験の無力感は、
時間やコストが無駄になること以上に、次に何をすればいいかが残らないことです。
「DSA+DAG」は、この“次が残らない”を変えにいきます。

たとえば、プロダクトで新機能を追加したとします。
「継続率が上がるはず」「CVが上がるはず」と期待して、ログも一通り取った。
ところが1か月後に分析すると、結果はこうです。

  • 全体のCV:ほぼ変わらない
  • 継続率:微増だけど誤差っぽい
  • 平均滞在時間:むしろ少し下がった

で、会議の結論がだいたいこれになります。
「効果は限定的でした」「次の施策を考えましょう」

ここで“あるある”なのは、平均で見る限り、何も起きていないように見えることです。
でも現場の感覚としては、「刺さった人は明らかに喜んでいる」という手応えがある。なのに数字に出ない。

このとき起きているのは、だいたい次のどれかです。

  • 効いた層と効かなかった層が混ざって平均で相殺されている
  • 少数のヘビーユーザーだけが強く反応して、全体平均には出ない(ロングテール)
  • そもそも機能を“使った人”が偏っている(選択バイアス)
  • 「使った→良くなった」ではなく「元から熱量が高い人が使った」だけ(逆因果っぽい)

つまり、“何も出ない”のではなく、
何かが起きているのに、平均のレンズだとそれが見えない

同様に、RWDからRWE構築のメッセージを雑に要約すると、

  • RWDをとにかく集めろ(蓄積を進めろ)
  • RWEにしろ(意思決定に使える形にしろ)
  • しかも因果で説明できるようにしろ
  • その方法は各自で考えろ(考えろと言う)

となっていて、「とりあえずデータだけ取っておけば、あとで分析して面白い発見があるかも」と趣がほぼ同型です。

違いがあるとすれば、国の要求はさらに一段きつくて、
「何か見つけろ」ではなく 「因果で説明しろ」まで要求している点です。
つまり、単なる“発見”ではなく、意思決定に耐える説明責任を求めていることです。

だから現場では、

  • データは溜まる
  • でも「切り取り前提」の解析では因果が立ちにくい
  • 結果、「RWDはあるがRWEにならない」が起きる

という“あるあるループ”が、構造的に再生産されやすくなるのです。

では、どうするか?

RWDを集めるだけではRWEにならない。
RWEにするには、RWDを切り取る前に“あるがまま”の構造を捉え、因果として説明できる形に落とす道具立てが必要。

その解決策として、DSA+DAGを置くと、単なる解析手法ではなく、要求に応えることが出来る「現実的な解法」となります。

  • DSAは、まず「全体平均」ではなく、分布が割れていないかを見る
    (一部が大きく改善して、別の一部が悪化していないか、少数の尖りがないか)
  • そしてDAGで、「誰がその機能を使う(選ぶ)のか」という偏りを含めて、
    効いた”のか“選ばれただけ”なのかを切り分ける問いにする

これができると、結論が「効果なし」で終わりません。
「効く人の条件はこれ」「効かない人はここが詰まっている」
「次の打ち手はプロダクト改善か、導線か、対象の切り替えか」
と、“次の一手が残る”形になります。

これまでのRWD活用は、どこかで「必要なデータだけ切り取って、仮説を検証する」前提になりがちでした。もちろん合理的です。ただ、そのやり方だと、RWDの一番大事な特徴、“現実の混ざり方、偏り方、ばらつき方”というリアルが、解析の入口でそぎ落とされてしまいます。結果として、あとから解析しても「平均的にはこうです」という話に寄り、現場が本当に知りたい「誰に、なぜ、どう効くのか」が残らない。これが“RWDがRWEになりきらない”典型パターンです。

DSA+DAGが狙うのは、その逆です。RWDを「切り取る」より先に、まずあるがままの分布構造として見る。割れ(効く群/効かない群)、ロングテール(少数が全体を動かす)、閾値(境目で挙動が変わる)、欠測や選択の偏りなど、こうした現実のクセを、ノイズとして消さずに情報として保持します。すると、RWDの中に埋まっていた「分岐」や「偏り」が表に出てきて、データの側から「問い」が立ち上がるようになります。

ただし、分布のクセが見えただけではRWEにはなりません。そこでDAGです。DAGは、その分岐や偏りを「因果の問い」に翻訳します。治療が選ばれた理由(選択バイアス)、重症度や背景因子の混入(交絡)、測定頻度や欠測が結果に与える影響など、それらを構造として整理し、「どこを調整し、何を介入とみなし、何をアウトカムと定義すべきか」を明確にします。ここまで落とすことで、RWDは“ただの相関の集まり”から、検証可能で意思決定に使える因果の証拠へと変わります。

最近、AIを使っていてこんな感覚を持ったことはないでしょうか。
「とりあえずAIに任せれば、いい感じのアウトプットが出てくるだろう」。

実際、出てきます。
それっぽい文章、それっぽい分析、それっぽい結論。
でも、読み終えたあとに残るのは、
「間違ってはいない。でも、なんか違う」という感覚です。

そして次に来るのが、
「やっぱりAIってこの程度か」
という、失望です。


でも、それは本当にAIの問題でしょうか

ここで一度立ち止まって考えてみると、
この構図はとても見覚えがあります。

「とりあえずデータを集めておけば、あとで分析すれば何か分かるはず」
→ 実際に分析すると、平均的で想定内の結論しか出てこない
→ 「データ分析って、結局こんなものか」

AIに対する期待と失望は、これとよく似ています。

AIは確かに賢い。
でも「何を残して、何を削ってはいけないか」を与えられないまま任せると、
AIは最も無難で、最も説明しやすく、最も平均的な形にまとめにいきます。

それはAIの欠点ではなく、性質です。


AIは「考える存在」ではなく「整える存在」

AIはゼロから意味を生み出す存在ではありません。
与えられた情報を整理し、要約し、一般化し、
“それっぽく”整えるのが得意です。

裏を返すと、

  • 文脈
  • こだわり
  • あえて残したい違和感
  • 削ると価値が落ちる部分

こうした「構造」を先に与えないと、
AIは容赦なくそこを均してしまいます。

結果として出てくるのが、
正しいけれど、魂のないアウトプットです。


AIがダメなのではない。「とりあえず任せる」がダメ

重要なのはここです。

AIが期待外れに見えるとき、
多くの場合、問題はAIそのものではありません。
「とりあえず任せる」という使い方です。

  • とりあえず書かせる
  • とりあえず要約させる
  • とりあえず考えさせる

この「とりあえず」は、
AIにとっては「平均化してよい」という合図になります。

その結果、
一番価値のあるクセや違和感が消え、
「それっぽい何か」だけが残る。


AIは、構造を与えたときに初めて本領を発揮する

では、AIはどう使うべきか。

答えはシンプルです。
先に構造を与えること

  • 何を残したいのか
  • どこは削ってはいけないのか
  • どこは説明しすぎなくていいのか
  • 何を“結論にしない”のか

これを人が決めた上でAIに渡すと、
AIは驚くほど強力な補助エンジンになります。

AIは「思考の代替」ではありません。
思考を保ったまま、展開・整理・表現を加速する道具です。


期待外れだったのは、AIではなく「期待の置き方」

「AIに任せれば何とかなる」
この期待は、
「データを集めれば何か出る」という期待と同じ構造をしています。

どちらも、
構造を与えないまま、結果だけを期待している。

でも本当は、
構造を決めるのは人で、
AIはそれを広げる役割に向いている。

そう考えると、
AIは期待外れどころか、
かなり正直で、かなり素直な道具だと言えます。

DSA(分布構造分析)の出発点は、意外にも統計学ではなく、私が以前から研究していたランチェスターの法則にあります。ランチェスターの法則が示したのは、大まかに言えばこういう世界観です。

競争において、戦略(戦力差)の効き方は線形ではない。「2乗」で効いてくる。

つまり、少しの差が、ある局面を超えると一気に拡大する。努力や資源の差が、足し算ではなく掛け算で効く。勝者がさらに有利になり、差が差を呼ぶ。競争が「一強多弱」へ傾いていくのは、構造として当然の帰結です。

当時の私は、「森羅万象、すべての事象は正規分布に則る」と当たり前のことのように思っていました。

平均の周りに大多数が集まり、極端な値は少ない。統計教育や実務の多くがこの前提を採用している以上、それは自然な思い込みです。実際、私たちは何かを説明するとき、まず平均を見ます。平均との差を見ます。相関を見ます。そこに“全体像”があると疑いません。

しかし、競争市場を眺めていると、この前提がじわじわ崩れていきました。市場シェア、売上、影響力、成果。多くの現象が、平均の周りに集まっていない。むしろ、少数が極端に大きく、裾が異様に長い。「中心」が世界を代表していない。

AMAZONのように、ショートヘッド&ロングテールの世界感は加速しています。

すなわち競争市場の多くは、正規分布ではない。べき分布(パワーロー)に近い。

この気づきが、私にとって転換点を与えました。なぜなら、分布が違えば、意思決定の作法が根本から変わるからです。

正規分布の世界では、平均は強い。平均は「代表値」たり得ます。ところが、べき分布の世界では、平均は簡単に壊れます。少数の極端値が平均を引っ張り、平均像は実態を映さなくなる。平均に合わせた施策は、現実の外側を撫でて終わることがある。

そして何より、べき分布の世界では「例外」は例外ではありません。
分布の端にいる少数派は、たまたま外れたのではない。競争と非線形性が生み出した、構造上の必然としてそこにいる。だからこそ、「外れ値」「ノイズ」「必要ない」で処理した瞬間、現実の重要部分を捨てることになります。

つまり言いたいことは、まず分布を、ありのままに見る必要がある。です。

これがDSAの始まりです。DSAは「平均の代替」ではありません。平均や相関が悪いわけでもない。問題は、平均と相関が“効く世界”と“効かない世界”が混在しているのに、それを区別せずに使ってしまうことです。

ランチェスターの法則が示した「差が2乗で広がる」世界では、分布は歪み、裾が伸び、少数が支配的になります。つまり、分布の形そのものが情報です。まずそれを捉える。次に、その構造がなぜ生まれたのかを因果で解く。それがDSA+DAGの流れです。

私は今、DSA+DAGの価値を「80%と20%」という比喩で語ることがあります。その本質は、80%+20%=100%の世界を、ありのままに捉えることです。平均の外側に押し出された現実を「例外」として消さず、意思決定の俎上に戻す。そこに、次の勝ち筋が隠れているからです。

ランチェスターから学んだのは、勝ち方のテクニックではありません。世界が非線形であるという事実でした。DSAは、その非線形な世界を誤認しないための、私なりの翻訳です。

「AIはすでにバブル期に入った」
最近よく聞く言説です。理由は明快で、過剰投資に見合うリターンが見えないからだと言います。

確かに、バブルとは「価値と評価の乖離」です。
この定義自体は正しい。しかし、問題はその乖離をどう捉えているかにあります。

多くのAIバブル論は、暗黙のうちに平均で世界を見ています。
市場全体のROI、産業全体の生産性向上率、投資額に対する回収率──。
しかし、AIの価値創出は、そもそも平均で語れる構造をしていません。

AIのリターンは、典型的にロングテールです。
大多数は期待ほどの成果を出せない一方、ごく一部が桁違いの価値を生み、全体を支配する。
これは異常でも偶然でもなく、構造です。

ここで重要なのは、
「多くが失敗している」ことと
「一部が圧倒的に成功する」ことは、同時に成立するという事実です。

平均値は、この両者を同時に覆い隠します。
そして平均で語った瞬間、AIは「過大評価か否か」という不毛な二元論に落ちていく。

本当に見るべきなのは、
価値と評価の乖離が、どの条件で、どの層に生じているのかです。

評価は、価値だけで決まりません。
期待、物語、金利、流動性、規制、地政学──
評価には、価値とは別の経路で増幅される回路が存在します。

一方で、価値は
データの質、業務への実装度、組織の学習能力、現場の抵抗、運用コスト
といった、極めて地味で摩擦の多い要因に左右されます。

つまり、評価と価値は最初から同じ道を歩いていない
乖離は「人々が愚かだから」生じるのではなく、
異なる因果経路が同時に走っている結果として生まれます。

ここを構造的に捉えるためには、
・乖離がどこで太るのかを「分布」として捉え
・その乖離が生まれる仕組みを「因果」として分解する
必要があります。

AIは一様にバブルなのではありません。
バブル的な層と、実需駆動の層が混在している
そして、その境界は技術水準ではなく、構造の違いにあります。

平均で語る限り、AIバブル論は永遠に終わりません。
しかし、分布と因果で見れば、
「どこが過剰で、どこが本物か」は、驚くほど静かに見えてきます。

議論すべきなのは、
「AIはバブルか否か」ではなく、
どの構造が価値を生み、どの構造が評価だけを膨らませているのかです。

――DSA+DAGが“世界をありのままに捉える”ためのツールである理由」

DSA+DAGの価値を説明するときに「80%と20%」という比喩を使ってきました。標準治療や標準施策が効く“多数派”が80%、そこから外れる“少数派”が20%。平均と相関が前提の世界では、この20%はしばしば「例外」「ノイズ」「仕方ない」で処理されてしまう。そういう意味での比喩として用いていました。

先日、目にしたSNSの投稿で、比喩ではなく、まさに現実の出来事として実感しました。白血病の治療中の若い方の投稿です。

「『3回までで、80%は改善する』と言われました。
でも私は、その20%側でした。」

さらに続く言葉が、胸に刺さります。

「努力しなかったわけでも、治療を拒んだわけでもありません。」

ここで起きているのは、医学の失敗というより、意思決定の失敗です。
「80%改善」という情報は、集団としては正しい。しかし個人にとっては、正しさが救いにならない。むしろ、その正しさが“20%側”の人生を、静かに、確実に、切り落としてしまします。

そして社会は、残酷なほど簡単に言ってしまう。

「十分頑張ったんだから、もう悔いはないでしょう?」

しかし当事者は言うのです。

「未練は、山ほどあります。」

この瞬間、「80%と20%」は統計の比喩ではなくなります。
それは、誰かの時間であり、家族の生活であり、未来そのものです。
平均の外側に押し出された人の、取り戻せない現実です。

DSA+DAGの使命は、ここにあります。

平均値で「効く/効かない」を語って終わらせない。
相関で「こういう傾向」を語って満足しない。
“20%側”を「例外」として片づけず、なぜその人が20%になったのかを構造として捉える。
そして、もし可能なら、その人が次に同じ治療や選択をするとき、80%側に移る条件を示す。

これは希望論ではありません。倫理でもスローガンでもありません。

「80%は改善する」という言葉が、20%の人を黙らせる道具になってはいけない。
“効かなかった人”の物語を、統計の影に埋もれさせてはいけない。
むしろ、医療も社会も本当に強くなるのは、成功例の数ではなく、失敗の内訳を扱えるようになったときです。

DSA+DAGは、20%を“救済対象”として見るのではありません。
20%を、次の意思決定を更新するための「情報の核」として扱います。
「うまくいかなかった少数」を終点にせず、なぜ”を起点に変える
そのために、分布を見て、構造を分解し、因果の経路を描きます。

DSA+DAGは、世界が見落としてきた20%を、意思決定の俎上に戻すための武器となりうる。

DSA+DAGの開発はもはや私にとっての使命です。

名将・野村克也氏の言葉に「勝ちに不思議の勝ちあり、負けに不思議の負けなし」というものがあります。勝った試合には、たまたま噛み合った要素が混ざることがある。一方で負けた試合には、必ず理由がある。穴がある。準備不足、選択ミス、相手の強みへの無策・・・原因は“構造”として残ります。

医療やビジネスで語られる「成功率/有効率80%」も、これに似ています。80%は心強い数字ですが、成功の側には偶然が混ざります。たまたま適合した、たまたま副作用が軽かった、たまたまタイミングが良かった。つまり「成功例」は、案外“説明が難しい”。

一方で、失敗/改善しなかった20%はどうか。ここには「不思議」は少ない。うまくいかなかった/薬が効かなかったなら、それ相応の理由がある。別の因子が邪魔をしている、治療経路が合っていない、前提となる状態が違う・・・原因は必ずどこかに潜んでいます。ただ、平均と相関の世界では、その20%は「例外」で片付けられ、検討の中心から外されてきました。

DSA+DAGが狙うのは、まさにここです。
勝ち(80%)を賛美するのではなく、負け(20%)に残る“構造の手がかり”を回収する。負けの原因を分解し、「何が揃えば勝ち側に移れるか」を条件として示す。言い換えれば、見落とされてきた20%を、次の勝ち筋に変えるための武器です。

「勝ちは説明困難、負けは原因がある」野村氏の格言は、統計の世界にもそのまま通じます。だからこそ、20%を見捨てない解析は、単なる優しさではなく、次に勝つための合理性なのです。