トランプはなぜ“当てに行かない”のか

ドナルド・ドナルド・トランプの政策を見ていると、日本の政治や経営と決定的に異なる点があります。
それは、平均を良くしようとしていないという点です。

医薬品関税を巡る最近の動きは象徴的でした。
「関税を最大250%課す」という強烈なカードを掲げながら、実際には欧米の大手製薬企業の多くを対象外とし、その代わりに米国内での薬価引き下げを受け入れさせる。一方で、その原資は米国外での値上げとして調整される可能性が示唆されています。日本も例外ではありません。

これは「国全体の平均医療費をどう下げるか」という発想ではありません。
米国内の有権者という特定の分布を下げ、負担を国外という別の分布に移す。極めて分布構造的な意思決定です。


トランプは政治家である前に、ビジネスマンである

トランプはしばしば「ポピュリスト」と評されますが、彼の意思決定はむしろビジネスマン的です。

  • 平均値は見ない
  • 全体最適を語らない
  • どこに利益を集中させ、どこに負担を押し付けるかを明確に切る

これは企業経営でいえば、

「利益率の低い顧客を切り、利益率の高い顧客に資源を集中する」
という判断と同じ構造です。

政治の文脈では過激に見えますが、構造としては極めて合理的です。
しかも、このやり方は「当たるかどうか」を問題にしていません。
重要なのは、再現性のある支持構造をどう作るかです。


日本は、いまだに「平均の呪縛」に囚われている

一方、日本の政治や経営はどうでしょうか。

  • 国民全体
  • 業界全体
  • 社員全体

常に「全体平均」で語り、「みんなにとって良い政策」「誰も置き去りにしない経営」を目指します。
その結果、誰にも強く刺さらない

市場が成長している時代であれば、平均の最適化でも問題はありませんでした。
しかし、人口減少・市場縮小・ゼロサム化が進む現在、平均志向は意思決定の遅延競争力の喪失を招きます。


これから必要なのは「構造を切る覚悟」

日本の政治家や経営者に求められているのは、スローガンではありません。

  • どの分布を守るのか
  • どの分布を切るのか
  • どこに資源を集中させるのか

これを明示的に決める覚悟です。

トランプのやり方が正しいかどうかは別問題です。
しかし少なくとも、彼は「平均」という幻想を捨て、構造で世界を見ている

ビジネスも政治も、もはや

「平均をどれだけ下げたか」
ではなく、
「どの分布をどう動かしたか」
が問われる時代に入っています。

トランプはそれを、誰よりも早く、誰よりも露骨にやっているだけということです。

因果推論の怖さは、「間違えると少しズレる」ではなく、結論が反転するところにあります。DAG(因果ダイアグラム)を正しく固定できていないと、交絡因子の向きや扱い次第で、有益が有害に、有害が有益に見えてしまいます。しかも、その反転は“統計的に有意”という顔で堂々と現れます。

なぜ起きるのでしょうか。理由は単純です。DAGは絵ではなく、「何を調整し、何を調整してはいけないか」を決める設計図だからです。設計図が違えば、分析は別の世界線を見に行きます。

典型的な落とし穴は3つあります。
1つ目は交絡の取り逃がし。共通原因を調整しないまま因果効果を語れば、見かけの関連に引きずられます。
2つ目はコライダー(合流点)を調整してしまうこと。これは「本来なかった関連」を人工的に作り、方向まで変えます。
3つ目は媒介(中間変数)の扱い。総効果を見たいのに媒介を調整すると、効果を消したり、条件によっては逆方向に見せたりします。

ここで重要なのは、DAGを“信仰”しないことです。DAGは仮説であり、固定には根拠が必要です。私はこの根拠を、現場のデータ構造から上流に遡って点検できる仕組みとして、DSA(分布構造分析)+DAGを位置づけています。まずDSAで「どこに偏りや層があるか」を可視化し、次にDAGで「どの経路を因果として採用するか」を監査可能にする。これが、意思決定に必要な説明責任を担保する最短距離です。

因果推論の失敗は、間違った結論以上に、間違った確信を生みます。だからこそ、DAGは描くのではなく、固定し、点検し、説明できる形にする必要があります。

――AI時代の意思決定は「結果」ではなく「手順」を問われる

AIを使った予測や分析が当たり前になりました。医療データ、ビジネスデータ、政策データ。
「AIに聞けば答えが出る」「データを入れれば結論が出る」──そう信じられている場面を、私たちは日常的に目にします。

しかし、その多くに決定的に欠けているものがあります。
それが 分析アルゴリズム=意思決定の手順 です。

データは増えた。でも、説明は減った

RWD(リアルワールドデータ)は爆発的に増えました。
ところが意思決定の現場では、

  • なぜこの結論になったのか
  • どの前提が結果に影響したのか
  • 条件が変わったら結論はどう変わるのか

といった問いに、明確に答えられないケースが増えています。

平均値、p値、回帰係数──
数値は並んでいるのに、意思決定として監査できない
これは「データ不足」ではなく、「構造不足」の問題です。

DSA:仮説を“作る前”に、構造を固定する

DSA(Distribution Structure Analysis)は、
いきなり因果を語る前に、分布構造として何が起きているかを固定するためのアプローチです。

  • 平均に隠れた二峰性
  • 一部の層だけで起きている強い効果
  • 外れ値ではなく「尾部」に意味がある構造
  • 効く人/効かない人の分離構造

これらを探索として可視化し、仮説の候補を残す
DSAは「答えを出す手法」ではなく、
問いの置き方を監査可能にするための前段設計です。

DAG:因果の“仮定”をブラックボックスにしない

DAG(Directed Acyclic Graph)は、
因果関係を証明する魔法の道具ではありません。

DAGの本質は、

  • 何を因果と仮定したのか
  • 何を交絡とみなしたのか
  • 何を調整し、何を調整しないのか

という 因果推論の前提条件を明示すること にあります。

DAGを描くとは、
「この結論は、この仮定の上に成り立っています」と
説明責任を引き受ける行為です。

DSA+DAGが実現するもの

DSAとDAGを組み合わせることで、初めて次のことが可能になります。

  • 仮説生成(DSA)と因果検証(DAG)が混ざらない
  • なぜその仮説を選んだのかを説明できる
  • 外れたときに「どこが間違っていたか」が分かる
  • 同じデータ・同じ前提なら、誰がやっても同じ結論になる

これは予測精度の話ではありません。
意思決定の再現性と説明責任の話です。

結論:DSA+DAGは「当てるAI」ではない

DSA+DAGは、未来を当てるためのAIではありません。
不確実な世界で、

「なぜその判断をしたのか」を説明できる意思決定

を作るための設計思想です。

AI時代の競争力は、
速く答えることではなく、
答えの作り方を公開できることに移りつつあります。

DSA+DAGは、
データを「それっぽい結論」に変換する仕組みではなく、
意思決定を検証可能な構造物に変えるためのフレームワークです。

人類は今、歴史上はじめて「自分たちよりも高い頭脳を持つ存在」と向き合っています。それがAIです。

火や農耕、産業革命、インターネット。これまでの技術革新は、人類の能力を拡張するものでした。しかしAIは違います。AIは能力を拡張する対象ではなく、能力そのものの優劣を逆転させる存在です。

計算速度、記憶容量、探索能力、最適化。多くの知的作業において、すでに人間はAIに及びません。この事実をどう受け止めるかで、社会は急速に二極化していきます。


二極化①

「変わらなくていい」と信じ続ける人たち

一方には、

  • AIはあくまで道具
  • 人間の本質は変わらない
  • 今の延長線で何とかなる

と考える人たちがいます。

彼らは決して怠惰ではありません。
むしろ真面目で、これまでの成功体験や専門性を大切にしてきた人ほど、この側に立ちやすい。

しかしAI時代において危険なのは、能力不足ではなく前提の固定です。

「そのうちAIを使えばいい」
「必要になったら学べばいい」

こうした姿勢は、AIが“選択肢”だった時代には通用しました。
しかし今やAIは、評価基準・意思決定速度・説明責任の形式そのものを先に書き換えています。

気づいたときには、
AIを使うかどうかを選ぶ立場ではなく、AI前提の世界に適応させられる立場になっている。
これが第一の極です。


二極化②

「人間の役割を再定義しようとする人たち」

もう一方には、

  • AIは人類を超えた知性である
  • だからこそ、人の役割を再定義しなければならない

と考える人たちがいます。

彼らはAIと競おうとはしません。
計算でも記憶でも勝てないことを、冷静に受け入れている。

その代わりに問うのは、

  • 何を価値とするか
  • どの問いを立てるか
  • 結果に誰が責任を持つのか

知性の使い道の設計です。

AIは答えを出せます。
しかし「どの問いに答えるべきか」は決められません。
最適解は示せても、「その最適化が正しいかどうか」は引き受けられない。

ここに、人間が残される役割があります。


この二極化は、努力では埋まらない

重要なのは、この分断が

  • 学歴
  • 年齢
  • ITスキル

で決まるものではないという点です。

分かれ目はただ一つ。
AIを前提に世界を見るか、AIを例外として扱おうとするか。

この差は、努力量では埋まりません。
前提が違うからです。

そしてこの二極化は、今後さらに拡大します。
中間は消えていく。
「なんとなく様子を見る」という選択肢は、急速に居場所を失います。


人類は今、試されている

人類史上初めて、自分たちよりも賢い存在と共存する時代に入りました。

ここで問われているのは、知能でも、生産性でも、スピードでもありません。

覚悟と設計力です。

AIに使われる側になるのか。AIを前提に社会と意思決定を設計する側に立つのか。

これは技術論ではなく、
生き方の選択です。

そしてこの選択は、静かに、しかし不可逆に、すでに始まっています。

地震の発生「10年以内○%」と聞くと、当たるも八卦当たらぬも八卦のような気分になります。

その日の天気予報ですら予測が外れるのに、まして地下で起きる破壊現象を「いつ起きるか」まで当てるのは、現代科学ではまだまだ難しいのではないでしょうか。

それでも情報は、地震について「10年以内○%」のような確率論です。知りたいのは今日は傘を持っていけと言ってるの?です。問題は、結果的にその数字が当たる/外れるではありません。意思決定のプロセスになっているかです。

その数字が、何に依存していて、どこまでが観測で、どこからが仮定なのか。
ここが見えないまま確率が“答え”として独り歩きすることが、本質的な違和感の元です。

地震確率は「予測値」ではありません。
仮定・観測不足・モデル選択が圧縮された“合成物”です。
必要なのは予言ではなく、監査(audit)です。


既存の確率提示が抱える「科学的な穴」

地震の長期評価には、だいたい次の仮定が混ざっています。

  • 定常性:発生率は一定とみなします(ポアソン的)
  • 周期性:再来間隔があるとみなします(更新過程/BPT的)
  • 独立性:他断層イベントの影響を薄く扱います
  • 可観測性の幻想:地下応力のような主要因は観測できないため、代理指標で代替します

ここで最も危ないのは、これらが議論されるのではなく、確率1点に折り畳まれることです。1点になった瞬間に前提が消え、前提が消えた確率は社会の中で“権威の数字”になりやすいです。


DSA+DAGがやることは「地震を当てる」ではありません

DSA+DAGでは、次のように定義されます。

  • DSA:確率を点で出さず、確率そのものの分布を生成します(確率を確率変数として扱います)
  • DAG:地震を因果で当てるのではなく、推定が歪む経路(不可観測→代理観測→モデル仮定→出力)を固定します

つまりDSA+DAGは、予測器ではなく、「確率生成プロセスの検査装置」です。


確率が“作られる”経路(推定が歪む経路のDAG)

以下は「地震を因果で当てるDAG」ではなく、確率推定がどこで歪むかを固定するDAGです。

この図のポイントは、R(T)が「自然から直接出てくる」わけではなく、
不可観測→代理観測→推定→モデル選択を経由して生成される、という構造を固定することです。


尖ったミニ・シミュレーション:確率監査(Probability Audit)

「30年以内70%」のような数字が出たとき、DSA+DAGではこう扱います。

Step 1:確率を作っている“部品”を分解します

  • K:モデル選択(ポアソンか/更新過程BPTか)
  • μ:平均再来間隔(推定誤差を含みます)
  • α:周期の乱れ(周期性の強さの不確実性です)
  • t0:最新イベント時期(推定幅があります)
  • I:断層相互作用(周辺イベントの影響の強さです)

これらを 点ではなく分布として置きます。

Step 2:モデルを“混合”として扱います(ここが尖りです)

「どちらのモデルが正しいか」ではなく、モデル選択そのものを不確実性として扱います。

  • K = Poisson(確率 1−w)
  • K = BPT(確率 w)
  • さらに w自体も固定せず分布として扱います(専門家の分布、合議の幅、など)

Step 3:10万回回して「確率の分布」を出します

各回で(K, μ, α, t0, I)をサンプルして P(10年), P(30年) を計算します。
すると出力は、単一の70%ではなく「確率分布」になります。

出力イメージ:P(30年)が二峰性+ロングテールになる例(概念図)

ここまで来ると、単一の「70%」は科学的にはこう見えます。

70%は結論ではありません。相反する仮説群を平均して丸めた“見かけの安定”である可能性があります。


不確実性の会計(Uncertainty Accounting)

監査の核心はここです。P(30年)の「揺れ」を、どの要因が支配したかを分解します。

この分解ができることで議論が変わります。

  • K支配なら:追加の地質調査を増やしても確率は収束しにくい(モデル不確実性が残ります)
  • μ/t0支配なら:追加観測・追加調査が「確率の品質」を上げ得ます
  • 尾部(最悪側)を支配する要因が分かれば:防災は平均ではなく 尾を削る方向に設計できます

予測から「説明可能な意思決定」へ

地震に限らず、医療、政策、インフラ、金融など「当てにくいが決めねばならない領域」は、同じ構造を持っています。

点の確率は、説明責任を弱めます。分布と寄与分解は、説明責任を強めます。

DSA+DAGが提供するのは予言ではなく、“確率の説明責任”を実装する形式です。
私はこれを「予測」ではなく、Accountable Risk(説明可能なリスク)の設計だと捉えています。

議論のテーマは地震の当て方ではありません。
確率が社会で誤用される構造と、それを監査可能に戻す方法です。
(地震を例にしましたが、RWD→RWEでも同じです。)

RWD(リアルワールドデータ)の活用は、ここ数年で急速に進みました。
データは集まり、統計手法も揃い、研究デザインの教科書も整っています。にもかかわらず、RWDからRWE(意思決定に耐えるエビデンス)へ到達できない案件が、現場には山ほどあります。

原因は単純です。
既存概念の再構築は、あくまで既存の枠内での最適化だからです。

「RQから逆算して変数を揃える」
「交絡を調整する」
「PSMや回帰で差を見る」
「論文の型に落とし込む」

これらは正しい。だからこそ、誰も否定できません。
しかし、正しいのに詰む。ここに“壁”がある。


壁①:平均値の世界から抜け出せない(異質性が消える)

既存の枠組みは、最終的に“平均の結論”へ収束しやすい。
有効性は平均で語られ、安全性は平均で比較されます。

しかしリアルワールドは、そもそも均質ではありません。
同じ薬で「効く人」と「効かない人」が混ざっている。
副作用が出る人と出ない人が混ざっている。
病院、医師、地域、併存疾患、生活背景…条件が違いすぎる。

平均は便利です。
でも平均は、意思決定に必要な情報を消します。

現場が知りたいのはこうです。

  • どんな条件の人に効くのか
  • どんな条件の人に効かないのか
  • 効かない側を効く側に移すには、何が必要か

ここは、既存概念の“改善”では届かない。
枠組みそのものを変える必要があります。


壁②:「説明責任」が最後まで残る(相関の疑いが消えない)

既存の手法は、統計的に整っていても、最後にこう言われます。

「それって、交絡を取り切れてますか?」
「その結果、因果だと言えますか?」

そして議論は、統計の作法の話にすり替わっていく。
分析の巧拙ではなく、解釈の信頼性の問題です。

つまり、RWD→RWEの本当の難所は“計算”ではなく、
因果を説明できる形で合意を取れるかにあります。

既存概念の再構築は、説明を上手くすることはできても、
「説明の形式」を標準化することが難しい。


壁③:属人性から抜け出せない(再現性が担保できない)

同じデータ、同じRQなのに、解析者が変わると結論がブレる。
現場では珍しくありません。

なぜか。
既存の枠組みは「手順」ではなく「作法」だからです。
最後は経験のある人の判断に依存します。

だから、組織としてはこうなります。

  • できる人に仕事が集中する
  • できない人は“レビュー待ち”になる
  • スピードが出ない
  • 品質が統一されない
  • 結果として、意思決定が遅れる

再構築で改善はできても、属人性そのものは残る。
ここも“超えられない壁”です。


既存概念の再構築ができるのは「料理の改善」まで

既存概念の再構築は、たとえるなら「料理の腕を上げる」ことです。
同じ食材、同じ厨房、同じ道具で、より美味しくする。

しかしRWD→RWEで必要なのは、そこではありません。

  • そもそも献立が間違っていないか
  • 誰が作っても同じ味になる厨房設計になっているか
  • “この人に何が効くか”まで出せる栄養設計になっているか

必要なのは、料理の上手さではなく、
献立と厨房そのものの設計思想です。


「超えられない壁」を越えるのは、新しい概念だけ

ここで初めて、DSA+DAGのような新しい概念の意味が出てきます。

  • 平均に回収される前に、分布構造として現実を捉える(DSA)
  • 因果の仮説を図として固定し、説明責任を標準化する(DAG)
  • 解析を“個人技”から“ワークフロー”へ落とし、再現性を担保する

これは、既存概念の延長線ではありません。
既存概念が扱いきれなかった「異質性」「説明責任」「再現性」を、最初から設計に組み込む発想です。


結論:改善では越えられない領域がある

既存概念の再構築は、必要です。
ただし、それは改善に強い一方で、突破には弱い。

そして、RWD→RWEが止まっている理由は、まさにその「突破」が必要な局面に来ているからです。

データが集まった今、競争の焦点はこう変わりました。

何があるか”ではなく、
“それで意思決定できるか”。

改善で届く範囲は、もう終わりつつあります。
次に必要なのは、概念そのものの更新です。

1. 背景と課題(現状認識)

フォーミュラリは医療費削減を目的としますが、実務では「安価な薬剤を選ぶ」だけでは成立しません。汎用性、必要性、エビデンス、安全性、供給安定性、運用容易性など選定基準が多く複雑であり、さらに採用・非採用・制限の判断には説明責任(妥当性の根拠提示)が求められます。
一方、平均値ベースの評価や単純なコスト比較では、患者集団の多様性(反応の二峰性、ロングテールの有害事象、特定集団での不利益)を取りこぼし、結果として増悪・再入院・運用破綻により総医療費が逆に増える
リスクがあります。

2. 提案概要

本提案は、フォーミュラリの意思決定を「多基準のまま」扱いつつ、議論の混乱点である基準間の因果関係と、現場で破綻を起こす分布の端(例外・少数集団)を可視化し、合意形成と説明責任を支える枠組みを導入するものです。

  • DAG(因果グラフ)
    多基準(費用・有効性・安全性・運用性等)が最終成果(総医療費・アウトカム)にどう影響するかを因果経路として整理し、交絡・バイアスを明示します。
  • DSA(分布構造分析)
    患者反応や有害事象が「平均」ではなく、どのような分布構造(二峰性・ロングテール・層別の偏り)を持つかを把握し、「多数派に最適だが少数派で破綻する」設計を回避します。

3. アウトプット

  1. 三層フォーミュラリ設計
  • A:標準推奨(多数派で妥当、供給・運用も安定)
  • B:条件付き推奨(腎機能、併用薬、重症度等で層別ルール化)
  • C:例外(裁量を残し、理由をテンプレ記録して次回改定に反映)
  1. 説明責任パッケージ
  • 目的(薬剤費だけでなく総医療費・アウトカム・安全性)
  • DAGによる「因果の筋道」
  • DSAによる「誰に利益/不利益が出るか」
  • 採用ルールと例外運用、見直し指標(KPI)

4. 進め方(最小構成で短期に成果を出す)

  • 対象は、費用影響・使用量・代替選択肢が大きい薬効群から開始(例:糖尿病、PPI、脂質、抗菌薬、喘息/COPD 等)
  • 最小データ:処方・患者背景(主要項目)・主要イベント(入院等)・コスト近似
  • まずは1薬効群×施設運用でプロトタイプを作成し、委員会合意→運用→改定サイクルを確立します。

5. 期待効果(医療費削減を“総医療費”で達成)

  • 平均値の罠を回避し、少数の悪化・再入院・有害事象集中によるコスト増を抑制
  • 多基準の複雑性をDAGで統一し、委員会の合意形成を迅速化
  • 層別ルール化により、現場が回る「守れるフォーミュラリ」を実現
  • 説明責任(根拠提示)を標準化し、対外・院内説明の負担を低減

6. 次アクション

  • 対象薬効群を1つ選定し、DSA+DAGによる試作(PoC)を実施
  • 成果物:三層フォーミュラリ案、層別ルール、説明資料(A4 1枚)
  • PoC完了後、適用範囲を薬効群へ段階拡張

DSA+DAG は“複雑な選定基準を、因果の筋と分布構造で一貫したルールにして、説明責任まで自動生成”します。

これまで、とりあえずなんでもかんでもデータを取っておけば、あとで分析すれば「なにか予期せぬ面白い発見があるかも」と思っても、現実には、あとから解析してみても「期待は不発」で終わる。これ、けっこうよく聞く話です。

この「期待は不発」でおわる問題は、データ不足というより、後から解析する側が置いている前提に起因しています。典型的には次の3つです。

1) 解析は「平均の世界」に引っ張られる

多くの解析は、まず平均(差)や線形関係を見にいきます。
平均は全体を一言で言える反面、現実に多い「混ざりもの」を消します。

  • 効く人と効かない人が混在している(二峰性)
  • 少数の強い反応者が全体を支配している(ロングテール)
  • ある条件を境に挙動が変わる(閾値)

こういう構造は、平均を取った瞬間に無効化します。つまり、面白いはずの“差”が、解析の入口で既に平坦化される。これが「何も出ない」の第一原因です。

2) 「問い」がないまま解析すると、出てくるのは“説明しやすいもの”だけ

とりあえず集めたデータは、裏を返すと「何を見るか」が固定されていません。
この状態で後から解析すると、人はどうしても

  • 手元にある変数で説明できる
  • 絵にしやすい
  • 既存の枠に当てはめやすい

方向へ寄ります。結果として、出てくるのは「想定内」「教科書的」「既視感のある結論」になりがちです。
発見がないのではなく、発見の入口が“都合の良い説明”に偏るということです。

3) 現実データは「原因と結果」が最初から混ざっている(交絡・選択・介入の歪み)

特にRWDでは、データは自然発生的に集まるので、純粋な比較になりません。

  • そもそも治療や介入が“選ばれている”(重症度や医師判断など)
  • 測定の頻度自体が状態に依存する
  • 欠測がランダムではない
  • フォローアップが均一ではない

この状態で単純に相関を見ると、「関係がある/ない」が揺れます。
そして解析者は、揺れを収束させるために

  • 調整変数を足す
  • 欠測を補完する
  • 分布を整える

方向へ進みますが、ここで“本来の構造”がさらに見えにくくなることがあります。
つまり、RWDの世界では、解析の難しさがデータの中に埋め込まれている。これが「後からやっても成果が出ない」第二原因です。

とりあえず集めたデータが、あとから“問いを生む”状態を作る
そして、その問いが“検証できる形”で残るようにする

ということです。

「集めたのに何も出ない」という経験の無力感は、
時間やコストが無駄になること以上に、次に何をすればいいかが残らないことです。
「DSA+DAG」は、この“次が残らない”を変えにいきます。

たとえば、プロダクトで新機能を追加したとします。
「継続率が上がるはず」「CVが上がるはず」と期待して、ログも一通り取った。
ところが1か月後に分析すると、結果はこうです。

  • 全体のCV:ほぼ変わらない
  • 継続率:微増だけど誤差っぽい
  • 平均滞在時間:むしろ少し下がった

で、会議の結論がだいたいこれになります。
「効果は限定的でした」「次の施策を考えましょう」

ここで“あるある”なのは、平均で見る限り、何も起きていないように見えることです。
でも現場の感覚としては、「刺さった人は明らかに喜んでいる」という手応えがある。なのに数字に出ない。

このとき起きているのは、だいたい次のどれかです。

  • 効いた層と効かなかった層が混ざって平均で相殺されている
  • 少数のヘビーユーザーだけが強く反応して、全体平均には出ない(ロングテール)
  • そもそも機能を“使った人”が偏っている(選択バイアス)
  • 「使った→良くなった」ではなく「元から熱量が高い人が使った」だけ(逆因果っぽい)

つまり、“何も出ない”のではなく、
何かが起きているのに、平均のレンズだとそれが見えない

同様に、RWDからRWE構築のメッセージを雑に要約すると、

  • RWDをとにかく集めろ(蓄積を進めろ)
  • RWEにしろ(意思決定に使える形にしろ)
  • しかも因果で説明できるようにしろ
  • その方法は各自で考えろ(考えろと言う)

となっていて、「とりあえずデータだけ取っておけば、あとで分析して面白い発見があるかも」と趣がほぼ同型です。

違いがあるとすれば、国の要求はさらに一段きつくて、
「何か見つけろ」ではなく 「因果で説明しろ」まで要求している点です。
つまり、単なる“発見”ではなく、意思決定に耐える説明責任を求めていることです。

だから現場では、

  • データは溜まる
  • でも「切り取り前提」の解析では因果が立ちにくい
  • 結果、「RWDはあるがRWEにならない」が起きる

という“あるあるループ”が、構造的に再生産されやすくなるのです。

では、どうするか?

RWDを集めるだけではRWEにならない。
RWEにするには、RWDを切り取る前に“あるがまま”の構造を捉え、因果として説明できる形に落とす道具立てが必要。

その解決策として、DSA+DAGを置くと、単なる解析手法ではなく、要求に応えることが出来る「現実的な解法」となります。

  • DSAは、まず「全体平均」ではなく、分布が割れていないかを見る
    (一部が大きく改善して、別の一部が悪化していないか、少数の尖りがないか)
  • そしてDAGで、「誰がその機能を使う(選ぶ)のか」という偏りを含めて、
    効いた”のか“選ばれただけ”なのかを切り分ける問いにする

これができると、結論が「効果なし」で終わりません。
「効く人の条件はこれ」「効かない人はここが詰まっている」
「次の打ち手はプロダクト改善か、導線か、対象の切り替えか」
と、“次の一手が残る”形になります。

これまでのRWD活用は、どこかで「必要なデータだけ切り取って、仮説を検証する」前提になりがちでした。もちろん合理的です。ただ、そのやり方だと、RWDの一番大事な特徴、“現実の混ざり方、偏り方、ばらつき方”というリアルが、解析の入口でそぎ落とされてしまいます。結果として、あとから解析しても「平均的にはこうです」という話に寄り、現場が本当に知りたい「誰に、なぜ、どう効くのか」が残らない。これが“RWDがRWEになりきらない”典型パターンです。

DSA+DAGが狙うのは、その逆です。RWDを「切り取る」より先に、まずあるがままの分布構造として見る。割れ(効く群/効かない群)、ロングテール(少数が全体を動かす)、閾値(境目で挙動が変わる)、欠測や選択の偏りなど、こうした現実のクセを、ノイズとして消さずに情報として保持します。すると、RWDの中に埋まっていた「分岐」や「偏り」が表に出てきて、データの側から「問い」が立ち上がるようになります。

ただし、分布のクセが見えただけではRWEにはなりません。そこでDAGです。DAGは、その分岐や偏りを「因果の問い」に翻訳します。治療が選ばれた理由(選択バイアス)、重症度や背景因子の混入(交絡)、測定頻度や欠測が結果に与える影響など、それらを構造として整理し、「どこを調整し、何を介入とみなし、何をアウトカムと定義すべきか」を明確にします。ここまで落とすことで、RWDは“ただの相関の集まり”から、検証可能で意思決定に使える因果の証拠へと変わります。

最近、AIを使っていてこんな感覚を持ったことはないでしょうか。
「とりあえずAIに任せれば、いい感じのアウトプットが出てくるだろう」。

実際、出てきます。
それっぽい文章、それっぽい分析、それっぽい結論。
でも、読み終えたあとに残るのは、
「間違ってはいない。でも、なんか違う」という感覚です。

そして次に来るのが、
「やっぱりAIってこの程度か」
という、失望です。


でも、それは本当にAIの問題でしょうか

ここで一度立ち止まって考えてみると、
この構図はとても見覚えがあります。

「とりあえずデータを集めておけば、あとで分析すれば何か分かるはず」
→ 実際に分析すると、平均的で想定内の結論しか出てこない
→ 「データ分析って、結局こんなものか」

AIに対する期待と失望は、これとよく似ています。

AIは確かに賢い。
でも「何を残して、何を削ってはいけないか」を与えられないまま任せると、
AIは最も無難で、最も説明しやすく、最も平均的な形にまとめにいきます。

それはAIの欠点ではなく、性質です。


AIは「考える存在」ではなく「整える存在」

AIはゼロから意味を生み出す存在ではありません。
与えられた情報を整理し、要約し、一般化し、
“それっぽく”整えるのが得意です。

裏を返すと、

  • 文脈
  • こだわり
  • あえて残したい違和感
  • 削ると価値が落ちる部分

こうした「構造」を先に与えないと、
AIは容赦なくそこを均してしまいます。

結果として出てくるのが、
正しいけれど、魂のないアウトプットです。


AIがダメなのではない。「とりあえず任せる」がダメ

重要なのはここです。

AIが期待外れに見えるとき、
多くの場合、問題はAIそのものではありません。
「とりあえず任せる」という使い方です。

  • とりあえず書かせる
  • とりあえず要約させる
  • とりあえず考えさせる

この「とりあえず」は、
AIにとっては「平均化してよい」という合図になります。

その結果、
一番価値のあるクセや違和感が消え、
「それっぽい何か」だけが残る。


AIは、構造を与えたときに初めて本領を発揮する

では、AIはどう使うべきか。

答えはシンプルです。
先に構造を与えること

  • 何を残したいのか
  • どこは削ってはいけないのか
  • どこは説明しすぎなくていいのか
  • 何を“結論にしない”のか

これを人が決めた上でAIに渡すと、
AIは驚くほど強力な補助エンジンになります。

AIは「思考の代替」ではありません。
思考を保ったまま、展開・整理・表現を加速する道具です。


期待外れだったのは、AIではなく「期待の置き方」

「AIに任せれば何とかなる」
この期待は、
「データを集めれば何か出る」という期待と同じ構造をしています。

どちらも、
構造を与えないまま、結果だけを期待している。

でも本当は、
構造を決めるのは人で、
AIはそれを広げる役割に向いている。

そう考えると、
AIは期待外れどころか、
かなり正直で、かなり素直な道具だと言えます。

DSA(分布構造分析)の出発点は、意外にも統計学ではなく、私が以前から研究していたランチェスターの法則にあります。ランチェスターの法則が示したのは、大まかに言えばこういう世界観です。

競争において、戦略(戦力差)の効き方は線形ではない。「2乗」で効いてくる。

つまり、少しの差が、ある局面を超えると一気に拡大する。努力や資源の差が、足し算ではなく掛け算で効く。勝者がさらに有利になり、差が差を呼ぶ。競争が「一強多弱」へ傾いていくのは、構造として当然の帰結です。

当時の私は、「森羅万象、すべての事象は正規分布に則る」と当たり前のことのように思っていました。

平均の周りに大多数が集まり、極端な値は少ない。統計教育や実務の多くがこの前提を採用している以上、それは自然な思い込みです。実際、私たちは何かを説明するとき、まず平均を見ます。平均との差を見ます。相関を見ます。そこに“全体像”があると疑いません。

しかし、競争市場を眺めていると、この前提がじわじわ崩れていきました。市場シェア、売上、影響力、成果。多くの現象が、平均の周りに集まっていない。むしろ、少数が極端に大きく、裾が異様に長い。「中心」が世界を代表していない。

AMAZONのように、ショートヘッド&ロングテールの世界感は加速しています。

すなわち競争市場の多くは、正規分布ではない。べき分布(パワーロー)に近い。

この気づきが、私にとって転換点を与えました。なぜなら、分布が違えば、意思決定の作法が根本から変わるからです。

正規分布の世界では、平均は強い。平均は「代表値」たり得ます。ところが、べき分布の世界では、平均は簡単に壊れます。少数の極端値が平均を引っ張り、平均像は実態を映さなくなる。平均に合わせた施策は、現実の外側を撫でて終わることがある。

そして何より、べき分布の世界では「例外」は例外ではありません。
分布の端にいる少数派は、たまたま外れたのではない。競争と非線形性が生み出した、構造上の必然としてそこにいる。だからこそ、「外れ値」「ノイズ」「必要ない」で処理した瞬間、現実の重要部分を捨てることになります。

つまり言いたいことは、まず分布を、ありのままに見る必要がある。です。

これがDSAの始まりです。DSAは「平均の代替」ではありません。平均や相関が悪いわけでもない。問題は、平均と相関が“効く世界”と“効かない世界”が混在しているのに、それを区別せずに使ってしまうことです。

ランチェスターの法則が示した「差が2乗で広がる」世界では、分布は歪み、裾が伸び、少数が支配的になります。つまり、分布の形そのものが情報です。まずそれを捉える。次に、その構造がなぜ生まれたのかを因果で解く。それがDSA+DAGの流れです。

私は今、DSA+DAGの価値を「80%と20%」という比喩で語ることがあります。その本質は、80%+20%=100%の世界を、ありのままに捉えることです。平均の外側に押し出された現実を「例外」として消さず、意思決定の俎上に戻す。そこに、次の勝ち筋が隠れているからです。

ランチェスターから学んだのは、勝ち方のテクニックではありません。世界が非線形であるという事実でした。DSAは、その非線形な世界を誤認しないための、私なりの翻訳です。