RWD(リアルワールドデータ)の活用は、ここ数年で急速に進みました。
データは集まり、統計手法も揃い、研究デザインの教科書も整っています。にもかかわらず、RWDからRWE(意思決定に耐えるエビデンス)へ到達できない案件が、現場には山ほどあります。

原因は単純です。
既存概念の再構築は、あくまで既存の枠内での最適化だからです。

「RQから逆算して変数を揃える」
「交絡を調整する」
「PSMや回帰で差を見る」
「論文の型に落とし込む」

これらは正しい。だからこそ、誰も否定できません。
しかし、正しいのに詰む。ここに“壁”がある。


壁①:平均値の世界から抜け出せない(異質性が消える)

既存の枠組みは、最終的に“平均の結論”へ収束しやすい。
有効性は平均で語られ、安全性は平均で比較されます。

しかしリアルワールドは、そもそも均質ではありません。
同じ薬で「効く人」と「効かない人」が混ざっている。
副作用が出る人と出ない人が混ざっている。
病院、医師、地域、併存疾患、生活背景…条件が違いすぎる。

平均は便利です。
でも平均は、意思決定に必要な情報を消します。

現場が知りたいのはこうです。

  • どんな条件の人に効くのか
  • どんな条件の人に効かないのか
  • 効かない側を効く側に移すには、何が必要か

ここは、既存概念の“改善”では届かない。
枠組みそのものを変える必要があります。


壁②:「説明責任」が最後まで残る(相関の疑いが消えない)

既存の手法は、統計的に整っていても、最後にこう言われます。

「それって、交絡を取り切れてますか?」
「その結果、因果だと言えますか?」

そして議論は、統計の作法の話にすり替わっていく。
分析の巧拙ではなく、解釈の信頼性の問題です。

つまり、RWD→RWEの本当の難所は“計算”ではなく、
因果を説明できる形で合意を取れるかにあります。

既存概念の再構築は、説明を上手くすることはできても、
「説明の形式」を標準化することが難しい。


壁③:属人性から抜け出せない(再現性が担保できない)

同じデータ、同じRQなのに、解析者が変わると結論がブレる。
現場では珍しくありません。

なぜか。
既存の枠組みは「手順」ではなく「作法」だからです。
最後は経験のある人の判断に依存します。

だから、組織としてはこうなります。

  • できる人に仕事が集中する
  • できない人は“レビュー待ち”になる
  • スピードが出ない
  • 品質が統一されない
  • 結果として、意思決定が遅れる

再構築で改善はできても、属人性そのものは残る。
ここも“超えられない壁”です。


既存概念の再構築ができるのは「料理の改善」まで

既存概念の再構築は、たとえるなら「料理の腕を上げる」ことです。
同じ食材、同じ厨房、同じ道具で、より美味しくする。

しかしRWD→RWEで必要なのは、そこではありません。

  • そもそも献立が間違っていないか
  • 誰が作っても同じ味になる厨房設計になっているか
  • “この人に何が効くか”まで出せる栄養設計になっているか

必要なのは、料理の上手さではなく、
献立と厨房そのものの設計思想です。


「超えられない壁」を越えるのは、新しい概念だけ

ここで初めて、DSA+DAGのような新しい概念の意味が出てきます。

  • 平均に回収される前に、分布構造として現実を捉える(DSA)
  • 因果の仮説を図として固定し、説明責任を標準化する(DAG)
  • 解析を“個人技”から“ワークフロー”へ落とし、再現性を担保する

これは、既存概念の延長線ではありません。
既存概念が扱いきれなかった「異質性」「説明責任」「再現性」を、最初から設計に組み込む発想です。


結論:改善では越えられない領域がある

既存概念の再構築は、必要です。
ただし、それは改善に強い一方で、突破には弱い。

そして、RWD→RWEが止まっている理由は、まさにその「突破」が必要な局面に来ているからです。

データが集まった今、競争の焦点はこう変わりました。

何があるか”ではなく、
“それで意思決定できるか”。

改善で届く範囲は、もう終わりつつあります。
次に必要なのは、概念そのものの更新です。

1. 背景と課題(現状認識)

フォーミュラリは医療費削減を目的としますが、実務では「安価な薬剤を選ぶ」だけでは成立しません。汎用性、必要性、エビデンス、安全性、供給安定性、運用容易性など選定基準が多く複雑であり、さらに採用・非採用・制限の判断には説明責任(妥当性の根拠提示)が求められます。
一方、平均値ベースの評価や単純なコスト比較では、患者集団の多様性(反応の二峰性、ロングテールの有害事象、特定集団での不利益)を取りこぼし、結果として増悪・再入院・運用破綻により総医療費が逆に増える
リスクがあります。

2. 提案概要

本提案は、フォーミュラリの意思決定を「多基準のまま」扱いつつ、議論の混乱点である基準間の因果関係と、現場で破綻を起こす分布の端(例外・少数集団)を可視化し、合意形成と説明責任を支える枠組みを導入するものです。

  • DAG(因果グラフ)
    多基準(費用・有効性・安全性・運用性等)が最終成果(総医療費・アウトカム)にどう影響するかを因果経路として整理し、交絡・バイアスを明示します。
  • DSA(分布構造分析)
    患者反応や有害事象が「平均」ではなく、どのような分布構造(二峰性・ロングテール・層別の偏り)を持つかを把握し、「多数派に最適だが少数派で破綻する」設計を回避します。

3. アウトプット

  1. 三層フォーミュラリ設計
  • A:標準推奨(多数派で妥当、供給・運用も安定)
  • B:条件付き推奨(腎機能、併用薬、重症度等で層別ルール化)
  • C:例外(裁量を残し、理由をテンプレ記録して次回改定に反映)
  1. 説明責任パッケージ
  • 目的(薬剤費だけでなく総医療費・アウトカム・安全性)
  • DAGによる「因果の筋道」
  • DSAによる「誰に利益/不利益が出るか」
  • 採用ルールと例外運用、見直し指標(KPI)

4. 進め方(最小構成で短期に成果を出す)

  • 対象は、費用影響・使用量・代替選択肢が大きい薬効群から開始(例:糖尿病、PPI、脂質、抗菌薬、喘息/COPD 等)
  • 最小データ:処方・患者背景(主要項目)・主要イベント(入院等)・コスト近似
  • まずは1薬効群×施設運用でプロトタイプを作成し、委員会合意→運用→改定サイクルを確立します。

5. 期待効果(医療費削減を“総医療費”で達成)

  • 平均値の罠を回避し、少数の悪化・再入院・有害事象集中によるコスト増を抑制
  • 多基準の複雑性をDAGで統一し、委員会の合意形成を迅速化
  • 層別ルール化により、現場が回る「守れるフォーミュラリ」を実現
  • 説明責任(根拠提示)を標準化し、対外・院内説明の負担を低減

6. 次アクション

  • 対象薬効群を1つ選定し、DSA+DAGによる試作(PoC)を実施
  • 成果物:三層フォーミュラリ案、層別ルール、説明資料(A4 1枚)
  • PoC完了後、適用範囲を薬効群へ段階拡張

DSA+DAG は“複雑な選定基準を、因果の筋と分布構造で一貫したルールにして、説明責任まで自動生成”します。

これまで、とりあえずなんでもかんでもデータを取っておけば、あとで分析すれば「なにか予期せぬ面白い発見があるかも」と思っても、現実には、あとから解析してみても「期待は不発」で終わる。これ、けっこうよく聞く話です。

この「期待は不発」でおわる問題は、データ不足というより、後から解析する側が置いている前提に起因しています。典型的には次の3つです。

1) 解析は「平均の世界」に引っ張られる

多くの解析は、まず平均(差)や線形関係を見にいきます。
平均は全体を一言で言える反面、現実に多い「混ざりもの」を消します。

  • 効く人と効かない人が混在している(二峰性)
  • 少数の強い反応者が全体を支配している(ロングテール)
  • ある条件を境に挙動が変わる(閾値)

こういう構造は、平均を取った瞬間に無効化します。つまり、面白いはずの“差”が、解析の入口で既に平坦化される。これが「何も出ない」の第一原因です。

2) 「問い」がないまま解析すると、出てくるのは“説明しやすいもの”だけ

とりあえず集めたデータは、裏を返すと「何を見るか」が固定されていません。
この状態で後から解析すると、人はどうしても

  • 手元にある変数で説明できる
  • 絵にしやすい
  • 既存の枠に当てはめやすい

方向へ寄ります。結果として、出てくるのは「想定内」「教科書的」「既視感のある結論」になりがちです。
発見がないのではなく、発見の入口が“都合の良い説明”に偏るということです。

3) 現実データは「原因と結果」が最初から混ざっている(交絡・選択・介入の歪み)

特にRWDでは、データは自然発生的に集まるので、純粋な比較になりません。

  • そもそも治療や介入が“選ばれている”(重症度や医師判断など)
  • 測定の頻度自体が状態に依存する
  • 欠測がランダムではない
  • フォローアップが均一ではない

この状態で単純に相関を見ると、「関係がある/ない」が揺れます。
そして解析者は、揺れを収束させるために

  • 調整変数を足す
  • 欠測を補完する
  • 分布を整える

方向へ進みますが、ここで“本来の構造”がさらに見えにくくなることがあります。
つまり、RWDの世界では、解析の難しさがデータの中に埋め込まれている。これが「後からやっても成果が出ない」第二原因です。

とりあえず集めたデータが、あとから“問いを生む”状態を作る
そして、その問いが“検証できる形”で残るようにする

ということです。

「集めたのに何も出ない」という経験の無力感は、
時間やコストが無駄になること以上に、次に何をすればいいかが残らないことです。
「DSA+DAG」は、この“次が残らない”を変えにいきます。

たとえば、プロダクトで新機能を追加したとします。
「継続率が上がるはず」「CVが上がるはず」と期待して、ログも一通り取った。
ところが1か月後に分析すると、結果はこうです。

  • 全体のCV:ほぼ変わらない
  • 継続率:微増だけど誤差っぽい
  • 平均滞在時間:むしろ少し下がった

で、会議の結論がだいたいこれになります。
「効果は限定的でした」「次の施策を考えましょう」

ここで“あるある”なのは、平均で見る限り、何も起きていないように見えることです。
でも現場の感覚としては、「刺さった人は明らかに喜んでいる」という手応えがある。なのに数字に出ない。

このとき起きているのは、だいたい次のどれかです。

  • 効いた層と効かなかった層が混ざって平均で相殺されている
  • 少数のヘビーユーザーだけが強く反応して、全体平均には出ない(ロングテール)
  • そもそも機能を“使った人”が偏っている(選択バイアス)
  • 「使った→良くなった」ではなく「元から熱量が高い人が使った」だけ(逆因果っぽい)

つまり、“何も出ない”のではなく、
何かが起きているのに、平均のレンズだとそれが見えない

同様に、RWDからRWE構築のメッセージを雑に要約すると、

  • RWDをとにかく集めろ(蓄積を進めろ)
  • RWEにしろ(意思決定に使える形にしろ)
  • しかも因果で説明できるようにしろ
  • その方法は各自で考えろ(考えろと言う)

となっていて、「とりあえずデータだけ取っておけば、あとで分析して面白い発見があるかも」と趣がほぼ同型です。

違いがあるとすれば、国の要求はさらに一段きつくて、
「何か見つけろ」ではなく 「因果で説明しろ」まで要求している点です。
つまり、単なる“発見”ではなく、意思決定に耐える説明責任を求めていることです。

だから現場では、

  • データは溜まる
  • でも「切り取り前提」の解析では因果が立ちにくい
  • 結果、「RWDはあるがRWEにならない」が起きる

という“あるあるループ”が、構造的に再生産されやすくなるのです。

では、どうするか?

RWDを集めるだけではRWEにならない。
RWEにするには、RWDを切り取る前に“あるがまま”の構造を捉え、因果として説明できる形に落とす道具立てが必要。

その解決策として、DSA+DAGを置くと、単なる解析手法ではなく、要求に応えることが出来る「現実的な解法」となります。

  • DSAは、まず「全体平均」ではなく、分布が割れていないかを見る
    (一部が大きく改善して、別の一部が悪化していないか、少数の尖りがないか)
  • そしてDAGで、「誰がその機能を使う(選ぶ)のか」という偏りを含めて、
    効いた”のか“選ばれただけ”なのかを切り分ける問いにする

これができると、結論が「効果なし」で終わりません。
「効く人の条件はこれ」「効かない人はここが詰まっている」
「次の打ち手はプロダクト改善か、導線か、対象の切り替えか」
と、“次の一手が残る”形になります。

これまでのRWD活用は、どこかで「必要なデータだけ切り取って、仮説を検証する」前提になりがちでした。もちろん合理的です。ただ、そのやり方だと、RWDの一番大事な特徴、“現実の混ざり方、偏り方、ばらつき方”というリアルが、解析の入口でそぎ落とされてしまいます。結果として、あとから解析しても「平均的にはこうです」という話に寄り、現場が本当に知りたい「誰に、なぜ、どう効くのか」が残らない。これが“RWDがRWEになりきらない”典型パターンです。

DSA+DAGが狙うのは、その逆です。RWDを「切り取る」より先に、まずあるがままの分布構造として見る。割れ(効く群/効かない群)、ロングテール(少数が全体を動かす)、閾値(境目で挙動が変わる)、欠測や選択の偏りなど、こうした現実のクセを、ノイズとして消さずに情報として保持します。すると、RWDの中に埋まっていた「分岐」や「偏り」が表に出てきて、データの側から「問い」が立ち上がるようになります。

ただし、分布のクセが見えただけではRWEにはなりません。そこでDAGです。DAGは、その分岐や偏りを「因果の問い」に翻訳します。治療が選ばれた理由(選択バイアス)、重症度や背景因子の混入(交絡)、測定頻度や欠測が結果に与える影響など、それらを構造として整理し、「どこを調整し、何を介入とみなし、何をアウトカムと定義すべきか」を明確にします。ここまで落とすことで、RWDは“ただの相関の集まり”から、検証可能で意思決定に使える因果の証拠へと変わります。

最近、AIを使っていてこんな感覚を持ったことはないでしょうか。
「とりあえずAIに任せれば、いい感じのアウトプットが出てくるだろう」。

実際、出てきます。
それっぽい文章、それっぽい分析、それっぽい結論。
でも、読み終えたあとに残るのは、
「間違ってはいない。でも、なんか違う」という感覚です。

そして次に来るのが、
「やっぱりAIってこの程度か」
という、失望です。


でも、それは本当にAIの問題でしょうか

ここで一度立ち止まって考えてみると、
この構図はとても見覚えがあります。

「とりあえずデータを集めておけば、あとで分析すれば何か分かるはず」
→ 実際に分析すると、平均的で想定内の結論しか出てこない
→ 「データ分析って、結局こんなものか」

AIに対する期待と失望は、これとよく似ています。

AIは確かに賢い。
でも「何を残して、何を削ってはいけないか」を与えられないまま任せると、
AIは最も無難で、最も説明しやすく、最も平均的な形にまとめにいきます。

それはAIの欠点ではなく、性質です。


AIは「考える存在」ではなく「整える存在」

AIはゼロから意味を生み出す存在ではありません。
与えられた情報を整理し、要約し、一般化し、
“それっぽく”整えるのが得意です。

裏を返すと、

  • 文脈
  • こだわり
  • あえて残したい違和感
  • 削ると価値が落ちる部分

こうした「構造」を先に与えないと、
AIは容赦なくそこを均してしまいます。

結果として出てくるのが、
正しいけれど、魂のないアウトプットです。


AIがダメなのではない。「とりあえず任せる」がダメ

重要なのはここです。

AIが期待外れに見えるとき、
多くの場合、問題はAIそのものではありません。
「とりあえず任せる」という使い方です。

  • とりあえず書かせる
  • とりあえず要約させる
  • とりあえず考えさせる

この「とりあえず」は、
AIにとっては「平均化してよい」という合図になります。

その結果、
一番価値のあるクセや違和感が消え、
「それっぽい何か」だけが残る。


AIは、構造を与えたときに初めて本領を発揮する

では、AIはどう使うべきか。

答えはシンプルです。
先に構造を与えること

  • 何を残したいのか
  • どこは削ってはいけないのか
  • どこは説明しすぎなくていいのか
  • 何を“結論にしない”のか

これを人が決めた上でAIに渡すと、
AIは驚くほど強力な補助エンジンになります。

AIは「思考の代替」ではありません。
思考を保ったまま、展開・整理・表現を加速する道具です。


期待外れだったのは、AIではなく「期待の置き方」

「AIに任せれば何とかなる」
この期待は、
「データを集めれば何か出る」という期待と同じ構造をしています。

どちらも、
構造を与えないまま、結果だけを期待している。

でも本当は、
構造を決めるのは人で、
AIはそれを広げる役割に向いている。

そう考えると、
AIは期待外れどころか、
かなり正直で、かなり素直な道具だと言えます。

DSA(分布構造分析)の出発点は、意外にも統計学ではなく、私が以前から研究していたランチェスターの法則にあります。ランチェスターの法則が示したのは、大まかに言えばこういう世界観です。

競争において、戦略(戦力差)の効き方は線形ではない。「2乗」で効いてくる。

つまり、少しの差が、ある局面を超えると一気に拡大する。努力や資源の差が、足し算ではなく掛け算で効く。勝者がさらに有利になり、差が差を呼ぶ。競争が「一強多弱」へ傾いていくのは、構造として当然の帰結です。

当時の私は、「森羅万象、すべての事象は正規分布に則る」と当たり前のことのように思っていました。

平均の周りに大多数が集まり、極端な値は少ない。統計教育や実務の多くがこの前提を採用している以上、それは自然な思い込みです。実際、私たちは何かを説明するとき、まず平均を見ます。平均との差を見ます。相関を見ます。そこに“全体像”があると疑いません。

しかし、競争市場を眺めていると、この前提がじわじわ崩れていきました。市場シェア、売上、影響力、成果。多くの現象が、平均の周りに集まっていない。むしろ、少数が極端に大きく、裾が異様に長い。「中心」が世界を代表していない。

AMAZONのように、ショートヘッド&ロングテールの世界感は加速しています。

すなわち競争市場の多くは、正規分布ではない。べき分布(パワーロー)に近い。

この気づきが、私にとって転換点を与えました。なぜなら、分布が違えば、意思決定の作法が根本から変わるからです。

正規分布の世界では、平均は強い。平均は「代表値」たり得ます。ところが、べき分布の世界では、平均は簡単に壊れます。少数の極端値が平均を引っ張り、平均像は実態を映さなくなる。平均に合わせた施策は、現実の外側を撫でて終わることがある。

そして何より、べき分布の世界では「例外」は例外ではありません。
分布の端にいる少数派は、たまたま外れたのではない。競争と非線形性が生み出した、構造上の必然としてそこにいる。だからこそ、「外れ値」「ノイズ」「必要ない」で処理した瞬間、現実の重要部分を捨てることになります。

つまり言いたいことは、まず分布を、ありのままに見る必要がある。です。

これがDSAの始まりです。DSAは「平均の代替」ではありません。平均や相関が悪いわけでもない。問題は、平均と相関が“効く世界”と“効かない世界”が混在しているのに、それを区別せずに使ってしまうことです。

ランチェスターの法則が示した「差が2乗で広がる」世界では、分布は歪み、裾が伸び、少数が支配的になります。つまり、分布の形そのものが情報です。まずそれを捉える。次に、その構造がなぜ生まれたのかを因果で解く。それがDSA+DAGの流れです。

私は今、DSA+DAGの価値を「80%と20%」という比喩で語ることがあります。その本質は、80%+20%=100%の世界を、ありのままに捉えることです。平均の外側に押し出された現実を「例外」として消さず、意思決定の俎上に戻す。そこに、次の勝ち筋が隠れているからです。

ランチェスターから学んだのは、勝ち方のテクニックではありません。世界が非線形であるという事実でした。DSAは、その非線形な世界を誤認しないための、私なりの翻訳です。

「AIはすでにバブル期に入った」
最近よく聞く言説です。理由は明快で、過剰投資に見合うリターンが見えないからだと言います。

確かに、バブルとは「価値と評価の乖離」です。
この定義自体は正しい。しかし、問題はその乖離をどう捉えているかにあります。

多くのAIバブル論は、暗黙のうちに平均で世界を見ています。
市場全体のROI、産業全体の生産性向上率、投資額に対する回収率──。
しかし、AIの価値創出は、そもそも平均で語れる構造をしていません。

AIのリターンは、典型的にロングテールです。
大多数は期待ほどの成果を出せない一方、ごく一部が桁違いの価値を生み、全体を支配する。
これは異常でも偶然でもなく、構造です。

ここで重要なのは、
「多くが失敗している」ことと
「一部が圧倒的に成功する」ことは、同時に成立するという事実です。

平均値は、この両者を同時に覆い隠します。
そして平均で語った瞬間、AIは「過大評価か否か」という不毛な二元論に落ちていく。

本当に見るべきなのは、
価値と評価の乖離が、どの条件で、どの層に生じているのかです。

評価は、価値だけで決まりません。
期待、物語、金利、流動性、規制、地政学──
評価には、価値とは別の経路で増幅される回路が存在します。

一方で、価値は
データの質、業務への実装度、組織の学習能力、現場の抵抗、運用コスト
といった、極めて地味で摩擦の多い要因に左右されます。

つまり、評価と価値は最初から同じ道を歩いていない
乖離は「人々が愚かだから」生じるのではなく、
異なる因果経路が同時に走っている結果として生まれます。

ここを構造的に捉えるためには、
・乖離がどこで太るのかを「分布」として捉え
・その乖離が生まれる仕組みを「因果」として分解する
必要があります。

AIは一様にバブルなのではありません。
バブル的な層と、実需駆動の層が混在している
そして、その境界は技術水準ではなく、構造の違いにあります。

平均で語る限り、AIバブル論は永遠に終わりません。
しかし、分布と因果で見れば、
「どこが過剰で、どこが本物か」は、驚くほど静かに見えてきます。

議論すべきなのは、
「AIはバブルか否か」ではなく、
どの構造が価値を生み、どの構造が評価だけを膨らませているのかです。

――DSA+DAGが“世界をありのままに捉える”ためのツールである理由」

DSA+DAGの価値を説明するときに「80%と20%」という比喩を使ってきました。標準治療や標準施策が効く“多数派”が80%、そこから外れる“少数派”が20%。平均と相関が前提の世界では、この20%はしばしば「例外」「ノイズ」「仕方ない」で処理されてしまう。そういう意味での比喩として用いていました。

先日、目にしたSNSの投稿で、比喩ではなく、まさに現実の出来事として実感しました。白血病の治療中の若い方の投稿です。

「『3回までで、80%は改善する』と言われました。
でも私は、その20%側でした。」

さらに続く言葉が、胸に刺さります。

「努力しなかったわけでも、治療を拒んだわけでもありません。」

ここで起きているのは、医学の失敗というより、意思決定の失敗です。
「80%改善」という情報は、集団としては正しい。しかし個人にとっては、正しさが救いにならない。むしろ、その正しさが“20%側”の人生を、静かに、確実に、切り落としてしまします。

そして社会は、残酷なほど簡単に言ってしまう。

「十分頑張ったんだから、もう悔いはないでしょう?」

しかし当事者は言うのです。

「未練は、山ほどあります。」

この瞬間、「80%と20%」は統計の比喩ではなくなります。
それは、誰かの時間であり、家族の生活であり、未来そのものです。
平均の外側に押し出された人の、取り戻せない現実です。

DSA+DAGの使命は、ここにあります。

平均値で「効く/効かない」を語って終わらせない。
相関で「こういう傾向」を語って満足しない。
“20%側”を「例外」として片づけず、なぜその人が20%になったのかを構造として捉える。
そして、もし可能なら、その人が次に同じ治療や選択をするとき、80%側に移る条件を示す。

これは希望論ではありません。倫理でもスローガンでもありません。

「80%は改善する」という言葉が、20%の人を黙らせる道具になってはいけない。
“効かなかった人”の物語を、統計の影に埋もれさせてはいけない。
むしろ、医療も社会も本当に強くなるのは、成功例の数ではなく、失敗の内訳を扱えるようになったときです。

DSA+DAGは、20%を“救済対象”として見るのではありません。
20%を、次の意思決定を更新するための「情報の核」として扱います。
「うまくいかなかった少数」を終点にせず、なぜ”を起点に変える
そのために、分布を見て、構造を分解し、因果の経路を描きます。

DSA+DAGは、世界が見落としてきた20%を、意思決定の俎上に戻すための武器となりうる。

DSA+DAGの開発はもはや私にとっての使命です。

名将・野村克也氏の言葉に「勝ちに不思議の勝ちあり、負けに不思議の負けなし」というものがあります。勝った試合には、たまたま噛み合った要素が混ざることがある。一方で負けた試合には、必ず理由がある。穴がある。準備不足、選択ミス、相手の強みへの無策・・・原因は“構造”として残ります。

医療やビジネスで語られる「成功率/有効率80%」も、これに似ています。80%は心強い数字ですが、成功の側には偶然が混ざります。たまたま適合した、たまたま副作用が軽かった、たまたまタイミングが良かった。つまり「成功例」は、案外“説明が難しい”。

一方で、失敗/改善しなかった20%はどうか。ここには「不思議」は少ない。うまくいかなかった/薬が効かなかったなら、それ相応の理由がある。別の因子が邪魔をしている、治療経路が合っていない、前提となる状態が違う・・・原因は必ずどこかに潜んでいます。ただ、平均と相関の世界では、その20%は「例外」で片付けられ、検討の中心から外されてきました。

DSA+DAGが狙うのは、まさにここです。
勝ち(80%)を賛美するのではなく、負け(20%)に残る“構造の手がかり”を回収する。負けの原因を分解し、「何が揃えば勝ち側に移れるか」を条件として示す。言い換えれば、見落とされてきた20%を、次の勝ち筋に変えるための武器です。

「勝ちは説明困難、負けは原因がある」野村氏の格言は、統計の世界にもそのまま通じます。だからこそ、20%を見捨てない解析は、単なる優しさではなく、次に勝つための合理性なのです。

高市内閣が高い支持率を背景に解散総選挙に踏み切りました。この判断は吉と出るのか、凶と出るのでしょうか。政治の世界では暗黙知や経験則が語られがちですが、ここではあえて「因果モデルで占う」という前提に立ちます。支持率がとか野党がとか2値で語られることが多いですが、分析の鍵は、支持率という“平均値”をそのまま信じないことです。

小選挙区制では、全国支持率の高さは勝利の十分条件ではありません。勝敗を分けるのは、接戦区に票がどれだけ集中するか、無党派がどの条件で動くか、そして投票率がどの層で上がるか。DSA(分布構造分析)は、支持や得票の分布を尖り・裾・多峰性として可視化し、支持が「薄く広く」なのか「勝てる帯域に厚い」のかを見極めます。支持率が高くても、分布の裾が安全区に偏れば議席には変換されません。

一方、DAG(因果グラフ)は“見かけの因果”を剥がします。年齢別支持の背後には、投票率、都市・地方の居住、所得や雇用、情報接触、争点の当事者性といった交絡が横たわる。解散のタイミングも同様です。経済指標や外交イベント、政策発表、メディア露出が同時に動く中で、「解散そのもの」の効果を他のショックと混同しない設計が不可欠になります。

DSA+DAGで占うと、問いはこう変わります。支持率は“どの分布”で、どの選挙区の接戦帯を厚くしているのか。動く無党派は、どの条件が揃ったときに投票に転ぶのか。解散は、その条件を強める介入になっているのか――それとも外部要因に埋もれるのか。吉凶の分かれ目は、支持率の高さではなく、因果の通り道が「議席」に向いているかどうかにあります。平均から分布へ、印象から構造へ。因果モデルは、解散判断の“勝ち筋”と“落とし穴”を同時に照らします。

1) 目的とEstimand(占う対象)を固定します

まず「吉凶」を1行で定義します。

  • 主要アウトカム :与党(または内閣支持基盤)の議席数(小選挙区・比例別でも可)
  • 介入 :解散の実施(+タイミング:例「今月解散」 vs 「半年後」)
  • Estimand(因果効果)

=「解散を選んだ世界」と「解散しなかった世界」の議席差

ここが揃うと、評論は「好き嫌い」ではなく「効果の推定」に変わります。


2) DAGテンプレ(ノード設計)

最低限、次のノード群を置きます(括弧は代表的な観測変数例)。

介入と結果

  • :解散(実施・タイミング)
  • :選挙結果(議席、得票率、勝敗)

主要な因果経路(媒介:M)

解散が結果に効くなら、途中で何かが動きます。

  • :投票率(全体・年齢別・地域別)
  • :無党派の投票先分配(浮動層のスイング)
  • :争点サリエンス(何が主要争点になるか)
  • :候補者・選挙区力学(候補者調整、接戦区の集中)

交絡(C:TにもYにも効く“混ざり物”)

ここを塞がないと、相関を因果と誤認します。

  • :政権状態(内閣支持・不支持、党支持、スキャンダル)
  • :マクロ環境(物価・賃金・景気、国際情勢、災害など外生ショック)
  • :選挙区構造(都市/地方、過去の得票分布、接戦度、人口動態)
  • :対抗側の状態(野党の候補者調整・分裂、連立の枠組み)
  • :調査・情報環境(メディア露出、SNS話題、世論調査モード差)

基本DAG(文字で表す骨格)

  • (支持率や経済が“解散判断”に影響)
  • (同じ要因が“選挙結果”にも影響)
  • (解散が投票率や無党派を動かし議席へ)

3) 調整セット(何をコントロールし、何をしないか)

ここが「相関→因果」を決める核心です。

まずやる:バックドアを塞ぐ(推奨の調整)

  • 調整する(C)
    内閣/党支持のトレンド、経済指標、外生イベント、選挙区構造、対抗側の状態、情報環境(最低限 proxy でも)
  • 調整しない(M:媒介)
    投票率や無党派スイングは、解散の効果そのものの通り道なので、基本は調整しません(やるなら別Estimand=「直接効果」にします)。

これで「支持率が高いから勝つ」という相関の短絡を避けられます。
「支持率が高い“から”解散し、同時に勝ちやすかっただけ」という混同(交絡)を潰します。


4) DSA設計(“平均の支持率”を分布に分解して勝敗変換を点検)

DAGで構造を固定した上で、DSAで「議席に変換される形か?」を見ます。

可視化①:選挙区別の“接戦帯”分布

  • 指標:与党(または主要党)の選挙区得票率分布
  • 見る形:45–55%帯の厚み、裾の伸び、尖り
  • 解釈(占いのルール)
    • 接戦帯が厚い:小さな揺れで議席が大きく動く → 吉凶の振れ幅が大
    • 安全区に尖る:票が積み上がっても議席は増えにくい → 凶寄り(変換効率が悪い)

可視化②:地域偏在(山がどこに立つか)

  • 都市/地方、ブロック別に分布を並べる
  • 解釈:支持が「増える場所」と「議席が増える場所」が一致しているか

可視化③:無党派の“分布分解”

  • 「支持なし」を1つにせず、
    常時無党派 vs 浮動無党派(直前変動しやすい層)
    を分ける(代理変数でもOK)
  • 解釈:解散が動かすのはどちらか(動く層が多いほど“解散の効果”は出やすい)

可視化④:年齢別支持×投票率(ここで“見かけの年齢効果”を剥がす)

  • 年齢別「支持」だけでなく、投票率で重み付けした分布を見る
  • 解釈:若年支持が強くても投票に変換されなければ議席影響は小さい

5) 「吉と出る/凶と出る」を因果モデルで言い換えると

主観の代わりに、次の2条件で結論を出します。

  • 条件A(DAG):交絡を塞いだ後も、 の道が太い
    (解散が投票率・無党派・争点を動かす見込みがある)
  • 条件B(DSA):その動きが 接戦帯議席増加が起きる地域に集中している

AもBも満たす →
AはあるがBがない(安全区に偏る等)→
Aが弱い(解散しても何も動かない)→
Aは強いが不確実(接戦帯が極厚で多峰性)→ ハイリスク・ハイリターン