トランプはなぜ“当てに行かない”のか

ドナルド・ドナルド・トランプの政策を見ていると、日本の政治や経営と決定的に異なる点があります。
それは、平均を良くしようとしていないという点です。

医薬品関税を巡る最近の動きは象徴的でした。
「関税を最大250%課す」という強烈なカードを掲げながら、実際には欧米の大手製薬企業の多くを対象外とし、その代わりに米国内での薬価引き下げを受け入れさせる。一方で、その原資は米国外での値上げとして調整される可能性が示唆されています。日本も例外ではありません。

これは「国全体の平均医療費をどう下げるか」という発想ではありません。
米国内の有権者という特定の分布を下げ、負担を国外という別の分布に移す。極めて分布構造的な意思決定です。


トランプは政治家である前に、ビジネスマンである

トランプはしばしば「ポピュリスト」と評されますが、彼の意思決定はむしろビジネスマン的です。

  • 平均値は見ない
  • 全体最適を語らない
  • どこに利益を集中させ、どこに負担を押し付けるかを明確に切る

これは企業経営でいえば、

「利益率の低い顧客を切り、利益率の高い顧客に資源を集中する」
という判断と同じ構造です。

政治の文脈では過激に見えますが、構造としては極めて合理的です。
しかも、このやり方は「当たるかどうか」を問題にしていません。
重要なのは、再現性のある支持構造をどう作るかです。


日本は、いまだに「平均の呪縛」に囚われている

一方、日本の政治や経営はどうでしょうか。

  • 国民全体
  • 業界全体
  • 社員全体

常に「全体平均」で語り、「みんなにとって良い政策」「誰も置き去りにしない経営」を目指します。
その結果、誰にも強く刺さらない

市場が成長している時代であれば、平均の最適化でも問題はありませんでした。
しかし、人口減少・市場縮小・ゼロサム化が進む現在、平均志向は意思決定の遅延競争力の喪失を招きます。


これから必要なのは「構造を切る覚悟」

日本の政治家や経営者に求められているのは、スローガンではありません。

  • どの分布を守るのか
  • どの分布を切るのか
  • どこに資源を集中させるのか

これを明示的に決める覚悟です。

トランプのやり方が正しいかどうかは別問題です。
しかし少なくとも、彼は「平均」という幻想を捨て、構造で世界を見ている

ビジネスも政治も、もはや

「平均をどれだけ下げたか」
ではなく、
「どの分布をどう動かしたか」
が問われる時代に入っています。

トランプはそれを、誰よりも早く、誰よりも露骨にやっているだけということです。

因果推論の怖さは、「間違えると少しズレる」ではなく、結論が反転するところにあります。DAG(因果ダイアグラム)を正しく固定できていないと、交絡因子の向きや扱い次第で、有益が有害に、有害が有益に見えてしまいます。しかも、その反転は“統計的に有意”という顔で堂々と現れます。

なぜ起きるのでしょうか。理由は単純です。DAGは絵ではなく、「何を調整し、何を調整してはいけないか」を決める設計図だからです。設計図が違えば、分析は別の世界線を見に行きます。

典型的な落とし穴は3つあります。
1つ目は交絡の取り逃がし。共通原因を調整しないまま因果効果を語れば、見かけの関連に引きずられます。
2つ目はコライダー(合流点)を調整してしまうこと。これは「本来なかった関連」を人工的に作り、方向まで変えます。
3つ目は媒介(中間変数)の扱い。総効果を見たいのに媒介を調整すると、効果を消したり、条件によっては逆方向に見せたりします。

ここで重要なのは、DAGを“信仰”しないことです。DAGは仮説であり、固定には根拠が必要です。私はこの根拠を、現場のデータ構造から上流に遡って点検できる仕組みとして、DSA(分布構造分析)+DAGを位置づけています。まずDSAで「どこに偏りや層があるか」を可視化し、次にDAGで「どの経路を因果として採用するか」を監査可能にする。これが、意思決定に必要な説明責任を担保する最短距離です。

因果推論の失敗は、間違った結論以上に、間違った確信を生みます。だからこそ、DAGは描くのではなく、固定し、点検し、説明できる形にする必要があります。

――AI時代の意思決定は「結果」ではなく「手順」を問われる

AIを使った予測や分析が当たり前になりました。医療データ、ビジネスデータ、政策データ。
「AIに聞けば答えが出る」「データを入れれば結論が出る」──そう信じられている場面を、私たちは日常的に目にします。

しかし、その多くに決定的に欠けているものがあります。
それが 分析アルゴリズム=意思決定の手順 です。

データは増えた。でも、説明は減った

RWD(リアルワールドデータ)は爆発的に増えました。
ところが意思決定の現場では、

  • なぜこの結論になったのか
  • どの前提が結果に影響したのか
  • 条件が変わったら結論はどう変わるのか

といった問いに、明確に答えられないケースが増えています。

平均値、p値、回帰係数──
数値は並んでいるのに、意思決定として監査できない
これは「データ不足」ではなく、「構造不足」の問題です。

DSA:仮説を“作る前”に、構造を固定する

DSA(Distribution Structure Analysis)は、
いきなり因果を語る前に、分布構造として何が起きているかを固定するためのアプローチです。

  • 平均に隠れた二峰性
  • 一部の層だけで起きている強い効果
  • 外れ値ではなく「尾部」に意味がある構造
  • 効く人/効かない人の分離構造

これらを探索として可視化し、仮説の候補を残す
DSAは「答えを出す手法」ではなく、
問いの置き方を監査可能にするための前段設計です。

DAG:因果の“仮定”をブラックボックスにしない

DAG(Directed Acyclic Graph)は、
因果関係を証明する魔法の道具ではありません。

DAGの本質は、

  • 何を因果と仮定したのか
  • 何を交絡とみなしたのか
  • 何を調整し、何を調整しないのか

という 因果推論の前提条件を明示すること にあります。

DAGを描くとは、
「この結論は、この仮定の上に成り立っています」と
説明責任を引き受ける行為です。

DSA+DAGが実現するもの

DSAとDAGを組み合わせることで、初めて次のことが可能になります。

  • 仮説生成(DSA)と因果検証(DAG)が混ざらない
  • なぜその仮説を選んだのかを説明できる
  • 外れたときに「どこが間違っていたか」が分かる
  • 同じデータ・同じ前提なら、誰がやっても同じ結論になる

これは予測精度の話ではありません。
意思決定の再現性と説明責任の話です。

結論:DSA+DAGは「当てるAI」ではない

DSA+DAGは、未来を当てるためのAIではありません。
不確実な世界で、

「なぜその判断をしたのか」を説明できる意思決定

を作るための設計思想です。

AI時代の競争力は、
速く答えることではなく、
答えの作り方を公開できることに移りつつあります。

DSA+DAGは、
データを「それっぽい結論」に変換する仕組みではなく、
意思決定を検証可能な構造物に変えるためのフレームワークです。