— 仮説駆動が現実を歪めるとき —

フレームワークは強力です。短時間で議論を整理し、意思決定を前に進める。ところが、ある瞬間から急に機能しなくなることがあります。議論は整っているのに、現場が動かない。提案は美しいのに、成果が出ない。私はこの瞬間を何度も見てきました。

フレームワークが機能しないのは、フレームが間違っているからではありません。現実の方が「フレームの前提条件」から外れているからです。たとえば、分布が厚い(ばらつきが大きい)世界、因果が循環しやすい世界、選択バイアスが常態化している世界では、仮説駆動が強いほど“見たいものだけを見る”力学が働きます。

仮説は、必要なものです。ただし仮説は、現実を照らすライトにもなれば、現実を切り捨てるナイフにもなります。とくに意思決定が急がれる局面では、整合性のあるストーリーが勝ってしまう。異質性(例外)が「ノイズ」として退場させられる。これが、後から効いてきます。

ではどうするか。私は答えを一つにしません。ただ、問いは明確です。
「このフレームは、現実のどの部分を“見ないこと”にしているのか?」
この問いが入った瞬間、フレームワークは“思考停止”の道具から、“監査可能な意思決定”の道具に変わります。

RWDは確実に増えました。データ基盤も整い、BIも高度化し、AIも導入されつつあります。にもかかわらず、意思決定の質、特に「戦略の質」は必ずしも上がっていない。むしろ、データが増えた分だけ“判断が遅くなる”現象すら起きています。

理由はシンプルで、データ量の増加が自動的に「解像度の上昇」にはならないからです。多くの分析は、相関を強化し、予測精度を上げます。しかし戦略に必要なのは、相関ではなく「なぜそれが起きているか」の説明可能性です。相関は意思決定を前に進めるように見えて、最後に“責任の置き場”を失わせます。

さらに、RWDは現実の混線をそのまま含みます。適応、併用、施設特性、患者背景、選択バイアス。これらは「データが豊富である」ほど強く混ざり合います。つまり、データが増えるほど、因果の設計が曖昧なままでは結論が揺れやすくなります。

結果として、現場はこうなります。
「見える化は進んだが、決め手がない」
「説明ができず、合意形成ができない」
「結局、過去踏襲に戻る」

データを増やす時代から、現実の“構造”を掴む時代へ。RWDの次のボトルネックは、データ収集ではなく「構造を歪めずに扱う意思決定技術」なのだと思います。

「有意差が出た」「主要評価項目を満たした」。それだけで、私たちは安心してしまいます。けれど現場の意思決定は、意外なほどズレます。論文は“正しい”のに、現実は思った方向に動かない——この違和感は、統計の精度ではなく“問いの設計”に起因していることが少なくありません。

論文が扱うのは、平均や要約された単一の指標になりがちです。一方、現実の患者・現場・市場は、分布として存在します。つまり、同じ結果(平均改善)が成立していても、その内側には「効く人」「効かない人」「害が出る人」が同居します。平均の勝利は、個別の敗北を覆い隠します。

さらに厄介なのは、統計的に正しいほど、その“見えない部分”が見落とされる点です。再現性が高いのに外れる、被引用が多いのに使えない。評価軸が整備されるほど、現実判断の材料としての限界が目立ってきます。

ここで問いたいのは、論文が正しいかどうかではありません。「その論文は、どこまで監査可能(説明可能)に、現実を扱っているか」です。
“正しさ”よりも、“どこまで歪みなく見ているか”。いま必要なのは、その観点のアップデートなのだと思います。

チームみらいの当選率が異常にに高いということで不正疑惑が持ち上がっています。既にYoutubeなどで取り上げられていますが、その分析の多くは状況証拠によるものです。そこで統計的なアプローチで、選挙データを詳細に分析してみようと思います。「当選率」という指標は、候補者数(サンプルサイズ)が極端に異なる場合、誤解を生みやすい性質があります。チームみらいは、小選挙区での勝利をほぼ放棄し、全国の比例ブロックで一定の得票を集めて議席を確保する戦略を採用しました。分析によりその戦略が見えてきました。

8日投開票の衆院選で、中道改革連合が議席を大きく減らしたことを受け、野田共同代表は「大敗は万死に値する大きな責任」と答えました。 同じ中道改革連合に属しながら、公明党は議席を33%増やし、立憲民主党は85%減らすという極端な明暗が生じました。なぜこのような現象が起きたのでしょうか?

中道・中道改革連合における公明党と立憲民主党の明暗が分かれた理由について、DSA(分布型構造分析)とDAG(有向非巡回グラフによる因果推論)を用て分析をしてみました。

2026年衆議院総選挙の結果は、単なる議席増減ではなく、議会内の勢力分布そのものを“別物”に作り替える構造変化でした。選挙前は二大政党的な競争が成立していたのに対し、選挙後は第1党に議席が強く集中する“一党優位型の寡占構造”へと移行しています。

この変化は印象論ではなく、定量指標が明確に裏付けます。議席分布の不均等性を示す指標は軒並み悪化し、特にHHI(寡占度)は大幅に上昇。第1党シェアも急増し、トップ政党への集中が加速しました。結果として、自民党は316議席という戦後最多の単独最多議席を獲得する一方、対抗軸となるはずの勢力は大幅に縮小し、競争構造が崩れたことが数字で示されます。

さらに、べき乗則分析では、第1党が理論値を大きく上回り、第2党以下が下回る“構造的歪み”が確認されました。これは、今回の選挙が「勝者総取り」的な帰結を持ち、議会内競争を寡占化へ押しやったことを意味します。

──因果を語る時代に必要な“構造を見る力”──

近年、「科学的に見えるが、どこか違和感のある主張」を目にする機会が増えています。専門用語、数値、AI解析、シミュレーションといった言葉が並び、一見すると論理的です。しかし読み進めるほどに、因果関係が曖昧で、検証の道筋が見えない。にもかかわらず、多くの人がそれを「納得」してしまいます。なぜでしょうか。

理由の一つは、人が本能的に「原因と結果が一本の線で結ばれた物語」を求めるからです。現実は本来、多数の要因が絡み合う分布構造を持っています。しかし不確実性の高い時代ほど、人は複雑さに耐えられず、「誰かが隠した」「これが真の原因だ」という単純な因果に救いを求めます。そこに“科学っぽい言葉”が添えられると、安心感と正当性が一気に補強されます。

問題は、それが科学の形を借りた物語であっても、因果の検証を経ていない点です。前提条件は何か、他の説明は排除されたのか、反証された場合はどうなるのか。こうした問いが置き去りにされたまま、結論だけが強く語られると、人は「理解した気になる」一方で、現実を正しく捉える力を失っていきます。

ここで重要になるのが、因果を“主張”ではなく“構造”として扱う視点です。DSA(分布構造分析)は、平均や単一の事例に飛びつく前に、データ全体がどのような歪みや層構造を持っているのかを可視化します。そしてDAG(有向非巡回グラフ)は、「何が原因で、何が結果か」を仮説として明示し、検証可能な形に落とし込みます。

DSA+DAGが目指すのは、分かりやすい物語を作ることではありません。分からなさを残したままでも、誠実に因果を扱うことです。科学っぽい陰謀論が広がる時代だからこそ、因果を語る側には、構造を示し、反証の余地を残す態度が求められています。それこそが、意思決定の質を高め、社会に本当の意味での納得をもたらす唯一の道だと考えています。

業務最適化や生産性向上を考えるとき、多くの場合、現場の実行レベルにおける「個別最適化」(作業の効率化、工程短縮、手順改善など)に意識が向きがちです。これは、戦後の高度経済成長期のように「質」よりも「量」の効果が強く、工程を増やせば成果が増える──すなわち「工程=コスト(増やすほど不利)」という前提が比較的成立していた時代の発想です。

しかし、テクノロジーが高度に進歩した現在、その前提は大きく揺らいでいます。特にAIの登場により、工程の一部は限界費用が限りなくゼロに近づき、「工程=コスト」という単純な等式では捉えられなくなりました。むしろ、実行そのものよりも「実行計画」、実行計画よりも「事業計画」、事業計画よりも「事業戦略」、事業戦略よりも「経営戦略」といった、より上位概念での最適化こそが成果を左右します。

つまり、重要なのは「何をするか」だけではありません。同時に「何をしないか」を明確にし、さらに「なぜそれをするのか/しないのか」を、因果や構造として説明できることが求められます。DXSStratifyやDSA+DAGは、この“上位概念の最適化”を支えるために、現場のデータを単なる可視化や効率化に留めず、意思決定の根拠(構造・因果・再現性)とすることが可能です。

昨今、地方自治体が地域課題の解決に向けて全国からアイディアを募る取り組みは珍しくなくなりました。行政による中小企業支援も活発で、必ずしも大企業でなくても、スタートアップやベンチャーが大企業にはできないソリューションを生み出す時代になっています。

問題は、その「評価の仕方」です。

多くの公募や審査では、提案を点数化し、平均点の高いものが採択されやすい傾向があります。しかし、イノベーションはそもそも全員に均一に理解されるものではありません。新しい提案ほど、理解できる人とできない人が分かれます。ここで平均点だけを基準にしてしまうと、尖った価値は「ノイズ」と見なされ、丸い提案だけが残りやすくなります。

たとえば10点満点で評価したとき、平均点が5を下回っていたとしても、10点をつける人が存在することが重要です。なぜなら、その10点をつけた人は「熱狂者」だからです。熱狂者が生まれる提案は、理解されにくい代わりに、課題を一気に動かす推進力になり得ます。一方、平均点が高い提案は、誰にでも理解できる範囲に収まっている可能性が高く、合意形成は容易でも、結局は既存の延長線上の改善に留まりがちです。

つまり、平均点が高いことは「安心」の指標にはなっても、「起爆剤」の指標にはなりにくいのです。地域課題の多くは構造的で、既存の枠内での小さな改善では突破しづらい場面が少なくありません。だからこそ、ローリスク・ローリターンな提案ばかりが選ばれる評価設計では、本質的な解決に届きにくくなります。

もちろん、平均が低ければ何でも良いという話ではありません。説明不足や実装不能な提案も混ざります。重要なのは「平均」ではなく「分布」を見ることです。評価が割れること自体を危険視するのではなく、むしろ新規性の兆候として捉え、次に実装条件(制度・予算・体制・KPI)でふるいにかける。一次で尖りを拾い、二次で実装可能性を見極める──この二段階の考え方が、イノベーションを殺さずに現実へ接続するための現実解だと思います。

地域課題に必要なのは「みんなが納得する案」だけではありません。「一部の人が強く支持し、推進者になって前に進める案」が必要です。平均点の高さではなく、熱狂者が生まれるかどうか。評価の重心をそこへ移せるかどうかが、自治体の公募や支援策の成果を大きく分けていくのではないでしょうか。

――そしてDSAへの期待

現在の画像診断は、技術的には大きく進歩しています。高精細な画像、定量指標、AIによる自動解析。しかし一方で、臨床現場では「分かるが、説明しにくい」「見ているが、数値にできない」という違和感が残っています。

画像を読むとき、医師が本当に見ているのは平均値ではありません。ムラがあるか、局所的に尖った部分がないか、境界が不自然ではないか、内部に複数の相が混じっていないか。つまり構造です。しかし現状の定量指標は、厚み、径、体積など、どうしても単一の代表値に寄りがちで、構造の情報は潰れてしまいます。

AIはこの問題を解決するかのように期待されました。確かに、特定タスクにおいては高い精度を示します。ただしその多くは「当てに行く」モデルであり、なぜそう判断したのかを、臨床家が構造として検証することは容易ではありません。装置差や撮像条件の違いによる分布シフトにも弱く、運用や監査の面で課題が残ります。

さらに、医療画像では「真の正解」が曖昧であることも少なくありません。病理が取れない、経過でしか確定しない、評価者間一致が低い。こうした状況では、正解ラベルを前提とするAIは限界を抱えます。結果として、読影は依然として経験に依存し、その経験は共有や再現が難しいままです。


DSAへの期待

こうした課題に対して、DSAが提供する価値は明確です。DSAは画像そのものを診断するのではなく、画像から取り出される量がどのような分布構造を持っているかを評価します。歪み、尖り、裾の重さ、多峰性といった「構造の形」をスコア化することで、画像に含まれる違和感を数値として残します。

これにより、医師が感覚的に捉えていた構造的所見を、誰もが同じ指標で確認できるようになります。平均値では同じに見える画像の違いを、「分布の形が違う」と説明できる。治療前後の変化を、サイズではなく「構造の変化量」として追跡できる。これは診断精度を競うAIとは異なる、説明可能性と再現性に重きを置いたアプローチです。

DSAは、既存の画像解析やAIと競合するものではありません。むしろその上流や横に位置し、構造がどの程度歪んでいるのか、どこが不均一なのかを明示することで、判断の根拠を補強します。画像診断における「経験」と「数値」の間にある空白を埋める存在として、DSAには大きな期待があります。

ホワイトペーパー