因果推論においてRCTは強力です。ApixabanとRivaroxabanの比較試験のように、「どちらの出血リスクが低いか」を平均的に示すには非常に有効です。しかし、現場の意思決定は本来それだけでは足りません。私たちが本当に知りたいのは、「なぜ差が出たのか」「誰にその差が成立するのか」「何を変えれば結果が変わるのか」という問いだからです。

従来の統計やRCTが主に示すのは、確率としての差です。つまり「平均的にはこちらが良い」という答えです。けれども医療もビジネスも、現実は平均では動きません。患者背景、併用薬、腎機能、行動、運用条件などが複雑に絡み合い、特定の条件でだけリスクが跳ね上がったり、逆に効果が強く出たりします。平均値だけでは、その構造は見えません。

ここで必要になるのがDSA+DAGです。DSAは、全体平均の裏に埋もれた分布の偏りや異質性を捉えます。どの層にリスクが集中しているのか、どこに見えない脆弱性があるのかを可視化します。DAGは、変数間の関係を単なる相関ではなく、因果仮説として整理します。つまり「結果が起きている確率」を見るのではなく、「結果を生んでいる構造」を捉えるための道具です。

重要なのは、これが分析の精緻化ではなく、意思決定の発想転換だということです。確率の高い選択肢を選ぶ時代から、因果構造を理解し、介入によって結果を変える時代へ。DSA+DAGは、そのための基盤になり得ます。これから必要なのは、有意差の有無ではなく、構造を読み、因果として判断する力です。

https://pubmed.ncbi.nlm.nih.gov/41812192

冬季感染症の流行期、小児科外来ではインフルエンザ、COVID-19、RSVなどが重なり、発熱初日の乳幼児を前に「まず何をどう判断するか」が問われます。従来は、陽性か陰性か、どのウイルスかという“判別”が中心でした。しかし現場が本当に必要としているのは、確定診断そのものよりも、限られた初期情報から治療や再受診の優先度を見極める“予測”ではないでしょうか。

特に乳幼児では、鼻腔スワブ自体が大きな負担になります。泣く、暴れる、採れない、再採取になる。すると検査精度だけでなく、受診行動や治療開始タイミングにまで影響します。つまり課題は単なる検査法ではなく、「診断が成立するまでのプロセス」全体にあります。

ここで重要になるのが、DSA+DAGの発想です。DSAは、発熱初日という同じラベルの中に潜む異質な分布構造を捉えます。例えば、高熱だが活気はある群、微熱でも呼吸器症状が強い群、家庭内曝露が濃厚な群など、平均値では潰れてしまう違いを見える化できます。さらにDAGを用いれば、月齢、症状、曝露歴、採取困難性、受診遅延、治療判断がどうつながるかを因果構造として整理できます。

これは「病原体を当てる技術」にとどまりません。むしろ、検査前の段階で誰を優先して診るべきか、誰に追加検査が必要か、誰に早期治療を考慮すべきかを支援する、“診断前意思決定技術”です。今後のフロンティアは、非侵襲検体の開発だけではありません。症状、行動、流行状況を含めた情報全体から、診療の再現性を高める構造を見出すことにあります。

判別だけに依存する時代から、予測と介入を設計する時代へ。乳幼児感染症診療は、その転換点にあります。異業種企業にも参入余地は大きいはずです。非侵襲採取デバイス、待合室トリアージ、保護者向け受診判断アプリ、外来支援アルゴリズムなど、価値創出のポイントは検査試薬の外側に広がっています。判別市場が成熟する中で、次に伸びるのは、予測と介入設計を担う周辺市場かもしれません。医療の現場課題を、単品開発ではなく構造で捉え直すことが、次の事業機会につながります。

陰謀論は、なぜこれほどまでに強く、人の中に残り続けるのでしょうか。
それは単なる「誤情報」だからでは説明がつきません。むしろ重要なのは、「どのような構造でそれが成立しているか」です。

従来のアプローチでは、陰謀論は「正しいか、間違っているか」で評価されてきました。しかしこの視点では、なぜそれが広がり、なぜ信じられるのかという本質には到達できません。

ここで有効なのが、DSA(分布構造分析)とDAG(因果構造)の視点です。

まずDSAで見ると、陰謀論は単一の主張ではなく、複数の要素が混在した「混合分布」として存在しています。
例えば、「一部の事実」「未確定情報」「誤情報」「強い感情」が同時に含まれています。この中でも特に重要なのが、“一部の事実”の存在です。これが分布の中で信頼の起点(フック)となり、全体の信憑性を底上げしてしまうのです。

つまり陰謀論は、完全な虚偽ではなく、「部分的に正しい構造」を持つからこそ強いのです。

次にDAGで因果関係を整理すると、さらに本質が見えてきます。
多くの場合、「不信(メディア・権威)」→「情報選択の偏り」→「誤情報の受容」→「確信の強化」→「拡散」という連鎖が成立しています。

ここで重要なのは、「誤情報そのもの」ではなく、「それを受け入れる構造」が存在している点です。
一度この因果ループに入ると、外部からの否定情報はむしろ“攻撃”として認識され、さらに信念が強化されるという逆説的な現象が起きます。

これはビジネスにも極めて示唆的です。
市場における意思決定もまた、「情報の正しさ」ではなく、「どの構造で受け取られるか」によって結果が変わります。どれほど正しいメッセージでも、受け手の分布構造や因果構造に適合しなければ、届かないどころか逆効果になることすらあります。

したがって重要なのは、「正しいことを伝える」ことではなく、「どの構造に介入するか」を設計することです。
分布を読み、因果を設計し、小さく介入し、再び構造の変化を観察する。この反復こそが、陰謀論のような強固な信念構造にも対応可能な唯一の方法です。

陰謀論は異常ではありません。
それは、人間の意思決定が「構造」に支配されていることを示す、極めてわかりやすい事例なのです。


AI時代に入り、アプリ制作、文章作成、画像生成、分析補助まで、個人でもかなりのことが実現できるようになりました。その一方で、いま急増しているのが、いわゆる「Thin wrapper」ビジネスです。これは、既存の大規模言語モデルや生成AIの上に、簡単なUIや使い方の導線を載せただけのサービスを指します。見た目は新しく見えても、実態は「基盤モデルを包み直しただけ」というケースが少なくありません。

この種のビジネスが増えている理由は明快です。基盤モデルそのものを開発するのは難しくても、その上に画面を作り、用途別に見せ方を整え、月額課金にすることは比較的容易だからです。しかも利用者の多くは、AIを直接使いこなすよりも、「最初から整えられた形」を求めます。そのため、AI時代の市場では、本質的な技術革新よりも、ラッピングの上手さで売るサービスが一気に増殖しています。

しかし、ここに大きな問題があります。Thin wrapperは参入障壁が低く、模倣が極めて容易です。今日売れた機能は、明日には他社が同じように実装できます。さらに、基盤モデル側の性能向上によって、昨日まで有料だった価値が、明日には標準機能として吸収されることも珍しくありません。つまり、「AIを使わせます」というだけのサービスは、AIそのものの進化によって価値を失いやすいのです。これでは価格競争から逃れられず、持続的な競争優位、すなわちMOATにはなりません。

では、何が生き残るのでしょうか。答えは明確です。これから必要なのは、AIを使うだけのサービスではなく、AIに何をさせるかを定義し、どの順番で、どの基準で、どこまで実行させるかを設計するサービスです。AIは非常に優秀な実行者ですが、自ら正しい問いを立てることはできません。問いが曖昧なら答えも曖昧になりますし、問いが誤っていれば、もっともらしく間違えます。だからこそ価値になるのは、AIの外側にある設計思想です。

今後のMOATは、UIの見やすさや会話のしやすさだけでは築けません。必要なのは、業界固有の業務知識、再現性ある判断基準、独自データ、業務プロセスへの深い組み込み、そして何よりAIに指示を与える側のロジックです。単にAIと対話できることは、もはや差別化ではありません。むしろ、Thin wrapperがあふれる時代だからこそ問われるのは、そのサービスがAIを使っているだけなのか、それともAIを従わせているのかです。

AI時代の競争は、AIを導入したかどうかでは決まりません。勝敗を分けるのは、AIに仕事をさせるための構造を持っているかどうかです。Thin wrapperが増えれば増えるほど、この差はより鮮明になります。生き残るのは、AIの上に薄く乗るサービスではなく、AIの行動そのものを規定するサービスです。そこにしか、本当のMOATは生まれません。

最近、AIの急激な進歩によって、早ければ今年からホワイトカラーを中心に大量リストラが始まる、という話をよく見聞きします。
この見方を、私は単なる煽りだとは思っていません。

なぜなら、私自身が複数のAIに課金し、毎日のかなりの時間をAIと向き合って過ごしているからです。
実際に使い込んでいると、これまで人が時間をかけて行ってきた業務の相当部分が、すでにAIで代替可能になっていることを肌感覚で理解できます。
文章作成、要約、情報整理、壁打ち、発想支援、資料のたたき台づくり。こうした知的労働の一部は、もはや「補助」の域を超え始めています。

その意味で、AIによってホワイトカラーの仕事が減るという話には、十分な現実味があります。

しかし一方で、だからといって社会全体で急激な大量リストラがすぐ起こるかというと、私はそこには一定の距離があると感じています。
理由は単純で、AIを本当に使いこなしている人が、まだごく一部だからです。

私の周囲を見ても、課金してまでAIを日常業務に組み込んでいる人は少数派です。
無料版を少し触ったことがある程度、あるいは興味はあるが業務には入れていない、という人の方が圧倒的に多い。
つまり、AIの変化を現実の脅威として感じているのは、今のところAIに深く触れている一部の人たちです。

ここには明確なナレッジギャップがあります。
AIを毎日使っている人は、「これは仕事の構造そのものを変える」と実感している。
一方で、多くの人はまだ「便利な検索ツール」や「少し賢いチャット」くらいの認識に留まっています。
この認識差がある限り、社会全体の変化は一気には進みにくいはずです。

さらに言えば、企業がAIを導入することと、人員削減に踏み切ることは全く別の話です。
AIツールを契約すればすぐに人が減らせるわけではありません。
実際には、業務フローの見直し、責任範囲の整理、情報管理、評価制度の変更、現場教育など、多くのハードルがあります。
つまり、AIの性能が高くても、組織がそれを使いこなせるとは限らないのです。

だから、起こるとしても形は「突然の一斉大量解雇」ではなく、もっと静かなものになる可能性が高いと思います。
たとえば、新規採用を減らす。
若手の仕事を減らす。
AIを使える人に仕事を集約する。
中間業務を圧縮する。
そして徐々に、「これまで10人でやっていた仕事が6人で回る」状態が当たり前になっていく。
おそらく現実は、このように進みます。

つまり、AIによる雇用変化は起きないのではなく、見えにくい形で先に始まる、ということです。

重要なのは、「まだ周囲で起きていないから大丈夫」と考えないことです。
多くの人が気づいていない時期こそ、変化の初期段階だからです。
本当に危険なのは、AIに詳しい人が騒いでいることではなく、詳しくない大多数がまだ危機を実感していないことなのかもしれません。

AIは、ある日突然社会を変えるのではありません。
使いこなす一部の人から先に、生産性と意思決定の質を引き上げ、気づいた時には取り返しのつかない差になっている。
変化とは、多くの場合そういう形で進みます。

だからこそ今必要なのは、AIを恐れることではなく、AIを前提に自分の役割を再定義することです。
これから淘汰されるのは「ホワイトカラー」という属性ではありません。
AIを使わずに、これまで通りのやり方を続けることが前提になっている仕事の方です。

DSA(分布構造分析)とDAG(有向非巡回グラフ)を組み合わせることで、因果推論における客観性を高める手法について解説しています。従来のDAGは専門家の主観に依存しやすいという弱点がありましたが、本手法はDSAによってデータの歪みや層を事前に把握し、仮説の精度を向上させることを目指します。最も重要な点は、単なる静的なデータ分析にとどまらず、介入後に生じる構造変化を観測することで因果仮説の妥当性を検証するという動的なアプローチにあります。これにより、主観的な仮説を反証可能で監査可能な科学的プロセスへと引き上げることが可能になります。既存の構造探索AIとは異なり、因果を変化のプロセスとして捉える点に、この手法独自の新規性と優位性が存在します。

AIや機械学習への期待が高まる一方で、「とにかくデータを入れれば何か分かる」という発想も広がっています。しかし、それは危うい考え方です。なぜなら、問いそのものが間違っていれば、どれほど高度なAIを使っても、もっともらしい誤答を大量生産するだけだからです。 現代のAI活用においては、単に高度な機械学習ベイズ推論を回すだけでは不十分であり、その前提となる問いの設計が不可欠です。データの分布構造を捉えるDSAと変数間の因果関係を可視化するDAGを、分析の土台として導入することが重要です。集団の多様性論理構造を正しく整理しなければ、どれほど精緻なAIモデルであっても無意味な結論を導き出しかねません。つまり、AIを単なる効率化の道具ではなく競争優位の源泉とするためには、数理モデルを動かす前の構造設計こそが大切になります。したがって、技術的な精度を競う以上に、AIが正しく機能するための「正しい問い」を設計できる人材がこれからの時代には求められています。

新型コロナウイルスワクチンに関する陰謀論の一つに、「ロットごとに内容物が異なり、特定のロットで死亡率が高い(意図的に毒性が変えられている)」という主張があります。この説は根強く、現在も沈静化の兆しが見えません。

今回、「mRNAワクチン中止を求める国民連合」等の団体が公開している「ロット別死亡率TOP100」のデータを基に、統計的な分析を行いました。

ロット別死亡率 TOP100

統計的実在と因果関係の乖離

結論から述べれば、本データにおいてロット間の死亡率に差があることは統計的事実です。「全ロットの死亡率は同一である」という帰無仮説は明確に棄却されます(過分散パラメータ $\phi = 244.5, p < .001$)。

しかし、「死亡率に差があること」と「意図的に内容物が変更されていること」は論理的に全く別の命題です。分析の結果、後者の「内容物が異なる」という結論を導くことはできませんでした。観測された変動は、以下の既知の要因によって十分に説明可能です。

変動を説明する3つの要因

  1. 「少数の法則」による統計的ノイズ

死亡率が最も高いとされるロット(例:HG群 62.5%)は、分母となる接種数がわずか16人です。このように極端な数値は、接種数が極端に少ない場合に生じる統計的な振れ幅(ノイズ)に過ぎません。陰謀論で引用される「高死亡率ロット」の多くは、接種数が100未満の極小ロットです。

  1. 接種対象者の属性(年齢構成)の違い

高齢者の死亡率(約6.9%)は若年層(約0.06%)の約116倍に達します。高齢者施設などに優先配布されたロットは、集団のベースラインとしての死亡率が必然的に高くなります。実際に、高齢者比率と死亡率の間には強い正の相関($r = 0.82, p < .001$)が確認されました。

  1. 未測定の交絡因子

本データには、基礎疾患の有無、接種時期、施設特性、死亡の定義(接種後何日以内か)など、死亡率に影響を与える重要変数が含まれていません。これらを調整(重回帰分析等)しない限り、「内容物の差」を結論づけることは科学的に不可能です。

論理的誤謬とチェリーピッキング

「特定ロットで死亡率が高いから、内容物が異なるはずだ」という推論は、論理学における**「後件肯定の誤謬」**に該当します。

「内容物が異なれば、死亡率に差が出る」という命題が真であっても、その逆である「死亡率に差があるから、内容物が異なる」は真とは限りません。

また、大規模ロットでの安定した数値を無視し、小規模ロットの極端な外れ値のみを抽出して主張する手法は、典型的な**「チェリーピッキング(証拠の選り好み)」**と言えます。

結論:真の原因特定に必要なデータ

現時点でロット間の死亡率差を科学的に検証するためには、以下のデータが不可欠です。

  • 個人レベルの詳細: 年齢、性別、基礎疾患、接種回数、接種日、死亡日
  • 施設・流通レベル: 接種施設の種類(病院・高齢者施設)、地域、製造・出荷日、保管条件
  • 定義の統一: 死亡の定義の厳密な設定

これらの包括的なデータがない状況で、「内容物が異なる」と断じることは、科学的根拠を欠いた憶測の域を出ません。

従来、0か1か、有るか無ないか、陽性か陰性か、のようなバイナリデータの解析は「差があるか、ないか」で終わりがちでした。こうしたデータに対しては、Fisher検定やカイ二乗検定で p値を見て、「有意でした」で結論づけるのが一般的です。もちろんそれ自体は重要です。しかし、現場で本当に知りたいのは、そこから先ではないでしょうか。

たとえば、単独では有意に見えない項目でも、複数が同時に崩れることで初めて意味を持つことがあります。ある項目群は早期から一気に低下し、別の項目群は最後まで安定して残る。さらに左右で崩れ方が違う。こうした“崩れ方の並び”や“連動の仕方”は、単変量の有意差検定だけでは見えません。

分布構造分析と因果推論モデル(DSA+DAG)によるバイナリデータ解析では、従来法では「一部項目の有意差」に留まっていたところから、急落する項目のセット、安定クラスター、段階的悪化、左右非対称性、さらに直接効果と間接効果の違いまで抽出できました。つまり、0/1データでも「差」ではなく「構造」が読めるのです。 重要なのは、DSA+DAGが“バイナリデータでも多変量の構造情報を捨てない”という点です。従来法が「どの項目が有意か」を答えるのに対し、DSAは「どの項目が似た動きをするか」「どの段階で崩れるか」「全体の分布構造はどう変わるか」を捉え、DAGはそれを因果の流れとして整理します。 結果として、単なる検定結果の羅列ではなく、「何が先に崩れ、何が代償し、何が最後に残るのか」という現象の地図が得られます。実際、内部レポートでも、従来手法では限定的だった知見に対し、DSA+DAGではクラスター構造、段階的悪化、構造的偏差、因果経路の区別といった付加価値が確認されました。 これは医療に限った話ではありません。営業なら「買った/買わない」、人事なら「離職した/しない」、製造なら「異常あり/なし」、マーケティングなら「反応した/しない」。多くの実務データは、実はバイナリです。にもかかわらず、私たちはそれを“単純なデータ”だと思い込み、構造を捨ててきました。しかし、意思決定に必要なのは平均ではなく、全体の形です。どの項目が束で動き、どこで分岐し、どの段階で異常が完成するのか。そこまで見えて初めて、打ち手は戦略になるのです。 バイナリデータは単純なのではありません。単純に扱われすぎていただけです。
DSA+DAGは、その見落とされてきた“世界の形”を取り戻すための方法論です。

ビッグデータは蓄積され、AIの精度は飛躍的に向上しました。しかし、私たちの日常やビジネスの現場で「世界が劇的に変わった」という手応えを感じている人は、まだ少ないのではないでしょうか。
多くの人の実感は、「便利になって楽にはなったが、景色は変わらない」という既視感です。資料作成のスピードが上がり、要約の手間が省ける。それは確かに「補助」としては優秀ですが、社会の構造を根底から覆すようなインパクトは一見するとありません。

二極化する「温度差」の正体

いま、AIを巡る議論は、もはや「是非」ではなく「不可避」へとシフトしたと言われます。しかし、依然として懐疑的な声が消えないのは、人々が保守的だからではありません。単純に、「肌身に迫る変化」が起きていないからです。

  • 活用層:もうAI以前の生活には戻れない。置いていかれるのではないかと不安。
  • 非活用層:なくても別に困らない。AIは実用面でまだ不確実。

この深刻な温度差は、遅れた側が競争優位性を失い、それを「痛み」として認識するまで埋まらないでしょう。現時点で是非論が続いているのは、AIがまだ「なくても困らないが、あると便利なツール」の域を出ていないことの裏返しでもあります。

LLMがもたらす「平均の世界」という限界

なぜAIは、私たちの想像を超えるアウトカム(成果)を出しにくいのでしょうか。その理由は、現在のLLM(大規模言語モデル)の構造にあります。
既存のAIは、膨大な過去データからパターンやトレンドといった「法則」を抽出することに長けています。しかし、それは裏を返せば、「最も確率の高い正解(=平均)」を導き出しているに過ぎません。

平均とは、現実が持つ多様性や複雑性を削ぎ落とし、一つの型に閉じ込めた世界です。そこから生まれるのは、どこかで見たような、想像の域を出ない「凡庸なアウトカム」です。イノベーションに必要な「驚き」や「異質さ」は、平均化のプロセスで捨て去られてしまいます。

「法則」を見つける時代から、「Something New」を創る時代へ

私たちが真に必要としているのは、単なるパターン抽出ではありません。
複雑に絡み合ったリアルワールドデータ(実社会の生きたデータ)から、既存の法則に当てはまらない「Something New(まったく新しい価値)」を、いかに見つけ出すか。平均という名の「箱」から脱却する新しいアプローチこそが、停滞したAI活用を次のステージへと押し上げるために求められます。

データはある。処理能力は飛躍的に向上した。あとは、既存の手法を打ち破る新しい処理方法が必要です。

DSA+DAGが変革をもたらします。