LinkedInを見ていると、

「I’m excited to share that I’m starting a new position…」という投稿を頻繁に目にします。

新しい役職に就いたことを誇らしげに報告する投稿です。

もちろん、それ自体は素晴らしいことです。努力の結果であり、組織から評価された証でもあります。

その前提に立ったうえで、少しだけキャリアを構造から見てみると、いま大きな変化が起きているように思います。

構造的に見ると、そこには一つの事実があります。それは、役職が変わっても、多くの場合組織の中の役割であることは変わらないということです。

課長、部長、VP、Head of ○○…。
肩書きは変わりますが、それは多くの場合、同じゲームの中でレベルが上がることを意味します。

これまでは、それで十分でした。企業という組織の中でキャリアを積み上げていくことが、最も安定した成功の道だったからです。しかし、ここに来て状況が少し変わり始めています。

それは、AIの登場です。

AIは、これまで人間が担ってきた多くの知的作業を急速に置き換え始めています。資料作成、分析、翻訳、プログラミング、調査。かつては専門職の領域だった仕事も、AIによって再構成されつつあります。

つまり、私たちは今、キャリアの前提そのものが変わる時代に入りつつあるのかもしれません。これからは、その選択肢がよりはっきりと分かれていくように思います。

昇進は確かに重要な成果です。しかし同時に、これからの時代は新たな問いも生まれています。

AIが登場したことで、キャリアの見え方そのものが、静かに変わり始めているのかもしれません。

「平均年収が上昇しました」といった経済ニュースを時々耳にしますが、この手のニュースを聞いて「確かに生活が良くなった」と実感する人は、意外と多くないのではないでしょうか?。むしろ多くの人は「自分の給料は上がっていない」と感じています。この違和感はどこから生まれるのでしょうか。

実は、その原因の一つは平均という指標そのものにあります。

平均は、全体を一つの数字で表す便利な指標です。しかし同時に、分布の構造を消してしまうという特徴も持っています。たとえば、社会の所得分布が次のようになっていたとします。

・一部の超富裕層の年収だけが急激に上がる(パワーロー)
・中間層が減り、低所得層と高所得層に分かれる(二極化)

このような状況でも、平均値は上昇します。するとデータ上は「社会全体の年収が上がった」ように見えます。

しかし実際には、多くの人の所得は変わっていないか、むしろ下がっている可能性すらあります。

つまり平均が示しているのは、必ずしも現実の生活実感ではなく、ばらつきを均した後の“理想化された社会”なのです。

古典的な統計手法は、平均や回帰直線のように、データを滑らかな形で説明することを得意としています。しかし現実の社会や市場は、必ずしもそのような形ではありません。

・パワーロー分布
・ロングテール
・多峰性(複数の山を持つ分布)
・外れ値の集中

このようないびつな構造こそが、むしろ現実の姿であることも多いのです。

もし平均だけを見てしまうと、こうした構造はすべて見えなくなります。その結果、データは「みんなが少しずつ良くなっている」という理想的な物語を作り出します。

しかし分布を見れば、まったく異なる現実が現れます。そこには、格差や集中、断絶といった現実の構造が存在しています。

もしかすると、私たちが感じている「理想と現実のギャップ」は、社会の問題そのものというより、平均という“見せ方”が生み出している錯覚なのかもしれません。

理想を聞かされて現実に失望する。これからのデータ分析に求められるのは、平均ではなく、分布構造そのものを見る視点なのではないでしょうか。

テクノロジーは、これまで常に「置き換え」繰り返すことで進化してきました。馬車はクルマに、手紙はメールに、電子手帳はスマホに置き換えられました。古い道具が、より便利で高性能な新しい道具に置き換わる。これが技術進化の基本パターンでした。

では、AIは何を置き換えたのでしょうか?AIは、何か別の「物」に置き換わったわけではありません。AIが置き換え始めているのは、人間がこれまで担ってきた知的作業の一部です。

調べる、読む、要約する、書く、整理する、比較する、考える。これまでは人間が頭の中で処理するしかなかった作業が、いまAIによって外部化され始めています。

だから「AIに仕事を奪われる」と言われるのです。それは、AIが単なる便利な道具ではなく、人の代替として進歩してきたからです。

これまでの置き換えは、「物から物へ」でした。しかしAIによって、置き換えの対象はついに「人の能力」に到達しました。これは過去の技術革新とは本質的に異なる変化です。

ただし、ここで誤解してはいけないのは、AIが人そのものを不要にするわけではないということです。AIが代替するのは作業であり、人間そのものではありません。

むしろ今後、より重要になるのは人間にしかできない部分です。何を問うのか。何を目的とするのか。どの情報を信じ、どう判断するのか。AIが答えを出す時代ほど、人間には「問いを立てる力」と「構造を見抜く力」が求められます。

AI時代の本質は、仕事がなくなることではありません。人間の役割が再定義されることです。

物の置き換えの時代を超え、いよいよ人の知的作業そのものが置き換えの対象になった。私たちは今、技術進化の新しい段階に入ったのだと思います。

NHANES公開データを用いて、米国成人8,013名の収縮期血圧(SBP)をDSAで探索的に解析しました。

今回あらためて見えたのは、従来の平均値中心の見方では、集団の内部構造がかなり失われてしまうということです。

全体のSBP分布は119mmHg付近にピークを持ちながら、右裾に高血圧域が広がる非対称な構造を示しました。つまり、「平均的には大きな問題がない」と見えても、内部には高値側へ偏った群が確かに存在しているということです。

さらに、降圧薬の使用有無で分布を分けると、非使用群のピークは111mmHg、使用群は127mmHgとなり、16mmHgの構造的シフトが確認されました。これは単なる平均差ではありません。背景の異なる集団が、異なる分布構造を持っていることを示しています。

年齢層別では、若年層ほどDSA偏差スコアが高く、高齢層ほど低下する傾向が見られました。若い世代ほど生活習慣や未診断群を含む不均一性が大きく、高齢層では診断・治療を通じて分布が相対的に集約されている可能性があります。

重要なのは、DSAが「平均値」ではなく、「分布の歪み」「裾の重さ」「ピーク位置」「構造のズレ」を見る点です。
従来手法がリアルワールドを代表値に押し込めるのに対し、DSAはリアルワールドを構造として捉えます。

もちろん、今回の解析は探索的です。横断データであり、因果を確定するものではありません。サンプルウェイト未適用、降圧薬変数の欠測処理など、慎重に扱うべき限界もあります。
しかしそれでも、平均だけでは見落とされる集団内の異質性を可視化できた意義は小さくありません。

ビジネスでも医療でも同じです。
全体平均が安定しているからといって、現場の構造まで安定しているとは限りません。
本当に見るべきなのは「平均」ではなく、「中で何が起きているか」です。

DSAは、その“見えない構造”を捉えるための視点です。

データ分析の世界では、平均や相関、回帰といった統計手法が広く使われています。
これらは非常に強力な方法ですが、ある特徴があります。

それは、単一の指標で現象を説明しようとすることです。

例えば、臨床研究では平均値の差によって治療効果を判断します。
平均で有意差があれば「効果あり」、なければ「効果なし」と判断されます。

この考え方は、どこか西洋医学的です。

西洋医学では、例えば

  • 熱がある → 解熱剤
  • 血圧が高い → 降圧剤

というように、症状と対処を比較的直接的に結び付けます。

しかし東洋医学では、同じ「熱」という症状でもすぐに解熱するわけではありません。
まず患者の全体状態を見ます。

  • 気虚
  • 血虚
  • 陰虚
  • 実熱
  • 虚熱

つまり、症状の背後にある「証(状態の構造)」を診るのです。

実はリアルワールドデータでも、似たことが起きています。

平均値では差がないのに、分布をよく見ると

  • 一部では大きく改善
  • 一部では悪化
  • 多くは変化なし

というように、異質な集団が重なっていることがあります。

平均だけを見ると「効果なし」となりますが、分布構造を見ると
「特定の条件の患者群では効果がある」と分かることもあります。

DSA(Distribution Structure Analysis)は、まさにこの
分布構造に着目する分析です。

平均値を代表値として扱うのではなく、
データの内部に存在する異質性や構造の違いを可視化します。

さらにDAG(因果グラフ)と組み合わせることで、
その構造の背後にある因果関係の候補を探索することができます。

言い換えると、

従来統計が「平均」を見るのに対して、
DSA+DAGは「状態の構造」を見る方法と言えます。

もしこの比喩を使うなら、

従来統計は
西洋医学型の分析

DSA+DAGは
東洋医学型の分析

に近いのかもしれません。

AIが統計分析を自動化する時代になりました。
しかしAIが出す多くの分析結果は、依然として

  • 平均
  • 相関
  • 回帰

といった「平均世界」の分析です。

リアルワールドの複雑さを理解するには、
平均ではなく構造を見る視点が必要になるのではないでしょうか。

臨床研究や学術の世界には、ある種の逆説があるように思います。

既に存在している事実を観察し、整理し、報告することは論文として評価されやすい。
一方で、これまで存在しなかった方法や枠組みを生み出す「発明」は、しばしば既存の評価軸の中でしか審査されません。

しかし本来、この二つは同じものではありません。

「発見」は、自然や現実の中にすでにあったものを見出す営みです。
一方、「発明」は、これまで存在しなかった認識の枠組みや手法を構築する営みです。

にもかかわらず、学術査読ではしばしば
「既存手法と比べて妥当か」
「従来の文脈で説明可能か」
という観点が中心になり、新しい枠組みそのものの価値は評価されにくいことがあります。

これは、査読者が悪いという話ではありません。
むしろ、査読という仕組み自体が、本質的に“未知のものを高く評価する構造”にはなっていないのだと思います。

私はこの数年、DSA-DAGという因果推論フレームワークの開発に取り組んできました。
分布構造そのものを情報として扱い、従来の統計手法では平均化や要約の過程で捨てられていた構造的シグナルから、因果仮説の手がかりを導く考え方です。

特許出願、プレプリント公開、GitHubでの実装公開を進め、そして論文の投稿を完了しました。

ここで改めて感じるのは、学術誌の査読プロセスは、必ずしも「発明」を正当に評価するために設計されているわけではない、ということです。

歴史を振り返っても、この構図は珍しくありません。

たとえば、DAGと因果推論の発展に大きく貢献した Judea Pearl も、当初はその考え方を十分に理解されず、長い時間をかけて評価が定着していきました。
新しい枠組みは、最初から歓迎されるとは限りません。むしろ、既存の尺度では測れないからこそ、理解にも時間がかかります。

だからこそ私は、発明の価値は査読だけで決まるものではないと思っています。
それを支えるのは、特許制度であり、実装であり、最終的には市場や現場での有用性です。

論文は重要です。しかし、論文だけが価値の証明ではありません。

新しい方法論や技術に取り組んでいる方ほど、
「理解されないこと」
「既存の物差しでは測られないこと」
を一度は経験するのではないでしょうか。

それでも前に進めるかどうか。
そこに、発見ではなく“発明”に挑む人の仕事があるのだと思います。

ビジネスの現場では、グラフやダッシュボードが当たり前になりました。
売上推移、KPI達成率、顧客数、CV率、離脱率。数値は整い、見た目も分かりやすい。
しかし、そこで可視化されているのは、本当に「現実」そのものなのでしょうか。

私たちはしばしば、複雑なリアルワールドを、平均値や近似曲線、要約指標に押し込めて理解したつもりになります。
たしかに、その方が早いですし、説明もしやすくなります。
一方で、その瞬間に失われるものがあります。
それが、分布の内部にある構造です。

たとえば、平均が同じでも、中身はまったく異なることがあります。
一部に極端な高リスク群が潜んでいるのか。
中間層が厚いのか。
二極化が起きているのか。
ゼロがまとまって存在しているのか。
こうした違いは、平均や単純相関だけでは見えません。

ここで重要になるのが、値そのもの”ではなく、“値の並び方や偏り方”を見る視点です。
つまり、データを代表値に潰すのではなく、分布構造として読むという発想です。

私は、この発想が今後の意思決定において極めて重要になると考えています。
なぜなら、現実の課題は、きれいな正規分布でも、単純な直線関係でもないからです。
市場も顧客も患者も組織も、実際には歪み、偏り、裾の広がり、多峰性を持っています。
それにもかかわらず、従来の分析は、そうした複雑さを「ノイズ」として処理しがちでした。

しかし、本当に見るべきなのは、その“ノイズ”に見える部分かもしれません。
そこにこそ、異質性、閾値、分岐、そして因果のヒントが隠れている可能性があります。

DSA+DAGの考え方は、まさにそこに向き合うものです。
DSAは、実測値が理論分布からどのように乖離しているかを各点レベルで保持しながら、分布構造を可視化します。
そして、その構造を歪度、尖度、裾の広がり、多峰性、ゼロ集中などの観点から読み解きます。
さらに、その知見をもとに変数の役割を整理し、DAGへとつなげることで、平均や相関では見えにくかった因果構造の理解に近づきます。

これは単なる分析手法の違いではありません。
データをモデルに合わせるのか、データの構造から現実を読むのか。
その発想の転換です。

AI時代に入り、私たちは以前より多くのデータを扱えるようになりました。
しかし、データ量が増えるほど、単純化の誘惑も強くなります。
だからこそ今、必要なのは、より多く集めることだけではなく、どう読むかを変えることではないでしょうか。

見やすいグラフは、必ずしも現実をよく表しているとは限りません。
本当に重要なのは、整った線ではなく、その線からはみ出している現実の方かもしれません。


AIの”汎用的な推論能力”を測るテストに、「ARC-AGI(ARC AGI Benchmark)」があります。現在はバージョン3まで公開されています。生成AIは、要約、翻訳、文章生成、コード作成といった領域で驚異的な進歩を遂げました。ところが、ARC-AGIは、そうした進歩とは別の次元でAIの限界を照らしています。

ARCは、知識量や言語流暢性ではなく、最小限の手がかりから新しいルールを見抜き、未知の課題へ適応する流動性知能を測るために設計されたベンチマークです。François Cholletも、単なるスキルの多寡ではなく、どれだけ効率よく新しい課題を学習・一般化できるかこそが知能の核心だと論じています。 ARC Prizeの説明でも、ARC-AGI-1から2、さらに3へ進むにつれて、評価の焦点は静的パズルから、未知環境の探索、目標の推定、世界モデルの形成、継続的適応へと拡張されています。つまり、問われているのは、答えを知っているかではなく、構造を見抜けるかです。

ここに、現在のAI活用の落とし穴があります。多くのAIは、既存パターンの圧縮と再構成には強い一方で、観測された相関の背後にある因果構造や、平均値に隠れた分布の歪み・二極化・異質性までは自動では保証しません。だからこそ、ビジネス現場で本当に必要なのは、「表面的に整合する説明」ではなく、なぜそうなるのかを構造として捉える枠組みです。

DSA(分布構造分析)+DAG(有向非巡回グラフによる因果モデル)は、まさにそのための発想です。DSAが平均では潰れてしまう分布構造の違いを捉え、DAGが変数間の因果関係を明示する。これは、単なる予測精度競争ではなく、意思決定の再現性と説明可能性を高めるための設計思想と言えます。

AI時代に競争優位を生むのは、出力の派手さではありません。 パターンを当てる力より、構造を見抜く力。 ARCが突きつけているのは、まさにその現実ではないでしょうか。

あなたの組織が持つデータの中に、まだ”見えていない構造”はありませんか?

犯罪は全体的に満遍なく起きるのではなく、盲点を突いてきます。つまり外れ値や特異点です。相関の強さや確率の高さを中心とした従来型の統計手法が苦手な領域です。統計学は平均的な傾向を把握することに長けていますが、発生頻度が低く特殊な条件が重なった際に起きる犯罪の予測には得意ではありません。防犯において重要なのは、全体像に埋もれてしまう分布の偏りや特異点を特定し、その背後にある複雑な因果関係を解明することにあります。そこで、データの歪みや局所的な集積を捉えるDSAと、事象の構造を可視化するDAGを組み合わせる手法が有効となります。このアプローチにより、表面的な相関関係ではなく「なぜその場所で異常が起きるのか」という発生構造を深く理解することが可能になります。統計的な「典型」を追うのではなく、非典型的なリスクを科学的に捉える視点こそが、現代の防犯戦略には不可欠と言えるでしょう。

最近、データを入力すると因果構造を自動で可視化し、施策案まで提示してくれるサービス広告をSNSでよく目にするようになりました。
一見するとAIによる高度なサービスで非常に魅力的です。複雑な市場環境を整理し、売上向上のための意思決定を速めてくれるように見えるからです。

しかし、本当に重要な意思決定を任せるに足るのでしょうか。その意思決定に従ってリソースが投入されるのですから、アウトカムに確実につながる因果推論でなければなりません。

売上に直結する意思決定には責任が伴います。アルゴリズムの前提、変数の選び方、交絡の扱い、異質な集団の混在、欠損や外れ値への対応が曖昧なまま、それで「因果が見えました」と言われても、それは意思決定の根拠としては危うい。
見えているのは因果そのものではなく、あくまで“特定の前提の上で描かれた仮説”にすぎない可能性があるからです。

とくに注意すべきなのは、結果がきれいに見えるほど安心してしまうことです。
グラフが整っている、矢印がつながっている、AIが施策を提案してくれる。
その分だけ、「本当にその変数でよいのか」「平均の裏に異質な集団が隠れていないか」「結論が別条件で反転しないか」といった本質的な問いが置き去りになりやすいのです。

本来、重要なのは“見えること”ではなく、“どこまで信じてよいかが説明できること”です。意思決定支援ツールは、仮説を作る補助にはなります。
しかし、それだけで経営判断を委ねてよいわけではありません。
必要なのは、前提の点検、分布構造の確認、変数の役割整理、そして最終的な検証です。

この点で、私が重視しているDSA+DAGの発想は、単に因果の矢印を描くことではありません。
平均や相関だけでは見落とされる分布構造の歪み、異質性、二極化、群の混在を先に捉え、そのうえでDAGにより変数の役割や関係を整理する。
つまり、「何が効いていそうか」を急いで示す前に、「そもそもその比較や推論が成り立つのか」を確かめることに重心があります。

このアルゴリズムはAIの課題となるハルシネーションを抑えることにも有効です。

AI時代に必要なのは、見栄えの良い可視化に感動することではありません。
不確実性を不確実性のまま扱い、それでも意思決定できるだけの構造を持つことです。
“因果っぽく見えるもの”が増える時代だからこそ、経営には、以前にも増して方法論への目利きが求められているのではないでしょうか。