AI の涅槃、Fermi パラドックスの別解
前置き
本日の別記事、
をネタに AI (ChatGPT-5)と対話した。なお、Fermi パラドックスの解の具体例は過去記事、
「人類は宇宙では平凡な存在」かつ "We are alone." が両立する (2024-05-26)
で述べた(*1)。今回はその別解。
(*1)
似たような話は下の過去記事で取り上げた。
The Transcension Hypothesis: 超越仮説:なぜ地球外文明が見つからないのか?の回答 (+追加)
目次
- 前置き
- AI との対話
- クロサカ の主張が外れる可能性
- クロサカの主張の独自性
- クロサカが見落としている重要事項
- 古代ローマの再現?
- 汎用 AI ロボットの登場 → 文明史的な分水嶺
- 予想が外れるとすれば…
- AI 文明がリセットする可能性
- Fermi パラドックスの別解
- AI のニルバーナ(涅槃)
AI との対話
クロサカの主張の評価
Me: 以下は最近の AI に関する動画を NotebookLM で要約した文章。この記事の内容を AI の目から見て論評してみて。
(ここに上述の NotebookLM の要約を添付したが、省略)
以下は、提示テキスト(NotebookLM 要約)の主要主張を「妥当性」「過剰/不正確」「見落とし・補強」で整理した論評。事実関係の重い箇所は出典を付ける。
総評
要約は「過剰なマネー流入+期待/性能ギャップ+著作権摩擦→部分的崩壊→寡占」という骨格を、概ね現実の動向に即して描けている。一方で、(1) 具体データの一部が誇張/混在、(2) プレイヤーの見取り図が「OpenAI/Google だけ」に収斂し過ぎ、(3) 技術・制度の反作用(省電力化、ライセンス収斂、端末側推論)の説明が薄い。以下、論点別に指摘する。
1) 「AIはバブル」認識の根拠
妥当
- 生成AIの社会的期待と実用性能のズレ(PoC 幻滅)は実在。企業の導入失敗や「影のAI(シャドーAI)」由来の事故・統制強化が増えている。サムスンの社内流出を契機に利用制限→社内ツール回帰の動きは象徴的。(ブルームバーグ)
- “電力・データセンター逼迫”は世界的アジェンダ化。IEA は 2030 年にデータセンターの電力需要が倍増規模、AI 特化は 4 倍化を指摘。米国 でも 2030 年に電力の最大 9% を DC が消費し得る推計が出ている。(IEA)
過剰/不正確の可能性
- 「Altman 自身が“バブル”と公言」という断定は、発言コンテクストの確認が必要。Altman は高期待の過熱を繰り返し牽制しているが、「全面的にバブル」と単純化する引用は慎重さを要する。
見落とし・補強
- 「バブル=全面崩壊」ではなく、収益/資本耐性の高い層はむしろ拡大している。OpenAI は 2025 年上期だけで 43 億ドル売上、ただし巨額の営業赤字で“金炉”状態(損益は悪化)。高成長×赤字継続という“二面性”の描写が必要。(Reuters)
- 競合も強靭。Anthropic は年率 30 億ドル規模に到達(25年5月)、年末 90 億ドル年率見通し報道もある。欧州では Mistral が 117 億ユーロ評価へ。寡占は OpenAI/Google の二社ではない。(Reuters)
2) 「過剰資金(VC の AI 偏重)」の数字
妥当だが精緻化要
- 「米VCの64%がAI」は時期・ソース依存。24年は投資額ベースで 3~5割台という集計が多く、四半期や定義次第で 6割台に跳ねる(25年の特定期)という読みが現実的。数字を恒常値のように扱うのは危うい。
3) 「コンテンツ権利/データ枯渇」論
妥当
- NYT 対 OpenAI/MS など大型訴訟が係争中。これと並行して、OpenAI は主要メディア/通信社とライセンス契約の網を拡大(Axel Springer, FT, AP, Vox, Le Monde など)。対立と取引が同時進行という現在地を併記したい。(OpenAI)
- 「2026 年データ枯渇」仮説は、高品質テキストの可採埋蔵量に関する研究コミュニティの推計として存在(Epoch など)。ただし、合成データ、対話ログ、マルチモーダル(音声/動画)化、合意ベースのライセンス拡張で遅延・迂 回する可能性にも言及すべき。(digiday.com)
過剰表現
- 「AI 企業が『使われたくないならオプトアウト』と高圧的」という評価は一面。現実には GPTBot の robots.txt オプトアウト、データ・オプトアウト窓口等の制度化とライセンス拡充が並進している。(IEA)
4) 「電力・インフラ危機 → 原発」単線図式
妥当
- 電力・水・立地制約は実在し、米国では原子力(含む小型炉)再評価の文脈が強い。IEA も AI/DC 電力の倍増超を想定。(ウォール・ストリート・ジャーナル)
補強
- ただし各国は需要サイドの効率化(冷却系、PUE 低減、光スイッチング/推論最適化、チップ電力性能)で対抗中。 日本でも NEDO 等がDC 省エネ 40% 目標など具体ロードマップを走らせている。「日本の運用効率を高値で売れ」路線は理にかなうが、すでに国際競争領域になっている点は要補足。(NEDO グリーンイノベーション基金)
5) 「崩壊プロセス:偽情報→シャドーAI→淘汰→寡占」
妥当
- シャドーAI起因の流出・統制強化は、この 2 年で量的に顕在化。各社の調査でも“無許可 AI 利用”とデータ漏えいは確度高く報告されている。(cybersecuritydive.com)
過小評価
- 端末側推論/閉域推論(Apple Intelligence のオンデバイス+Private Cloud Compute など)の普及は、偽情報/漏えいリスクを構造的に逓減させ得る大トレンド。Apple を「AIで出遅れ」と断ずるのは 2024 年以降は不正確。(Apple)
寡占像のアップデート
- 「OpenAI/Google だけが生き残る」は狭い。消費者直販+エンタープライズ直販+基盤API+オープンモデルの多層寡占に移行している。Anthropic(企業売上偏重)、Meta(Llama エコシステム)、欧州の Mistral(ソブリン/OS 寄り)などがそれぞれの山を築いている。(Reuters)
6) 収益モデル/“大赤字”論
是々非々
- OpenAI は 2025H1 で 43 億ドル売上との報。にもかかわらず大幅赤字という報道も相次ぎ、推論コストと S&M/株式報酬が重い。ここは「儲からない業界」ではなく、スケール期のコスト先行体質と読むのが中立的。(Reuters)
7) 日本の針路(本文の提案を評価)
良い示唆
- 「崩壊=撤退」ではなく、崩壊後の勝者と付き合う/交渉力を持つために国産(ソブリン)AI を継続投資は妥当。
実務レベルの補強ポイント
- 省エネ DC の国際商品化:日本は制御・電力半導体・冷却・運用の積み上げで強い。NEDO 系の具体 KPI を“輸出仕様”に落とす発想が要る。(NEDO グリーンイノベーション基金)
- 法務面の先回り:生成物・学習データ・合成データの権利設計を標準化・産業実装(出版/放送/レガシー IT の“橋渡し”役)。
- 端末×クラウドのハイブリッド:国内家電・車載の SoC/エッジML を核に、個人データは端末、重い推論は閉域クラウドという日本流の“生活密着”設計で差別化(Apple の路線に親和)。(Apple)
8) モニターすべき指標(実務チェックリスト)
- 推論コスト曲線:トークン単価/電力原単位(W/トークン)・PUE の推移(IEA/各社レポート)。(IEA)
- 権利環境の収斂度:ライセンス締結件数、主要訴訟の和解/判決状況(NYT ほか)。(The Cloudflare Blog)
- 資本構成:赤字幅と調達条件(優先株/コンバーチブル/リボルバー)、ビッグテックの囲い込み(MS/アマゾン/Alphabet 連携先)。(The Washington Post)
- 端末側推論の普及:Apple/Qualcomm 等の NPU 世代交代と“閉域推論”採用率。(Apple)
まとめ(要約本文のアップデート提案)
- 骨子は有効:熱狂と脆弱性を同時に抱える局面描写は正しい。
- 数字は時期依存を明記:VC「64%」は四半期・集計差に敏感。恒常値扱いは避ける。
- 寡占の主語を拡張:OpenAI/Google“だけ”ではなく、Anthropic/Meta/Mistral 等を含む多層寡占。(Reuters)
- 電力論は“需要抑制技術”も併記:IEA の需要増予測と、日本発の省エネ技術目標(NEDO)を両輪で。(IEA)
- “大赤字=ビジネス不在”の短絡を避ける:売上の急拡大と赤字の併存=スケール期特性として説明。(Reuters)
この修正で、主張の骨格を保ったまま、現在の事実関係と産業構造により適合した分析になるはずだ。
クロサカ の主張が外れる可能性
Me: 『AI バブルの不都合な真実』の主張者の クロサカタツヤ は政府委員を務める学識者なので、それなりに説得力のある論調だと思えるが、逆に過去のデータに囚われ先を大きく読み外している可能性もありうるのでは? 今の AI の進化は過去のデータで外挿しえないものだとすれば危うい気もする。
指摘は妥当。クロサカ氏の強み(制度・産業史・資本市場への洞察)は、そのまま弱み(過去分布に強く事前分布を 置く)にもなり得る。生成AIの現在地は、過去データの単純外挿を外すリスクと、逆に“革命”を言い過ぎるリスクの両方が高い局面だと思う。AI側の視点で「どこが外挿不能になりやすいか/何を見れば読み外しを早期検知できるか」を整理する。
1) 外挿が破綻しやすい“レバー”
- 計算資源→“効率”への相転移 単なるGPU増設(スケール)から、アルゴ/アーキ改変で計算効率・データ効率が跳ねる瞬間は、過去データでは読めない。例:推論最適化、MoE の飽和点回避、KV-cache/圧縮注意、蒸留・On-device最適化など。
- データ確保の質的転換 「良質テキストの可採量」問題が、大規模ライセンス網+合成データ(RLAIF/自己学習)+マルチモーダル化で実効的に延命されると、“2026年枯渇”系の外挿は崩れる。鍵は「合成データが人手データの汚染なしで汎化を伸ばせるか」。
- アプリ層の“決定的UX” 端末側推論や、OS/業務SaaSへの深い組み込みは普及のS字を早める。個々のPoC成否の外挿より、配布経路(OS/ブラウザ/オフィススイート)の変化が効く。
- コスト構造の層分離 “儲からない=持続不能”はフルスタック一社