Frieve(小林由幸) : 素人が思いつくような「AI の限界説」はほぼ確実に破られる
前置き+コメント
ここまでスッキリと将来を見通し、かつ素人に向けて丁寧に解説している AI の専門の研究者は珍しい筈。彼のより大胆な主張は下の過去記事で取り上げた。
Frieve(小林由幸) : このままAIが発展するだけでAGI達成可能な理由 (2025-10-28)
だが、彼の主張は私の
予想:あと 10年ほどで意識は簡単に実現でき、ありふれたものになる (書式変換) (2024-12-03)
という予測よりは大人し目。
要旨
AIの限界は突破されるのか
この動画の書き起こしは、AIの限界に関する専門家の予測が次々と覆されてきた歴史を検証しています。
具体的には、かつてはAIには難しいとされていた囲碁での人間への勝利や、自然言語処理における文脈理解、創造的な芸術作品の生成などが、ディープラーニングと計算能力の向上によって短期間で達成されてきた事例を挙げます。
筆者は、人間ができることはAIにもほぼ全て実現可能になるという前提に立ち、真の議論の焦点は「AIが何をできないか」ではなく、「それがいつ達成されるか」、そして「実用的なコストで利用可能になるか」に移っていると主張しています。
また、AIの急速な指数関数的な進化速度のため、一般人の予測するAIの限界は当てにならないと結論付けています。
AIの限界に関する通説の歴史的検証と将来展望
エグゼクティブ・サマリー
本ブリーフィングは、AI(人工知能)の「限界」に関する過去の予測が、専門家の権威によるものでさえ、いかに短期間で覆されてきたかを分析し、AIの真のポテンシャルについての洞察を提供する。
主要な結論として、AIの能力に関する議論は「何ができるか、できないか」ではなく、「いつ達成されるか」という時間軸の問題に移行している。囲碁、自然言語理解、芸術的創造性など、かつてはAIにとって越えがたい壁とされた領域は、ディープラーニングとスケーリング則の力によって次々と突破されてきた。この急速な進化は、世界中の優秀な研究者がAI分野に集結し、提示された「限界」を打破することに挑戦している現状によって加速されている。
現在「限界」とされている身体性(ロボティクス)や長期記憶、高度な科学的発見についても、その多くは根本的な能力の問題ではなく、物理的ハードウェア、データ収集、計算コストといった工学的・経済的な課題に起因する。これらの課題も、技術の進歩と投資の拡大によって解決される可能性が高い。
したがって、個人や組織が取るべき戦略は、現状のAIの能力を見て安易な限界を設定することではない。むしろ、人間ができることは将来的にAIにも可能 になるという前提に立ち、その達成時期と実用化のコストを見極め、指数関数的なAIの成長速度を考慮に入れた上で、将来の計画を策定することが極めて重要である。
1. 序論:覆され続けるAI限界説
AIの発展史は、専門家や権威が提唱した「限界説」が驚くべき速さで覆されてきた歴史でもある。「素人が思いつくようなAIの限界はほぼ確実に破られる」という説が示すように、現在のAIの能力を基準に将来の限界を予測することは、極めてリスキーな判断と言える。本稿では、過去に打破された主要な限界説を具体的に検証し、現在議論されている限界の将来性、そして限界が突破される背景にある要因を分析することで、AIの真のポテンシャルを明らかにする。
2. 過去に打破された主要な「限界」の事例分析
AIの能力に関する専門家の予測が、いかに短期間で過去のものとなったかを以下の表に示す。これらの事例は、特定のタスクにおけるAIの能力向上だけでなく、その学習方法や応用の範囲がいかに劇的に拡大してきたかを物語っている。
| 分野 | 「限界」とされた主張 | 主張者・年 | 覆したブレークスルー | 詳細 |
|---|---|---|---|---|
| 囲碁 | 囲碁でAIが人間に勝つには、あと100年以上かかるだろう。 | Piet Hut (天体物理学者) - 1997年 | AlphaGoの勝利 (2016年) | 組み合わせの数が膨大であるため、計算科学的に困難と予測されたが、ディープラーニングの導入によりわずか20年足らずで世界最強のプロ棋士に勝利した。 |
| 人間の棋譜データがなければ、AIは強くならない。 | 2017年頃の論調 | AlphaZero (2017年) | AI同士の自己対戦のみで学習し、人間の棋譜を一切使わずに人間を凌駕する性能を達成。特定のルール変更にも対応可能であることを示した。 | |
| 自然言語理解 | WSCのような常識的推論問題は、統計的手法では解けない。 | Hector J. Levesque (提案者) - 2012年 | 大規模言語モデル (2019年〜) | 「トロフィーがスーツケースに入らないのは、それが大きすぎたからだ」の「それ」が何かを問う問題。LLMは統計的手法でありながら、人間と同水準(正答率90%以上)で解答可能となった。 |
| 機械翻訳 | 機械翻訳は文章の意味を本当に理解しているわけではない。 | Douglas Hofstadter (認知科学者) - 2018年 | GPT-4など (2023年) | GPT-4は米国の司法試験で上位10%に入るなど、高度な意味理解を必要とするタスクで高い性能を発揮。音声を聞き取り、意味を理解して他言語の音声で出力することも可能になった。 |
| 言語モデル | LLMは意味を理解せず、次に来る単語を予測する「確率的なオウム」に過ぎない。 | Emily M. Bender (言語学者) - 2021年 | GPT-4など (2023年) | GPT-3登場時は文章の流暢さのみが注目されたが、GPT-4世代は司法試験のような複雑な論理を要するタスクをこなし、「意味を理解していない」という主張の方が困難になっている。 |
| LLMには道徳性や真の創造性、知性はない。 | Noam Chomsky 他 (言語学者) - 2023年 | GPT-4世代 (2023年) | ユーザーが「人格があるかのよう」に対話できるレベルに達し、小説創作など創造的な活動にも活用され始めている。 | |
| 画像生成 | AIに創造的な絵を描くことは不可能である。 | 多数の専門家 (〜2022年頃) | 拡散モデル (Diffusion Model) (2022年) | AIが生成したデジタルアート作品がコロラド州の品評会でグランプリを受賞。曖昧な指示からでも独創的で質の高い画像を生成できるようになった。 |
| 動画生成 | AIによる高品質な動画生成はまだ当分先の話である。 | 2022年頃の論調 | Soraなど (2024年) | かつては不自然で低品質な動画しか生成できなかったが、画像生成AIと同様に品質が急速に向上し、実用的なレベルの動画生成が可能になりつつある。 |
3. 現在議論されている「限界」とその将来性
過去の事例と同様に、現在もなおAIには越えられないとされる壁が存在する。しかし、これらの「限界」もまた、時間の問題である可能性が高い。
3.1. 身体性(ロボティクスと物理的動作)
- 現在の限界説: 人間のように料理や洗濯といった家事をこなしたり、工場の作業員のように高速で精密な作業を行ったりすることはできない。サッカーやフィギュアスケートで人間を超えることは不可能。
- 将来の展望: 既に言語指示に従って動作するロボットは実現している。現在の性能の低さは、AIの知能の問題というより、以下の物理的・データ的な課題に起因する。
- ハードウェアの制約: 人間の筋肉のような瞬発力や柔軟性を持つアクチュエータの開発が追いついていない。コストや耐久性にも課題がある。
- データ不足: テキストや画像と異なり、ロボットの動作に関する大規模なデータセットがインターネット上には存在しない。このデータ収集・生成の問題が解決されれば、性能は飛躍的に向上する「伸びしろ」がある。
3.2. 長期記憶とコンテキスト理解
- 現在の限界説: AIは人間のように数年前の出来事を記憶し、現在の行動に反映させることができない。コンテキストウィンドウが限られているため、物忘れが激しい。
- 将来の展望: これ はAIアーキテクチャ(Transformer)の根本的な限界ではなく、計算量の問題である。コンテキスト長を伸ばすと計算量が爆発的に増加するため、現状では制限されているに過ぎない。「できるかできないかで言えば、できる」。より効率的なアーキテクチャの研究が進むことで、この問題は解決に向かう。
3.3. 高度な知的作業(数学・科学)
- 現在の限界説: 数学の未解決問題の証明や、物理学における新たな発見など、真の創造性を要する知的活動はAIには不可能。
- 将来の展望: 既にAIが数学の未解決問題を解き始める事例が出ている。2025年には数学オリンピックでトップレベルの成績を出すことが目標とされており、世界中の企業や研究者がこの分野で競争しているため、これも時間の問題と考えられる。
3.4. 汎用人工知能(AGI)
- 現在の限界説: 人間と同等以上の知能を持つAGIは、我々が生きているうちには実現できない。
- 将来の展望: これまでの限界突破の歴史と、後述するスケーリング則を鑑みれば、AGIの達成可能性は非常に高いと予測される。
4. AIの限界が急速に突破される要因
なぜ専門家の予測すら裏切る速度でAIは進化するのか。その背景には3つの主要な要因が存在する。
- スケーリング則の存在: ディープラーニングの性能は、投入する計算パワーとデータ量を増やすことで、予測可能に向上するという法則がある。これにより、「やればできる」という見通しが立ちやすく、リソースの集中投下につながる。
- 優秀な研究者の集中: AIは現代で最も注目される研究領域であり、世界中から最も優秀な頭脳が結集している。
- 「限界」への挑戦意欲: 権威が「ここがAIの限界だ」と公言すると、それが逆に世界中のトップ研究者にとって「打ち砕くべき挑戦的なテーマ」となる。これにより、限界とされた課題にリソースと才能が集中し、突破が加速される。
5. 結論と提言:真のAIの限界とは何か
これまでの分析から導き出される結論は、AIの真の限界は、我々が直感的に設定するようなタスクベースのものではないということである。
- 人間基準のタスクは限界ではない: 物理法則に反する(タイムスリップなど)、あるいは実現に膨大なエネルギーを要するものを除き、「人間にできてAIにできないこと」は将来的になくなる可能性が高い。
- 予測の無意味さ: 世界トップクラスの専門家でさえ予測をこれほど外してきた現状において、一般人が現在のAIを触った感想で限界を判断することは無意味であり、その予測に基づいて行動することは極めてリスキーである。
提言:未来に向けた思考のフレームワーク
- 思考の転換:「できるか?」から「いつできるか?」へ
- AIの能力について「できるかどうか」を問うのは生産的ではない。芸術性、創造性、身体性を含むあらゆる人間的活動は「できる」と仮定し、「それがいつ達成されるか」を議論の出発点とすべきである。
- 議論の焦点:達成時期と実用性
- 建設的な議論は、「その能力がいつ達成されるか」、そして「達成されたとして、コスト的に見合い、実用的なレベルで使えるようになるのはいつか」という点に絞られるべきである。ただし、この達成時期の予測ですら、専門家はこれまで「遅い方に外す」傾向があったことを念頭に置く必要がある。
- 未来への備え:指数関数的成長を前提とした計画
- AIの進化が指数関数的であることを理解し、現在の能力で安心するのではなく、数年後に実現されているであろう能力を見越して戦略を立てることが不可欠である。AIの成長速度を正しく認識し、そのポテンシャルを最大限に活用し、同時にリスクに備えることが、今後の成功を左右するだろう。
戦略的ブリーフィング:AI技術の指数関数的進化 ― 過去の「限界説」の崩壊から学ぶ未来予測と戦略的洞察
序論:AIの進歩予測における致命的な誤謬
本ブリーフィングは、過去に権威ある専門家たちが唱えた「AIの限界」に関する予測が、いかにして、そしてなぜ繰り返し覆されてきたかを徹底的に解剖し、その教訓を未来の技術開発や事業戦略の立案に活かすための戦略的洞察を提供することを目的とします。
AI技術の進化は、我々人間の直感が捉えやすい線形的な変化ではなく、「指数関数的」と形容される爆発的な速度で進展しています。この本質を理解せず、現状のAIの能力のみをベンチマークとして将来を予測することは、致命的な戦略的誤謬を招きます。本稿は、過去の失敗構造を分析し、より精度の高い未来予測のフレームワークを提示します。
1. 覆され続けたAI限界説の歴史:具体的な事例分析
AIの発展史は、専門家による「限界説」の提唱と、その後の技術的ブレークスルーによる打破の繰り返しであったと言っても過言ではありません。これから挙げる事例は、単なる個別の出来事ではなく、AIの進化の本質を示す一貫したパターンを浮き彫りにします。
1.1. 抽象戦略ゲームの領域:囲碁における「100年予測」の崩壊
- 1997年の予測: 天体物理学者のピート・ハット氏は、チェスとは比較にならない複雑性を持つ囲碁において、AIが人間に勝利するには「あと100年か、それ以上かかるだろう」と予測しました。
- 現実のブレークスルー: しかし、その予測からわずか20年足らずの2016年、Google DeepMindのAlphaGoが世界のトッププロ棋士に勝利し、世界に衝撃を与えました。
- 新たな限界説とその克服: この後でさえ、「AIは人間の棋譜から学習しているに過ぎない」という新たな限界説が2017年に現れました。しかし翌年には、人間の棋譜を一切使わず、AI同士の対局のみで自己学習したAlphaGo Zeroが人間を遥かに凌駕。限界説が次々と現れては、より高度な技術によって克服されるパターンを明確に示しました。
1.2. 言語理解と認知の領域:「真の理解は不可能」という神話
- ウィノグラード・スキーマ問題: 2012年、知識表現研究の権威ヘクター・J・ルベスク氏は、文脈の深い理解を要するベンチマークを提案し、「この問題は統計的手法では解けない」と断言しました。
- 統計的手法による達成: 皮肉にも、2019年から2020年にかけて、まさにその統計的手法を基盤とする大規模言語モデル(LLM)が、人間レベルの精度(90%以上)でこの問題をクリアしました。
- 繰り返される懐疑論: その 後も、認知科学の権威ダグラス・ホフスタッター氏が2018年に「機械翻訳は本当の理解からほど遠い」と述べ、2021年には言語学者が「LLMは意味を理解しておらず、単なる確率的オウムだ」と批判。さらに2023年にはノーム・チョムスキー氏らもLLMの知的・道徳的能力に疑問を呈しました。
- 反証としての高度なタスク遂行: これらの批判に対し、GPT-4が米国の司法試験で上位10%の成績を収めた事実は、強力な反証となります。複雑な法律文書を読み解き、論理的な回答を生成する能力は、単なる単語予測では到底達成不可能な、高度な意味理解能力の証左です。
1.3. 創造性と芸術の領域:「創造的な絵は描けない」という通説
- 広く信じられていた通説: 長らく、多くの専門家が「AIに人間のような創造的な絵を描くことは無理だ」と信じていました。この見解は、2023年になっても記事で言及されるほど根深いものでした。
- 画像生成AIの登場と成果: 現実には、2022年に拡散モデル(Diffusion Model)が登場し、AI生成のアート作品が米国のデジタルアートコンペティションでグランプリを受賞。この通説は事実上、その時点で既に覆されていました。
- 動画生成への展開: 同様のパターンは動画生成AIでも繰り返されています。当初「全く使えない」と酷評されたクオリティから驚異的な速度で品質が向上しており、画像生成AIが辿った発展の途上にあることは明らかです。
これらは単なる技術的マイルストーンではありません。論理、言語、創造性という、人間性の定義そのものとされてきた領域が、計算論的アプローチによって攻略可能であることを証明した、パラダイムシフトなのです。この歴史的パターンには、偶然ではない構造的な原因が存在します。
2. なぜ専門家の予測は外れるのか:失敗の構造分析
AI分野の第一人者や各分野の権威たちの予測が、なぜこれほどまでに外れ続けるのでしょうか。その根本的な原因を解明することは、未来の不確実性を乗り越え、より精度の高い戦略を立てる上で極めて重要です。
2.1. 指数関数的成長の過小評価と現状維持バイアス
人間の直感は、漸進的な「線形」変化を捉えることには長けていますが、倍々ゲームのように加速する「指数関数的」な変化を直感的に理解することは非常に困難です。これがAIの進化予測における最大の認知の限界です。この認知バイアスは、競合分析や技術ロードマップにおいて最も陥りやすい罠であり、現状のAI性能をベンチマークとした戦略は、数年後には致命的に時代遅れとなることを保証する。
2.2. 「スケーリング則」という強力な法則
ディープラーニングの世界には、「計算パワーとデータを投入すればするほど、AIは賢くなる」という、物理法則に近い強力な「スケーリング則」が存在します。これにより、現在の技術で「一応はできている」が精度が低いタスクは、将来的にリソースを投入し続けることで、やがて実用レベルに達することがほぼ確実視されます。
2.3. 「限界」が優秀な研究者を惹きつけるインセンティブ構造
AI研究は、今や世界で最も優秀な頭脳が結集する分野です。この状況下で権威が「ここがAIの限界だ」と公言することは、皮肉にもその限界突破を加速させます。その「限界」は、世界中の野心的な研究者にとって「打ち砕くべき最も挑戦的なテーマ」となり、結果として才能とリソースが集中し、ブレークスルーが加速されるという構造が生まれているのです。
この「認知の遅れ」「技術の法則」「研究者のインセンティブ」という三位一体の構造が、AIの限界説を必然的に過去のものとし続ける、強力なエンジンとして機能しているのです。この洞察を基に、現在議論されている限界説を評価します。
3. 現在の「限界説」とその妥当性評価
過去の教訓を踏まえるならば、現在専門家によって唱えられている「AIの限界」もまた、過去のパターンに当てはまる可能性が高いと考えられます。主要な限界説を再評価し、その本質を見極めます。
| 現在の限界説 | 本質的な課題と将来の展望 |
|---|---|
| 身体性(Embodied AI)の壁 ロボットは人間のような器用で高速な物理作業(家事、工場作業、スポーツ)ができない。 | 能力の問題ではなく、データとハードウェアの問題。 ・汎用的なマルチモーダルモデルにより、指示通りの動作は既に「たどたどしいが、できている」段階にある。これは能力の有無ではなく、スケールの問題であることを示している。 ・真のボトルネックはAIの知能ではなく、①物理的な動作データがネット上に少なく学習が不足していること、②人間の筋肉に匹敵するアクチュエータのコストや性能といった物理的課題。 ・これは、データ収集とハードウェア工学への戦略的投資が、競合優位に直結する未開拓領域であることを示唆する。 |
| 長期記憶と複雑なタスクの壁 AIは人間のように長期的な文脈を記憶し、複雑な仕事を実行できない。 | 能力の問題ではなく、計算コストの問題。 ・これは「原理的な不可能」ではなく「現行アーキテクチャにおける経済的非効率性」の問題です。アーキテクチャの革新は時間の問題であり、この制約は永続的な障壁にはなり得ません。 |
| 未解決問題の壁 数学の未解決問題の証明や、物理学の新たな発見はできない。 | 時間の問題である可能性が高い。 ・AIは既にいくつかの数学の未解決問題を解き始めており、2025年には数学オリンピックで上位成績を出すことが予測されている。 ・世界中の企業や研究者がこの分野に注力しており、ブレークスルーは時間の問題と考えられる。 |
これらの分析が示唆するのは、現在唱えられている限界の多くが、過去の限界説と同様に「原理的に不可能」なものではなく、「データ、コスト、時間」という、いずれは解決されうるリソースの問題に帰結するということです。この認識は、我々の戦略的なマインドセットに根本的な転換を迫ります。
4. 戦略的インプリケーション:指数関数時代の意思決定フレームワーク
AIの限界が常に過去のものであるという前提に立つならば、企業や個人は将来の計画立案や意思決定のあり方を根本的に見直す必要があります。以下に、指数関数時代を勝ち抜くための意思決定フレームワークを提示します。
- 問いの転換:「できるか、できないか」から「いつ、どのコストで実現されるか」へ 人間が達成できていることで、AIにできないことは将来なくなる、という前提に立つことが重要です。したがって、「AIに◯◯ができるか?」という問いはもはや有効ではありません。戦略議論の焦点は、①その能力がいつ達成されるかという時期と、②それが実用的なコストで利用可能になるかという経済性の2点に絞られるべきです。
- 指数関数的思考の導入:現在の性能ではなく「成長速度」を基準にする AI関連の計画は、現在のAIの能力という「点」ではなく、「スケーリング則」に裏付けられた将来の成長曲線という「線」で判断すべきです。AIが特定の能力を獲得するタイミングを見据え、それに合わせて自社の事業ポートフォリオ、人材育成、キャリアプランを戦略的に計画することが、他社に先んじるための鍵となります。
- 「素人の限界予測」の危険性を認識する 第一人者の予測すら外れる現状において、一般のビジネスパーソンが現在のAIを少し使った経験から「AIの限界はここだ」と判断することが、いかに無意味でリスキーな行為であるかを強く警告します。貴社が現在、現場の従業員やマネージャーが抱く「AIはここまでしかでき ない」という感覚を基に戦略を立案しているとすれば、それは砂上の楼閣を築いているに等しいのです。
5. 結論:未来を正しく見通すための視点
本ブリーフィングの核心的なメッセージを要約するならば、「人間ができてAIにできないことは、物理法則に反するなどの根源的な制約がない限り、いずれなくなる」という見解が、現時点で最も妥当性の高い結論であるということです。
我々に求められるのは、AIの進化に対して過度に安心することも、不必要に怯えることもなく、その指数関数的な成長速度という事実を冷静に受け入れ、自らの戦略に能動的に活かしていく姿勢です。この視点こそが、変化の激しい未来を勝ち抜き、新たな価値を創造していく上で不可欠な羅針盤となるでしょう。
AIの「限界」という幻想:真の課題は「できるか」ではなく「いつ、いくらで」実現できるかにある
AI(人工知能)を巡る議論において、「AIの限界」というテーマは常に注目の的となってきました。特定のタスクは「AIには不可能だ」と断言され、それが一種の社会的な安心材料として機能してきた側面すらあります。しかし、この「できるか、できないか」という二元論的なフレームワークは、技術進化の本質を見誤らせ、戦略的な判断を誤らせる危険な思考の罠です。
AI開発の歴史を冷静に分析すると、そこには一つの不変のパターンが浮かび上がります。それは、専門家によって提唱された「限界説」が、驚くべき速さで次々と覆されてきたという事実です。本稿では、過去の戦略的誤算とも言える事例を分析し、現在語られる「限界」の本質を解き明かすことで、AIの進化を評価するための新たな視点を提示します。真の課題は能力の有無ではなく、「特定の能力がいつ、そして、いくらのコストで」実現されるのかという、時間軸と経済性の問題にあるのです。
1. 繰り返される「限界説」の崩壊:AI開発史が示す不変のパターン
AIの進化を正しく評価するためには、歴史的視点が不可欠です。過去に「絶対的な壁」とされた課題が、いかにして、そしていかに迅速に乗り越えられてきたかを分析することは、現在進行形の議論を客観的に見つめ直すための重要な教訓となります。
1.1. 「あと100年はかかる」と言われた囲碁の制覇
AIの限界説が劇的に覆された象徴的な事例が、囲碁の世界です。1997年、天体物理学者のピート・ハット氏は、当時のコンピュータの進化速度から計算し、「AIが囲碁で人間に勝つには、あと100年はかかる」と予測しました。チェスと比べて組み合わせ数が天文学的に多い囲碁は、AIにとって越えがたい壁と見なされていたのです。
しかし、その予測はわずか19年後の2016年に、DeepMind社の「AlphaGo」が世界のトッププロ棋士に勝利したことで粉砕されます。これは、指数関数的な成長を見誤る典型的な「現状 維持バイアス」に起因する、致命的な予測の失敗でした。さらに興味深いのは、この衝撃的な出来事の後でさえ、「AlphaGoは人間の棋譜から学習しているに過ぎない」という新たな限界説が唱えられたことです。しかし、この「ゴールポストの移動」も長くは続きませんでした。翌2017年には、人間の棋譜を一切使わず、AI同士の自己対戦のみで学習した「AlphaGo Zero」が登場し、人間を遥かに凌駕する強さを獲得したのです。一つの限界が破られるとすぐに次の限界が現れ、それもまた短期間で打破される。このサイクルこそが、AI開発史の縮図です。
1.2. 「統計的手法では解けない」とされた自然言語理解
2012年、知識表現研究の権威であるヘクター・J・ルベスク氏によって、「ウィノグラード・スキーマ・チャレンジ(WSC)」というベンチマークが提唱されました。これは、「トロフィーはスーツケースに入らなかった。なぜなら、それが大きすぎたからだ」といった文で、代名詞が何を指すかをAIに問うものです。ルベスク氏自身が「この問題は、単なる統計的手法では解けない」と断言したように、深い文脈理解が必要だと考えられていました。
権威によるこの「限界」の定義は、結果として、世界中の研究者にとって「打ち破るべき魅力的な目標」となり、リソースと才能が集中する強 力なインセンティブを生み出しました。皮肉なことに、この難問は提唱からわずか7年後の2019年、まさにその統計的手法を究極まで洗練させたトランスフォーマーモデルによって解決され、人間レベルのスコアを達成。限界説はその根拠とされたロジックごと覆されたのです。
1.3. 「意味を理解していない」と断じられた機械翻訳と言語モデル
言語モデルの進化に伴い、「AIは本当の意味を理解しているわけではない」という批判は常に存在し続けてきました。2018年には認知科学者のダグラス・ホフスタッター氏が「機械翻訳は本当の理解から程遠い」と主張。2021年には、言語学者のエミリー・M・ベンダー氏らがLLMを「確率的なオウム(Stochastic Parrots)」と呼び、次に来る単語を予測しているに過ぎないと喝破しました。
GPT-3が登場し、人間と見分けがつかない文章を生成した時点では、この批判はまだ有効でした。しかし、技術の進化は再び専門家の想定を上回ります。2023年に登場したGPT-4は、米国の司法試験において上位10%に入る成績を収めました。複雑な法律文を読み解き、論理的な回答を生成するこのタスクは、単語の確率的な連結だけでは到底達成不可能です。この結果は、「意味を理解していない」という主張を維持することを極め て困難にしました。わずか2年で論点を過去のものとしたのです。著名な言語学者ノーム・チョムスキー氏らも2023年に同様の批判を続けましたが、もはやその説得力は大きく揺らいでいます。
1.4. 「創造性は不可能」と信じられたアートと動画の生成
かつて、論理や計算はAIの得意分野である一方、「創造性」や「芸術性」は人間固有の聖域であり、AIには決して踏み込めない領域だと広く信じられていました。AIの専門家の間でさえ、「AIに創造的な絵を描くことは不可能だ」という見解が一般的でした。
しかし2022年、拡散モデル(Diffusion Model)の登場がこの常識を根底から覆します。AIが生成したアート作品が、コロラド州ステートフェアのデジタルアート部門でグランプリを受賞したのです。動画生成においても進化は劇的で、わずか2年前までは不自然で低品質な映像しか作れなかったのが、現在では実写と見紛うほどのクオリティの動画を生成可能になっています。この驚異的な発展速度は、「創造性は不可能」という限界説がいかに脆い前提に基づいていたかを物語っています。
これらの歴史的事例は、単なる過去の出来事ではありません。現在議論されている「限界」を評価するための、極めて重要な教訓なのです。