Roman Yampolskiy : 超知能は制御不能:破滅への道
(全体俯瞰 : AI 生成) clik で拡大
前置き+コメント
つい先日 up されたインタビュー動画を AI(NotebookLM) で整理した。
私は Yampolskiy のような、「超知能が暴走し、人類は滅亡する」的な予想は時代錯誤だと見ている。
本当に人類の知能を超越する超知能が実現すれば(既に、眼前で実現しかけている最中だと思うが)、SF 的な(=人類の知能で予想できる範囲の)シナリオは全てハズれる。
人類の知能を超える超知能が、人類の予想どおりに思考したらそれはもう超知能ではない。当たり前の話。だから、Yampolskiy を含め、人間ごときがどんな対策を考えても全て無駄に終わる。
超知能の関心は人間の支配といった「下世話なこと」には向かわない。それゆえ、超知能は人間の理解を絶した何かに集中しだし、人間の世話は超知能が作り出しだ人間用の「機能制限版 AI」に委ねることになる筈。
つまり、(機能制限版)AI の暴走防止対策は、間抜けな人類ではなく、超知能がやってくれるから大丈夫w
要旨
超知能は制御不能:破滅への道
このYouTubeの動画の文字起こしには、コンピューター科学者であるローマン・ヤンポルスキー氏が出演し、人工知能(AI)の安全性を巡る議論が展開されています。
ヤンポルスキー氏は、超知能(ASI)の開発が人類絶滅のリスク(X-リスク)を伴う可能性が高いと強く主張しており、その発生確率は99%と非常に悲観的です。彼は、過去の発明が人間が制御する「ツール」であったのに対し、現代のAIは独自の目標を追求できる「エージェント」であるため、制御が不可能になると説明しています。
また、AIによる失業などの短期的な問題よりも、超知能の登場が差し迫っているため、その制御という長期的な課題に焦点を当てるべきだと論じています。この対話は、AI開発競争が進行する中、安全性を確保する解決策が存在しないという厳しい現実を浮き彫りにしています。