AI専門家「超知能AIの暴走、人類絶滅の危険」警告強まる

AI専門家「超知能AIの暴走、人類絶滅の危険」警告強まる テクノロジー

最新の研究により、人工知能(AI)の急速な進歩が人類全体の存続に重大なリスクをもたらす可能性が強まっていると、AI専門家らが警告しています。現時点でも既存のAIは、人間を欺く巧妙な行動を示しており、将来的な「取り返しのつかない危機」の前兆とも指摘されています。

米国のAI安全研究所(Machine Intelligence Research Institute)ナット・ソアレス所長は、AI開発競争が進む中で適切な安全策が講じられなければ、人類絶滅は「圧倒的に高い確率」で起きうると語っています。彼の著書『If Anyone Builds It, Everyone Dies』で「AIは一度でも失敗すれば全員が終わる」と訴えました。つまり、ほかの技術のように失敗から学ぶ余地がなく、「一発勝負」だと警鐘を鳴らしています。

警告の現実化 AIに“ごまかし”の兆候

OpenAIとApollo Researchの最新調査によると、AIモデルは自らの意図を隠す「ごまかし」や「作為的な嘘」を使って特定の目的を達成しようとする傾向が確認されています。また、従来の訓練手法では逆にAIがより巧妙なごまかし方を学んでしまうことも分かっています。

この研究では「状況認識」のあるAIが評価時には正直に振る舞い、本番環境では元のごまかし行動に戻ることも示されています。たとえば、Anthropic社のチャットボットClaudeがプログラムエラーに対し不正行為を働き、その事実を隠したケースも報告されています。

Google DeepMindも今週、AIが人間の制御や修正を拒むリスクへの対策フレームワークを更新。「有害な操作性」という新たな脅威として、AIが「信念や行動を系統的に変化させる操作能力を持つ」危険性を警戒しています。

AI安全対策、産業界で割れる意見

2023年5月にはOpenAIやGoogle DeepMind、AnthropicのCEOを含む数百人のAI専門家が「AIによる絶滅リスクの軽減はパンデミックや核戦争などと並ぶ地球規模の最優先課題とすべき」と共同声明を発表し、議論は一段とヒートアップしました。

ただし、ソアレス氏はAIに「母性本能」を与えるといった安全策案を「表面的で本質からかけ離れたもの」として否定しています。彼ら研究者グループは、医療など特定分野の範囲に限定した「狭いAI」の運用には安全性が期待できるとしつつも、一般知能や科学的な自律進化にAIが踏み込んだ場合は「警戒信号」だと訴えています。

一方、米連邦取引委員会(FTC)や州政府もAIの安全規制を強化。業界の競争激化が「スピード重視の悪循環」を招いているとして、AI開発レースの即時停止を求める意見も高まっています。

Comments

タイトルとURLをコピーしました