AIは人類を絶滅させる可能性があるとトップ専門家やCEOが主張

AIは人類を絶滅させる可能性があるとトップ専門家やCEOが主張
AIは人類を絶滅させる可能性があるとトップ専門家やCEOが主張
AI could make humans extinct | Google DeepMind image

人工知能が人類にもたらすリスクについては、相反する見解が示されており、中にはAIが人類を絶滅させる可能性があるとさえ主張する者もいる。しかし驚くべきことに、後者の見解は、OpenAIとGoogle DeepMindのCEOを含む、人工知能の多くの主要な専門家によって共有されている。

実家の地下室に住む陰謀論者なら当然こんな声明を出すだろうが、この人はこれ以上ないほど完璧な経歴の持ち主だ。署名者たちはテクノロジー全般、特にAI科学界の錚々たる顔ぶれだ。

署名者には著名な学者が含まれており、注目すべきことに、OpenAIのCEOであるサム・アルトマン氏とGoogle DeepMindのCEOであるデミス・ハサビス氏の両名も署名している。

警告は1文の形で出されます。

AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで、世界的な優先事項であるべきです。

声明の序文には、この声明は議論を始めることを意図していると書かれているが、その危険性がこれほどまでに高まる可能性があると本気で考える専門家が増えていると書かれている。

AIの専門家、ジャーナリスト、政策立案者、そして一般市民の間で、AIがもたらす重要かつ緊急性の高い幅広いリスクについて議論が活発化しています。しかしながら、高度なAIがもたらす最も深刻なリスクの一部について懸念を表明することは容易ではありません。以下に簡潔にまとめた声明は、この障壁を克服し、議論の機運を高めることを目的としています。また、高度なAIがもたらす最も深刻なリスクの一部を深刻に受け止める専門家や著名人が増えていることを広く認識してもらうことも目的としています。

NYタイムズ紙は、署名者にはAI界の大物2人も含まれていると報じている。

ニューラルネットワークに関する先駆的な研究でチューリング賞を受賞した3人の研究者のうちの2人であり、現代のAI運動の「ゴッドファーザー」とみなされることも多いジェフリー・ヒントン氏とヨシュア・ベンジオ氏が、この分野の他の著名な研究者たちと同様に声明に署名した(3人目のチューリング賞受賞者で、メタのAI研究を率いるヤン・ルカン氏は、火曜日の時点では署名していなかった)。

これは、より高度な生成AIモデルの開発を6か月間停止するよう求める以前の公開書簡に続くもので、署名者にはAppleの共同創業者であるスティーブ・ウォズニアック氏も含まれている。

書簡では、現在のAI開発は制御不能であり、「社会と人類に深刻なリスク」をもたらす可能性があると述べられている。

この最新の書簡は、これまで嘲笑を恐れて公の場では躊躇しながらも、個人的には懸念を表明してきたAI専門家にとっての「カミングアウト」と評されている。この書簡は、数と評判という点で安全をもたらす。なぜなら、これほど多くの著名人が表明した懸念を否定するには、今やさらに勇敢な人物が必要となるからだ。

あなたの意見はどうですか?AIは人類にとって実存的な脅威となる可能性はありますか?ぜひコメント欄であなたの考えを共有してください。

画像: Google DeepMind/Unsplash

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。