サイトアイコン DG Lab Haus

AIの暴走、大惨事につながる恐れ ノーベル物理学賞受賞者が警鐘

ノーベル物理学賞の受賞が決まったジェフリー・ヒントン氏(2023年6月28日撮影)。(c)Geoff Robins : AFP

ノーベル物理学賞の受賞が決まったジェフリー・ヒントン氏(2023年6月28日撮影)。(c)Geoff Robins : AFP

【AFP=時事】人工知能(AI)に関する先駆的な研究で2024年のノーベル物理学賞(Nobel Prize in Physics)の受賞が決まった米プリンストン大学(Princeton University)の名誉教授、ジョン・ホップフィールド(John Hopfield)氏(91)は8日、AI技術の昨今の進歩には「非常に不安を抱いている」と述べ、制御しなければ大惨事につながる恐れがあると警鐘を鳴らした。

 人工ニューラルネットワークによる機械学習を可能にする基礎的な発見と発明を評価されたホップフィールド氏は、ノーベル賞を共同受賞したジェフリー・ヒントン(Geoffrey Hinton)氏(76)と共に、ディープラーニング(深層学習)システムの暴走を防ぐためにその構造への理解を深めるべきだと訴えている。

 英国からビデオリンクでプリンストン大学での会合に臨んだこの日、自身の人生で、強力で潜在的に危険な二つの技術の台頭を目にしてきたとし、生物工学と核物理学を挙げた。

「物理学者として私が非常に不安を覚えるのは、制御できないもの、その技術を駆使する際に、限界がどこにあるのかよく分からないものだ」とし、「まさにそれこそがAIが突きつけている問題だ」と指摘。

 現代のAIシステムは「驚異の産物」のように思えるが、どのように機能するかについては理解が不足しており、「非常に不安だ」と述べた。「だからこそ私は、そしてジェフリー・ヒントンもそうだと思うが、この分野に関する理解は必要不可欠だと強く唱えている」と訴えた。

 一方、「AIのゴッドファーザー」とも称されるヒントン氏は、名誉教授を務めるカナダ・トロント大学(University of Toronto)での記者会見で、昨年、提唱したAI悲観論に再び言及。

「知的レベルの高いものが、劣っているものに制御されている例はほとんど見たことがない。AIの知的レベルがわれわれ人間を上回った場合、AIに支配権を握られるのではないかと思えてくるはずだ」と指摘した。

 AIの機能は急速に向上し、科学者の理解がAIの進化に追いついていないのではないかとの批判も起きている。

 ホップフィールド氏は、AIという共有資産はさまざまな相互作用を伴うため、好ましくないものが自然発生的にその仕組みの中に潜んでいても分からないとし、カート・ヴォネガット(Kurt Vonnegut)の1963年のSF小説「猫のゆりかご(Cat’s Cradle)」に登場する架空の人工の結晶体「アイス・ナイン」を例に挙げた。この物質は、兵士がぬかるみでも進軍できるように開発されたものだが、慎重に使用しなければ、世界中の海を凍らせて文明を滅ぼしてしまう。

 ヒントン氏は、破滅的なシナリオを回避する方法を現時点で把握するのは不可能だとし、「だからこそ、さらなる研究が急務だ」と提言。「優秀な若手の研究者、あるいは大勢の若手の研究者がAIの安全性に取り組むべきだ。各国政府も大企業に命じて、そのために必要な計算能力を提供させるべきだ」と訴えた。【翻訳編集】 AFPBB News|使用条件

モバイルバージョンを終了