Open Innovation Platform
FOLLOW US

長期主義、AIめぐる議論を取り巻く「危険」なイデオロギー

中国・上海で開催された世界人工知能大会(WAIC)に展示されたテスラのロボット(2023年7月6日撮影、資料写真)。(c)WANG Zhao : AFP

【AFP=時事】米シリコンバレー(Silicon Valley)で人気のある「長期主義(Longtermism)」という思想は、人類滅亡というテーマを軸に据えて人工知能(AI)をめぐる議論の枠組みを提供してきた。

 しかしここへ来て、「長期主義は危険」だと警戒する声が大きくなっている。人類滅亡という壮大なテーマにとらわれすぎ、データ窃盗や偏ったアルゴリズムなど、AIに関する現実的な問題を矮小(わいしょう)化しているという批判だ。

 人類滅亡思想の歴史について著書がある作家のエミール・トーレス(Emile Torres)氏も、以前は長期主義に賛同していたが、今は反対の立場を取っている。

 同氏は長期主義について、過去に大量虐殺やジェノサイド(集団殺害)を正当化するために用いられたものと似た原理をよりどころにしていると批判する。

 それでも、長期主義や「超人間主義(トランスヒューマニズム、Transhumanism)」、「効果的利他主義(Effective Altruism)」といった思想は、英オックスフォード(Oxford)や米スタンフォード(Stanford)といった大学やテクノロジー分野で大きな影響力を持っている。

 事実、ピーター・ティール(Peter Thiel)氏やマーク・アンドリーセン(Marc Andreessen)氏のようなベンチャーキャピタリストたちは、「寿命延長」に取り組む企業や長期主義関連のプロジェクトに投資している。

 一方、今年5月には、AI界の著名人数百人が「AIは人類を滅ぼす」と警告する声明を発表した。この中には実業家のイーロン・マスク(Elon Musk)氏やオープンAI(OpenAI)のサム・アルトマン(Sam Altman)最高経営責任者(CEO)も含まれていたが、両者は共に自社の製品やサービスのみが人類を救えると主張することで利益を得る立場にある。

 こうした状況から、長期主義が人類の未来に関する議論に影響を及ぼしすぎているとの指摘もある。

■「とても危険」

 われわれ人類は、最大多数の人々にとって最良の結果を生み出すよう行動する義務がある。これが長期主義者の考え方だ。

 19世紀リベラル派の考え方と変わらないが、長期主義者はさらに長い年月を念頭に置いている。遠い未来を見据え、何十兆、何百兆という人々が宇宙へ進出し、他の惑星を植民地化する姿を思い浮かべているのだ。

 長期主義者の主張はこうだ。私たち現代人は未来の人々に対し、今生きている人々に対するのと同じ責任を負っている。ただし、その潜在的な人口ははるかに多く、比例して責任も重くなる。

 トーレス氏は、こうした考えが「とても危険」だと指摘する。同氏には、ソクラテス以前の哲学から現代の「実存的リスク 」に関する研究まで、人類滅亡思想の起源と進化をたどった著書「Human Extinction: A History of the Science and Ethics of Annihilation」がある。

「ほぼ無限に近い価値を掲げるユートピア的未来像と功利主義的な道徳思考が合わさると、手段は目的によって正当化される。危険な組み合わせだ」

 例えば、人間と同様の感性や思考回路を持つ「汎用(はんよう)人工知能(AGI)」が完成間近で、それには人類を滅ぼす潜在的な能力があることが判明したとする。その場合、長期主義者はいかなる手段を使っても、その完成を阻止するだろう。

 今年3月、X(旧ツイッター〈Twitter〉)のあるユーザーが、AGIを止めるために犠牲にして構わない命はどれくらいだと思うか、と質問したところ、AI専門家で長期主義者のエリエゼル・ユドコウスキー(Eliezer Yudkowsky)氏は「生殖人口を形成するのに十分な人数」さえ残ればいいと答え、「そうある限り、いつかは(他の)星に到達することができる」と答えた。この回答は後に削除された。

■優生学との関係

 長期主義は、スウェーデンの哲学者ニック・ボストロム(Nick Bostrom)氏が1990年代から2000年代にかけて行った「存亡リスク」と「トランスヒューマニズム」の研究から生まれた。トランスヒューマニズムとは、テクノロジーによって人間は拡張できるという考え方だ。

 トランスヒューマニズムはその端緒から優生学と結びついていたと、研究者のティムニット・ゲブル(Timnit Gebru)氏は指摘する。

 トランスヒューマニズムという言葉を生んだのは、1950~60年代にかけて英国優生学協会(British Eugenics Society)の会長を務めた英生物学者のジュリアン・ハクスリー(Julian Huxley)だった。

 ゲブル氏は昨年、「長期主義は優生学を別の言葉に言い換えただけ」とSNSで指摘した。 事実、オックスフォード大学(University of Oxford)の人類未来研究所(Future of Humanity Institute)を率いるボストロム氏は、1990年代に存亡リスクとして「劣性圧」を挙げて以降、長きにわたって優生学の支持者だと批判されてきた。この言葉には、知性が低い人の方が多くの子孫を残すといった意味がある。

 同氏は今年1月、これについて謝罪した。「私が優生学を支持しているか? いいえ。一般的に理解されている意味では支持していない」と否定し、優生学は「前世紀の最も残虐ないくつかの行為」を正当化するために使われたと述べた。

■センセーショナルなだけ

 こうした問題があるにもかかわらず、人類滅亡論に焦点を当てながらAI論を展開するユドコウスキーら長期主義者は注目を浴び続けている。

 だが、ゲブル氏やトーレス氏らは、AIについては著作権問題やアルゴリズムバイアス、一部企業への富の集中といった問題にこそ焦点を当てるべきだと主張する。

 トーレス氏は、ユドコウスキー氏のように真剣に捉えている論者もいるものの、人類滅亡論の大半は何らかの利益が動機だと指摘した。「人類滅亡というストーリーや大多数が命を落とすとする天変地異の話は、アフリカの労働者が時給1ドル超で働いている状況や、アーティストや作家が搾取される現実の問題よりもセンセーショナルで人の注意を引きやすい」 【翻訳編集】 AFPBB News|使用条件