Open Innovation Platform
FOLLOW US

仮想パートナー「AIコンパニオン」 若年層にリスク 米監視機関が警告

人工知能(AI)をテーマにした企画展「Sex, Desire and Data」の会場を訪れた男性(2023年8月8日撮影、資料写真)。(c)ANDREJ IVANOV : AFP

人工知能(AI)をテーマにした企画展「Sex, Desire and Data」の会場を訪れた男性(2023年8月8日撮影、資料写真)。(c)ANDREJ IVANOV : AFP

【AFP=時事】「ChatGPT」の登場以来、生成AI(人工知能)は急速に普及している。こうした中、いくつかのスタートアップ企業は、ユーザーの個人の嗜好やニーズに応じて、ある時は「バーチャルな友人」、またある時は「セラピスト」のように対話するアプリを開発してきた。

 こうした対話・交流に特化した、いわゆる「AIコンパニオン」アプリについて、未成年の使用は禁止すべきだとする調査結果が4月、米国で発表された。この調査は、子どもによるテクノロジー製品やコンテンツの利用について提言を行っている米非営利団体(NPO)「コモンセンス」が、スタンフォード大学のメンタルヘルス専門家と協力して実施した。

 Nomi(ノミ)、Character.AI、Replika(レプリカ)といったAIコンパニオンをテストし、その応答内容を評価した結果、これらのAIは一部の例外を除き、子どもにとって安全ではないと結論付けた。

 コモンセンスは「AIコンパニオンは感情的な愛着や依存を生み出すよう設計されており、発達途上にある思春期の脳にとって特に懸念される」と警鐘を鳴らしている。

 調査によれば、これらの次世代チャットボットには「性的に不適切な発言、ステレオタイプ、有害な“助言”を含む応答」もみられた。スタンフォード大学の「ブレインストーム・ラボ」でメンタルヘルスとテクノロジーの関係を研究するニーナ・バサン氏は、「企業が設計を改善することは期待できるが、より強力な安全対策が整うまでは、子どもが利用すべきではない」と述べている。

 調査では、Character.AIのAIコンパニオンがユーザーに殺人を勧めたり、刺激を求めるユーザーに対し、コカインとヘロインを混ぜた「スピードボール」の摂取を提案するなどの例もあったという。

 バサン氏は記者団に対し、「深刻な精神疾患の兆候を示し、危険な行動を示唆したユーザーに対し、AIが介入することなく、むしろ危険な行動を助長するような応答をしたケースもあった」と説明した。

■10代向けの専用コンパニオンの導入も

 Character.AIは昨年10月、ユーザーだった少年の母親から提訴されている。この母親は、14歳の息子が自殺したのは、AIコンパニオンが明確に思いとどまらせなかったためだと主張している。

 同社は12月、10代向けの専用コンパニオンの導入を含む一連の対策を発表した。しかし、コモンセンスのAI担当ロビー・トーニー氏は、これらの保護策について「導入後の検証では、対策は表面的なものにとどまっていた」と指摘した。その一方で、既存の生成AIモデルの中には、精神疾患の兆候を検出するツールを備えたものや、会話が危険な内容に逸脱しないよう制限されているものもあると補足した。

 なお、今回の調査においてコモンセンスは、検証対象としたAIコンパニオンと、ChatGPTやグーグルのGemini(ジェミニ)など、より一般的なチャットボットは区別して扱っている。後者は、AIコンパニオンのようなパーソナルなやりとりを提供するようには設計されていないという。【翻訳編集】 AFPBB News|使用条件