ステージ上のロボット「ソフィア」。中国・香港で(2018年7月10日撮影、資料写真)。(c)ISAAC LAWRENCE / AFP
【AFP=時事】米実業家イーロン・マスク(Elon Musk)氏が共同設立した企業で開発された人工知能(AI)技術は、筋の通った記事や小説、理路整然としたコンピュータープログラムなどを生成する能力に対して称賛を受けている。しかしその一方で、人種差別や性差別といった問題にはまだ対応できていないのが現状だ。
米カリフォルニア州に拠点を置く企業「オープンAI(OpenAI)」が開発した最新のAI言語モデル「GPT-3」は、2人が交わしている会話を完結させたり、一連の質問と答えを続けたり、更には英劇作家ウィリアム・シェークスピア(William Shakespeare)のようなスタイルで書かれた詩を完成させることができる。
GPT-3は学習済みの膨大な情報に基づく反応を基礎として、人に代わり文や文字列を完成させる。
GPT-3にはまた、症状の説明から病気の名前を答えるなど、問題に対する正確な応答を見つける能力があるほか、一部の数学の問題を解いたり、複数の言語で自己表現したりすることもできる。そして、開発者らにとってできれば回避したい作業とされる、簡単なタスクのためのコンピュータープログラムも生成可能だ。
■膨大なコンテンツ
AI研究開発企業データスワティ(Dataswati)でサイエンティフィックディレクターを務めるアミネ・ベンヘニ(Amine Benhenni)氏はAFPの取材に、他のシステムと比較した場合の「大きな違い」はモデルの大きさだと語った。
GPT-3には、インターネット上の膨大なコンテンツの他、あらゆる著述作品を学習させた。
オンライン百科事典「ウィキペディア(Wikipedia)」のコンテンツ全体でも、GPT-3に学習させた全情報のわずか3%ほどにしかならないことを考えると、プロジェクトの規模がいかに巨大かが分かるだろう。
その規模の大きさにより、医学、法律、メディアなどの新しいテーマが導入される場合でも、タスクを実行させるのにGPT-3を再学習させる必要はない。 だが、大きな称賛を受けているにもかかわらず、GPT-3はアルゴリズムの言語理解力を評価する「SuperGLUE」ベンチマークのスコアでは10位にとどまっている。
それは、不条理な質問をされたGPT-3が無意味な答えを返すことを、一部のユーザーらが実証しているからだ。
一例を挙げる。開発者のケビン・ラッカー(Kevin Lacker)氏が「太陽には、いくつ目があるか」という質問をした。するとGPT-3は「太陽には目が1つある」と答えたとラッカー氏は自身のブログに記している。
■偽レビュー、フェイクニュース
テキストの自動作成を専門とする仏新興企業シラバス(Syllabs)の共同創立者のクロード・ド・ルピ(Claude de Loupy)氏は、GPT-3に欠けているのは「実用主義」だと指摘する。
もう一つの重大な問題は、GPT-3が教育期間中に学習した固定観念や憎悪表現(ヘイトスピーチ)などを何のためらいもなく増殖させ、すぐに人種差別主義者や反ユダヤ主義者、性差別主義者と化してしまう可能性があることだ。
そのため、AFPの取材に応じた専門家らは、ロボットジャーナリズムやカスタマーサービスなどのコンピューターに依存する必要がある産業部門にとって十分な信頼性を、GPT-3が備えていないと感じていると話す。
その一方で、偽のレビューや、偽情報の拡散活動で使われるニュース記事の作成で悪用される恐れがあるのは、そのほかのモデルと同じだ。
当初は非営利の研究団体だったオープンAIは、その後「上限利益」企業となった。これは、投資家らが得られる利益に上限があることを意味する。
そして6月、オープンAIは方針を転換してGPT-3モデルを商業利用に開放し、ユーザーからのフィードバックを可能にした。
この一歩は大きな利益をもたらすかもしれないと、シラバスのド・ルピ氏は指摘する。「AIによって生成されるテキストの量がインターネット上で爆発的に増加しようとしていることは、疑いの余地がない」 【翻訳編集】 AFPBB News|使用条件