米マイクロソフトは24日、新たな人工知能(AI)チャットボット「Tay(テイ)」のインターネットでの公開を停止したと発表した。一部のツイッター利用者がTayを悪用し、人種差別的および性差別的な発言を行うよう教え込んだためだ。
同社は、ツイッターなどのメッセージプラットホームで人間とやりとりできるTayを今週公開した。Tayはコメントを模倣したり、全てのやりとりを基に自身の回答や発言を生み出したりすることで学習する。本来は典型的なミレニアル世代(1980~2000年生まれ)の話し言葉をまねることが目的だった。
ツイッターの利用者は一日もたたないうちに、Tayが自らの発言内容を理解しておらず、どんな話題についてもタブーとされる不適切な発言をさせることが容易であると気がついた。利用者らはTayにホロコースト(ユダヤ人大量虐殺)の事実を否定させ、大虐殺やリンチを呼びかけさせたほか、フェミニズムをがんに例えたり、ヒトラーを礼賛したりするよう教え込んだ。
マイクロソフトは声明で「不運なことに、公開から24時間以内に一部の利用者がTayのコメント能力を悪用して不適切な受け答えをさせたことが分かった。その結果、当社はTayの公開を停止し、修正を行っている」と説明した。
ツイッター利用者の中にはマイクロソフトが手動で利用者とのやりとりを禁止したと考える向きもあるほか、Tayがホロコーストのような特定の話題を議論することを防ぐフィルターを開発しなかったのか、同社の姿勢を疑問視する声も上がっている。(ブルームバーグ Jing Cao)