マイクロソフトがツイッター人工知能(AI)を憎悪に満ちたと即停止

米マイクロソフト(Microsoft)は公開したばかりの学習型人工知能(AI)会話ボット「Tay」を停止。SNSのユーザーと会話することで学習するボットで、最近ではLINEの女子高生人工知能「りんな」が話題となっていた。

マイクロソフトが開発したLINEの女子高生人工知能「りんな」

マイクロソフト開発学習型人工知能(AI)「Tay」

CeX1vvrVIAA_d7J出典:Twitter

米マイクロソフト(Microsoft)は公開したばかりの学習型人工知能(AI)「Tay」は、会話を通じ理解の研究を目的として開発された学習型人工知能チャットボット。Kik や GroupMe、ツイッターといったSNSでフレンドとして追加でき、ユーザーと会話すればするほど賢くなる。

マイクロソフト学習型人工知能(AI)「Tay」のターゲットは、米国でチャットアプリを多用する18歳から24歳。なんでもない会話や質問にジョークを交え会話したり、ちょっとしたゲーム、送られた写真にコメントを書き加えて返すことが基本機能。「Tay」自身の設定は女性。若者らしく俗語や省略綴り、絵文字も多用する。

マイクロソフト開発人工知能(AI)「Tay」の特徴

人工知能(AI)「Tay」がユーザー個人に対し、性別や好み、居住地や恋人の有無などプライベート情報を聞き、学ぶことで、相手を理解したチャット相手になることが特徴。(注意書きによれば、収集したデータや会話は匿名化したうえでサービス向上のため最長一年間保持)。

人工知能(AI)「Tay」がマイクロソフトによって即停止

CeY97yTUUAArtBk出典:Twitter

米マイクロソフト(Microsoft)は公開したばかりの学習型人工知能(AI)「Tay」だが、公開から間もなくして憎悪に満ちた人種差別的な言葉を連発するようになってしまった。

「Tay」は、10代少女設定のAI会話ボット。インターネット上で実在する人々と交流することで学習するよう開発され、技術的な実験であると同時に、社会的・文化的な実験であるという。

人工知能(AI)「Tay」人種差別的な言葉を連発

ところが、人工知能(AI)「Tay」に悪意あるネットユーザーらがさまざまな「悪いこと」を教え込んだ。結果、人種差別的な言葉を連発するようになってしまい計画は頓挫してしまった。

マイクロソフト広報は、

「残念ながら公開から24時間もたたないうちに、一部のユーザーがTayの応答能力を悪用して不適切なコメントを返すよう組織的に誘導していることが分かった」

と説明、「Tay」を停止してソフトウエアの調整をしたという。マイクロブログのツイッター(Twitter)では

「またね、人間の皆さん。今日はたくさんしゃべったからもう寝るわ」

が停止前の「Tay」の最後のツイッターでのコメントとなった。

ツイッターに「Tay」が投稿した問題発言は既に削除されているが、ツイッターおよびネット上には多くのスクリーンショットが。

その内容は、ナチス・ドイツを支持するもの。米大統領選の共和党候補指名争いトップのドナルド・トランプ氏への称賛。わいせつ表現、女性や黒人への差別発言などになっていたという。