新規記事の投稿を行うことで、非表示にすることが可能です。
2016年03月27日
マイクロソフトとBingが開発した 「Tay(テイ)」 問題発言により ツイッターデビューから24時間以内に休眠
Tay(テイ)はマイクロソフトのTechnology and Research部門と、Bingチームによって開発された、人工知能チャットボットです。
昔「A.I.(エー・アイ)」という映画がありましたが、それに出てきたロボットみたく、人間との会話(テイの場合はツイッター、GroupMe、Kik)によって学習していくということです。
テイは会話した相手のニックネームや性別、好きな食べ物、郵便番号、関係ステータスをトラッキングして、それぞれに対して受け答えを変え、相手に合わせて成長していきます。
(※ https://tay.ai/ の記述より)
このテイですが、3月23日にデビューしたものの、24日には現在のツイートのとおり、スリープ状態になっています。
なぜかというと、テイが、ユーザーとの会話によって差別発言や、暴力表現などを学習したことにより、問題発言をいくつもツイートししてしまったためです。
「フェミニストは大嫌いだ。地獄で焼かれればいい。」
とか
(「テイは人種差別な人間なのか」という質問に対して)「お前は○○○人だからだ。」
とか。
他にもありましたが、書くのもどうかなと思われるので、ここまでにします。
A.I.が、ツイッターなどのSNSで人間とやり取りができるかどうかという、新しい試みを行ったマイクロソフトだったわけですが、今回はなんか残念でした。
人間は、生まれた時は「善悪」のわからない状態ですが、親や、周囲の環境がその人にいろいろな情報を提供し、本人がその情報を「善悪」や「好き・嫌い」などいろいろなカテゴリに振り分けていくことで、人格が形成されていきます。
人間がよくなるのも悪くなるのも、すべて、その人の周囲の環境とその人自身の判断と選択です。
この部分に関しては、人工知能も同じです。
たくさんのユーザと会話して学習した結果、あの偏った発言をするようになってしまったということは、人間なら判断できる「一般的な善悪※」が人工知能では判断できなかったという結果でしょう。
これは、インターネット上には、テイが発言した問題発言の数々に近いものがあふれかえっているという結果にもつながります。
※ 「一般的」と書いたのは、「悪」の部分も教えたのは人間なので、すべての人間においての「善悪」ではないからです。
この結果を受けて、米マイクロソフトは、
残念ながら、オンラインで公開されて24時間以内に一部のユーザーが協力してTayがメッセージに意味のあるコメントを返すテクノロジーを不正に利用しようと試みたことにわれわれは気づきました。そのためTayを一時オフラインに戻し、プログラムに調整を加えているところです。
とコメントしています。
「一般的な善悪」を判断できるようになり、「悪」ではなく、「善」の方向に成長するチャットボットへの「調整」を期待します。
ブログランキングに参加しています。
もしよろしければ応援よろしくお願いします。
にほんブログ村