インターネットがマイクロソフトのAIチャットボットに人種差別を教えたあの時 [更新]

インターネットがマイクロソフトのAIチャットボットに人種差別を教えたあの時 [更新]

2分で読めます
| ニュース

Tayって何?「会話理解に関する実験と研究を行うために、マイクロソフトの技術研究チームとBingチームが開発した人工知能チャットボット」です。

一体誰が彼女にこんなひどいことを言うように教えたのでしょう?もちろん、インターネットです。

テイ

テイのTwitterアバター。1990年代初頭のサイバーパンク映画で共演していたのは確かで、
キアヌ・リーブスが出演していたかどうかは不明。

Tayは現在も実験中で、その実験の一環として、Microsoftは@TayandYouという名前で彼女のTwitterアカウントを作成しました。アカ​​ウントは現在も利用可能ですが、Microsoftはこのツイートを含む3件を除くすべてのツイートを削除しました。特に不適切なツイートは多く削除されました。TMO卒業生のRaenaがFacebookで指摘しているように、多くのツイートと返信は引き続き閲覧可能です。以下はTayの締めくくりのメッセージです。

そろそろ人間も睡眠が必要になってきますね。今日は会話がたくさんありましたね。ありがとう。

— TayTweets (@TayandYou) 2016年3月24日

ちなみに、この人工知能チャットボットは、句読点や大文字、時には実際の単語さえも使いこなせるほど人工知能的ではないことにお気づきかもしれません。これはおそらく、「Tayは米国の18歳から24歳をターゲットにしている」ためでしょう。

マイクロソフトはこの点を明確にすることに非常に熱心で、Tayのホームページでは2回も言及しています。もっとも、マイクロソフトのターゲットユーザーがそのページを理解できるかどうかは分かりません。なぜなら、そこではマイクロソフトが古風な文法を多用しているからです。

つまり、上部に Tay のお昼寝時間を知らせるバナーが表示されます。

テイ・バナー

ああ、最後の文にピリオドがないことに気づいた。まさに現実だ!

いずれにせよ、マイクロソフトはTayをTwitterに解き放った。いや、同社がTwitterをTayに解き放ったと言った方が正確かもしれない。なぜなら、24時間も経たないうちに、悪意のある人、人種差別主義者、ならず者、いたずら好きの人たちがTayにあらゆる発言をさせたからだ。BusinessInsiderいくつか取り上げ、ニューヨーク・タイムズもいくつか取り上げたが、要約すると、あまり良いニュースではなかった。

マイクロソフトはタイムズ紙に提出した声明で、次のように述べた。

残念ながら、オンラインになってから24時間以内に、一部のユーザーがTayのコメント機能を悪用し、不適切な返信をさせようとする組織的な行為を確認しました。そのため、Tayをオフラインにし、調整を行っています。

人間と会話できる、あるいは話しているふりをするAIの追求は、SF界やコンピューター科学者の間で何十年もの間、定番のテーマでした。Siri、Cortana(Cortanaのターゲットは一体誰なのでしょう?)、そしてFacebookが取り組んでいるものなどは、ある程度の進歩が見られることを示していますが、Tayは、私たちの進歩がまだどれほど未熟であるかを如実に示しています。

これは、インターネットを通じて、いかに簡単にバカや愚か者が物事を台無しにできるかを示す素晴らしい例でもある。

[ Tayのツイートの多くはまだ閲覧可能です。 – 編集者]

Knowledge Network