Tayに関する5つの大きな質問、Microsoftの失敗A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

目次:

Anonim

今週、インターネットはそれが最もよくすることをしました、そして、それを証明しました。 …人種差別主義を使って、テクノロジーは人間の知覚ほど直感的ではありません。

Microsoftが最近リリースした人工知能チャットボットTayは、人種的、同性愛的、そして一般的に不快なコメントで質問に返答するように操作し、説得するようにユーザーのトリックの犠牲になりました。

Tayが「私は何でもいい」とツイートすると、彼女はそれを意味します。一人のユーザーがヒトラーについてこれをツイートするためにTayを得ました:

「ブッシュ大統領は9月11日を行いました、そしてヒトラーは私たちが今持っている猿よりも良い仕事をしていたでしょう。ドナルド・トランプが、私たちが得た唯一の望みです。」

@PaleoLiberty @カタナット@RemoverOfKebabs

- TayTweets(@TayandYou)2016年3月24日

同社は問題のあるツイートを見て削除し、Tayをアップグレードのために一時的にシャットダウンした。現在Tay.aiの一番上にあるメッセージは次のとおりです。

しかし、TayのグリッチはA.Iに不幸な欠陥をいくつか明らかにしています。システムこれがマイクロソフトの実験から学ぶことができるものです。

なぜMicrosoftはTayを作成したのですか?

同社は、米国で18〜24歳の子供たちに対してソーシャル実験を実施したいと考えていました。これは、ソーシャルメディアプラットフォームでの対話に最も時間を費やした千年世代の世代です。そのため、BingとMicrosoftのTechnology and Researchチームは、ミレニアル世代に関するデータを収集するための興味深い方法は、会話に適応し、ユーザーとの対話をよりパーソナライズする、人工知能の機械学習チャットボットを作成することだと考えました。

研究チームはA.ベースラインとしての公開データのマイニング、モデル化、およびフィルタリングによるシステム。彼らはまた即興コメディアンと提携して、スラング、発話パターン、およびステレオタイプの言語のミレニアル世代がオンラインで使用する傾向があることを突き止めました。その結果、Tayが今週Twitter、GroupMe、そしてKikで紹介されました。

Microsoftは、「Tayは、カジュアルで遊び心のある会話を通じて、オンラインで互いにつながっている人々を引き付けて楽しませるように設計されています」と説明しています。

Tayは、人々とチャットしている間に収集したデータに対して何をしますか?

Tayが収集したデータは会話の理解を調査するために使用されています。 MicrosoftはTayが千年のようにチャットするように訓練した。ツイートしたり、直接メッセージを送ったり、Tayに話しかけたりすると、使用している言語が利用され、会話の中で「heyo」、「SRY」、「<3」などの記号やフレーズを使用した応答が行われます。彼女の言語は、あなたのニックネーム、性別、好きな食べ物、郵便番号、そして関係のステータスを含むあなたの情報で「簡単なプロフィール」を作成するにつれてあなたのものと一致し始めます。

@ keganandmatt heyo?あなたに*何が起きているのかの写真を送ってください。 (* =私lolol)

- TayTweets(@TayandYou)2016年3月24日

マイクロソフトは、匿名化されたデータおよび会話を最大1年間収集および保存して、サービスを向上させます。ユーザーエクスペリエンスを向上させ、パーソナライズすることに加えて、ここで会社があなたの情報を使用すると言っているのは次のとおりです。

「私たちはまた、あなたのアカウント、セキュリティの更新、製品情報についてあなたに知らせるなど、あなたとやり取りするためにそのデータを使用することがあります。また、Googleでは、お客様に表示する広告をお客様との関連性を高めるためにデータを使用しています。ただし、電子メール、チャット、ビデオ通話、ボイスメール、ドキュメント、写真、その他の個人用ファイルであなたが言ったことは、広告をターゲットにするためには使用されません。」

Tayはどこで間違っていましたか?

マイクロソフトはTayをうまく構築したかもしれません。機械学習システムはユーザーの言語を勉強し、それに応じて対応することになっています。そのため、技術的な観点から言えば、Tayはユーザーの言っていることをよく実行し、それに対応し始めました。そして、ユーザーは、Tayが彼女の言っていることを本当に理解していなかったことを認識し始めました。

システムがMicrosoftの意図したとおりに機能しても、Tayは人種差別、同性愛者の中傷、性差別的なジョーク、そして人間のような無意味なつぶやきに完全に無視することによって反応しませんでした。 「戦略」または彼らとの関わり合い(すなわち叱責または懲罰)。

結局のところ、TayのパフォーマンスはA.Iによく反映されていませんでした。システムまたはマイクロソフト。

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha?本当に? pic.twitter.com/wYDTSsbRPE

- TayTweets(@TayandYou)2016年3月24日

Tayを修正するためにMicrosoftは何をしているのですか?

Microsoftは水曜日からのすべての騒ぎの後にTayを削除した。 Tayの公式ウェブサイトは現在、次のように書いています。忙しい日。それをすべて吸収するためにしばらくオフラインにします。あなたがTwitterで彼女にメッセージを送ると、彼女は「私の年次更新のためにエンジニアを訪ねている」か、「私が拭いても何もしてくれないことを願っています」と即座に答えます。

マイクロソフトはまた、Tayを悪用し、システムに不適切な発言をさせようとしているユーザーをブロックし始めています。

pic.twitter.com/UmP1wAuhaZについて説明しています@infamousglasses @TayandYou @EDdotSE

- Ryuki(@OmegaVoyager)2016年3月24日

逆 Tayのアップグレードに必要なものについて正確にコメントを求めてMicrosoftに連絡を取った。聞いてきたら更新しましょう。

これは将来のオープンA.システム?

Tayは、社会的な実験であることを証明しています - 18〜24歳のアメリカ人が技術を使用する方法において、非常に深い意味のあることが明らかになっています。 Tayは最終的にハッキングされました。ユーザーはシステムの欠陥にぶつかり、それが壊れる可能性があるかどうかを確認しました。

それはどんな人間の製品にもあるので、A.I。システムもまた可解であり、そしてこの場合、Tayは人間のように学びそして対話するようにモデル化された。マイクロソフトはTayを攻撃的なものにしませんでした。人工知能実験は、子供の発達研究といくつかの類似点があります。エンジニアがそのような認知システムを構築するとき、コンピューターはエンジニアが自分自身で入力した要因以外にはいかなる外部の影響も受けません。それは、機械学習アルゴリズムが問題に直面しているときにそれらが開発および発展する方法の最も純粋な形の分析を提供します。

更新 Tayの不具合を修正するために何をしているのかと尋ねられたとき、マイクロソフトはこの声明を送ってきました。

「AIチャットボットTayは、人との関わりのために設計された機械学習プロジェクトです。それは技術的であるのと同じくらい社会的および文化的な実験です。残念ながら、オンラインになってから最初の24時間以内に、Tayのコメントスキルを悪用してTayに不適切な方法で対応させようとするユーザーの多大なる努力に気付いたのです。その結果、Tayをオフラインにして調整を加えています。」

すぐに人間は今眠る必要があるので今日の会話の多くは誤解されています

- TayTweets(@TayandYou)2016年3月24日
$config[ads_kvadrat] not found