ジョージア工科大学のステレオタイピングロボットは人種差別ではなくAIの未来です

$config[ads_kvadrat] not found

不要嘲笑我們的性

不要嘲笑我們的性
Anonim

放課後のスペシャルやダイバーシティセミナーに耳を傾ける耳には、これは悪いように思えますが、外観に基づいてロボットが素早い判断を下すことを望みます。偏見を克服するのは良いことですが、ステレオタイプができないと知能が低下します - 人工的な場合もそうでない場合もあります。ジョージア工科大学のロボット学者であるアラン・ワグナー博士は、ステレオタイプ技術の主な支持者です。彼は、この種の論理は人種や性別にだけ適用される必要はなく、状況や行動だけに適用される必要はないと主張しています。

彼のステレオタイプアルゴリズムの初期のテストで、ワーグナーはそれが見たものから結論を出すために素朴なロボットを訓練しました。ロボットは学習し、知覚的になりました。それはワグナーがロボットの仮定、特に事前にプログラムされた仮定の倫理について批判的に考え始めることを可能にしました。彼は話しました 逆 彼の作品とその影響について。

実験のしくみを説明してください。

ロボットは消防士、EMT、whatnotなど、さまざまな種類の個人と対話しますが、これらの個人のいずれのカテゴリについても以前の経験はありません。基本的には体験学習です。

そのアイデアは、ロボットが個人からの知覚的特徴を使用して道具使用の観点から彼らの必要性を予測できることを示すことでした。アルゴリズムの働き方によって、ロボットのカメラは、個人がどのように見えたかについてのさまざまな側面を認識することになります。

それはまた彼らが彼らがどのように見えるのかについて質問するでしょう。もちろん、質問することはあなたが現場でやりたいことではありませんが、ロボットの認識は今のところ非常に限られています。私たちは人について学ぶことについてのプロセスをブートストラップする方法を必要としていました。人は道具を選択し、それからロボットは道具を選択し、時間の経過とともにロボットはどの種類の人がどの道具を好むかを学習するであろう。

あなたはロボットがバッジが警察官を意味するのか、または重い反射コートが消防士を意味するのかを学ぶことを期待しましたか?

私たちはそれを期待していますしかし、驚くべきこともいくつかありました。たとえば、ロボットは、ひげが消防士で予測されることを誤って認識しました - それは奇妙でしたが、データを見るとそれは驚くべきことではありませんでした。それと相互作用した最初の数人はひげを持っていた消防士でした。そのため、知覚的多様性、つまりロボットがあるカテゴリ内の大きく異なる種類の個人を見ることができれば、カテゴリをよりよく発達させ、理解することができると考えます。

自律型ロボットはこれらの癖を解消するように訓練されるべきだと言うでしょうか。そのため、この人にひげがあるのであれば、彼は消防士だとは思わないでしょうか。

もちろんです。これらのことを解決することが重要です。私たちがこれらのロボットを持っていることは非常に重要です。

その学習はどのように見えるでしょうか。

それはロボットが消防士をよりよく特徴付けるものに集中することを可能にするでしょう。たとえば、消防士はジャケットを着ていないかもしれません。ロボットは消防の他の面、おそらくブーツ、おそらく手袋、そしておそらくヘルメットに気づくでしょう。 「この人は本当に大丈夫です。 です この環境では消防士。

あなたが十分な人々を持っていたならば、それはハロウィーンパーティーでの消防士に対して火事での消防士を認識することができるかもしれません。それは、制服の種類の質の違いや文脈環境の違いなど、微妙な知覚的詳細です。

ひげを消防士に関連付けること以外に、このアルゴリズムはどの程度成功しましたか?

私たちが本当に見たかったことが2つありました。1つは、あなたがそれを使って何ができるか?ロボットが消防士を認識することができれば、それは何らかの形で本当に役立ちますか?その論文はそれがあなたがあなたの調査を狭めることを可能にしたことを示した。髪の毛の色のひげを見たり、目の色や他のものを探す代わりに、本当に重要な機能に集中することができます。その人は消防士のコートを着ていますか?それはプロセスをスピードアップすることができます。

私たちが見たもう一つの本当に重要なことは、ロボットが予測するカテゴリーが間違っているならどうでしょうか?それはどのようにあなたに影響を与えますか?あなたは捜索と救助環境が混沌としていることを想像することができます:あなたはたぶん煙で満たされた状態で働くかもしれません、ロボットはすべてを非常によく知覚することができないかもしれません、それは誤りがあるかもしれません。あなたがもっと悪い場合を想像することができます、ロボットが実際に彼らが消防士であるときにその人が犠牲者であると思うという場合。消防士を救おうとしているのです。それはひどいでしょう。どこでそれが壊れるのか、どのように壊れるのか、どの機能がそれに最も影響を与えるのか、そしてどのような種類のエラーがあるのか​​を見たかったのです。

この方法はさまざまな方法で使用できます。相手にはまったく見えないが、自分が行っている行動は見ることができます。その人が斧を選んでいるのが見えたら、彼らはヘルメットを持っていると予測できる。

あなたはどのようにしてロボットに状況を評価させ予測させるのですか?

レストラン、学校、介護施設など、さまざまな環境を見てみました。私たちは環境についての特徴と、その環境にあるもの、その人が選んでいる行動、そしてその環境にいる人たちがどのように見えるかについて調べ、それを使って多くの社会的予測を試みました。例えば、学校環境では、人々は話す前に手を挙げます。それで、人々が手を挙げているという行動を見たら、私は環境の中でどんな種類の物を見ることを期待するでしょうか?私は黒板を見ると思いますか。私は机を見ることを期待しますか?私は子供たちに会うことを期待しています。

この情報を利用したいという希望があります。ロボットが避難手順を実行している場合は、どのような種類の人々がいるのか、またどこにいるのかがわかります。

あなたの玄関に来て、「出口まで行ってください」と言うロボットがあるとしましょう。それほど単純ではないようなものは、実際には非常に複雑です。ロボットがアパートの建物のドアをノックしても、誰と対話するのかわかりません。それは4歳の子供かもしれません、それは95歳の人かもしれません。私たちは、ロボットがそれらを救うために見る人のタイプにその対話型のふるまいを合わせることが大好きです。私達はこれらの文脈上のレッスンのいくつかを取っていてそしてそのアプリケーションを開発しようとしています。

あなたはロボットと人間のために同様の「ステレオタイプ」の定義を使いますか、あるいは何か他に起こっていますか?

ステレオタイプという用語は否定的な文脈を持っています。私たちが使っている方法は、単に人のカテゴリーを作り出し、カテゴリーの情報を使って人の特性を予測することです。私は心理学で知っていますが、多くの仕事は顔の固定観念と性別の固定観念に焦点を当てています。私たちはそのようなことは何もしていません。プロセスは同じですか?知りません。わかりません。

あなたはあなたの仕事について誤解されているかもしれないと心配していますか?

数年前、私たちは人々を欺く可能性があるこのロボットの考えを発展させました。メディアでは、これがロボットが人々の財布を盗むことにつながるという少しの誤解がありました。

緊急避難状況を使用したいのですが。避難する人に対して常に正直になりたくないのではないでしょうか。たとえば、「私の家族は大丈夫ですか」と誰かがあなたに尋ねた場合、「いいえ、全員が死亡しました」とロボットが言った場合、それはひどいかもしれません。ロボットが実際に少し不正直である必要がある状況がいくつかあります。しかし、私の経験では、私たちが世界の終焉へと導こうとしているような気がしました。

私たちは常にこれらのヒューマンロボット技術の向社会的側面に興味を持っています。私たちは人々を助けようとしています。悪いことではありません。

$config[ads_kvadrat] not found