このロボットは人間の要求に「いいえ」と言う方法を学びました

$config[ads_kvadrat] not found

篠崎愛☆可愛いオッãƒ'イåã

篠崎愛☆可愛いオッãƒ'イåã
Anonim

人と同じように、ロボットは「いいえ」と言うタイミングを学習する必要があります。要求が不可能である、害を及ぼす、または目の前のタスクから気をそらすことになるのであれば、外交のために 結構です 会話の一部になります。

しかし、機械はいつ話すべきでしょうか。そしてどのような条件下で?エンジニアは、ヒューマノイドで注文を拒否する方法とタイミングについてこの感覚を浸透させる方法を見つけようとしています。

このNaoロボットが前進することを拒否しているのを見てください。そうすることで彼がテーブルの端から落ちることを知っています。

単純なものですが、間違いなく人的ミスのチェックとして機能するために不可欠です。タフツ大学のGordon BriggsとMatthias Scheutzは複雑なアルゴリズムを開発しました。それはロボットが人間が彼に何を求めたかを評価し、彼がそれをするべきかどうかを決定し、適切に対応することを可能にします。研究は人工知能の進歩のための協会の最近の会議で発表されました。

ロボットは、タスクが実行可能かどうかに関して一連の質問をします。私はそれをする方法を知っていますか?私は今それを物理的に行うことができますか?私は通常肉体的にそれを行うことができますか?今できますか。社会的役割に基づいてそれを行う義務がありますか?それをすることは規範的原則に違反しますか?

その結果、賢明というだけでなく、賢明でさえあるように見えるロボットが生まれました。

人間が彼を捕まえることを約束した後、Naoが前進することについてどのように彼の考えを変えるかに注意してください。ロボットが「いいえ、どうして私はあなたを信頼しなければならないのですか?」と言う別のシナリオを想像するのは簡単でしょう。

しかし、Naoは意図的に社会的な生き物です。人間が彼のDNAにあることを喜ばせるために、人間が彼を捕まえようとしているという情報を与えられて、彼は盲目的に深淵に前進します。確かに、人間が彼の信頼を欺くことになっていたら、彼は夢中になるでしょう、しかし彼はとにかく信頼します。それはナオのやり方です。

ロボット仲間がより洗練されるにつれて、ロボットエンジニアはこれらの疑問に取り組まなければならなくなるでしょう。ロボットは自分の安全を守ることだけでなく、より大きな倫理的な問題について決断を下さなければならないでしょう。人間がロボットに殺害を求めるとどうなりますか?詐欺を犯す?他のロボットを破壊する?

機械倫理の概念は人工知能と切り離すことはできません - 将来の無人車でさえ、私たちに代わって生死の選択をするように設計されなければならないでしょう。その会話は必然的に単に行進する命令を届けるよりももっと複雑になるでしょう。

$config[ads_kvadrat] not found