ç¯ å´Žæ„›â˜†å¯æ„›ã„オッãƒ'イåã
人と同じように、ロボットは「いいえ」と言うタイミングを学習する必要があります。要求が不可能である、害を及ぼす、または目の前のタスクから気をそらすことになるのであれば、外交のために 結構です 会話の一部になります。
しかし、機械はいつ話すべきでしょうか。そしてどのような条件下で?エンジニアは、ヒューマノイドで注文を拒否する方法とタイミングについてこの感覚を浸透させる方法を見つけようとしています。
このNaoロボットが前進することを拒否しているのを見てください。そうすることで彼がテーブルの端から落ちることを知っています。
単純なものですが、間違いなく人的ミスのチェックとして機能するために不可欠です。タフツ大学のGordon BriggsとMatthias Scheutzは複雑なアルゴリズムを開発しました。それはロボットが人間が彼に何を求めたかを評価し、彼がそれをするべきかどうかを決定し、適切に対応することを可能にします。研究は人工知能の進歩のための協会の最近の会議で発表されました。
ロボットは、タスクが実行可能かどうかに関して一連の質問をします。私はそれをする方法を知っていますか?私は今それを物理的に行うことができますか?私は通常肉体的にそれを行うことができますか?今できますか。社会的役割に基づいてそれを行う義務がありますか?それをすることは規範的原則に違反しますか?
その結果、賢明というだけでなく、賢明でさえあるように見えるロボットが生まれました。
人間が彼を捕まえることを約束した後、Naoが前進することについてどのように彼の考えを変えるかに注意してください。ロボットが「いいえ、どうして私はあなたを信頼しなければならないのですか?」と言う別のシナリオを想像するのは簡単でしょう。
しかし、Naoは意図的に社会的な生き物です。人間が彼のDNAにあることを喜ばせるために、人間が彼を捕まえようとしているという情報を与えられて、彼は盲目的に深淵に前進します。確かに、人間が彼の信頼を欺くことになっていたら、彼は夢中になるでしょう、しかし彼はとにかく信頼します。それはナオのやり方です。
ロボット仲間がより洗練されるにつれて、ロボットエンジニアはこれらの疑問に取り組まなければならなくなるでしょう。ロボットは自分の安全を守ることだけでなく、より大きな倫理的な問題について決断を下さなければならないでしょう。人間がロボットに殺害を求めるとどうなりますか?詐欺を犯す?他のロボットを破壊する?
機械倫理の概念は人工知能と切り離すことはできません - 将来の無人車でさえ、私たちに代わって生死の選択をするように設計されなければならないでしょう。その会話は必然的に単に行進する命令を届けるよりももっと複雑になるでしょう。
いいえ、NFLプレーヤーはCDCが自殺する可能性が高いとは言えません
2012年のNFLラインバッカーJunior Seauの自殺は、慢性的な脳外傷の壊滅的な影響を国家的な問題に変えました。 1994年以来引退したNFLプレーヤーの死因を調査した、疾病管理予防センターの研究者から今日発表された研究は、シーの不幸な死を示唆しています...
いいえ、NASAはエイリアンの生命とクロールしている1200以上の惑星を発見しませんでした
スコットケリー宇宙飛行士はかつてスペースが難しいと言った。明らかに難しいことは何か他にあります:宇宙ジャーナリズム。溝に進入して真実を引き伸ばすような推測をするのは非常に簡単です。観察しなさい:それはDaily Express、4つ以上の循環を持つ英国のタブロイドだ...
いいえ、Sansaは 『Game of Thrones』でRamsayのBabyと妊娠していません
「The Bastardsの戦い」は、Game of Thronesの歴史の中で最も驚くほど満足のいくエピソードの終わりの1つを持っていました。 Sansaは文字通り彼女の強姦犯を彼自身の犬に食べさせて、残骸からゆっくり歩くクールな男アクション映画をしました。それはひどいことをショーのために珍しい方法で提供された純粋なカタルシスでした...