AIは人間よりも妥協して優れている、新しい研究を見つける

$config[ads_kvadrat] not found

TEDxRheinhessen - Siri Poarangan - Decode Unicode

TEDxRheinhessen - Siri Poarangan - Decode Unicode
Anonim

それに直面しよう。人工知能が最初に夢見られて以来ずっと、人間は私たちのAI君主が引き継ぐ日を恐れていました。しかし、一部の研究者は人工知能の能力をテストするだけでなく 競争する 人類とともに 共同作業する.

木曜日に発表された研究では ネイチャーコミュニケーションズ BYUコンピュータサイエンス教授のチーム、Jacob CrandallとMichael Goodrichは、MITや他の大学の同僚と共に、機械の協力と妥協を教えるためのアルゴリズムを作成しました。

研究者達はS#と呼ばれ​​るアルゴリズムを使ってマシンをプログラムし、異なる組み合わせ(machine-machine、human-machine、human-human)を使ってそれらを走らせ、どのペアリングが最も妥協をもたらすかテストしました。機械(あるいは少なくともS#でプログラムされたもの)は、人間よりも妥協点ではるかに優れています。

しかし、これは「人間の失敗」についてもっと言うかもしれない、と主任研究者Jacob Crandallは言う 逆 。 「人間の参加者は不幸になる傾向がありました - 彼らは協力的な関係の中で欠陥があるでしょう - そして不正確に - 私たちの参加者の約半数が対話のある時点で彼らの提案に従わないことを選んだ」

一方で、正直さを重視するようにプログラムされたマシンは正直でした。 「この特定のアルゴリズムは、道徳的特性が優れていることを学んでいます。それは嘘をつかないようにプログラムされています、そしてそれはまた出現したら協力を維持することを学びます」とCrandallは言います。

さらに、この調査では、特定の協力戦略が他のものよりも効果的であることがわかりました。そのうちの1つが、「安っぽい話」、「甘い」のような与えられた状況に反応する単純な口頭の信号でした。私たちは裕福になっています!または "私はあなたの最後の提案を受け入れます。"または、不快感を表すために "あなたを呪います!" "あなたはその代金を払うでしょう!"

どんな種類のゲームがプレイされていたか、誰がプレイしていたかに関係なく、安い話で協力の量は2倍になりました。それはまた機械を人間化し、人間のプレイヤーはしばしば彼らが機械や人間と対話しているかどうかを見分けることができませんでした。

この研究の焦点はS#アルゴリズムのテストにあったので、この研究の1つの欠点は、異なる人の集団が安っぽい話のような戦略をどのように使用または解釈するかに影響するかもしれない人間間の文化の違いを考慮に入れないことです。多くの人間プレイヤーは詐欺や不誠実に従事するかもしれません。

Isaac Asimovの有名な本1950年の本の最後の短編で アイ・ロボット - 「邪悪な対立」 - AIの君主が実際に惑星を引き継ぎます。しかし、彼らはとても理にかなっており、破ることのできない倫理的なルールをプログラムしているので、人類にとっては良いことです。そして、この研究が示すように、人間のやりとりは面倒で複雑なので、おそらく私たちは機械を信頼することができます。もちろん、彼らが正直者のためにプログラムされているならば。

抽象:

アランチューリングが人工知能を構想して以来、技術的進歩はしばしばゼロサムエンカウンター(例えばチェス、ポーカー、またはゴー)で人間を打ち負かす能力によって測定されてきた。人間と機械の嗜好が完全に一致していない、または完全に矛盾していないシナリオなど、人間と機械の協調が有益であるが自明ではないシナリオにはあまり注意が払われていません。協調は全くの計算能力を必要としませんが、その代わりに直感、文化的規範、感情、シグナル、そして進化前の傾向によって促進されます。ここでは、最先端の強化学習アルゴリズムとシグナリングのメカニズムを組み合わせたアルゴリズムを開発します。私たちは、このアルゴリズムが、さまざまな2人参加型の確率的ゲームで人間の協力に匹敵するレベルで、人や他のアルゴリズムと協力できることを示します。これらの結果は、一般的な人間 - 機械協調が、自明ではないが最終的には単純な一連のアルゴリズムメカニズムを使用して達成可能であることを示しています。

$config[ads_kvadrat] not found