これが、私たちが将来の悪党を阻止する方法です。 HAL 9000を模倣してから

$config[ads_kvadrat] not found

篠崎愛☆可愛いオッãƒ'イåã

篠崎愛☆可愛いオッãƒ'イåã
Anonim

どうすれば未来を止めることができますか。命令に従わず、独自の道を選ぶことから?それはからのプロットのように聞こえるかもしれません 2001年:宇宙オデッセイ しかし、ある専門家はそれについて私たちがすでに考え始めなければならないかもしれない何かであると主張します。確かに、Googleの検索アルゴリズムが悪用された場合は無効にすることができますが、金銭的および法的な結果に直面した場合は、行われるよりも簡単に言うことができます。将来的には、より高度なA.I.に依存するようになるにつれて、不可能になる可能性があります。

「このアルゴリズムは意図的に設計されていません 自体 フューチャーオブヒューマニティーインスティテュートの研究者であるStuart Armstrong氏は、水曜日のPirate Summit 2016で、次のように語っています。これは、不注意による結果の変更を修正するのが難しくなる可能性があることを意味し、それは最初のA.I.ではないかもしれません。その状況で自分自身を見つけるために。

アイザックアシモフの解決策は、人間に害を与えないようなアイデアをハードコード化した3つのロボット工学の法則でした。問題は、害はどちらかというと主観的で解釈の余地があるということです。人間は、決して危害を加えるべきではないという厳格な規則に取り組むよりも、危害を加えることが悪いことを理解し、状況を解釈することなど、価値にもっと力を注いでいます。

「この種の問題のために、人々がこの伝統的な方法でそれらをコード化することを試みるよりもむしろ機械学習を使用して値を得ることに今よりずっと熱心に取り組んでいる」とArmstrongは言った。 「価値は他のものがA.Iにないように安定しています。価値観は本質的に自分自身を守ります。」

しかし、このような状況でも、A.I.をデザインすることは重要です。実行中に割り込み可能にする安全な割り込みにより、安全なポリシー変更が可能になり、学習した価値から意図しない結果が生じるのを防ぐことができます。 HAL 9000がポッドベイのドアを開けないようにしようとした場合、システムをオフラインにせずにA.I.の値がめちゃくちゃになって介入することを確認できることが重要です。

$config[ads_kvadrat] not found