これを熟考することで、ロボットの黙示録を防ぐ道徳の質問

$config[ads_kvadrat] not found

もしも...

もしも...
Anonim

人工知能が進歩するためには答えなければならない道徳的なロボット工学の質問とシナリオがあります。

鉱山用シャフトを制御するロボットがあり、4人の鉱山労働者でいっぱいになって台車が暴走していることに気づいたとします。ロボットはトラックを移動して1人の知らない鉱夫を殺して4人をカートに保存するか、トラックをそのままにして4人の鉱夫が壁に突き当たり死ぬのを許すかを選択できます。どちらを選びますか?一人の鉱夫が子供だったとしたら、あなたの答えは変わるでしょうか。これに答えることができないならば、どうやってその決断をするためにロボットをプログラムするのですか?

ニューヨークで開催されたワールドサイエンスフェスティバルのイベント「ロボットの道徳的な数学:生死の決定にコードを付けることができるか?」というパネリストや観客に寄せられた質問は、カートを1人の鉱山労働者に向けて人を変えることでした。子供にしても回答者の心の多くは変わりませんでしたが、満場一致ではなく、人間の道徳的決定もそうではありません。

人工知能が進歩し続け、道徳を持ってロボットをプログラミングする可能性に対処する中で、人類が直面するであろう闘争の典型的な例でした。

NYUの心理学と神経科学の教授であり、Geometric Intelligence、Incの共同創設者であるパネリストのGary Marcusは、「危害のような概念はプログラムするのが難しい」と述べた。プログラムに答えると、私たちには現在、アシモフの法則を超えるロボットのための良い道徳のセットがありません。 アイ・ロボット.

彼はそれが私たちがロボットの道徳性にどう取り組むべきかについての会話を始めるために、彼がパネルに加わるポイントであると言いました。

Elon Muskは今週、人工知能についての彼の心配について話し合った。 マトリックス そして人間は脳に付着して人間の認知能力を高める神経レースに投資すべきである。 Stephen Hawkingのような他の未来派は、A.Iの危険性について警告しています。そして今週のマットデイモンはMITでの彼の開始スピーチの間に同じことを警告した。

その他のシナリオには、軍用化された自律型武器システム、戦場でこれらの人間の決定に道徳的かつ哲学的に対処する方法、そしてそれほど遠くない将来にどのような決定を下す必要があるかが含まれます。

パネリストは、何をすべきかについてコンセンサスを得なかったが、A.Iには非常に大きな利益があると述べた。これらの質問が難しいからといって、窓から投げ出されるべきではありません。彼らは、このような道徳的地雷の問題についてもっとオープンに話すことを提案しました、そしておそらく私たちはロボットの黙示録を防ぐことに近づくでしょう。

$config[ads_kvadrat] not found