ムスク、ウォズニアック、ホーキング、他の天才は自律武器に反対している

$config[ads_kvadrat] not found

Beachbody Coaching

Beachbody Coaching
Anonim

AK-47は、何十年もの間、安価で、丈夫で、どこにでもあるという理由で、世界中のほこりっぽいコーナーで最も人気のある殺害機でした。これらと同じ要因が、Future of Life Instituteから月曜日に発表された公開書簡の署名者であると主張していることが、自律兵器が危険にさらされている理由です。しかし、Kalashnikovsから人工知能の武器を分離するのは、自律マシンが「人間の介入なしにターゲットを選択して従事させる」ことができるということです - それは、悪意のあることに計算不能なライフルよりはるかに大きい残虐行為を実行する可能性があります。

署名者は彼らのために彼らの仕事を切り取った。人間として、私たちは全体として、考えるより反応するのがずっと上手です。大手企業は私たちの核兵器を下ろすのに時間がかかりました(そして自律無人偵察機を作るには、核兵器を作るための機械の一部が必要になるでしょう)。他の場所では、地雷はまだ数十年前の戦場に点在しています。技術が戦争に革命を起こすために立っていた時 - それは火薬でも海軍での恐怖であろうが - あるいは濃縮されたウランであろうが - それはほとんどありませんでした ではない 軍拡競争だった。

FLIは、人間の手で遠隔操縦されている私たちが今持っている無人偵察機と、それ自身の殺人装置にスイッチを入れられて残されたロボットとを区別します。後者の創設は、FLIが主張する世界規模のAI軍拡競争を刺激し、カラシニコフの歴史が示すように、うまくいかないでしょう。

彼らが闇市場に登場し、テロリストの手に渡るまでの時間の問題になります。彼らの大衆をよりよく統制しようとしている独裁者、民族浄化を実行しようとしている武将など。自治武器は、暗殺、不安定化などのタスクに最適です。国民を鎮圧し、特定の民族を選択的に殺害する。したがって、我々は、軍用AIの武器競争は人類にとって有益ではないと信じています。人を殺すための新しい道具を作ることなく、AIが戦場を人間、特に民間人にとってより安全にすることができる多くの方法があります。

これはちょっとしたくそです。そしてこの警告の背後にある名前は、あなたの最先端のSkynetクラックポットではありません - それらは私たちの技術が今日どのように見えるかを形作るのを助けたクリエイター、エンジニア、科学者、そして哲学者です。 AppleのSteve Wozniak、SkypeのJaan Tallinn、Harvardの物理学者Lisa Randall、スチュアートラッセル、バーバラJ.グロス、トムミッチェル、エリックホルビッツなどのAIの研究者やロボット奏者の誰か - ノアムチョムスキー、スティーブンホーキング。

Hawkingは、最近少し曲げられた悲観論を少し踏み出しました。そしてまた、地球外生命に遭遇する危険性についての彼の予測を繰り返しました。彼はまた、今週のRedditに関するこの手紙と将来の技術についての質問にも答えます - 私たちは敵対的なエイリアンを制御することができないかもしれませんが、ヒューマンファクタを保つためにこの技術の最前線に科学者の責任を置くことができます彼らの革新の前面と中心。

あなたは自分の名前を手紙に追加することもできます。

$config[ads_kvadrat] not found