私たちのA.I.政策は過去に行き詰まっている

$config[ads_kvadrat] not found

Borderlands 2 guia definitiva sobre el terramorfo

Borderlands 2 guia definitiva sobre el terramorfo
Anonim

ホワイトハウス科学技術政策局の副最高技術責任者であるエドフェルテン氏は、人工知能の開発と進歩に関して、人間には2つの大きな責任があると述べています。

第一は、「A.Iの恩恵を受けること」です。二つ目は「A.I.のリスクに対処すること」です。

Feltenはニューヨーク大学のSkirball Center for the Performing Artsでたくさんの人々と話をしていました。今 - ホワイトハウスが共催する夏の講演シリーズ。A.Iの未来に関連する重要な問題を検討し、議論しようとしました。技術。

A.I.交差点にあります。現在、Kate Crawford(Microsoft Researchの研究者)とMeredith Whittaker(Google Open Researchの創設者でありリード)の共同議長が指摘した。民間部門と公共部門は、何らかの形で実行可能なA.I.を作成するために協力する必要があります。ポリシー。しかし問題は、ハイテク企業が実際のコードとアーキテクチャーを前進させることに向けて途方もない進歩を遂げている一方で、A.Iを作ることにあるということです。力強い力で、私たちの現在の政策構造は古くなっているか、さらに悪いことには存在しません。

長すぎる、現代の時代には適用できない、未来的な概念として捨てられてきた。しかし、私はそれは、都市の政策に静かに現れ、大量のデータをふるいにかけ、単なる人間の力では達成できない方法で人々にサービスを提供してきました。一般的に貴重な情報にアクセスできるように、アルゴリズムがデータを使用して人々を手頃な価格の住宅にリンクさせる方法、または透明性を強化する方法の例を挙げました。

それは言うことではありません。完璧です;とても ではない 。夕方のメインパネルでは、ラティーニャ・スウィーニー、A.I。ハーバード大学の研究者は、彼女が「私のコンピュータが人種差別主義者だった日」という話を話しました。

スウィーニーにインタビューした記者はグーグルを通して彼女の名前を捜して、彼女の名前が刑事逮捕データを集めて共有することを申し出るサイトの広告の下に現れているのを発見しました。スウィーニー氏は逮捕されたことがなく、彼女の名前はウェブサイトのデータベースの一部にさえなっていませんでした - それでも彼女の名前は広告で際立ってはねかけられました。他の優秀な科学者と同様に、スウィーニーは彼女自身の個人的な経験を取り入れて調査を行い、これらの広告は白人よりも黒人の名前を掲載する可能性が非常に高いことがわかりました。理由? Googleがこれらの広告を配信するのは、広告が表示されたときに人間がクリックしたものに重点を置くアルゴリズムの結果です。ブラックネームがグーグルされたとき、より多くの人々がこれらの広告をクリックしました。システムはパターンを学習し、それらの広告をより頻繁に配信し始めました。

A.Iの約束を根拠とするのは貴重な教訓です。人間は最終的にはテクノロジーを動かし、人間の側での人種差別的な行動はデザインやアルゴリズムに影響を与えます。

Googleは、広告サービスでこれらの偏りを簡単に検出し、修正することができました。 「彼らはしないことを選んだ」とスウィーニー氏は主張した。

より現代的な政策の枠組みがこの問題を是正することをグーグルに強いることができるだろうか?おそらく。 2013年から2014年にかけてフェルテンの前身となったニコール・ウォン氏は、A.I.を含む多くの人々が強調した。研究者自身 - ビッグデータを使用する人々と最終的に影響を受ける人々(データの主題から範囲を定めている)、またはそのようなデータによって通知された決定によって影響を受ける人々との間の「力の非対称性の増大」について真の懸念。

これらの懸念は、民間部門だけに限られたものではありません。ホワイトハウスの国内政策評議会の大統領補佐官のロイ・オースティン氏は、A.Iによってどのように法執行が大幅に改善されるかについて触れた。 - あるいはそれは民間人のプライバシーになると権力の大規模な行き過ぎと虐待を生み出す。 「問題は、「このデータで何をするのですか」となります。」と彼は言った。データを持つことは1つのことですが、だれがそれにアクセスできますか?どれだけの時間?だれがそれにアクセスできますか?繰り返しになりますが、これらの質問や不確実性に対するポリシーの回答や解決策はありません。それがA.Iによってますます制御されて未来に向かってバレルしているため、それは厄介です。

3つ目の懸念は、悪意のあるA.I.の使用との関係ではなく、A.I.の使用方法との関係です。そして自律システムは人間を仕事から追い出している。 Henry Siu、A。ブリティッシュコロンビア大学の研究者は、「日常的な」職業(従業員が特定の日常業務から逸脱することはほとんどない一連の作業を行う)、およびこれらの失業がどのようにテクノロジの混乱に対して最も脆弱な職業であるかを説明しました。オートメーションは、これらの仕事を大幅に縮小しています - そして、彼らは戻ってこないのです。

産業化の同じ古い話のように聞こえますが、それは全く違います。 「この革命はすでにここにあるかもしれません…それは私たちが想像したよりも異国情緒が少ないかもしれません」、経済技術政策担当会長の特別補佐官のDavid Edelmanは警告しました。仕事の喪失は「一度には起こり得ない」と彼は強調しました。解決策は、人々が学校に行かなくてはいけないような教育環境を作り出すことです。 と 技術。

米国がこれらの問題に取り組むのは一人ではないということを理解することは、政策立案者にとって慰めとなるかもしれません。しかしアメリカがA.I.への道を歩み続けるつもりなら、それは政策の分野でそれを強化する必要があります。

Google DeepMindの共同創設者であるMustafa Suleymanが、A.Iの可能性について話し合った。ヘルスケアシステムを支援し、機械のアルゴリズムを使って医師が特定の病気や病気を診断できるようにすることで、治療方法を思いつくための時間を解放します。イギリス人のスレイマンにとって、病院の中にこのようなシステムを構築することは、遠く離れた考えのようには思えませんでした。しかしスウィーニー氏は、「米国では、あなたがあなた自身のデータを管理することはできない」と指摘し、情報が悪用されないようにするための規制措置はありません。そしてそれは 巨大 問題。

Sweeney氏は、次のように述べています。 「問題は技術面ではありません。問題は、私たちが公共政策に追いついていないことです。」

$config[ads_kvadrat] not found