A.I.研究所が責任あるアルゴリズムを作成する方法を示す

$config[ads_kvadrat] not found
Anonim

水曜日に、研究所AI AIは、公の場でのアルゴリズムの責任ある実装のための新しい勧告を発表しました。彼らの忠告は1月にニューヨーク市議会によって形成されたタスクフォースに向けられており、それは政府による人工知能の使用を研究している。

AI今のレポート アルゴリズム的影響評価:公的機関における説明可能な自動化に向けて は、アルゴリズムを展開することになると透明性の必要性を概説します。アルゴリズムは私たちの日常生活に大きな影響を与えますが、その影響は気付かれないことがあります。たとえば、ソーシャルメディアやビデオプラットフォームのインフラストラクチャに組み込まれているため、インターネットユーザーにプッシュされるコンテンツがプログラムによって決定されることがよくあることを忘れがちです。陰謀論のビデオがYouTubeのトレンドリストのトップに入るなど、問題が発生したときにのみ、オンラインエクスペリエンスを形成する自動化された決定手順を精査します。

そして、アルゴリズムはインターネットプラットフォームに限定されていません。政府機関は、教育から刑事司法に至るまで、ますますアルゴリズムに依存するようになっています。理想的な世界では、アルゴリズムは、受刑者に仮釈放されるべきかどうかを決定するような厳しい決断から人間の偏見を取り除きます。しかし実際には、アルゴリズムはそれを作る人と同じくらい効果的です。

たとえば、 ProPublica 法廷で使用されるリスク評価アルゴリズムは人種的に偏っていることを実証した。さらに悪いことに、公共部門で使用されているアルゴリズムの多くは私有であり、そしてある会社は彼らのソフトウェアの根底にあるコードを共有することを拒否しています。そのため、これらのいわゆる「ブラックボックス」アルゴリズムが特定の結果を返すのは理解できません。

AIが提供する1つの潜在的な解決策アルゴリズム的影響評価これらの評価は完全な透明性の基準を確立します。つまり、アルゴリズムを使用している政府機関は、いつ、どのように使用しているかを公表する必要があります。 「この要求自体は、公衆に役立つためにどの技術が展開されているのか、そして説明責任の研究が焦点を当てられるべきであるところに光を当てるのに大いに役立つだろう」と述べた。

アルゴリズムを取り巻く開放性の政策はまた市民が彼らの使用を精査しそして抗議するための扉を開くだろう。特にそのスコアが投獄されたかどうかを判断するのに役立つ可能性がある場合は、自分の管理外の要因に基づいてリスク評価スコアを得られるアルゴリズムが必要ですか。たぶんそうだけどたぶん違う。どちらの方法でも、アルゴリズムによって分析されている変数を正確に把握することが重要です。

さらに、AI Nowでは、不正なアルゴリズムに対してロビー活動を行うための法的基準を設定することをお勧めします。

たとえば、機関が自動決定を下すシステムの範囲内に収まるようなシステムを合理的に開示できない場合、またはベンダーが企業秘密の請求を行うことを許可して意味のあるシステムアクセスを阻止する場合機関監督機関、または機関がパブリックコメント期間の後にこれらの問題を是正することを拒否した場合は直接裁判所に提出する。

これらの推奨事項は基本的に1つの包括的な使命にまとめられています。アルゴリズムを使用しているのであれば、それについて恥ずかしがらないでください。

ここで全報告を読んでください。

$config[ads_kvadrat] not found