A.I. Virginia Dignumの専門家:トロリー問題はなぜ私達が透明物を必要とするかを示す

$config[ads_kvadrat] not found

Dame la cosita aaaa

Dame la cosita aaaa
Anonim

人工知能は透明性を必要とするので人間はそれを考慮に入れることができる、と研究者は主張している。デルフト工科大学の准教授であるVirginia Dignumは、金曜日にニューヨーク大学の聴衆に、なぜマシンがそのように機能するのかわからなければ、彼らの決定を判断することはできないと語った。

Dignumは、科学作家兼研究者のDavid Berrebyによる記事を引用しました。 今日の心理学 「機械を使って仕事をしているとき、一人で仕事をしているときや他の人と仕事をしているときよりも、エージェンシーの意識が低いという証拠があります。」

「トロリー問題」とDignumは説明し、人々が正しい結果を選択するために機械に盲目の信仰を置くかもしれない領域です。問題はそれが5人ではなく1人を殺すように架空の暴走列車のレバーを切り替えるべきかどうかである。人々は機械が可能な限り最も合理的な方法で問題を解決することを期待しています。それは必ずしもそうではないかもしれません、そして透明性はどのようにマシンがその決定に来たかを説明するのを助けるでしょう。

「それは、誰もが理解することができない、非常に深く、ニューラルネットワークの連鎖ではありません。人々が理解できるようにそれらの説明をすることです」と彼女は言いました。

A.I. DARPAが探求している分野は、その機能を明確にすることです。機関は説明可能なA.I.に興味があるチームを探していたという発表を8月に投稿しました。 XAIとして知られているプロジェクト。これらのシステムは研究者がなぜA.盲目的にマシンを信用するのではなく、結果として得られる情報をどう処理するかを決定するためのより広い範囲を与えて、それがした決定をしました。

機械学習で、Dignumは透明性はこれまで以上に重要であると述べました。 「システム、特に機械学習マシンがすぐにそれを学び、それを知ることを期待することはできません」と彼女は言いました。「運転中、運転手が交通法を完全に理解していることを期待していません。多くの国では、彼らはこれらの「L」プレートを使って、「私は学んでいます。私がするかもしれない間違いを恐れています」と表示しています。まだ悪い決定を下すことから学んでいるマシンを停止します。

$config[ads_kvadrat] not found