サンフランシスコで試用前保釈を設定するためのアルゴリズムがテストされています

$config[ads_kvadrat] not found

不要嘲笑我們的性

不要嘲笑我們的性
Anonim

刑事司法制度は、アルゴリズムの変化の真っ只中にあります。アリゾナ州、ケンタッキー州、ニュージャージー州全域、およびサンフランシスコやシカゴなどの都市を含む約30の管轄区域が、全国規模の犯罪記録データに基づいて保釈費用を設定するアルゴリズムをテストしています。すべての裁判官が必ずしもデジタル勧告を心に留める準備ができているわけではありません。

このアルゴリズムは、ヒューストンに本拠を置くLauraとJohn Arnold Foundationによって作成され、Public Safety Assessment(PSA)と呼ばれています。このアルゴリズムの目的は、150万件の訴訟前の事件のデータを使用して、保釈金の設定から偏りを取り除くことです。しかし過去においては、アルゴリズムはそれらを作る人々と同じバイアスを持っていました。

財団のWebサイトによると、9つの要素がアルゴリズムに含まれています。

  • 現在の犯罪が暴力的かどうか
  • その人が逮捕時に係争中であるかどうか
  • その人が以前に軽蔑的な確信を持っているかどうか
  • その人が以前の重罪の確信を持っているかどうか
  • その人が暴力犯罪について事前に有罪判決を受けているかどうか
  • 逮捕時の年齢
  • 過去2年間に公聴会に出席できなかったかどうか
  • その人が2年以上前に公聴会に出席できなかったかどうか
  • その人が以前に投獄されたかどうか。

このアルゴリズムでは、人種、性別、収入、教育、雇用、または近所は考慮されていません。基礎によると、これはPSAを中立にする。

それでも、サンフランシスコの裁判官は一貫して勧告に従っていません、 サンフランシスコクロニクル 報告します。

サンフランシスコは、法廷外の保釈金によって貧困層が富裕層よりも多く傷ついたと主張する国民公民権団体によって都市が訴えられた後、このアルゴリズムの使用に移りました。軽い犯罪を犯した裕福な人々は刑務所から自分の道を買うのに対し、過剰な保釈金を支払う余裕がない貧しい人々は裁判が予定されるまで収容房に残された。

PSAは、即時の犯罪ではなく、データを見て運動場を平準化することになっていました。アルゴリズムは、履歴データを使用して、ある人が別の犯罪を犯したり、保釈された場合に裁判を回避する可能性がどれほど高いかを判断します。 少数派レポート スタイル。可能性が高い場合、保釈金はより高く設定され、その逆も同様です。

Northpointeによって作成された同様のアルゴリズムは、囚人の釈放日を導くために使用されました。 ProPublica Northpointeのアルゴリズムによって与えられた「リスク評価」スコアは黒人が出た後白人よりも別の犯罪を犯す可能性が高いと不釣り合いに予測したことを発見した5月の調査結果を発表しました。ノースポイントの予測のうち、わずか20パーセントが正確でした。

一方、高度なマッピングテクノロジとビッグデータは、法執行機関が犯罪者のホットスポットを特定し、警戒するのにも役立ちます。

財団のアルゴリズムは、人口統計学的指標を削除することで、同様の偏りを回避することを目的としています。それが本当にうまくいくかどうかは、裁判官が実際に前例と直観よりもアルゴリズムに頼り始めるまで見られないでしょう。

$config[ads_kvadrat] not found