ピクセル化された画像はCornell Techの顔認識とは一致しません。

$config[ads_kvadrat] not found

もしも...

もしも...
Anonim

ニューヨーク市のCornell Techの3人の研究者は、ぼやけてピクセル化された画像は人工知能には適していないことを発見しました。あいまいな画像は人間の目には理解できないままであり、機密情報を保護しているように見えますが、ニューラルネットワークは元の画像に誰が誰であるかを正確に伝えることができます。

言い換えれば、人間はもはやリトマス検査ではありません。私たちはもはや、何かがすべての人間の脳を打ち負かすかどうかを単に尋ねることはできません。 A.I.s - たとえ単純なA.I.s - でも人間を凌駕する可能性があるので、それらを倒すことも常に方程式の一部でなければなりません。

Cornell Techの研究者らの研究は、特定の情報や写真の一部をぼかしたりピクセル化したりするプライバシー保護アルゴリズムのテストに焦点を当てていました。以前は、プライバシーを保護するソフトウェアやアルゴリズムを暗黙のうちに信頼していました。 人間 誰がデジタルベールの背後にいたかを知ることができます。調査によると、その時代は終わり、関連する匿名化手法も長続きしませんでした。これらのプライバシー対策を満たすニューラルネットワークは厄介です。

リチャードマクファーソンは博士号です。彼の教授であるVitaly ShmatikovをCornell Techに導いた、テキサス大学オースティン校のコンピュータサイエンスの候補者。一緒に、Reza Shokriと一緒に、彼らは単純なニューラルネットワークが一般的な画像難読化技術を隠すことができることを示しました。この手法は比較的洗練されていないため、発見がより厄介になります。これらは一般的でアクセス可能な方法であり、業界標準の難読化を破ることができました。

ニューラルネットワークは、脳の基本的な構造を模倣した、大きな、階層化されたノード構造、または人工ニューロンです。 「ニューロンがどのように機能するかについての単純化された理解に基づいています」とMcPhersonは言う 逆 。 「入力してください。ニューロンは発火するか発火しません。」

彼らはまた、用語の大まかな定義によって「学ぶ」ことができます。あなたが野性的な(全く教育されていない)人間に「赤」を見せて、バケツからすべての「赤」のものを選ぶように彼らに言うならば、彼らは最初は苦労するが時間がたつにつれて改善するでしょう。ニューラルネットワークもそうです。機械学習とは、例えば、多彩なものの仮想バケツから「赤い」ものを選ぶようにコンピュータに教えることを意味します。

それが、マクファーソンとその会社がニューラルネットワークを訓練した方法です。 「私たちのシステムでは、モデル - ニューラルネットワークのアーキテクチャー、これらの人工ニューロンの構造化されたセット - を作成し、それからそれらに大量の難読化された画像を与えます」と彼は言います。 「たとえば、ピクセル化されているCarolの100種類の写真を、次にピクセル化されているBobの100種類の写真を渡すことができます。」

その後、研究者はこれらのピクセル化された画像にラベルを付けます。その際に、各画像に誰がいるかをモデルに伝えます。このデータセットを処理した後、ネットワークは、Pixelated BobとPixelated Carolがどのように見えるかを機能的に認識します。 「ラベルを付けずに、ボブやキャロルの別の絵を描くことができます」とマクファーソンは説明し、「これは95%の精度のボブだと思います」と説明します。

このモデルは難読化された画像を再構築するものではありませんが、最も一般的で信頼性の高い匿名化方法を無効にできるという事実は、それ自体が混乱を招きます。 「彼らは難読化されているものを特定することはできますが、それが元々どのように見えていたのかわからないのです」とマクファーソン氏は言います。

しかし、ニューラルネットワークは依然として人間よりはるかに優れています。 1つの業界標準の手法を使用して画像が最も難読化されたとき、システムはまだ50%以上正確でした。やや難読化されていない画像の場合、システムは約70パーセントの精度で注目に値すると証明されました。 YouTubeの顔をぼかすことの標準はまったく失敗しました。最もぼやけた画像でも、ニューラルネットワークによって誤解されており、96%の精度が証明されています。

他のこれまで手付かずのデータ、テキスト、および画像の匿名化技術も同様に信頼できません。 「ピクセル化とぼかしを使用してテキストを匿名化することを検討し、それらも壊れる可能性があることを示した、夏の間の作品がありました」とMcPhersonは言います。そして、他のかつては信頼できる方法も同様に扉から出て行くかもしれません。匿名のテレビインタビューに使用されているような音声難読化手法の内外での知識はありませんが、ニューラルネットワークが匿名化を破ることができれば「驚かないでしょう」。

McPhersonの発見は、「私たちが過去に持っていたプライバシー保護の方法は、特に現代の機械学習技術では、実際にはうまくいかない」ということを証明しています。すべての分野で私たちを凌駕します。

「機械学習の力が増すにつれて、このトレードオフは敵対者を支持してシフトするでしょう」と研究者たちは書いています。

$config[ads_kvadrat] not found