Deepfakesは機械学習には向いていません - これが理由です

$config[ads_kvadrat] not found

01 02 Л,К,М

01 02 Л,К,М

目次:

Anonim

2018年中期の選挙キャンペーンが熱を帯びているため、新しい形態の誤報がオンラインコミュニティに広がっています。この手法を普及させた匿名のオンラインアカウントの後で「deepfakes」と呼ばれます。このプロセスは「ディープラーニング」と呼ばれる技術的手法を使用しているため、その名前が選ばれた可能性があります。

これまでのところ、人々はポルノや風刺にディープフェイクのビデオを使って、有名な人々が普通ではあり得ないことをしているように見せかけています。しかし、それはほとんどの場合、キャンペーンシーズン中に現れることが多く、候補者が物事を言ったり、実際の候補者がしたくない場所に行ったりすることを目的としていることを目的としています。

これらのテクニックは非常に新しいので、人々は本物のビデオとディープフェイクビデオの違いを見分けるのに苦労しています。同僚のMing-Ching Changと私たちの博士との仕事学生Yuezun Liは、ディープフェイクビデオから本物のビデオを確実に伝える方法を見つけました。技術が向上するため、これは恒久的な解決策ではありません。しかしそれは始まりであり、コンピュータが人々が小説から真実を語るのを助けることができることを望みを提供します。

とにかく「ディープフェイク」って何?

ディープフェイクビデオを作ることは、言語間の翻訳によく似ています。 Google Translateのようなサービスでは、機械学習(複数の言語での何万ものテキストのコンピューター分析)を使用して、翻訳の作成に使用される単語の使用パターンを検出します。

ディープフェイクアルゴリズムも同様に機能します。ディープニューラルネットワークと呼ばれる一種の機械学習システムを使用して、1人の人物の顔の動きを調べます。それから彼らは類似した動きをしている他人の顔の画像を合成します。そうすることで、ソース人物が行ったことをしたり話したりしているように見えるターゲット人物のビデオが効果的に作成されます。

それらが適切に機能する前に、ディープニューラルネットワークは偽装のソースまたはターゲットである人物の写真など、多くのソース情報を必要とします。ディープ偽造アルゴリズムを訓練するために使用される画像が多ければ多いほど、デジタルの偽装はより現実的になります。

点滅を検出する

この新しいタイプのアルゴリズムにはまだ欠陥があります。そのうちの1つは、シミュレートされた顔がどのように点滅するかに関係があります。健康な成人は、2秒から10秒ごとに点滅し、1回の点滅には10分の1秒から10分の4秒かかります。それが、話している人のビデオで見るのが普通のことです。しかし、それは多くのディープフェイクビデオで起こることではありません。

ディープフェイクのアルゴリズムが人物の顔の画像に基づいてトレーニングされる場合、それはトレーニングデータとして使用できるインターネット上で利用可能な写真に依存します。頻繁に撮影される人々にとってさえ、彼らの目が閉じられていることを示すオンラインで利用可能な画像はほとんどない。ほとんどの場合、人々の目が開いているため、写真はそれほど稀ですが、写真家は通常、主要な被写体の目が閉じている画像を公開することはありません。

点滅している人々のトレーニング画像がなければ、ディープフェイクアルゴリズムは正常に点滅する顔を作成する可能性が低くなります。全体的なまばたきの割合を計算し、それを自然の範囲と比較すると、ディープフェイクビデオの文字は、実際の人と比べてはるかに少ない頻度で明滅することがわかりました。私たちの研究では、ビデオで目の開閉を調べるために機械学習を使用しています。

ハリウッドがアジア系アメリカ人のスターを演じたことはない機械学習缶

これは私達に深い偽のビデオを検出するためのインスピレーションを与えます。続いて、ビデオ内の人物がいつ点滅するかを検出する方法を開発します。具体的には、問題のビデオの各フレームをスキャンし、その中の顔を検出してから、目を自動的に見つけます。次に、別のディープニューラルネットワークを利用して、検出された目が開いているのか閉じているのかを、目の外観、幾何学的特徴、および動きを使用して判断します。

私たちの仕事はディープフェイクアルゴリズムを訓練するために利用可能な種類のデータの欠陥を利用していることを知っています。同様の欠陥に陥ることを避けるために、我々は、開いた目と閉じた目の両方の画像の大規模なライブラリで我々のシステムを訓練しました。この方法はうまく機能しているようで、その結果、95%以上の検出率を達成しました。

もちろん、これはディープフェイクの検出に関する最後の単語ではありません。この技術は急速に進歩しており、偽のビデオの生成と検出の競合はチェスのゲームに似ています。特に、目を閉じた顔の画像を含めるか、トレーニングにビデオシーケンスを使用することで、偽造ビデオに瞬きを追加することができます。一般の人々を混乱させることを望んでいる人々は偽のビデオを作ることで良くなるでしょう - そして私たちと技術コミュニティの他の人々はそれらを検出する方法を見つけ続ける必要があるでしょう。

この記事は、もともとSiwei LyuによってThe Conversationに掲載されました。ここで元の記事を読んでください。

$config[ads_kvadrat] not found