TEDxRheinhessen - Siri Poarangan - Decode Unicode
新しい人工知能システムは、アクション映画をこれまでよりも涼しくすることができるコンピューターアニメーションスタントマンを開発しました。カリフォルニア大学バークレー校の研究者は、格闘技における最もわずかな動きのいくつかを再現することができるシステムを開発しました。現実の人間の俳優に取って代わる可能性があります。
カリフォルニア大学バークレー校の卒業生であるXue Bin「Jason」Peng氏は、この技術は人間の動きとは切り離すのが難しい動きをもたらすと言います。
Peng氏は、8月にカナダのバンクーバーで開催された8月の2018年SIGGRAPH会議で発表された発表で、「これは実際には深い学習とアニメーションで行われてきたことからかなり大きな飛躍です」と述べた。 「これまで、自然な動きをシミュレートするために多くの作業が費やされてきましたが、これらの物理ベースの方法は非常に特殊化される傾向があります。多種多様なスキルを扱うことができる一般的な方法ではありません。
「私たちの結果を人間から記録されたモーションキャプチャと比較すると、2つを区別すること、シミュレーションと本物が何であるかを見分けることはかなり困難になります。私たちはバーチャルスタントマンに向かって動いています。」
DeepMimicと呼ばれるプロジェクトに関する論文がジャーナルに掲載されました ACMトランスグラフ 8月に。 9月に、チームはコードとモーションキャプチャデータをGitHubで他の人が試すことができるようにしました。
チームはシステムに動く方法を教えるために深い強化学習技術を使いました。実際のパフォーマンスからモーションキャプチャデータを取得し、それらをシステムに入力して、1日24時間トレーニングし、1か月に相当するシミュレーションで動きを練習するように設定しました。 DeepMimicは、キックやバックフリップのような25の異なる動きを学び、その結果を毎回比較して、元のMocapデータにどれほど近づいたかを確認しました。
繰り返し試行して失敗した可能性のある他のシステムとは異なり、DeepMimicは、ある段階で失敗した場合、パフォーマンスを分析し、それに応じて適切なタイミングで調整することができるように段階的に分割しました。
「これらの技術が進歩するにつれて、それらは映画においてますます大きな役割を果たすようになると思います」とPengは言います。 逆 。 「しかし、映画は一般的にインタラクティブではないため、これらのシミュレーション手法はゲームやVRにすぐに影響を与える可能性があります。
「実際、強化学習を使って訓練された模擬キャラクターはすでにゲームへの道を見出しています。インディーズゲームは、これらのアイディアをテストするためのとても良い場所です。しかし、シミュレートされたキャラクターを扱うには、従来の開発パイプラインからかなり劇的に移行する必要があるため、AAAタイトルの準備が整うまでには少し時間がかかる可能性があります。」
ゲーム開発者はこれらのツールを試し始めています。ある開発者は、Unityゲームエンジン内でDeepMimicを使用することに成功しました。
紳士淑女、我々はバク転を完了しました! Ringo、別名StyleTransfer002.144 - #unity3d + #MLAgentsMarathonEnvsを使用して、おめでとうございます。 StyleTransferはMoCapデータからDeepAimic http://t.co/gAGtYYeawE…#madewithunity pic.twitter.com/3iIoDsfdLeから#ActiveRagollをトレーニングします。
- Joe Booth(@iAmVidyaGamer)2018年11月1日
Peng氏は、コードをリリースすることで導入がスピードアップすることを期待しています。彼はまた、チームが「この作品の応用の可能性について、多くのゲーム開発者やアニメーションスタジオと話し合ってきたが、まだそれについてはあまり詳しく説明することはできない」と述べている。
高オクタン価の移動を完了するのではなく、芝生を横切って静かに転がるサッカーをするロボットが示すように、機械は定期的に複雑な移動に苦労しています。 A.Iとして、進歩の兆候があります。現実世界の動きの複雑さを把握し、人間のように自分自身を修正し始めます。
おそらくネオがカンフーを学習するのと同じように、DeepMimicはいつか新しい動作を数秒で学ぶことができます。 マトリックス.
下記の要約を読んでください。
キャラクタアニメーションにおける長年の目標は、データ駆動型の動作仕様と、物理シミュレーションで同様の動作を実行できるシステムとを組み合わせることであり、それによって摂動や環境変動に対する現実的な対応を可能にします。我々は、複雑な回復を学習し、形態の変化に適応し、そしてユーザ指定の目標を達成しながら、広範囲の例のモーションクリップを模倣することができるロバストな制御ポリシーを学習するためによく知られた強化学習(RL)方法を適応できることを示す。私たちの方法は、キーフレームモーション、モーションキャプチャされたフリップやスピンなどの非常にダイナミックなアクション、そしてリターゲットモーションを処理します。動作模倣目的をタスク目的と組み合わせることによって、例えば所望の方向に歩くことまたはユーザ指定の目標にボールを投げることによって、インタラクティブな設定で知的に反応するキャラクタを訓練することができる。したがって、この方法では、モーションクリップを使用して目的のスタイルと外観を定義する利便性とモーション品質を、RLメソッドと物理ベースのアニメーションによって得られる柔軟性と汎用性と組み合わせています。我々はさらに多様なスキルの豊富なレパートリーを実行することができるマルチスキルエージェントを開発するために学習プロセスに複数のクリップを統合するためのいくつかの方法を探ります。私たちは、複数のキャラクター(人間、アトラスロボット、二足歩行恐竜、ドラゴン)と、歩行、アクロバット、格闘技などの多種多様なスキルを使って結果を実証します。
Tesla Semi Video、信じられないほど静かなデザインを実演
テスラはセミトラックをそのペースで進めてきました。先週の新しいビデオでは、全電気自動車がサンフランシスコへの道を歩んでいたことを示した。これは、翌年のTeslaのトラックの発売予定に続く一連の外観の最新のものである。
Video:世界初の水中農場は農業の未来かもしれない
父と息子のデュオ、SergioとLuca Gamberiniは、将来の水中農業を目指すことを目指しています。訓練を受けたスキューバダイバーが訪れる水中生物圏では、バジルからイチゴまでの植物が繁殖することがあります。害虫に悩まされずに陸上のカウンターパートが直面する困難な気候です。
Video:この小さなローバーはどのように月の生き方への道を開くでしょう
米国を拠点とする新興企業のLunar Outpostは、小さなローバーを使用して、商業的な月面産業を大きく前進させる態勢を整えています。質量分析計、4kビデオを撮影する能力、さらには採掘訓練を装備したこのボットは、宇宙社会のためにはるかに詳細な月の画像を描くことができます。