ضØÂك
ロボットアシスタントがあなたの家庭での責任からいつかあなたを解放しようとしているのであれば、彼らはそもそも手を握っているだけでなく、彼らと何をすべきかを学ぶことができる必要があるでしょう。
幸いなことに、カリフォルニア大学バークレー校の研究者チームは、すでに事件に参加しています。将来のロボットが視覚情報を解釈し、それを自分で完遂することができる段階的なタスクに翻訳することに長けていることを確認
この新しいソーティングボットは、共著者のTianhe YuとChelsea Finnが共同で作成し、7月に彼らの実験の結果を発表しました。本稿では、彼らは、PR2と呼ばれる市販のロボットを訓練し、家庭用の物を色分けされた容器に入れる方法を説明しました。彼らは、桃をボウルに入れたYuのニューラルネットワーク映像を送って、その最初のデモンストレーションの後、それらの行動を模倣するようPR2に促してこれを達成しました。
これは20の方法の逆のリストの#20です。 2018年にはより人間的になった。
これは、ロボット執事だけでなく、汎用の建設、清掃、さらにはスポーツ競技用ロボットにも大きな飛躍をもたらします。このブレークスルーの鍵は、個々のタスクごとにボットを特別にプログラムしなくても、理論的には所有者が自分で何をすべきかを示すことができるということです。それは洗濯物を折り畳む方法を知っている未来的なアレクサと方法を知っているロボットの違いです 君は あなたの洗濯物が折りたたまれたように。
人間が行った行動をロボットが再現できるようにすることは容易なことではなく、以前の研究では一般に、ロボットを別のロボットで訓練することが必要でした。人間の手足は、ロボットアームのように動くことができないため、A.I。にとっては困難です。私たちが日々の生活に取り掛かるために使う動きを追跡し、模倣すること。
YuとFinnは、PR2に注目するだけで、このハードルを克服する方法を見つけました。 どこで ではなく、オブジェクトを移動する必要がある どうやって それを動かす必要がありました。そうすることで、彼らはただきれいにすることができるだけでなく、非専門家によって容易に教えられることができる人がドアを開くのを助けました。