机器人通过触觉来感知世界

机器人通过触觉来感知世界

  许多研讨人工智慧(AI)的公司都在透过深度学习来教会机器人辨识图像,卡内基美隆大学(CMU)的研讨团队则选了别的一种办法,他们试著经验机器人透过触摸来认知世界,就像婴儿一样。

  TechCrunch 报导,在每天 8 小时实验时期,这个名为「Baxter」的机器人只需一个任务要进行──从桌上随机抓取物品,它的动作缓慢而笨拙,即使如此,这一个月时期也现已进行了 5 万次的抓取动作,Baxter 正在透过触觉反应和检验过错来学习。

  研讨团队在宣布的论文中,说明了他们怎样透过让机器人反覆触摸物品,来进步对物品的认知,「以婴儿来说,他们透过用手推、戳物品、把东西放进嘴裡或扔出去来学会认知表徵,我们也希望到达这么的方针,所以在 Baxter 的程式平台中建构了类似的方式,让它们在桌面环境上戳、抓取并查询物品。」

  为了阐明学习触摸的重要性,研讨室助理 Dhiraj Gandhi 用 1970 时代中期英国的一项实验做为比方,其时研讨人员对两隻猫进行认知实验,其间一隻就像平常一样日子、与世界触摸,另一隻猫则只可以观看,不被容许触摸物品,毕竟只需被容许与环境互动的学会爬行,只能查询的不能做出一样做法。

  而在实验中,Baxter 逐渐地展现出对物品认知的进步,当机器人认出了解的物品时,平板闪现萤幕上会暴露「微笑」,并且抓取物品放入适宜的篮子;如果对物品不了解,萤幕上则会暴露「利诱」的表情──研讨人员并不担忧,他们信任没有什麽是别的 5 万次抓取练习学习不了的。

  这项研讨改变了传统的机器视觉学习方式,不同于以往系统透过现已输入的标籤去区分、寻觅物品,Baxter 是透过触摸来自我学习认知,Gandhi 说明,以前图像和标籤之间并没有互动,在视觉系统中只需被逼数据可以收集。

  「我们想要的是与物品时可以取得活动的数据,并透过这些学习对别的视觉任务有用的功用。」

  Baxter 的系统中有著类似 Kinect 的 3D 镜头,将收集到的视觉与触觉音讯发送到深层的神经网路,并在 ImageNet 中与图像穿插参看。团队在其间意外发现,收集的触摸数据让 Baxter 的辨识精准度,较别的只运用图像辨识的机器人高出 10%,团队认为这十分鼓舞人心。

  儘管如今研讨还处于前期时期,但团队十分看好将来的展开,Gandhi 标明,他认为联系视觉与触摸学习的机器人可以用于拣选分类,就像 ZenRobotics 开发的类型,将来能为废物进行分类回收,这在实际中是一个十分大的应战,「当然,我们如今还在婴儿学步呢。」

澳博机器人微信公众号
扫一扫
分享到朋友圈
或者
手机上继续看