MIT新机器人成精了 能通过视觉和触觉识别事物
外媒报道,在人类世界里,观察一个物体的外观或是触摸它给我们带来的感觉,都是轻而易举的事情。但对于机器而言,这却是一项艰巨的任务。但现在,美国麻省理工学院计算机科学和人工智能实验室的科学家们已经开发出一款全新的机器人,它正在尝试模仿人类的视觉和触觉能力。
这个令人振奋的研发项目中,科学家们采用了KUKA机器人手臂,并且加入了一种名为GelSight的触觉传感器。这种传感器是由CSAIL的Ted Adelson团队精心研发的。当GelSight收集信息时,它会将这些数据传输给人工智能,让人工智能理解视觉和触觉信息之间的微妙关系。
为了训练人工智能通过触摸来识别物体,CSAIL团队录制了超过12000个视频,涵盖了200种不同的物体,如织物、工具和家居用品等。这些生动的视频被分解成静态图像,形成了一个庞大的数据集,供人工智能使用。通过这个数据集,AI能够连接触觉和视觉数据,从而极大地提高了机器人的感知能力。
CSAIL的博士生李云珠是该系统新论文的主要作者,他表示:“我们的模型通过观察场景,可以预测触摸平面或锋利边缘的感觉。通过纯粹的触觉,我们的模型可以预测与环境的交互。结合这两种感觉,机器人的能力得到了极大的增强,使得在操作和抓取对象时所需的数据大大减少。”
尽管目前这款机器人只能在受控环境中识别物体,但未来前景却十分广阔。下一步的研究重点是建立更大的数据集,以便机器人能够在更加多样化的环境中工作。对此,加州大学伯克利分校的博士后Andrew Owens表示:“这种方法对机器人来说非常有用,因为它们需要解决如何区分物体的软硬程度以及如何调整抓力等极具挑战性的问题。而MIT的模型已经展现出了强大的潜力。”