美科学家研制出可回应人类手势的机器人
扫描二维码
随时随地手机看文章
你做了个手势,然后舒舒服服坐在沙发上,聊天、看书,已经接收到指令的机器人正在干活——你相信,它一定知道你让它做什么,并能顺利完成。
迄今为止,这种自发的、能完成一切任务的机器人,还只是科幻故事中的角色。不过,美国布朗大学的机器人研究团队取得了重要的突破:他们演示了在多种环境中(室内、室外)和不同的光线下,机器人如何从主人那里接收和服从手势指令。
“我们创造了一种新系统,这让机器人在较远的地方也能准确了解你的指令——你既不需要穿上特制的服装,不需要呆在特殊的环境,更不需要跟在机器人后面监控它,”这项研究的负责人、布朗大学计算机科学助理教授查德?詹金斯( Chad Jenkins)表示。
3月11日—13日,詹金斯出席在圣地亚哥召开的“人—机器人互动研讨会”。在会议上,他一份附带视频文件的论文,论文的第一作者是布朗大学的毕业生马修?洛普(Matthew Loper),撰稿人则包括了布朗大学的毕业生内森?柯尼希(Nathan Koenig)、索尼亚?切诺娃(Sonia Chernova)和来自马萨诸塞州一家名为iRobot机器人制造公司的研究人员克丽丝?琼斯(Chris Jones)
这份视频文件中,研究人员分别用语言和手势向机器人布置任务。
布朗大学的学生们采用了多种手势来命令机器人,其中包括“跟我来”、“停下”、“等待”和“开门”等。在大多数时间内,一位学生会走在机器人前面,指示它转在狭窄的走廊,而在室外停车场则直线前进。自始至终,机器人一直以3英尺的距离,忠实地跟随着研究者,即使研究者退后、转圈或突然走近机器人。
在一次实验中,切洛娃用一系列手势和词语向机器人下达指令,让它走到门外、停止、转身、在走回屋子,回到它接受任务的地方。随即,切洛娃再次命令机器人跟随她穿过走廊。
研究者还成功地命令机器人完成180度转向。当研究者从机器人的视野中消失,它停止不动,直到研究者再次出现,并给予新的指令。
布朗大学的研究者们是利用iRobot公司提供的机器人套件进行研究,这种机器人在美国军方中普遍使用,主要用于拆除炸弹等任务。研究人员为机器人配备了深度成像照相机(如同电影《机器人总动员》(Wall-E)中的机器人那样)。他们还在机器人中嵌入微型电脑,设计了新的程序,帮助机器人辨别和分析人类的手势,并对手势指令作出响应。
这种机器人有两处关键的进步:第一项与科学家们所说的“视觉识别”有关,即帮助机器人熟悉所在环境中的所有事物。“机器人能看见东西”,詹金斯解释说,“但要识别这些事物,依然是一个挑战。”
研究小组设计了新的计算机程序,通过提取人的轮廓来帮助机器人辨认,就好像人本来就是剪影一样。这使得家中的机器人能够辨认出主人,并接收他的指令,而不会为其他事物所干扰。
“这样,机器人就真正可以说:‘我看到了这个人 ,并且会服从这个人’”,詹金斯说。
这种机器人的第二项技术突破,是采用了深度成像技术的照相机。这种照相机运用红外线来检测物体,确定相机和物体之间的距离。更重要的是,测量这一范围内的其他物体和照相机之间的距离。詹金斯解释说,这种技术能帮助机器人锁定并听从研究者的命令,并保持一定的距离,跟随他行动。
最终,研究者成功使机器人不再依赖于遥控装置,詹金斯表示,这是发展独立机器人的关键进步。他们的研究小组希望,增加更多的手势命令和语言命令,并使机器人和研究者之间的距离超过3英尺。
“你真正需要的机器人,应该是一个伙伴”,詹金斯说,“你不会希望自己的机器人是一个指令一个动作的木偶。你只需要告诉它:‘这是你的工作,现在就去完成吧’,并监督它。”
“建立人—机器人的直接互动,包括通过语言和手势沟通,使机器人成为你更有价值的伙伴——你不再需要一台特殊的机器不断下达指令,”克丽丝表示,“不过这还需要很长一段时间的努力。”