甄嬛娘娘“附体”?会“察言观色”的人工智能
扫描二维码
随时随地手机看文章
硅谷就像个围城。在硅谷待久了,会产生一种感觉,那就是一切机器都在变得像人。
先是亚马逊推出Echo,成为一个家里随时能跟你对话,帮你查天气、订餐厅的机器管家。
现在,这家叫做Eyeris的人工智能公司告诉我, 亚马逊的下一代Echo智能管家产品就将有“眼睛”,它能看见我,读懂我的表情,并且分析我的心情好坏。
好吧,会察言观色的机器人终于要出现了。
发现这家公司,是在AT&T的年度“Shape”大会上。“Shape”是旧金山夏天的科技盛事,技术宅云集。 在各种日本机器人、韩国机器人、VR、AR硬件的光芒下,做软件的人工智能公司真的不是很引人注意。
但是,Eyeris提出了一个“看脸”概念。“看脸”是人类认知彼此的方式。我们萍水相逢,我第一眼,肯定是看你的脸,进而猜测你的年龄、种族和心情。 Eyeris的技术,简单来说,就是教会机器“看脸”。 摄像头将会变成机器的眼睛,机器将会变得和人一样聪明,它们会看你,捕捉你的微表情,以及分析你的情绪。
于是,硅谷密探探员造访了Eyeris, 与Eyeris的CEO JR Alaoui聊了聊人工智能的前沿技术与趋势。
Eyeris 创始人、CEO JR Alaoui
Eyeris做人脸识别和情绪分析,从哪一步开始?
2013年,Eyeris召集了数百名实验参与者,通过采集他们的面部表情数据,建起了第一个数据库。
通过给采集的数百万个人脸表情分类,标签,Eyeris形成了机器学习的基础。在此后的数年,Eyeris不断进行新的人脸采集,并且结合不同的环境、灯光条件,丰富这个数据库、改进算法,形成了通过“看脸”识别人类情绪的技术。除了教机器识别情绪之外,Eyeris还融入了识别人种 (5 种)、年龄层 (4 种)、性別 (2 种)、头部位置 (13 种)等能力。
这个技术怎么用呢?首先,当然是让机器更像人。
如果我问机器管家,今天天气怎么样?目前的技术或许只能“就事论事”给出答案,就像亚马逊的Echo一样。但是,有了“看脸”能力,它将能读懂我的心情,“审时度势”的回答,或许客气一点,或许活泼一点;总之就是get了顺着我脾气走,哄我开心的技能就对了!
这个技能的正式名称,叫做用于社交机器人(Social Robots)的“脸部分析技术”。Eyeris的软件,使社交机器人可以更好地理解人类的行为,包括通过人脸部的微表情,来理解人的情绪,为用户提供个性化的体验。
当然,它将不只是用于机器人,也用于各种应用程序,只要这个应用是装载在有摄像头的设备上,例如手机、平板电脑、无人机、游戏机、汽车等。
试想,在我用iPad看YouTube上的电影时,iPad上的摄像头能够追踪和捕捉我的情绪变化,自动的了解哪些场景让我笑,哪些故事让我哭。这对个性化定制内容是多么重要啊!
再比如,电视里的一个节目让我笑了,我的摄像头马上get到我的笑点,而电视台则立马根据收到的数据给我推送一个同类节目。
这个让我更开心的世界还有多久会诞生? JR Alaoui 告诉我, Eyeris预测在不到12个月的时间里,我们就会看到情绪识别的软件被大量的安装在有摄像头的社交机器人上,与各种应用程序结合。而这些具有情绪识别能力的设备,价格将比我想象的低,只要300到500美元。12个月?好吧,我们拭目以待吧!
然而,这个技术更要紧的是能救命。
5月份,特斯拉自动驾驶汽车的那场车祸,闹得人心不宁。目前,美国的自动驾驶技术分为四个级别。最高级别是谷歌的自动驾驶汽车,完全不需要司机。但时,这要求路面基础设施也达到很高的水平,所以在10至15年内都不可能大面积商用。而现在最普遍的,是准自动驾驶汽车,即必须有驾驶员,而车辆的操纵可以随时在驾驶员手动和汽车自动模式间转换。
Eyeris的基于微表情的情绪识别技术,可以用来监测司机的状态,例如眼睛是否睁开,姿态是否适于开车,情绪是否稳定,注意力是否集中等。 如果发现司机困的睡着了,或是状态很不好,Eyeris会触发汽车的应对机制,例如通过声音或座椅的震动来提醒驾驶员,勒紧安全带。
这对于准自动驾驶汽车,是个重要的应用。在司机状态不好时,摄像头及时识别,提醒司机,或者将汽车转入自动驾驶模式,避免掉很多风险。
面对驾驶员的摄像头会以每秒200帧的速度持续的观察司机。 夜间光线不好,或者驾驶员戴了又大又黑的墨镜也没问题,通过红外识别摄像头也可以看清一切。
准自动驾驶汽车从自动模式转为手动模式时,这个技术也能增加一层保障。摄像头会通过识别司机是否注意力集中,精神状态良好,眼睛是否在查看前方路况,来建议是否应该把驾驶权交还给司机。
在Eyeris之前, CEO JR Alaoui经营着另一家公司。这家公司为广布于机场、购物中心等处的电视墙网络提供解决方案,通过电视墙上的摄像头,来观察走近电视墙的人的特征,从而推送个性化的广告。例如,一位女士在逛商场时走近电视墙,电视墙上的摄像头和计算机察觉到了,就会自动播欧莱雅的广告。
理念上,这和JR Alaoui现在的人工智能公司很像。但JR Alaoui进入情绪识别领域,还是从2010年左右开始。那段时间,JR Alaoui遇到了Eyeris的另一位创始人,后来的CTO Steven Cadavid。Steven Cadavid是迈阿密大学计算机视觉博士,在情绪识别方面有着很强的而背景,是将机器学习应用于脸部识别的第一批研究者之一。
JR Alaoui虽然大学是学整合营销的,但他对人工智能、计算机视觉兴趣浓厚,自学成才。在这两个牛人的带领下,Eyeris公司13个人的团队,开发出了基于SDK的整套的脸部分析软件,该软件结合深度学习技术,可以被安装到硬件、摄像头、操作系统,也可以置于芯片上。
JR Alaoui表示,目前还没有其他公司能够把整套的脸部分析软件融入一个SDK中。并且,Eyeris的软件可以置于任何硬件,应用范围非常广。
目前Eyeris的商业模式主要是授权自己的技术给硬件制造商,例如汽车制造商、电子设备制造商,摄像头厂商等。另外,Eyeris也与芯片制造商合作,将软件装在芯片上,用于有摄像功能的设备。
如果说目前还有什么挑战,那主要是硬件方面。能达到要求,价格又低廉的摄像头,和能支持软件高速运转的硬件,是Eyeris推进自己技术商业化应用的两大挑战。红外摄像头可以追踪人的动作,但是并不适合于微表情的识别。而JR Alaoui希望,高质量的3D摄像头可以加速发展,很快被应用起来。
另外,环境的变化也影响表情识别的准确度。虽然Eyeris搜集了各种环境下的人脸表情,建立了庞大的数据库,但总是有新的环境情况出现,例如夜店,例如光线变化快速的晚会。在普通情况下,Eyeris的表情识别准确度能达到98%,但在这些情况下,就有所降低了。
甄嬛娘娘般的人工智能会不会出现?
在AT&T Shape上,JR Alaoui 谈到了一个未来的愿景:无处不在的人工智能。
不远的未来,电子设备会无处不在,不管你是否察觉的到它们;而每一个电子设备,都与可识别人情绪的摄像头与人工智能软件结合。
在人工智能无处不在的世界里,我晚上加班回家再也不用担心黑灯瞎火,因为快到家时,房间就会根据我今天的心情亮好灯,放好音乐。我也不用担心看电视节目无聊,因为电视也会察言观色了,根据我喜欢看什么,给我推荐节目。而这一切,不需要我动一根指头说一句话,人工智能妥妥的心知肚明。
很像家有甄嬛娘娘吧?