苹果眼镜最新专利:与iPhone组合将变超级智能
扫描二维码
随时随地手机看文章
在用户佩戴 “Apple Glass ”或其他头戴式设备的地方,他们的iPhone可能会识别并响应头部手势。
在最新披露的一项专利中,苹果表示现在的触控和语音都太老套了,我们真正需要的是让iPhone能够识别用户的头部动作。
苹果在名为“监控头戴式电子设备的用户 ”专利当中表示,当前的设备控制常需要用户主动与传感组件进行交互,比如通过触摸或语音,但是,检测变化的光线模式是未来的趋势。这听起来像Face ID,但它更像Face ID被颠覆。苹果提出 “Apple Glass ”检测面部表情或动作,并将其传输给iPhone,而不是让iPhone拥有驱动Face ID的TrueDepth技术,并扫描用户的脸部。
苹果在专利当中表示,“Apple Glass ”或任何其他头戴式设备,都可以包含光传感器。传感器 检测由用户头部产生的一部分反射和/或透射的光。该专利提出,传感器被放置在头部安装设备的对面或上方的不同点,由于这样的定位,来自光传感器的传感器数据可以捕获用户头部组织中解剖特征的运动,并可用于确定用户的任何合适的手势。
最基本的,如果你在大力摇头,光传感器就会检测到这个动作。
然而,苹果的提案比这更精细,来自光电二极管的传感器数据可以捕捉到用户在头部手势中组织的扩张、收缩和/或任何其他合适的运动,这意味着传感器可以捕捉摇头或点头,但也包括咀嚼、眨眼、眨眼、微笑、扬眉、下巴运动(如下巴突出、下巴后缩、下巴侧移、下巴凹陷、下巴抬高等)、张嘴和/或类似的动作。
该专利的3.5万字,详细阐述了每一种可能被检测到的面部特征或头部姿态的组合,以及使用不同类型的光传感器来判断的多种方法。苹果的专利并不特别关注的是,iPhone或其他设备究竟会如何处理这些信息。
尽管如此,在某些情况下,它还是有明显的好处。比如你在iPhone上对着Siri口述,然后你停顿了一下。
通过看到你的表情显示你在思考,Siri可以知道它应该等待。或者,如果你的表情是告诉iPhone请继续,那么Siri可以合理地推断出你已经听写完毕并停止倾听。