触摸屏告别“古老”:各种交互新形式大爆发
扫描二维码
随时随地手机看文章
谷歌联合创始人谢尔盖·布林在TED大会上嘲讽了智能手机的用户体验:“你只是站在那里,摩擦一块没什么功能的玻璃”。是时候和“古老”的触摸屏说再见了,本期《科技万有瘾力》,将聊聊交互方式的进化之路。
谷歌联合创始人谢尔盖·布林(SergeyBrin)
“偷来”的图形用户界面
1946年2月15日,第一台计算机诞生ENIAC在美国诞生,使用打孔纸卡进行输入和输出。
打孔纸卡最早用于人口普查,也是早期计算机的主要输入输出介质
打孔纸卡派生出的打孔纸带,容量比打孔卡大
1973年,施乐Alto诞生,它是真正意义上的首台个人计算机,有键盘和显示器。它采用了许多奠定今天计算机应用基础的技术,比如图形用户界面(GUI)技术、以太网技术。
施乐Alto;它还配备了一款3键鼠标。
1979年,乔布斯风闻施乐的研究中心有很多炫酷的东西,找到相关负责人说:“如果能让我们考察一下帕洛阿尔托研究中心,你们就可以在苹果公司投资100万美元。”施乐公司禁不住即将上市的苹果股票的诱惑,同意让乔布斯一游对外高度保密的研究中心。
123456
使用命令行的MS-DOS界面
乔布斯参观后,在当年的12月带着技术主管、高层管理人员等人再次造访。乔布斯当时已闻名美国,施乐的工程师很愿意向他展现最新的成果——图形界面和鼠标应用。那一年,盖茨还在卖自己的BASIC程序,距离MS-DOS系统诞生还有2年。
苹果Lisa,据传这是乔布斯私生女的名字
虽然施乐可没有给苹果拿走研发图纸的机会。不过,“看一眼就能融会贯通”的乔布斯回到苹果公司,指示立即开始研发图形界面,并发布了第1款推向市场的图形界面计算机:苹果Lisa。1980年代,苹果公司吸取Lisa的教训推出Macintosh,将图形用户界面和鼠标带进了大众市场,取代了早期计算机使用的命令行界面。
乔布斯在展示Macintosh
1981年末,乔布斯邀请盖茨看苹果计划推出的Macintosh样机。盖茨被其图形界面和方便灵活的鼠标操作吸引住了,心里认定这是微软DOS系统未来的发展方向。
恶搞图,Windows版本的进化
盖茨了解到乔布斯的系统师出施乐门下,决定从施乐公司直接挖人。微软在给苹果公司编写应用程序的同时开发Windows操作系统,并且而把苹果公司的活排在后面,导致苹果Macintosh发布延迟,令乔布斯非常恼火。
Windows1.01的图形界面
90年代初,Windows3.0推出,巩固了从命令行向图形界面的变革。
图形用户界面是交互方式的第一次重大变革,源于施乐,成于苹果,发扬于微软;换句话说,乔布斯和盖茨两人先后从施乐公司“偷来”了图形界面。
123456触摸屏:重新发明手机
摩托罗拉A6188,全球首款触屏智能手机
50年代初,美苏两国冷战日趋加剧,美国军方希望把计算机优势用于军事目的,建立一个能使国家边境免遭空袭的半自动地面防御系统(SAGE)。Whirlwind(旋风)计算机是该系统的核心。
旋风计算机操作者背后有个圆形CRT屏幕,这是CRT屏幕首次在计算机上应用
1954年,SAGE交付使用,当值班士兵发现屏幕上的某区域有可疑飞行物时,只需将光笔点对应区域,电脑便会显示出该区域的详细内容。SAGE系统中使用的光笔和显示器正是触摸屏技术最初雏形。
乔布斯介绍初代iPhone革命性的多点触控技术
2007年1月,苹果Macworld大会上,乔布斯介绍了苹果电脑和iPod的几款新型号后,突然停顿了一会儿,然后说:
“这一天,我期待了整整两年半。每隔一段时间,就会有一件革命性的产品改变世界。1984年,苹果发布的Macintosh改变了整个计算机产业。2001年,苹果发布的iPod改变了整个音乐产业。今天,我们要发布3件同一重量级的革命性产品。”
“第一件产品,”乔布斯继续说,“是一台宽屏幕、可触摸控制的iPod;第二件产品,是一台革命性的手机;第三件产品,是一台前所未有的互联网通信工具。这三件产品并不是独立的设备,他们是一台设备。我们把它叫做iPhone。今天,苹果要重新发明手机。”
今年2月,西班牙研发出了一间巨大的、由触控屏幕组成的智能住宅
123456触摸屏是继图形界面之后又一项革命性的交互技术。乔布斯的苹果公司并非触摸屏的发明者,但iPhone首先运用了大尺寸的触摸屏幕,产生了更让人愉悦的交互方式,在AppStore和移动互联网的支持下,这一交互方式迅速融入日常生活。
山雨欲来:交互方式大爆发
在距今5.3亿年前的寒武纪时期,短短200万年间,生命进化出现飞跃式发展的情形。几乎所有动物的“门”都在这一时期出现了。以此类比,交互方式也正处于这样一个大爆发的前夕,大量新世代交互方式正山雨欲来。
正如寒武纪这些长相奇葩的生物,新的交互方式看起来也有些诡异
语音控制:“ok,Glass”
今年2月,谷歌发布了一段谷歌眼镜的新视频,体验者表示该视频与实际使用感受接近。
佩戴上谷歌眼镜后,右眼的视觉范围内会出现飘忽的屏幕。屏幕上的内容包括时间,以及最下方提示的“ok,glass”字样,这是唤醒设备接收语音命令的单词。
激活谷歌眼镜需要首先点触设备的一侧,或是缓慢地将头向上方倾斜;随后说出“ok,glass”指令就能开始语音控制了,当然也可用手指在侧边进行滑动操作,进行不同选项的选择。
在进行录像时,眼镜上的LED灯会闪光提示周围人群
语音指令将是谷歌眼镜最常见的操作——只要你说出“ok,glass”之后,眼镜就准备好,为你服务,紧接着再说一句“takeapicture”,就能拍照,“recordavideo”就开始录像,等等。
谷歌眼镜试图融入现代生活,不显得那么突兀
目前,年龄在18周岁以上且居住在美国的人士可以申请预定谷歌眼镜,申请者需要用不超过50个字告诉谷歌你使用这款设备的用途。并且谷歌眼镜V2也已经在研发中,V2版将有两个镜片和摄像头,支持双眼增强现实显示。
123456立体投影+手势操作:3D桌面
在2013年度TED大会上,电脑天才、微软应用科学部前实习生金哈·李(JinhaLee)展示了他所开发的3D台式机SpaceTop。该3D电脑界面让用户可以“将手伸进”电脑屏幕,像拿实体物品一样抓取网页、文件和视频。通过手势操作,还可以进行更加高级的任务。
用户可以“将手伸进”电脑屏幕
该系统由一个透明LED显示屏和两个摄像头系统驱动,一个摄像头用于追踪用户的动作,另一个则追踪用户眼球,以调整投影视觉。
高精度体感控制:LeapMotion
所谓体感技术,简单来说,就是可以让人使用肢体动作,而无需任何复杂的控制设备,就可以身历其境地与内容做互动。比如,你可以用手、脚、胳膊甚至眼睛等身体任何一个位置去控制你的设备。事实上,体感设备并不鲜见,比如Wii、PlayStationMove和Kinect。
Wii
相比其他的体感设备,LeapMotion最大的特色是其高精度和廉价,LeapMotion可以追踪到小到0.01毫米的动作,拥有150度的视角,可跟踪一个人的10个手指的动作,最大频率是每秒钟290帧,精确度相当于Kinect的200倍。
LeapMotion看起来像一个U盘大小
更重要的是,LeapMotion只需要$69.99,而且不需要额外的附属设备,不需要超大的空间。
目前,LeapMotion已经与世界最大的电子零售品牌BestBuy签订了独家零售协议,并且在2013年第一季度开始接受预购,少数国内发烧友已经拿到了这款产品。
123456检测生物电:MYO腕带
现有的手势交互,比如Kinect或者上文介绍的LeapMotion,大多是基于摄像头识别用户动作来做的。MYO这款神奇的腕带则独辟蹊径,通过检测用户运动时胳膊上肌肉产生的生物电变化,配合手臂的物理动作监控来做人机交互。
Kinect
MYO在官网上称,腕带对手势的捕捉速度快到不行,有时候你甚至会觉得自己的手还没开始动MYO就已经感受到了。这是因为你的手指开始移动之前,肌肉已经激活开始运动了。
MYO腕带通过检测生物电变化快速识别手势
相比其Kinect和LeapMotion,MYO的优势在于不受具体场地的限制,交互时更自然,但是在精度和手势丰富度上可能还是比不上LeapMotion。
从打孔纸卡到鼠标键盘,再到触摸屏,花费了半个多世纪;我们的孙子辈看待触摸屏,恐怕就像我们看待打孔纸卡。第一台计算机ENIAC的使用者肯定无法想象iPhone上的切水果游戏。今天说一声触屏再见,再见的是触屏时代的思维局限。触屏,再见!未来,你好!
123456