可能很多人没想到,这次Google IO大会的主角竟然不是Google X实验室,而是一个在主题演讲上完没有出现的部门——ATAP(高等技术与产品部门)。而他们的演讲,也成为了所有分论坛中最火爆的一场!
尽管它专注于移动设备的研究,而并非像X实验室一样进行无人车和气球网络一样的脑洞大开计划,但是看看他们的研究成果,你就知道,它同样非!常!酷!炫!。
Project Jacquard:布料变身可穿戴
这是最让人大开眼界的:让衣物有可能变触控板的特殊布料。也就是说,你可以把这块布直接当触控板用,在现场的示范中,我们看到了人们在在布料上做各种动作,从而向它发号指令,布料收到指令后,便成为一个操作界面,可以用它来开关灯、控制媒体播放器等。
而且还清晰地呈现了手指在抚摸布料时的产生的数据。比如这样:
或者这样:
其秘密在于织造时,在布料里穿插了传导线,还有一个小芯片和传导线连通,这样就可以把人们的触摸等行为转化为计算机可以识别的语言,从而完成相应的操作。
这块布已经变得和手机或者平板电脑的屏幕那样可以进行人与布料之间的交互了。控制手机算什么?还可以用它来关灯呢!
这次大会上,Google还宣布了和服装品牌LEVI’S的合作——一条可以接电话的牛仔裤?感觉还有点小期待呢!
Project Soli:让你的手摆脱屏幕
Project Soli是一块极小的雷达芯片,它可以适配大多数可穿戴设备,实时追踪你的所有动作,然后通过你的动作,来进行数据和指令的传达。
听起来好像和现在很多的芯片没有什么差别,但是你看到下图就会明白,它不再需要你去触碰任何一块屏幕或者按钮,而是可以直接“看到”通过你的手,哪怕只是在空气中的滑动,或者一些细微的动作,都可以感应到。这意味着它很有可能让人们摆脱“点击屏幕”这种“过时”的交互方式,真正实现遥控操作。
如果使用过Apple Watch或者是Moto 360就会明白,很多穿戴设备对于动作的识别都不是很灵敏,比如说抬起手腕的时候屏幕自动点亮的功能,其实在很多时候,对于抬手腕这种大幅度的动作,智能手表们都会识别不出来,还是得靠点击屏幕,更别说是诸如手指移动等细节了。
Project Soli就是要解决这个问题。从我们现场的体验来看,它已经可以检测到非常细微的动作,比如手放在芯片上移动,或者甚至仅仅是手指的挥动,都可以被它追踪到,从而触发不同的信号。
现场的工程师也告诉我们,运用雷达来追踪手势可能是最好的解决办法,但Project Soli并不是第一家做这件事的。它最了不起的就是,在10个月的时间内,把雷达芯片从下图的一个盒子那么大,
变成了5毫米那么薄,从而让它可以被放到智能手表里面。
这次ATAP部门在大会上还宣布,为了能够使Soli芯片可以应用到更多设备和应用中,将会开放自己的API接口。(Google真是棒棒哒。)
Spotlight Stories:以后电影这么看
Spotlight Stories原来是摩托罗拉手机上一个非常有趣的功能,它有点像是手机上的360°全景动画,你可以跟随着画面情节,然后翻转手机、拖动屏幕,来看到不同的画面。
而现在Google要把这项技术开放给整个Android生态系统了(摩托罗拉哭晕在厕所)。Google Play上已经有了Spotlight Stories同名应用,而据说iOS版本也将很快上线,可以让人们在应用里看到很多这样的视频内容。甚至也会在今年夏天登上YouTube。
而且Google还宣布,这种技术将会从动画的范围,推广到实时动作上。这个项目希望创造一种新型的沉浸式视频内容,不仅把控制权交给用户,利用智能手机来重塑动画制作和讲故事的规则。团队由一群电影行业老兵组成,包括《阿拉丁》、《小美人鱼》、《美食总动员》的动画制作人员等。
这项技术最大的好处就在于你不需要任何其他的虚拟现实设备辅助,就可以直接在手机上得到全景这个效果。如果你可以登录Google Play,那不妨下载这个应用体验一下;如果不行的话,查看文章末开头的视频,也能感受一下。
ATAP部门原来是摩托罗拉的一个高级技术部门,想要通过各种创新来恢复摩托罗拉的地位。尽管后来Google将摩托罗拉出售给联想,但他们把ATAP部门保留了下来,来帮助Google完成更有野心的使命。
而现在的ATAP,已经崛起为一个可以与GoogleX比肩的未来创新实验室。
0 条评论
请「登录」后评论