在西南偏南大会上(SXSW),Google首次开放了它的Glass Mirror API接口。今天,据The Verge的报道,Glass团队又进一步开放了Glass开发者工具包(GDK)。现在,开发者可以调用这个新工具,为Google Glass设计相关的App了。
开发者工具包相比Mirror API,有许多不同的特性。新的工具包支持App在离线的情况下运行。Glass App无需联网,就能即时得到用户的反馈信息。也就是说这些App,在离线时能直接调用Google Glass内置的GPS、传感器等功能。
Jordan称,Google做了很多努力,使得Android的开发者在上手Glass App开发时,变得很容易。
新的开发包让“Live cards”(活动卡片)变得更加实时、便捷。如果你熟悉Glass的话,你会知道通过镜架右侧的交互装置,你可以切换主屏幕上时间线卡片上的内容。原本在滑动时,原先界面中的信息会被叠化消失,现在它支持实时信息在主界面左侧保留,并支持数据的实时更新。比如最简单的秒表计时APP,时间会一直在你的主屏幕更新,碰一下交互设置,就能记录一个时间点。
新的GDK增强了用户使用App时的沉浸式体验。当你在调用某个需要持续投入精力的App时,时间线上其他有可能干扰体验的琐事就会被隐藏。在App中进行手势操作时,则是实现该App的特定交互动作,而不被Glass通用的功能干扰。
Google在其开发者会议上,介绍了五家利用他们新开发工具的Demo产品,它们能帮助读者更好地理解以上新的变化。
其中,最实用的App叫做Word Lens——它能调用Glass的摄像头拍下比如建筑物上的文字内容,并实时实时识别文字内容,翻译为其他的语言。用户在选择语言的翻译类型后(比如英翻中),用户看着陌生的语言,你就能知道这句话的意思。同时,该App还支持离线翻译。假如这个功能体验流畅的话,以后出国都不需要翻译了。
还有一款增强沉浸式浏览体验的、名为Spellista的单词拼写游戏。App的开发者Glu,专门利用Glass的特性来设计产品,通过调用加速器和陀螺仪跟踪用户的头部动作。用户体验就像是看全景图像,通过头部动作,将气泡移到特定的字母上,这个字母就会被选中,移到下面的拼写框中,最后拼出单词过关。游戏通过游戏级别提升,会增加单词的难度,它还支持用户用Glass拍摄的照片,用作为游戏的背景图片。
成功运用“Live card”的例子是Strava应用,目前在iOS和Android上都有对应的版本。用户可以通过抬头的交互动作,随时查看你慢跑和骑自行车时的细节,比如你跑步的距离和行驶速度。同时,应用还会跟踪你的运动过程,把数据上传到云端。如果事先设定好目标的用户,就能在达成目标后收到Google Glass的通知。
会场还展示了一个美食App——All The Cooks。通过语音指令,你能让它在网络上搜索相关食谱,并通过滑动查看烹饪的步骤。你在享受烹饪乐趣的同时,不用再去分心去翻的烹饪书籍和寻找你的iPad了。
另外,还有一款名为GolfSight的应用,用户通过Glass上的GPS装置,寻找到附近的高尔夫球场,并从中选择你要去的。它还记录你在高尔夫运动中的得分,球场中出现的危险和障碍。你还能通过Glass知道你距离周围球洞的距离。
以上所有的App都不是生活中必不可少的,需要整天去使用的。Glass团队希望Glass App应该是生活中的完成特定功能的小工具,这些多样的工具撑起用户“生活碎片”。
如果你现在不在旧金山,却想要用GDK开发你的App,Google已经推出一个“sneak peak”版本(抢先版本的开发者工具包),并希望开发者在设计App的过程中帮Glass团队完善功能,提出自己的需求。而完整的开发者预览版将在下个月发布,正式版还没被提上日程。
如果你对开发Glass App感兴趣,现在就可以着手了。
工具包介绍视频:
0 条评论
请「登录」后评论