智东西
编译 | 符惠佳
编辑 | 漠影
智东西5月21日消息,今日凌晨,在一年一度的谷歌I/O开发者大会上,谷歌推出了重量级安卓XR智能眼镜。这款与三星联合研发的设备搭载Gemini多模态模型,相较Meta Orion等竞品更加轻巧。据现场体验者反馈,其佩戴舒适度已接近普通光学眼镜水平。
《Android Central》网站主编迈克尔·希克斯(Michael Hicks)现场体验了这款原型眼镜。他指出,虽然原型机存在技术延迟问题,但实际使用效果远超I/O开发者大会演示。他给出“现场体验比发布会演示更令人惊艳”的评价。
这款由谷歌与三星共同设计的安卓XR智能眼镜,暂时没有宣布销售计划。目前谷歌已与Warby Parker和 Gentle Monster达成合作,未来将一起设计更时尚的、由Gemini驱动的智能眼镜。
这款神秘设备究竟有何过人之处?AI技术如何重塑人机交互?我们一起来看看吧。
这款在谷歌I/O 大会上亮相的安卓XR原型眼镜,由谷歌与三星共同开发,使用Android XR系统,搭载Gemini模型。
从外观上看,这款眼镜的镜腿稍宽,但与镜框的厚实感相匹配,成为一种独特的风格。眼镜的外观和尺寸与Meta的Project Aria Gen2眼镜相似,但Meta眼镜没有全息技术。更重要的是,这副眼镜佩戴起来感觉很舒适,与迈克尔日常佩戴的Ray-Ban眼镜差异不大,理论上具备全天佩戴潜力。
这款原型眼镜采用单显示屏设计,只在右镜片有一个显示屏。令人意外的是,迈克尔认为这种设计没有在实际使用中造成困扰,反而因为它只需要优先保证单眼可视性,更容易找到最佳的显示位置。迈克尔说,他只花了大约5秒钟就把谷歌眼镜戴到了最佳位置,且之后无需进行任何调整。
现场实测显示,蓝色”正在听”指示条和右侧小型文本框边缘存在轻微模糊,但中间的大尺寸消息弹窗阅读无障碍。
在I/O开发者大会和现场体验中,谷歌没有透露任何关于重量或电池续航等规格的信息。
这款原型眼镜的核心亮点在于Gemini模型的应用,迈克尔甚至认为可以将它称为“Gemini眼镜”。用户按住右侧镜腿的触控区域即可激活Gemini,让它分析并记忆周围的环境。
Gemini的强大之处在于,它能根据用户通过眼镜看到的内容来提供信息和回答问题。迈克尔举例说,当他看向一本关于“史诗级旅行”的书时,命令Gemini推荐一条旧金山湾区附近的路线,Gemini便能提取书中的信息,向他推荐地点。看向一幅画时,Gemini能为他概括艺术家的相关信息、介绍画作历史,甚至能与旁边画作的主题进行比较。这就像在手机上使用Gemini Live,但无需动手操作,几乎完全解放双手。
此外,用户还可以在原型眼镜中使用谷歌地图导航。当用户向前看时,眼镜会弹出一个简单的箭头和街道名称;而当用户向下看时,它会无缝切换到实时地图视图。这款眼镜能够根据用户视线的变化切换显示内容,使用户更方便、直观地获取想要的信息。
这款原型眼镜需要与用户的安卓手机协同工作,这意味着眼镜的运行速度受到手机NPU的限制。眼镜将处理摄像头的视觉数据和麦克风的音频数据,然后将这些信息传输给手机,让手机完成更复杂的工作。这种协同让眼镜不需要特别强大的处理能力,尽管这样可能会对手机的电池续航产生影响(具体影响尚不清楚)。
总体而言,这只是一次短暂的体验,未来长时间的使用可能会暴露出更多问题,如电池续航等。如果谷歌能够参考这款原型眼镜不断优化,推出更加适合消费者的版本,或许有望超越Google Glass,开启消费级AR眼镜新纪元。
来源:Android Central
更新时间:2025-05-22
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号