今年这个十一长假,各大景区的游客里,不少人鼻梁上架着的不是墨镜,而是 AI 眼镜。
人挤人的长城脚下有的游客让 AI 眼镜拍下好不容易抢占位置欣赏到的风景;博物馆里有用户询问 AI 眼镜眼前展出的古币是哪个朝代的;东京街头有人让眼镜翻译眼前的菜单……
解放双手的便捷体验,成为这批新型穿戴设备吸引早期用户的核心卖点。
今年,被称为 「百镜之战」 的一年,光是上半年包括 META、华为、百度、谷歌、Snap、Rokid、雷鸟创新等在内的近 20 家品牌相继推出了 AI 眼镜新品。
除了猎奇的科技爱好者、经常户外的健身爱好者,意想不到的视障用户也用 AI 眼镜帮助他们识别周围的路况和物品信息。
当各个大厂争先抢占这个产品生态位的时候,还有一个绕不开的终极问题等待回答:在各种各样的电子硬件泛滥的今天,AI 眼镜怎么才能成为下一个 「超级硬件」。
谁在买 AI 眼镜
今年,大厂们开始集体 「戴上眼镜」。
小米、阿里、META、谷歌都开始下注,IDC 预测,2025 年中国智能眼镜出货量预计达到 290.7 万台,同比增长 121.1%。
为什么 AI 眼镜这么火?
《豹变》 和几位 AI 眼镜用户聊了聊,结果发现,拍照仍是 AI 眼镜目前最受欢迎的功能。莎莎是一位户外运动爱好者,买 AI 眼镜主要就是为了拍照,「对于户外拍照来说,AI 眼镜非常友好,因为方便和迅速。」
莎莎总结,户外拍照有时候就是想记录一瞬间的风景,可能就是骑行时候路过的晚霞,如果停在路边再掏出手机除了麻烦可能也会很扫兴,「AI 眼镜完全满足我就想记录一个 moment 的心情,不追求拍得多好,就是能捕捉就可以了。」
语音交互和通话也非常受欢迎,「我现在用 AI 眼镜帮我减脂」,小宇每天都会让 AI 眼镜来解决自己 「午餐选择困难症」 的问题,「我是用碳循环这个方法来刷脂的,每天到公司食堂我就会告诉 AI 眼镜我想要多少碳水多少蛋白质,让它帮我来选菜,或者就是我选个大概,让它帮我估算卡路里。
「我的眼镜激活、语音交互都没有问题,目前也没有出现过漏音等尴尬情况,不过摄像头对具体事物的识别有时候不算很精确,比如我有一次拿西红柿炒鸡蛋和一些其他的凉菜混在一起,它就只能识别成青菜和酱料,但这种小瑕疵整体不影响我的使用感受。」
虽然有一些 「解放双手」 的场景备受欢迎,但用户对 AI 眼镜的抱怨也不少。
作为一款 「上头」 的穿戴设备,AI 眼镜和头显非常相似,在续航和舒适度之间得做取舍。
为了上头更轻便,AI 眼镜现在做不到二十四小时超长待机,不用连续录制或者音频播放功能的话,小米、Ray-Ban Meta 第二代基本能达到 8~9 个小时续航,如果要连续录制、播放音频,使用时间就直接 「骨折」 到了 40 分钟~3 小时之间。
至于眼镜的佩戴舒适度,就是各花入各眼,配过近视镜的都应该清楚,一款谁戴起来都舒服的眼镜几乎就是不存在的,每个人的脸型、鼻型都会对眼镜舒适度有影响,市面上大部分的 AI 眼镜都是选择粗腿、粗框的结构,这也是迁就大部分的脸型。即使如此,还是会有人觉得压脸、滑落、不舒服。
除此之外,还有用户反映了 AI 眼镜视频丢失、唤醒失败、漏音等等问题……
AI 眼镜,还有一个让人非常意外的受众——视障人士。
说起来这颇有点 「把梳子卖给秃子」 的意思,不过 AI 眼镜的语音交互、物品识别功能对视障人士非常友好。比如 META 就推出了 「be my eyes」 功能,可以用语音指令唤醒之后,AI 会对周围事物进行 「详细描述」,给视障用户描述前方的道路的具体情况,视障用户还可以通过和 AI 眼镜语音交互来完成简单的日常操作,比如让 AI 眼镜告诉自己,手中的苹果可以放在哪里、找到加重的遥控器,等等。
在 Reddit Ray-Ban Meta 论坛上,就有视障用户反馈了 「be my eyes」 功能的使用感受,这位用户还反馈由于缺少 OCR 功能,META 眼镜没办法进行完整文本阅读,建议 META 补充这个功能。
生态位之战
AI 眼镜不是一个全新的故事,这个故事十三年前谷歌就讲过。
当时那种戴上和普通眼镜没区别但是镜片上可以显示各种信息,还能拍照、翻译、语音唤醒的眼镜还只出现在碟中谍和柯南系列里,谷歌就推出了堪称 「AI 眼镜鼻祖」 的 Google Glass 轰动一时。
不过这个单品当时并没有像想象中的持续大爆,贵和不舒服是两大原罪。
Google Glass 当时大概 1500 美元一副,折合人民币一万元左右。在这种大价钱的情况下,Google Glass 的显示是集中在右眼的,就像柯南里一样信息单眼显示,这在电影里看起来很酷炫,但是放到现实中,单片集中显示用户就总得 「斜视」,作为一个主打全天佩戴的产品,很容易头晕。
没有 killer APP,也是当时 Google Glass 被诟病的原因,不过要说软件生态,当时谷歌概念里 AI 眼镜能做的事情,无非也是翻译、拍照、交互,和现在的产品概念相差无几,所以核心痛点还是太贵和不太舒服。
这两点在十三年后的今天被攻克了,就拿显示模组来说,Google Glass 当时用的是棱镜投影技术,分辨率 640×360,视场角仅 15 度。现在 AI 眼镜在显示上已经不采用虚像投影而是用实像投影达到分辨率更高、更清晰的呈现,采用的 Micro OLED 成本也在逐渐降低,苹果刚推出 Vision Pro 的时候成本还很高,不过现在相比 2023 年已经下降了 35%。
成本的攻克就给 AI 眼镜更多的商业化空间,下探到千元以下的价格让这款产品即使作为一个没有 Killer APP 的 「科技玩具」 门槛也很低了。
当然,成本控制并不是大厂争先布局的唯一原因,生态位的抢占也是重要的因素。
「AI 时代,所有的生意都值得重新做一遍」,这句话中 「所有生意」 当然也包括 3C 硬件,互联网发展到今天,硬件看的不仅是单品,还有整个软硬件生态的结合。
就比如小米提出的 「人车家」 概念,实际就是以智能手机为轴心,出行、居家、通信都用小米的硬件,然后用一个手机来实现全部硬件的远程操作。
AI 眼镜在其中扮演的角色,很有可能是未来人机交互的核心载体。人类头部生态位能够捕获人类感知的 80%,这使得它在数据收集和用户体验方面具有无可比拟的优势。
所以,我们可以看到硬件、软件的大厂统统下场来抢占 AI 眼镜这个产品的生态位。
硬件以小米、华为为代表,华为和小米类似,都有自己的通信和出行生态,布局 AI 眼镜是从硬件角度考虑,让 AI 眼镜未来成为交互中心。
软件以阿里、字节为代表,布局的是 AI 眼镜硬件兴起下的软件入口,比如阿里的支付场景以后就可以通过眼镜来实现;字节的短视频场景亦是如此。
不论软件还是硬件,大厂押注的是眼镜这个产品形态。
成为下一个智能手机,还是 「泡面神器」?
在 《理解未来的 7 个原则》 这本书中,提出一个概念,未来所有的电子产品都会去物理化。
举例来说,以前电子产品的功能很单一,一个用户可能会有一个手机、一个 MP3、一个平板、一个电脑。现在一个手机就既能看电视、打电话也能拿出来结账,这就是去物理化。
在 AI 眼镜再次火爆之前,有另一个 「上头」 的品类也默默被押注了很多年,就是 XR 头显。XR 头显最被诟病的就是没有更日常的使用场景,除了看电影 (有大屏幕可以替代)和玩游戏 (有电脑或者游戏机可以替代),XR 头显的可用之处并不多。这个毛病归根结底可以总结为:没有实现去物理化。
但 XR 头显的终极目的是去物理化,因为它实际想要取代的是一部分笔记本电脑的功能,比如利用虚拟键盘完成文字编辑、上网、实现视频通话等等,对于经常出差的打工人来说,头显就会比笔记本电脑更合适。
但是 XR 头显始终被困在重量和续航两个硬件瓶颈上,毕竟任何打工人都不会需要一个只能续航两三个小时的硬件。
如果按照这个思路再去看现在的 AI 眼镜,就会发现 AI 眼镜面临同样的困境。
AI 眼镜确实在一些需要解放双手的场景中取代了智能手机的部分功能,但还远远不够,也就是说在目前阶段,AI 眼镜还是一个增加物理设备的存在。
所以 AI 眼镜产品需要考虑两个问题:1. 如何更有效地和手机并存;2. 未来还能进行哪些升级?
在 XR 头显设备上吸取了大量经验的 META 就在第一个问题上做了很好的尝试,在前不久的 Connect 大会上推出的 Meta Ray-Ban Display,用户可以实现可视化交互,除了语音、听歌,还可以打开 Instagram 刷短视频,而肌电控制手环更是一大亮点,直接捕捉用户手部行为,完成交互。
增加交互形式和软件生态,在提高 AI 眼镜的使用密度,这就是 META 给出的答案。这做起来并不容易,毕竟在 AI 时代下,不论是软件还是硬件厂商都想要争先做第一个 「集大成者」,比如小米现在想把抖音嫁接到自己的 AI 眼镜中让用户可以刷抖音,但是字节自己也在探索 AI 眼镜,所以怎么去打破生态壁垒就是所有 AI 眼镜厂面临的问题。
而对于探索 AI 眼镜未来的形态,这个问题我们可以再上升一个维度:在去物理化成为趋势的未来,会不会有下一个 「超级硬件」 的诞生。
比如,英剧 《黑镜》 里有这么一集,一个人拿一个硬币大小的硬件放在太阳穴就可以进入 VR 游戏世界,在 AI 时代,一个能够成为 Agent 的硬件也许不再是我们所熟悉的手机、电脑、头显,甚至眼镜这样的形态,而是更小、更轻、更方便的某种产品。
但毋庸置疑的是,AI 眼镜想要长足发展,就必须要攻克提高使用频率和完善产品形态的两大难关,如果只是作为一个手机之外的 「镶边硬件」,那么就像从红极一时到沦为 「泡面神器」 的 Kindle 一样,被市场遗忘。
(应受访者要求,文内均为化名)
本文来自微信公众号:豹变 (ID:baobiannews),作者:娜娜,编辑:邢昀