共计 1424 个字符,预计需要花费 4 分钟才能阅读完成。
Snap 计划在 2026 年向公众发售其首款增强现实(AR)眼镜,这是该公司首席执行官 Evan Spiegel 对智能手机之后未来的一次长期押注。在加利福尼亚州长滩举行的增强现实世界博览会(Augmented World Expo)上,Spiegel 透露了这一消息。该博览会是增强现实和虚拟现实开发者的盛会。
Spiegel 在主题演讲前表示:“自从九个月前我们推出开发者版 Spectacles 以来,人们一直在问,‘公众版什么时候发布?’”他提到,明年发布的消息为开发者提供了充足的时间来“思考他们构建和优化体验的时间表”,并强调“这显然非常重要”。
尽管 Spiegel 不愿透露更多硬件细节,但见过明年眼镜原型的人表示,它们比去年的版本明显更薄、更轻,去年的版本仅面向申请租赁的开发者。此外,新眼镜还拥有更宽的视野,使虚拟图形能够覆盖更多镜片区域。
Spiegel 未透露眼镜的具体价格,但表示其定价将低于苹果 3499 美元的 Vision Pro。(预计价格会远低于此,但仍高于 Meta Ray-Ban 眼镜约 300 美元的售价。)Spiegel 提到,明年的眼镜将简称为 Specs,而非 Spectacles,因为“大家已经这么叫了”。
目前 AR 眼镜市场尚处于起步阶段,但竞争日益激烈。Meta 计划在今年晚些时候发布一款配备平视显示器的眼镜。Google 则刚刚重启其智能眼镜项目,推出了基于 Gemini 的 Android 版本,并与 Warby Parker 等眼镜公司合作。苹果也在继续研发 AR 眼镜。
Spiegel 表示,Snap 至今已在 Spectacles 上投入了 30 亿美元,与 Meta 等巨头的投入相比并不算多。但他认为 Snap 具有优势:已有 40 万开发者为 Snapchat 构建 AR 效果或镜头,而 Snapchat 的月活跃用户已接近 10 亿。他押注这些镜头——随着多人游戏和 AI 功能的加入而变得愈发复杂——将成为 Specs 与其他 AR 眼镜的差异化因素。
Snap 已与 OpenAI 和 Google 合作,允许开发者使用其模型生成镜头。用户还可以通过 Snapchat 已有的聊天机器人 MyAI 与 Specs 中的模型对话。开发者可以利用 AI 理解用户所见内容,而无需将眼镜拍摄的画面存储在服务器上,Spiegel 将其视为隐私保护的一大优势。
与此同时,Snap 的“空间智能”系统利用这些模型理解用户通过摄像头看到的内容,并提供诸如台球技巧指导等功能。Snap 还与《Pokémon Go》开发者近期分拆的公司 Niantic Spatial 合作,据 Niantic Spatial 发言人 Jonny Thaw 称,双方将“构建下一代 AI 地图,作为 AR 眼镜和 AI 代理理解、导航和与现实世界互动的基础”。
Meta 的 Ray-Ban 智能眼镜已取得初步成功,但配备显示器的 AR 眼镜市场尚未得到验证。Spiegel 深知门槛很高。他必须证明其设备具备足够的吸引力,尽管他承认 AR 眼镜短期内无法完全取代手机的功能。但他认为,这一市场的机会比无显示器的智能眼镜更大。
“我们看到人们尝试了智能眼镜这一品类,”他说,“但很难想象它能比手机好上 10 倍。除非你能提供比手机好 10 倍的产品体验,否则总市场规模(TAM)终究是有限的,对吧?”
“人们是否对计算机有更多需求?我认为答案是肯定的。”
他表示,开发者版 Spectacles“在现实世界中与朋友一起计算的能力已经比手机强 10 倍”,并认为 AR 眼镜“在 AI 方面将比手机强 10 倍”,因为它将“进化为具备空间感知能力”。