根据最新报道,苹果正在研发的智能眼镜更接近Ray-Ban Meta风格,而非完整的AR头显。如果报道属实,你将得到一款轻量级的iPhone伴侣,主要依靠摄像头、音频和Apple Intelligence,而不搭载内置显示屏。
这种路线也解释了为什么苹果持续大力推进visionOS和Vision Pro。这款头显让苹果在传感器、交互输入和“所见即计算”领域积累经验,即便首款眼镜产品不带显示屏。
苹果智能眼镜何时亮相、何时能买到?
彭博社最新报道指出,苹果智能眼镜有望在2026年左右正式亮相,而实际出货时间可能会因准备程度和量产规模而稍有推迟。路透社也报道称,苹果已将资源向智能眼镜倾斜,试图回应Meta在这个品类的迅猛势头。
预计苹果会把产品线分为两个阶段:首款为不带显示屏的“AI眼镜”,后续再推出更高级的带显示屏版本。
- 正式亮相:报道目标为2026年
- 首款产品出货:部分报道指向2027年
- 带显示屏的升级版:预计更晚,路透社提到2028年可能推出更先进版本
核心芯片:苹果手表血统,为眼镜量身定制
报道称苹果正在开发一款专为智能眼镜打造的芯片,基于苹果手表级别的硅片设计。目标非常明确:在运行多个传感器(尤其是摄像头)的同时,尽可能降低功耗。
这对你很重要,因为眼镜是戴在脸上的设备,而不是放进口袋。散热、体重和电池体积限制了一切。采用手表级芯片能让苹果走一条熟悉的路线,实现“够用”的性能,同时不牺牲续航。
- 功耗优先
- 摄像头与传感器处理
- 复杂任务交给iPhone接力
摄像头与“视觉智能”:你能用它做什么?
据报道,首款苹果智能眼镜将配备多个摄像头,主要承担两类工作:拍摄照片和视频,以及理解你眼前的景象,让系统能根据场景智能响应。
后一部分正是Apple Intelligence大显身手的地方。如果苹果把iPhone级别的视觉理解能力带到眼镜上,你只要转头看向一个标牌、商品或地标,就能让Siri直接回答你想知道的内容。硬件负责“眼睛”,智能助手负责思考。
- 照片与视频拍摄
- 与所见内容深度绑定的多模态AI助手
- 实用工具:实时翻译、导航指引(类似当前智能眼镜主流用法)
操控方式:Siri+音频+你的iPhone
报道描述的操作体验将高度依赖语音。这意味着Siri将成为主要交互界面,而不是触摸屏或悬浮AR界面。要让产品用起来够快,Siri的响应速度和可靠性至关重要。
同时也不要指望眼镜完全独立工作。据报道,苹果会将其定位为iPhone的配件(类似Apple Watch),把部分处理任务交给手机。这种取舍让眼镜保持轻盈,但也意味着你的iPhone是整个系统的重要核心。
- 通过Siri进行语音控制
- 内置麦克风与扬声器
- 与iPhone强强联合,用于设置、算力和数据处理
健康功能与外观设计:能期待什么,还有哪些未知?
健康监测一直是苹果可穿戴设备战略的重要部分,报道显示苹果已探索眼镜的健康相关功能。但目前还没有具体信息透露会用哪些传感器、监测哪些指标,或如何进行数据验证。
外观同样关键。Meta的Ray-Ban合作之所以成功,就是因为大多数人愿意大大方方戴着出门,不会觉得像戴了个科技怪兽。如果苹果走类似路线,你很可能看到多种镜框款式,设计上优先追求“看起来正常”。
- 苹果已探索该品类的健康监测可能性
- 多种款式设计,让它更像时尚单品而非纯科技产品
- 后续带显示屏的机型作为“高端进阶版”
苹果能造出硬件,但你最终会用信任度与实用性来评判这款眼镜。脸上戴着摄像头,走进每个房间都会引发隐私担忧。与此同时,如果苹果能把免提AI做得真正好用,这款产品融入日常的速度会比任何头显都快得多。

已注销
全部评论0