关键要点
- 据报道,苹果配备摄像头的 AirPods 已进入开发最后阶段,即设计验证测试 (DVT),这是量产前的最后一步。
- 这两个摄像头并非用于拍照,而是为 Siri 提供视觉环境,让 AI 能够“看到”用户的环境并回答相关问题。
- 虽然硬件已接近定稿,但该产品最早可能在 2026 年发布,具体取决于升级版 Siri 的表现。
- 新款 AirPods 是其更广泛 AI 硬件战略的一部分,旨在与 Meta 和 OpenAI 竞争,该战略还包括智能眼镜和可穿戴“挂坠”。
关键要点

苹果公司正迈向配备摄像头的下一代 AirPods 的最终开发阶段,这是该公司在 iPhone 之外打造 AI 原生硬件战略的重要一步。据知情人士透露,该项目已开发约四年,现已进入设计验证测试 (DVT) 阶段,这是量产前的最后一个主要阶段。
“该项目现在已进入原型机接近最终设计和功能的阶段,”报道过该设备的彭博社记者马克·古尔曼 (Mark Gurman) 表示。这表明每个耳塞上都配有一个摄像头的硬件已基本完成,尽管最终的发布时间表仍取决于软件表现。
新款 AirPods 可能类似于目前的 Pro 机型,但拥有更长的耳柄以容纳新组件,其设计初衷并非为了拍照。相反,低分辨率摄像头旨在充当 Siri 的“眼睛”,捕捉视觉信息供 AI 系统处理。这将允许用户询问有关周围环境的问题——例如,看着冰箱里的食材并询问晚餐食谱。据报道,该设备将配备一个小型的 LED 指示灯,用于指示其正在捕获视觉数据,以此回应隐私方面的考量。
这款产品代表了苹果及其即将上任的首席执行官约翰·特努斯 (John Ternus) 的重大赌注,据报道,特努斯正致力于推动该项目。成功将为苹果开辟一个新的可穿戴设备类别,创造新的收入来源,并在新兴的 AI 硬件市场中建立据点。然而,如果失败,可能会成为其在 iPhone 之后的硬件尝试中的又一次挫折,此前苹果已取消了汽车项目,且 Vision Pro 仍处于利基市场地位。
配备摄像头的 AirPods 的核心功能是赋予 Siri 环境和视觉感知能力,苹果将其称为“视觉智能”。这种免提功能类似于谷歌 Gemini Live 中的摄像头共享功能。潜在应用包括 Siri 根据可见地标提供转向导航,或根据进入摄像头视野的物体发送提醒。
这种方法直接解决了纯音频助手的关键局限性。然而,它也引发了隐私问题,从 Google Glass 到 Meta 的 Ray-Bans,这些问题一直困扰着配备摄像头的可穿戴设备。苹果提出的解决方案是一个小型 LED 指示灯,尽管它在小巧耳塞上的可见度仍是一个实际考量。该设备将不支持手势控制,从而与 Vision Pro 头显区分开来。
配备摄像头的 AirPods 是苹果一系列以 AI 为中心的新型可穿戴设备中进展最快的,标志着其与 Meta 和 OpenAI 等对手竞争的更广泛战略布局。Meta 的 Ray-Ban 智能眼镜已经取得了一定成功,而据报道 OpenAI 也在探索硬件项目。
其他传闻中处于早期开发阶段的苹果设备包括类似于 Humane AI Pin 的夹式“挂坠”和一副更高级的智能眼镜。该挂坠被描述为 AirTag 大小的配件,可作为没有屏幕的 iPhone 伴侣。智能眼镜可能在 2026 年或 2027 年推出,预计将集成摄像头和扬声器,与 Meta 的产品非常相似。这些未来产品的成功可能取决于苹果经过重新设计的 Siri(据报道利用了谷歌 Gemini 的技术)在发布时受到的认可程度。
对于投资者而言,新款 AirPods 代表了新领导层下苹果创新引擎的一次关键测试。产品的成功并非板上钉钉,很大程度上取决于其 AI 软件的执行情况,但它提供了一个视角,让我们窥见苹果生态系统扩展到 iPhone 之外的未来。虽然硬件已接近就绪,但潜在的软件延迟仍可能将原定于 2025 年的发布推迟到 2026 年或更晚。
本文仅供参考,不构成投资建议。