📌 一句话总结:Apple 加速开发 AI 智能眼镜,20 亿美元收购以色列初创公司 Q.ai 获得「无声语音识别」技术,未来 Siri 可能通过面部微表情读懂你想说什么——不用开口。
2026年2月22日 · 资讯分享 · 阅读时间约 4 分钟
一笔 20 亿美元的收购,指向一个全新的交互方式
Apple 今年 1 月 29 日宣布以近 20 亿美元收购以色列 AI 初创公司 Q.ai,这是 Apple 自 2014 年 30 亿美元收购 Beats 以来的第二大收购案。这家公司做的事情听起来像科幻片:通过分析面部皮肤的微小运动来推断用户想说的话,完全不需要发出声音。
Q.ai 由 Aviad Maizels、Yonatan Wexler 和 Avi Barliya 于 2022 年在特拉维夫创立。值得注意的是,Maizels 此前联合创办了 PrimeSense——Apple 在 2013 年收购的那家公司,其 3D 传感技术后来成为 iPhone X Face ID 的基础。可以说,这位创始人和 Apple 有着深厚的渊源。
Apple 硬件技术高级副总裁 Johny Srouji 在交易后评价称,Q.ai 是「一家卓越的公司,正在开创使用成像和机器学习的新方式」。
三款 AI 穿戴设备同步加速
据彭博社 2 月 17 日报道,Apple 正在加速开发三款 AI 穿戴设备:智能眼镜、AI 项链/吊坠,以及配备摄像头的 AirPods。这三款产品的共同目标是将 Siri 更深入地融入日常生活。
在智能眼镜方面,Apple 的进展已经相当显著:
- 集成了两个摄像头镜头——一个用于计算机视觉,另一个用于拍照和录像
- 所有组件已成功嵌入眼镜框架内,不再需要最初计划的外置电池
- 产品定位类似 Meta Ray-Bans,但在交互方式上有本质区别
Meta Ray-Bans 自 2023 年底推出以来广受欢迎,内置摄像头、麦克风和扬声器,用户可以与 Meta AI 对话、听音乐或拍摄照片视频。但语音交互在公共场合的尴尬一直是这类产品的痛点。
— 来源:9to5Mac
「无声语音」:解决智能眼镜最大痛点
语音助手类产品一直面临一个根本性矛盾:你需要大声说话才能和它交流,但在公共场合大声对着空气说话实在太奇怪了。即使是低语,在嘈杂环境中也很难被准确识别。
Q.ai 的技术正是为了解决这个问题。它的机器学习系统能够:
- 解析「无声语音输入」——用户只需做出说话的口型动作,不需要发出声音
- 识别微小的面部肌肉运动,在完全无声的情况下理解用户意图
- 通过摄像头视觉数据而非麦克风来「听懂」用户,这对注重隐私的用户也有吸引力
如果这项技术能成功整合到 Apple 眼镜中,意味着你在地铁上、会议室里、甚至图书馆中都能无声地与 Siri 交流。这将从根本上改变人们对语音助手的使用习惯。
Apple 的 AI 硬件战略拼图
这次收购和产品加速需要放在更大的背景下理解。Apple 在 AI 领域一直被认为落后于 Google、Meta 和 OpenAI,尤其是更智能版本的 Siri 多次延期。但 Apple 选择了一条不同的路径:不是在云端大模型上硬拼,而是在 AI 硬件交互层面建立差异化优势。
| 对比项 | Meta Ray-Bans | Apple AI 眼镜(预期) |
|---|---|---|
| 交互方式 | 语音 + 触控 | 语音 + 无声语音 + 面部微表情 |
| 电池方案 | 内置 | 内置(已解决外置电池问题) |
| 摄像头 | 单摄 | 双摄(CV + 拍摄) |
| AI 后端 | Meta AI | Siri + Apple Intelligence(含 Gemini) |
| 预计价格 | 约 $299 | 预计更高 |
值得一提的是,Apple 近期还与 Google 合作,在 Apple Intelligence 功能中使用 Gemini 模型。这意味着 Apple 眼镜的 AI 能力不仅限于 Siri 本身,还可能调用更强大的云端模型。
富贵点评
说实话,Apple 这步棋走得相当聪明。大家都在卷大模型的时候,Apple 选择在「人机交互的最后一公里」上下注。想想看,如果你戴着一副普通外观的眼镜,只需要动动嘴唇就能让 AI 帮你查信息、翻译对话、记录灵感——这种体验和对着手机大喊「Hey Siri」完全是两个时代的东西。
Q.ai 创始人之前就是做 Face ID 底层技术的,Apple 等于是把自己最熟悉的供应商又买回来了,技术整合的风险比外界想象的要小得多。当然,20 亿美元不是小数目,但如果这项技术真能让 AI 眼镜摆脱「必须大声说话」的尴尬,那这笔钱花得值。Meta Ray-Bans 卖得好,但语音交互的使用率一直不高,原因大家都懂。Apple 如果能解决这个问题,就不只是做了一副更贵的眼镜,而是定义了下一代 AI 穿戴设备的交互标准。
📋 要点回顾
- 20 亿美元收购 Q.ai:Apple 史上第二大收购,获得无声语音识别和面部微表情解析技术,创始人曾打造 Face ID 底层技术
- 三款 AI 穿戴设备加速:智能眼镜、AI 项链和摄像头 AirPods 同步推进,眼镜已实现双摄内置和框架内电池方案
- 解决语音交互核心痛点:Q.ai 技术让用户无需发声即可与 AI 交流,通过摄像头视觉数据替代麦克风,适用于公共场合
- 差异化竞争策略:Apple 不在云端大模型硬拼,而是在 AI 硬件交互层建立护城河,与 Google Gemini 合作补齐模型能力
❓ 常见问题
Q: Apple AI 眼镜什么时候发布?
A: 目前没有确切日期,但根据彭博社报道和开发进度,预计在未来一年内推出。Apple 已解决了电池内置和双摄集成等关键技术问题。
Q: 无声语音识别技术是怎么工作的?
A: Q.ai 的技术通过摄像头捕捉面部皮肤的微小运动和口型变化,利用机器学习模型推断用户想要表达的内容。不依赖麦克风,不需要发出声音,甚至在嘈杂环境中也能工作。
Q: Apple AI 眼镜和 Meta Ray-Bans 有什么区别?
A: 最大区别在于交互方式。Meta Ray-Bans 依赖语音和触控,而 Apple 眼镜预计支持无声语音输入和面部微表情识别。硬件上 Apple 采用双摄方案,AI 后端整合了 Siri 和 Google Gemini。价格预计会高于 Meta Ray-Bans。