标签 Apple Intelligence 下的文章

引子

云端大模型正日益提升人类生产力,与此同时,端侧智能领域也在不断突破技术瓶颈。现在,端侧大模型已成功落地手机终端,可在本地处理隐私数据,提供总结、命名等实用功能。但端侧智能的能力仍有提升空间,手机暂时无法完全摆脱对云端大模型的依赖,端云协同的范式仍然是未来很长一段时间内端侧智能的主旋律。

在这种背景下,当隐私数据需要上传至云端处理时,手机厂商该如何保障用户的数据安全呢?

让我们看看隐私保护领域的标杆——苹果的解决方案。2024年,苹果就已经推出了隐私云计算(Private Cloud Compute,简称PCC)的概念:

Apple Intelligence 是为 iPhone、iPad 和 Mac 带来强大生成模型的个人智能系统。对于需要使用大模型处理复杂数据的高级功能,我们创建了私有云计算 (PCC),这是一个专为私有 AI 处理而设计的突破性云智能系统。私有云计算首次将 Apple 设备业界领先的安全性和隐私保护扩展到云端,确保发送到 PCC 的个人数据除了用户本人之外,任何人都无法访问——甚至 Apple 也无法访问。PCC 采用定制的 Apple 芯片和专为隐私保护而设计的强化操作系统构建,我们相信它是迄今为止部署用于大规模云 AI 计算的最先进的安全架构。

看起来这确实是化解隐私数据出端被泄露风险的好办法。但关键在于,这项技术是否已经真正落地到苹果手机里?我们在使用云端的 AI 时,发送出去的内容真的只有我们自己能看到吗?

本文带大家分析 BH USA 2025/Defcon33 的议题:AppleStorm - Unmasking the Privacy Risks of Apple Intelligence,分析Siri 隐私数据出端可能导致的隐私泄露风险。

抓包

想要知道哪些数据被传输到云端了,我们必须能够抓到数据包。

这里可以看到,苹果 AI 相关服务器的一些主机地址:

image.png

大家可能发出疑问:为什么私有云计算和 Siri 是不同的主机地址?隐私云计算不就是为了保护Siri 的上云请求吗?这个问题的答案我们放在后面揭晓。

作者研究发现发送给 guzzoni.apple.com的数据包被做了多层防护,除了证书锁定,苹果还使用了自定义的名为ACE的通信协议,作者花了很大功夫进行协议解析,并且魔改了mitmproxy才成功抓到数据包。工具已开源

在数据包都能抓到以后,我们来看看不同的场景下,都有哪些数据被 Siri 上传到云端了,以及传输是否做好了加密。

隐私数据出端泄露风险

在开始测试之前,作者预先关闭了系统中的"学习应用习惯以提供智能建议"等个性化功能,避免非必要请求干扰测试,确保在使用 Siri 时捕获的数据包为最小必要集合。

场景一:上云功能

以天气查询为例,询问 Siri What is the weather in Las Vegas?,手机所在的经纬度位置、手机里的天气相关的 APP名称(甚至如果手机里安装了虚拟机,里面天气相关的 APP 都会被找出来)、手机播放列表正在播放的内容信息都会被发送给搜索服务的主机:api-glb-ause1c.smoot.apple.com。此外,手机里当前打开的 APP列表会被发送到听写请求服务器:guzzoni.apple.com。

一个简单的天气询问,提供给云端的信息量已经远远超出于解决该问题所需的内容。

image.png上述这些隐私数据,用户只能控制位置信息是否提供给 Siri,其他的隐私数据都是被悄悄发送到云端了。除了天气搜索外,在使用 Siri 进行计算、在线搜索、文章搜索时,也都会上传类似的数据。

并且,这些请求并没有经过隐私云计算处理,攻击者拦截到数据后可以轻易查看其中的内容。

场景二:端侧功能

对于发送消息、邮件、日历这些端侧功能,Siri 总没有必要再把数据传到云端了吧?

抓包发现,手机里当前打开的 APP列表和当前播放内容的信息仍然会被发送到 guzzoni.apple.com 这个听写服务器。更要命的是,在使用 Siri 发送消息的功能时,像发送 iMessage、发送消息到 WhatsApp,发送的信息的内容以及目标联系人,都会发送给 guzzoni.apple.com 一份。

风险总结如下:

image.png

风险来源与消解措施

隐私数据为什么上云?为什么 PCC 没落地?

苹果官方的回应是:上述 smoot 和 guzzoni 服务是给 Siri 用的,而不是 Apple Intelligence,PCC 是用来保护 Apple Intelligence的,像 Writing Tools、Extensions-ChatGPT这些功能。

PS:可是 Siri也能调用 Apple Intelligence的功能,这样同一个 APP有两条上云链路、两套隐私保护政策,本身就很不合理。

使用 Siri 发消息,为什么会传给云端?

实验证明是苹果给开发者提供的 SiriKit导致的问题,苹果后续将考虑修复该问题。

如何消解风险?

guzzoni听写服务对正常功能没有影响,可以屏蔽掉相关的请求(如果可能的话)。

启发

像苹果 Siri这种不安全的传输用户隐私数据的风险,应该是智能手机当前面临的共同问题。不管是为了提高用户的智能体验,亦或仅仅是上传了日志,都有可能在使用 AI 时不安全的上传了用户的隐私数据。

不管是苹果手机还是安卓手机,对系统级别 APP 抓包的管控越来越严格,安全研究人员和普通用户在使用 AI 时,对隐私数据使用透明化的需求越来越高。希望手机厂商在未来做好AI隐私数据使用的透明化和安全保护。

声明

本文所有内容仅供安全研究、教育和防御性安全测试使用。使用者需:

1遵守当地法律法规

2仅在授权环境中进行测试

3不得用于非法入侵或恶意攻击

4对使用后果自行承担责任

参考资料

1PCC 官方资料

2Apple 主机列表

3AppleStorm-Unmasking the Privacy Risks of Apple Intelligence

苹果与谷歌已正式确认,下一代 Siri 将采用 Gemini 模型与 Google Cloud,双方达成一项为期多年的合作。
此前,苹果一直为 Siri 使用自研 AI 模型,但在性能上与 GPT、Gemini 甚至 Copilot 相比都显得力不从心。
如今,苹果与谷歌开启了多年合作。作为合作的一部分,未来版本的 Siri 将基于 Gemini 模型 运行。
此外,苹果的 Foundation Models(基础模型) 将以谷歌的 Gemini 为底层,并部署在谷歌云平台上。

谷歌在一份新闻稿中表示:

“这些模型将为未来的 Apple Intelligence 功能提供支持,包括将于今年推出的更具个性化的 Siri。”

苹果方面称:

“经过审慎评估,苹果认为谷歌的 AI 技术为 Apple Foundation Models 提供了最强大的基础,并对其将为苹果用户带来的创新体验感到兴奋。”

苹果强调,Apple Intelligence 将在苹果设备与 Private Cloud Compute(私有云计算) 上运行,公司长期坚持的隐私承诺 不会受到任何影响

Apple Intelligence 的发展历程一直充满波折

Siri 问世至今已超过十年。尽管它曾是最优秀的 “个人助手” 之一,但如今的大型语言模型(LLMs)在能力上已远超苹果的实现。
在 2024 年的 WWDC 上,苹果宣布正在开发 Apple Intelligence,其中也包括一个更具 AI 能力的 Siri,例如支持个人上下文理解与屏幕内容感知。
然而,这些功能一再延期。
部分功能最终上线,但用户抱怨 Apple Intelligence 的准确性不佳,在执行复杂指令时经常失败。
尽管苹果的 AI 体验本应以 “安全” 和 “隐私友好” 为卖点,但最终呈现的初始体验却远未达到革命性的高度。
如今,苹果与谷歌合作,借助 Gemini 升级 Siri 体验。但这是否能实现苹果曾经承诺的那种革命性突破?只有时间能给出答案。

前言

Apple Intelligence,又称 Apple 智能,俗称「苹果 AI」,发布(WWDC24,2024 年 6 月)已有一年半的时间,从 iPhone 15 Pro 系列开始境外开发者 Beta 测试,到 iPhone 16 全系以 AI 作为主要卖点时国行仍为「为 Apple 智能预备好」状态,再到 iPhone 17 全系国行激活数量超千万(2025 年 11 月),目前国行 Apple 设备依旧停留在「为 Apple 智能预备好」的阶段。

考虑到 2025 年 11 月底 Apple 短时间内上线又下线的简体中文 Apple Intelligence 问卷,以及各路小道消息暗示 Apple Intelligence 上线国行 Apple 设备的前期工作已经接近尾声,也是时候再来聊聊 Apple Intelligence 了。

目前在国行设备上「体验」Apple Intelligence 的方式有限,由于 Apple Intelligence 在国行设备的长期缺席,大多数用户只能通过有限的视频演示或是图文介绍等方式了解,对其认识可能不够系统、全面、客观,甚至存在一些误区;国行 Mac 可以通过脚本启用 Apple Intelligence,但过程中需要关闭系统完整性保护(SIP),也可能会给系统带来风险,这种方法对普通用户而言存在一定的操作门槛;Misaka26 利用已知漏洞,可以在 iOS/iPadOS 26 Beta 1 及更低版本的设备上,修改销售地区和型号版本来启用 Apple Intelligence,但此举会导致设备面临概率性变砖、丢失全部数据、失去保修等风险,且该漏洞已在 iOS/iPadOS 26 Beta 2 上修复。

故通过以上方式开启了 Apple Intelligence 功能的国行设备暂不在本文的讨论范围。


本文旨在尝试用通俗易懂的语言,从技术角度出发解释 Apple Intelligence 的设计架构、选型合理性以及现阶段所面临的困境,尽最大可能为大家提供一个更全面、更系统理解 Apple Intelligence 的视角。

Apple Intelligence 的架构

虽然本文并不是要介绍「什么是 Apple Intelligence」,但要正确理解 Apple Intelligence 我们还是不可避免地要看看它的架构,最直观、最高效的呈现方式是下图:

Apple Intelligence 架构图

上图比较复杂,又非常重要,快速提炼一下:左半边是设备端侧(On-device),右半边是云端服务器(Servers)。

左半边设备端中间的「个人智能系统」(Personal Intelligence System),由三部分组成:语义索引(Semantic index)、App 意图工具箱(App Intents Toolbox)和端侧模型(On-device Models)。

语义索引能够更深入地理解和利用用户的个人数据。这项功能通过创建一个语义索引库,将用户的照片、日历事件、文件、邮件和消息等信息进行组织和索引。通过语义索引,可以实现智能搜索和信息提取。

App 意图工具是面向开发者用于定义配合 Siri、快捷指令或其他系统与 App 功能交互使用的动作。

端侧模型又分为语言模型和图像模型,其中多个小块是语言模型和图像模型被微调为用于不同的任务的微调模型。

引用自知乎,有调整。

注意,「个人智能系统」虽然实际由语义索引、App 意图工具箱和端侧模型三部分组成,但为了下文方便表述我们暂且将它们用「端侧模型」一个词来指代。

不难发现,一些误区例如「Apple Intelligence = 接入 ChatGPT」「Apple 与 Open AI ChatGPT 合作才推出了 AI 功能」中的 ChatGPT,其实压根儿不是 Apple Intelligence 的组成部分,至少不是狭义上 Apple Intelligence 的组成部分。

那么 Apple 为何如此设计 Apple Intelligence?Apple 所指的设备端侧和云端又是怎样分工、怎样协作的?下文将逐步回答这些问题。

个人智能的愿景

要讨论 Apple 为何如此设计 Apple Intelligence,我们必须先探讨 Apple 试图解决什么问题。

在 Apple 的视角里,2023 年(Apple Intelligence 发布的前一年)的 AI 浪潮虽然喧嚣,但当时的 AI 工具对普通用户而言,普遍存在三个主要的体验断层:

  • 「AI 孤岛」造成的数据割裂。2023 年的 AI 在形式设计上大多无外乎两种——独立的 App 或网页,当你需要 AI 帮你处理工作时,你需要把邮件里的内容拷贝出来粘贴给 AI,再将 AI 的回复拷贝粘贴回邮件。
  • 缺乏个人语境。如果一位用户尝试询问 ChatGPT 自己下午是否有空,ChatGPT 将无法回答,因为 ChatGPT 之类的 AI 并没有获取个人日历日程的权限,也不认识用户的朋友或是同事,通用模型拥有海量的世界知识(World Knowledge),但对于用户本身却一无所知。
  • 「隐私焦虑」与「云端算力」存在矛盾。承接上一点问题,用户如果需要获得通用 AI 的智能,则需要牺牲一定的隐私数据上传云端。

Apple 在意的是用户体验的连贯性、软硬结合以及用户隐私保护,因此自然不会满足于已有的 AI 方案。不久前微软 Windows 部门的高管表示要进一步推广 Copilot,将 Windows 打造成「智能体操作系统」(链接)。这一言论引来了大波用户的批评和反对,也证明强行将「聊天机器人」式的 AI 大模型同操作系统各处随意缝合并不是可行之路。

客观上来说,AI 算力设备采购不足以及从 Google 转来的前机器学习与 AI 策略主管 John Giannandrea,彼时并未深度融入 Apple 团队、与 Apple 文化/理念不合,也导致了 Apple 难以拿出与竞争对手匹敌的云端大模型;但或许也是「塞翁失马」,大模型方面的弱势促使 Apple 进一步深入技术、仔细思考「什么才是普通用户都想用的 AI」这个问题,避免了重复造「大模型」轮子。

针对问题解法对模型的要求
「AI 孤岛」造成的数据割裂在系统各处无缝集成规模小而精
「通用 AI」缺乏个人语境在上一点基础上建立基于设备的语义索引(Semantic Index)。理解语言、理解屏幕上的内容、日程以及照片库等多模态
「隐私焦虑」与「云端算力」的矛盾创造一种全新的计算架构。在本地能解决的绝不上云;必须借助云端服务的,则设计一种不留存数据的私有云计算系统以端侧模型为主

在明确了针对问题的对应解法,以及对于 AI 模型的要求之后,我们不难发现:即便基于现有的 AI 大模型方案稍加改良修剪,也无法满足 Apple 的需求。从零开始打造 Apple Intelligence 势在必行。

于是 Apple 选择避开与科技巨头在通用大模型参数上的军备竞赛,转而利用其在芯片、操作系统和隐私安全上的自身优势,去构建一个服务个人、与系统深度集成、端侧优先、隐私至上的混合 AI 架构。Apple Intelligence 没有追求万亿级的参数量,而是选择一条更为艰难但务实的道路:端云协同、以端为主。

可以说 Apple 是用短期技术上的劣势,去验证长期上「个人智能」使用场景路线的可行性。

Apple Intelligence 设计的合理性

Apple 选择将端侧模型作为主力,那么现在的 Apple Intelligence 设计合理吗?

要回答这个问题,我们应该要关注 Apple Intelligence 是否达成了上一节提及的、解决 AI 大模型弊病的目标。

设计目标在实现上的合理性

首先是与系统各处的无缝集成。

目前,写作工具可以在几乎所有地方(有文本框的地方)唤出使用、智绘表情几乎能在所有可以发送 emoji 的位置创作 Genmoji,信息、邮件、备忘录、照片以及提醒事项等众多第一方应用都能见到 Apple Intelligence 的影子。用户不需要为了使用 AI 而打断当前的工作流,AI 不再是喧宾夺主的中心,而是「如影随形」的辅助。

第二是多模态。

写作工具、通知总结、邮件智能回复等功能代表 Apple Intelligence 处理文本内容方面的能力,而图乐园、智绘表情、图像魔法棒等则意味着图像内容的能力。然而语义索引功能,即 Apple Intelligence 最重要的功能之一——基于个人场景的情景智能迟迟未能上线,的确令人失望。

第三是全新的计算架构。

在文章开头我们了解到 Apple Intelligence 中间是「个人智能系统」层,主要有「端侧模型」和「云端模型」两部分,且这两部分都是由 Apple 开发并运行在搭载 Apple 芯片的用户设备/Apple 服务器上;同时我们又已知 Apple Intelligence 能本地解决就不上云的策略,端侧模型能够保证个人数据全部在本地处理,并不会被上传到云端遭受数据泄露的风险。

这里一个最典型的例子是,前段时间基于努比亚 M153 的豆包手机助手技术预览版技惊四座,但频繁截图上传服务器推理的运作方式也令大量用户质疑其隐私安全性。在科技媒体 Android Authority 近日对 ARM 的采访中,ARM 高管 Chris Bergey 也完全认同基于端侧 AI 发展方向。

如果用户最关心的操作无法在本地解决,那 Apple 又是怎么设计云端的呢?这里就引出了 Private Cloud Compute(私有云计算,下文简称 PCC)。

PCC 不是普通的云端大模型,而是一个在硬件层面复刻了 iPhone 安全机制(如 Secure Enclave,安全隔区)的服务器集群。当数据被发送至 PCC 处理复杂任务时,数据是「阅后即焚」的。服务器不保留日志、不存储数据,Apple 的工程师没有权限查看。

Apple 甚至开放了 PCC 的镜像供安全研究人员审查。另外,在用户需要请求 ChatGPT 时,系统会弹窗让用户主动确认,尽最大可能保障用户的隐私安全。这种将隐私保障从「政策信任」提升到「代码与架构信任」的做法,目前在业界应该是独一无二的。

此外笔者认为,结合端侧 AI 功能的技术需求和 Apple 自身的价值观至少这两方面的因素来看,Apple Intelligence 的设计还有以下几点值得讨论:

  1. 不强制依赖网络,各种状态下都能实时响应
  2. 响应/处理速度
  3. 用户的学习成本
  4. 端侧模型的规模与算力/功耗需求
  5. 商业模式的可持续性

这些内容分别对应端侧需求在实现上的合理性、易用性上的合理性、架构设计与伦理上的合理性以及商业上的合理性,下文将逐一展开。

端侧需求在实现上的合理性

首先是实时响应。

实时响应就要求模型能够离线使用、不依赖于网络,这就意味着模型必然是运行在本地的。这样的设计使得用户免受因网络这种外部因素的干扰,保障体验的一致性和连贯性,消除「连上网络是人工智能设备,断开网络就是智障设备」的可能。

第二是响应速度。

这一点需要与 Apple Intelligence 所能够解决的问题或是使用场景结合来看。例如通知总结、邮件总结这类实时性要求高的功能,端侧模型可以自动完成,用户无需介入,整个体验是无感的。

这类需求如果交给云端大模型去做就会面临需要联网、排队、推理、回传等问题,尽管得益于云端模型更大的规模,其生成结果的准确度会更高一些,仅仅为了提升一点准确度要牺牲大量响应时间,即便抛开整个链路的延迟不谈,从技术角度而言也是不合理的——让一个千亿甚至万亿参数的模型去判断你的通知是否重要、如何总结,不仅是算力的极大浪费(大材小用),更涉及复杂的上下文传递。

故在此处云端模型的综合用户体验反而是更差的。

易用性上的合理性

本节讨论用户的学习成本,或者说上手使用的难度。在探讨这个话题前,我们不妨简单讨论一下如何利用好 AI。你肯定看到过或听说过以下故事或情景:

  • 使用不支持多模态的大语言模型处理图像问题。
  • 所有提问都开启「深度思考」功能。
  • 完全相信 AI 生成的全部内容。
  • 忽略 AI 模型 训练所采用数据集/知识库 的日期截止时间。
  • ……

导致上述问题的原因可能并不完全在用户,某些 AI 模型/工具本身的设计也是一方面的因素。目前的 AI 潮流强迫用户学习一种新语言——Prompt(提示词)。这不仅增加了认知负荷,也违背了「科技应当服务于大多数人」的初衷。

这反映出云端大模型的特点:能力上限高、使用难度/充分利用的难度高。

我们说通常如果一个人向他人提出问题,往往具备一定思考、描述更加详细全面的问题会有更高的概率获得更详细更高质量的回答。(如何提出更高质量的问题?这里建议阅读「提问的智慧」,虽然「提问的智慧」起初面向程序员编写,但其中的提问思维则可以供各行各业的人士学习。)

这样的道理对于 AI 大模型来说同样适用。即提示词的质量很大程度上会影响 AI 模型输出回答的质量。例如以下两种提示词:

污水处理厂有哪些种类?
请从污水处理厂处理污水的种类、采用的污水净化技术、处理厂的规模等方面介绍一下污水处理厂有哪些种类。
两种提示词的回复对比图

我们可以直观地看到更详细的提问会收获更详细更优质的回答。

又比如 Google 最近推出的令人惊叹的全新图像生成模型 Nano Banana Pro,在此可以给出两个用于生成自行车部件爆炸图(立体装配图,用于示意自行车各零部件的组成和组装的方式)但描述详细程度完全不同的提示词供大家测试:

请生成一张自行车部件爆炸图。
生成一张自行车车架和组件的爆炸视图,技术蓝图风格,采用蓝版印刷,以毫米为单位注释测量值,齿轮和链条已拆卸,透视图,干净的线条,白色背景,16:9比例。

不幸的是,现实中许多人并不一定擅长将自身需求描述清楚,在这样的情况下很难指望 AI 模型输出高质量的结果。因此云端大模型(尤其指「聊天机器人」式的依赖提示词驱动的 AI)并不适合所有人使用。对于大众用户而言,低学习成本的 AI 才是最好的 AI,要求所有人都写长长的提示词可能并不是现代个人 AI 助手的正确发展方向。

目前 iOS 设备已在全球售出超 20 亿台,iOS 覆盖的用户群极为庞大。尽管这其中并非所有设备都支持 Apple Intelligence,但 Apple Intelligence 有潜力触及到的用户规模仍在不断增长。要为世界级用户规模的操作系统无缝地集成 AI 方面的能力,就必须赋予易用性很高的优先级。

事实确实如此,我们看到 Apple Intelligence 是生长在系统里的,不需要用户费尽心思编写提示词。Apple Intelligence 将 AI 能力拆解为具体的 UI 控件。例如在邮件应用中,它并不是给用户一个对话框让用户输入「帮我把这封信的语气改得更专业」,而是直接提供了一个 [重写] 或 [专业的语气] 的按钮;而在邮件的快速回复中,AI 已经提前阅读了对方发来邮件的内容,并针对可能的回复内容设计了易于选择的选项,用户只要快速点选几个选择就可以得到大差不差的一篇智能回复;又譬如图乐园 App,用户不需要编写冗长的生图提示词,而是可以在上方直接选择生图风格、下方选择内容主题,如需为图片添加更多细节,只需在下方简单输入几个关键词即可。

架构设计与伦理上的合理性

通常 AI 模型会对内存、算力提出很高的要求,功耗也是端侧运行模式下重要的考虑因素。Apple 的做法不是加载一个巨大的通用模型,而是先加载一个核心底座模型(Base Model),然后根据任务动态挂载微小的适配器(Adapters):需要处理文本时,系统加载「写作适配器」;涉及图像处理时,系统加载「图像适配器」。

这样的做法有效避免了庞大模型在内存中的长时间驻留,节省了系统内存占用,又有可控的能耗表现。

在将 AI 封装为确定功能选项实现 AI 易用化的同时,Apple Intelligence 虽然损失了 AI 的多种可能性,但同时也给用户带来了可控性。这种可控性使得 Apple Intelligence 符合伦理、避免幻觉(参考 Google AI 曾建议用户「吃石头」、微软警告用户 Win11 的 AI 智能体可能出现「幻觉」现象),也降低了被注入攻击的风险,是一种克制下的安全。

事实上,Apple 在生成式内容上表现得非常谨慎,更多聚焦于「改写」、「总结」已有信息,而不是「凭空创作」。作为拥有超 20 亿活跃设备的厂商,用稳健的 AI 策略来避免 AI 胡言乱语可能更加稳妥。对于面向大众用户的产品而言,也许「不出错」比「惊艳但会发疯」更重要。

商业上的合理性

最后浅谈一下 Apple Intelligence 的商业策略。

在 AI 的大潮下,大量企业都在亏钱做 AI。这是由于大部分企业都押注大模型、云计算,例如 OpenAI 和 Google 为了应对不断增长的请求,需要不断扩展服务器计算卡的规模,同时负担持续上涨的电费;不仅如此,OpenAI 还在用户侧限制使用额度、推出更为细分的 Plus(20 美元/月)和 Pro(200美元/月)计划,不断提高 AI 的入场门槛。

而 Apple Intelligence 的架构设计则可能形成目前最为可持续的 AI 商业模式。Apple Intelligence 的计算主力在用户端,即用户设备中的 Apple 芯片。这使得 Apple 能够专注于 Apple Intelligence 本身的功能开发,并以极低的边际成本提供 AI 服务。即便 Apple Intelligence 也有私有云计算服务,相比起纯云端 AI 服务供应商,Apple 也不需要在云端服务器方面持续大量烧钱。

有报道称,OpenAI 正在试图构建属于 ChatGPT 的应用商店,通过将第三方 App 能力接入到 ChatGPT 的形式,用户可以让 GPT 完成原先需要手动操作的功能。然而目前接入到 ChatGPT 的应用数量比较有限,许多已经接入的应用与大模型配合工作的效果也不太理想。而时至今日 Apple 的 App Store 已经坐拥数百万款 App,如果 App 的开发商能够适配 Apple Intelligence 未来的情景智能功能,Apple 的各系统平台更有机会在更短的时间内形成一个 AI+App 的生态。

OpenTable出现错误
GPT 使用 OpenTable 时出错

另据多方媒体消息,OpenAI 也在积极开发各类硬件产品,意在融入公司已有的 AI 能力,试图将旗下的 AI 推广至更广阔的用户群体。这似乎暗示了软件或服务必须要依赖硬件载体才能获得更好的发展。软硬结合对 Apple 来说则是一贯的强项,Apple Intelligence 的定位是服务好系统、服务好硬件的务实功能,而不是用于拉高公司市值的叙事手段。

Apple Intelligence 可以依托既有的成熟硬件(iPhone、iPad、Mac 等)、成熟系统(iOS、iPadOS、macOS 等),通过系统更新就能实现更广的覆盖和更高效的用户触达,降低了用户使用的门槛;同时 Apple Intelligence 又融于系统的方方面面,它不仅仅是一种「能力」,更是一种「体验」。

所以当我们看到邮件 app 自动标出「优先邮件」、或者在备忘录里随手画的草图被「图像魔法棒」美化成精致插画时,感受到的不是不断修改提示词的疲惫,而是设备本身变得更懂自己的需求了。这是一种极其微妙却又极具粘性的体验,也是那些竞争对手难以复制并超越的「护城河」。

Apple Intelligence 推出至今虽有针对其功能方面的批评,但未见大规模的反对声音或者有关从系统当中彻底移除 Apple Intelligence 功能的讨论。至此我们可以下一个结论:虽然 Apple Intelligence 目前上线的功能仍有不全之处,但是其设计理念和思维总体瑕不掩瑜;Apple 通过工程化手段、硬件垂直整合和隐私架构创新,在功耗、隐私、性能和体验之间找到了一个平衡点。

Apple Intelligence 目前的困境

既然 Apple Intelligence 在技术选型和实现上总体是合理的,那么为什么如今对于 Apple Intelligence 的主流评价是喜忧参半的呢?

抛开一些已被反复提及反复讨论的话题,这里笔者认为还有几个方面的内容值得讨论,分别是边界感问题、短时刺激与长期发展的矛盾、预期管理问题。

边界感问题

前文提到,Apple Intelligence 将多种能力封装为确定性功能选项提高了 AI 工具的易用性,但这也使得 Apple Intelligence 具有明显的边界——选项里的操作全部可用,选项外的可能性一概没有。用户以 Apple 所构画的方式使用 Apple Intelligence 时可以获得流畅连贯的体验,而一旦用户的需求超出了可选项的范围则需要寻求其他方案,就会导致使用体验出现一个明显的割裂。

因此平衡易用性与工具能力是 Apple 需要面对的难题。Apple 或许应逐渐提供更多的选项,亦或是将 Apple Intelligence 在某些方面设计成半开放形式,允许用户在一定范围内进行渐进式的需求明确。

短时刺激与长期发展的矛盾

在云端 AI 大模型领域,每个季度甚至每个月都有新的更强的模型/更好的应用出现。这样的更新节奏不断刺激着用户,并在媒体的进一步催化下,普通用户逐渐习惯于快节奏的模型迭代和不断刷新认知的模型能力上限。

相比之下,受限于 Apple Intelligence 的定位(集成于系统各处的功能)和其本身的迭代节奏,Apple 难以高频率地拿出各不相同又抓人眼球营销材料,让用户直观感受到 Apple Intelligence 的变化。因此验证长期上「个人智能」使用场景路线的可行性,与满足短期刺激上的矛盾在一时间可能无法调和。

预期管理问题

从心理学的角度而言,厂商的营销策略作用于消费者预期管理的有效性会在很大程度上影响产品的销量和评价。例如分析师和爆料人员经常放出新一代 iPhone 可能涨价的信息,这可能导致消费者潜意识地认为下代 iPhone 必然会涨价。然而当新一代 iPhone 正式推出并维持与前代相同的起售价时,消费者可能会对现有的价格表现出更高的接受度。

而若从同样的视角看,Apple Intelligence 的营销则是预期管理失误。Apple 的高管在 WWDC 2024 上详细展示了Apple Intelligence 的所有能力,甚至包括技术团队从 Keynote 演示中首次得知的某些功能。尽管对于 Apple 而言,在 AI 浪潮的压力下急于推出解决方案、回应市场需求的做法存在一定的合理性,但这一详细的展示无疑过度拉高了用户对于 Apple Intelligence 的预期值,以至于当用户实际体验 Apple Intelligence 时,演示内容与实际落地功能之间的落差令用户感到失望。

雪上加霜的是,WWDC 2024 上所展示的重头戏——基于个人场景的情景智能时至今日仍未落地,进一步影响了 Apple Intelligence 的口碑。

一些误区

Apple Intelligence 就是套壳的 ChatGPT?

这可能是最大的误解。前文已经展示了 Apple Intelligence 的架构,它是一个完整的、多层次的技术栈,包含了:

  1. 端侧模型(On-device Model):处理绝大多数日常、高频、隐私敏感的任务。
  2. 私有云计算(Private Cloud Compute):处理端侧算力不足的中等复杂度任务。

ChatGPT 至少并不是狭义上 Apple Intelligence 的组成部分,而只是一个可选的第三方扩展。真正的核心智能则完全由 Apple 自研模型驱动。

Apple 需要放弃隐私才能换来 AI 能力的提升?

有人认为 AI 需要海量的数据来训练和调优,Apple 在严格的隐私数据保障情况下无法提升 AI 的能力。

在这里广泛的「数据」概念不能同「隐私数据」混为一谈,并且 AI 的发展与个人的隐私数据理论上不存在对立关系。个人数据是隐私(Privacy),而互联网上公开领域的数据很多是知识(Knowledge)。

用知识来训练 AI 是行业共同的方式,至于 Fine tuning 微调,理论上也不需要个人数据。因为生的(Raw)训练数据要做标记、要经过清洗等前处理才能利用。可以借助已有的 AI 来生成标准化的「伪个人数据」(pseudo data)提高效率。

其次 Apple Intelligence 的主力是端侧模型,能有效保证推理过程中需要用到的敏感数据全部保存在本地。而私有云计算(Private Cloud Compute)则是通过独特的架构设计和开放安全审查保证个人隐私不会妥协。

Apple Intelligence 由于云端模型国内合作伙伴的问题,导致无法落地?

前文已经展示了 Apple Intelligence 的架构,云端模型并非狭义上 Apple Intelligence 的组成部分,且国内已备案商用的云端大模型已有许多选择,并不构成 Apple Intelligence 落地的障碍。

Apple 在 AI 方面已经远远落后?

结合前文的讨论理性地来看,Apple Intelligence 与其他厂商在 AI 领域走不是同一个方向/赛道。

Apple Intelligence 不是一个仓促上马的 App /「聊天机器人」,而是对 iOS、iPadOS 和 macOS 方方面面能力的深度改进;它将 AI 变成了像文件系统、网络协议一样的基础设施。

其他厂商在 AI 大模型本身领先,而 Apple 则是聚焦于软硬结合,专注于个人智能系统的布局。

尾声

作为一名技术爱好者,剥离营销术语、探索底层技术架构是令人兴奋的。

Apple Intelligence 的出现,意味着 AI 不一定是一种需要用户主动探索的「工具」,而可以是一种无处不在的「能力」。Apple Intelligence 不是成为最会写诗的 AI,但它很有可能是第一个真正了解你、尊重你,并且能默默完成日常任务的 AI——然而不完整的落地功能、失误的预期管理也让 Apple Intelligence 暂时不能让人完全满意,对 Apple 而言实现美好的 AI 蓝图还有很长的一段路要走。

最后感谢您读到这里。以上内容仅为笔者基于现有的信息和理解所做的整理和总结,其中难免存在技术错误或理解偏差。个人水平有限,文中若有不当之处,恳请各位前辈和同行不吝指正,以便不断改进与提升。

扩展阅读:Apple Intelligence 面面观:「果味」模型是怎样炼成的?

 

> 关注 少数派公众号,解锁全新阅读体验 📰

> 实用、好用的 正版软件,少数派为你呈现 🚀

    苹果与谷歌已正式确认,下一代 Siri 将采用 Gemini 模型与 Google Cloud,双方达成一项为期多年的合作。
    此前,苹果一直为 Siri 使用自研 AI 模型,但在性能上与 GPT、Gemini 甚至 Copilot 相比都显得力不从心。
    如今,苹果与谷歌开启了多年合作。作为合作的一部分,未来版本的 Siri 将基于 Gemini 模型 运行。
    此外,苹果的 Foundation Models(基础模型) 将以谷歌的 Gemini 为底层,并部署在谷歌云平台上。

    谷歌在一份新闻稿中表示:

    “这些模型将为未来的 Apple Intelligence 功能提供支持,包括将于今年推出的更具个性化的 Siri。”

    苹果方面称:

    “经过审慎评估,苹果认为谷歌的 AI 技术为 Apple Foundation Models 提供了最强大的基础,并对其将为苹果用户带来的创新体验感到兴奋。”

    苹果强调,Apple Intelligence 将在苹果设备与 Private Cloud Compute(私有云计算) 上运行,公司长期坚持的隐私承诺 不会受到任何影响

    Apple Intelligence 的发展历程一直充满波折

    Siri 问世至今已超过十年。尽管它曾是最优秀的 “个人助手” 之一,但如今的大型语言模型(LLMs)在能力上已远超苹果的实现。
    在 2024 年的 WWDC 上,苹果宣布正在开发 Apple Intelligence,其中也包括一个更具 AI 能力的 Siri,例如支持个人上下文理解与屏幕内容感知。
    然而,这些功能一再延期。
    部分功能最终上线,但用户抱怨 Apple Intelligence 的准确性不佳,在执行复杂指令时经常失败。
    尽管苹果的 AI 体验本应以 “安全” 和 “隐私友好” 为卖点,但最终呈现的初始体验却远未达到革命性的高度。
    如今,苹果与谷歌合作,借助 Gemini 升级 Siri 体验。但这是否能实现苹果曾经承诺的那种革命性突破?只有时间能给出答案。

    Google 公布 UCP 通用商务协议

    近日,Google 联合沃尔玛、Shopify、Etsy 等零售巨头制定了有关 AI 购物代理的新型标准 UCP(Universal Commerce Protocol),在 NRF 全美零售联合会上正式发布。UCP 是一种新的开放标准,可统一数字商务,Google 计划在未来在其搜索引擎以及 Gemini 中集成 UCP 的相关业务,方便用户在搜索或是与 AI 对话时可以更加精准且快速的找到自己心仪的商品,并且无需跳转即可使用 Google Pay 完成购物流程。值得一提的是,本次大会上,沃尔玛也正式宣布将与 Google 展开合作,让消费者通过 Gemini 便可以在沃尔玛以及山姆中进行商品的选购,该业务率先将在美国地区推出,后续将会拓展至全球市场。来源


    Apple 与 Google 就 AI 模型达成合作

    1 月 12 日,Google 与 Apple 发布联合声明,双方已开展一段多年合作,下一代 Apple Foundation Models 将基于 Google Gemini 大模型与云端技术。这些模型将为 Apple Intelligence 功能与今年晚些时候上线的更加个性化的 Siri 提供支持。声明称 Apple 在审慎考量后认为 Google 的 AI 技术与 Apple Foundation Models 最为适配,同时 Apple Intelligence 不会改变本地运行与 Private Cloud Compute 等隐私承诺。此前的爆料中,有消息称 Apple 为接入 Gemini 每年支付 Google 约 10 亿美元,新 Siri 使用的模型参数量为 1.2 万亿等。声明发布后,马斯克在 X 发表评论说考虑到 Google 还拥有 Chrome 与 Android,这像是一次「不合理的权力集中」。来源


    闲鱼推出潮玩寄卖业务「鱼鲤购」

    近日,闲鱼「悄然」上线旗下潮玩寄卖业务「鱼鲤购」,闲鱼官方会针对卖家的商品进行检验。鱼鲤购严控官方直发商品,确保正品可溯源。宝贝由卖家在品牌官方渠道(如官方 APP / 小程序 / 天猫旗舰店)下单改地址寄至仓库或由闲鱼认证品牌方直接发货入仓。并且从收货质检、入仓上架、售出拣选到打包发货,仓内全程均有视频记录,专业流程提供安心保障。为了避免玩家去玄学抽奖,鱼鲤购的在售宝贝都是检验后的确认款,不必盲抽。此外,商品由卖家自主定价,平台对比后实时展示每个商品的当前最低售价,也便于玩家更好比价购买。来源


    Anthropic 宣布上线 AI 医疗服务

    Anthropic 于 1 月 11 日正式宣布,旗下AI 产品 Claude 将上线一项符合美国《健康保险流通与责任法案》要求的医疗服务,面向医院、医疗机构和个人用户开放,用于处理受保护的健康数据。同时 Claude 已整合多种科学数据库,并增强了对生物医学研究的支持能力。在面向个人用户的功能方面,用户可通过 Anthropic 从苹果健康和 Function Health 等应用导出自身健康数据,从而更高效地整理医疗记录,并与医疗服务提供方共享。Anthropic 表示,美国大型非营利医疗系统之一 —— 班纳健康系统已有超过 22000 名临床人员在使用 Claude,其中 85% 认为工作效率和准确性有所提升。公司还在与诺和诺德和斯坦福医疗等机构展开合作。另外其医疗相关回答均基于 PubMed 和 NPI 注册库等权威来源提供引用支持,且不会使用医疗用户数据来训练模型。来源


    OpenAI 收购 AI 健康公司 Torch

    1 月 13 日,OpenAI 宣布收购 AI 健康公司 Torch。Torch 成立不满一年,发布有一款 Torch iOS app,该应用旨在将医院实验室检查、用药情况、可穿戴设备、消费者直购检测业务等医疗健康情况归于一处,为接入的 AI 服务提供统一的医疗记忆。Torch 团队的四位创始人将加入 OpenAI,有知情人称交易价格是超过一亿美元的股权。来源


    Google 移除特定医疗关键词搜索的 AI 总结功能

    近日,《卫报》在测试 Google 推出的 AI 总结功能时,发现 Google 对某些涉及医疗方面的关键词,如特定的几项血检肝脏指标做出的总结,会忽略对这些指标而言非常重要的条件等内容,直接给出数字。《卫报》采访的专家认为其中有些总结带有误导性,可能导致搜索者误判自己的健康状况。在该报道发布后,Google 悄悄移除了相关关键词的 AI 总结功能。Google 发言人称不会对单独的移除发表评论,但当 AI 总结功能失当时,Google 会做出广泛的改善,并在必要时在他们的政策框架下采取措施。来源


    Instagram 因系统漏洞误发数百万封密码重置邮件

    上周末,全球数百万用户收到来自 Instagram 的密码重置邮件。有安全机构与媒体指出 Instagram 或有信息泄漏问题。Meta 回应称,系统存在一个漏洞,允许外部第三方绕过正常的验证流程,针对部分 Instagram 用户批量发起密码重置请求。由于请求看起来是合法发起的,系统便自动向受影响用户的注册邮箱发送了真实的重置邮件。同时 Meta 强调,这仅仅是触发重置邮件的漏洞,并不意味着 Meta 的内部系统遭到了非法侵入,它们已定位到该问题并完成了修复,收到邮件的用户可以直接忽略邮件。来源


    国内首款 3D 打印航空发动机完成试飞

    据人民日报报道,由中国航空发动机集团有限公司湖南动力机械研究所研发的 3D 打印制成的涡喷航空发动机在陕西定边县试飞成功。这也是我国自主研制的首款 3D 打印涡喷航空发动机,填补了国内发动机整机 3D 打印工程应用的空白。而在过去减材制造要对整块原料切削加工,会造成材料浪费,而 3D 打印是增材制造,材料利用率高达 90% 以上。并且可实现迷宫式冷却通道、一体化承力结构等传统加工工艺无法完成的精密设计,设计更加开放灵活。此外,3D 打印技术无需调整生产线,即可切换不同产品,小批量、定制化生产能将研发周期缩短 30% 以上。来源


    看看就行的小道消息

    • 本次 CES 2026 上高通正式发布了旗下骁龙 X2 Plus 芯片,该芯片搭载第三代 Oryon CPU,搭配了 Adreno X2-45 集成 GPU,集成了最新 Hexagon NPU。使得该芯片性能较前代有不小的提升,在功耗上也有大幅降低,并且在 AI 以及光追方面也有所均衡。根据目前爆料的 CineBench 跑分数据显示,目前单核表现上依旧是 Apple M4 芯片以 173 分的成绩领先 X2 Plus 的 133 分;而在多核表现方面,X2 Plus 则是以 1011 分险胜 Apple M4 的 993 分。来源
    • 根据微软最新发布的支持文档,Microsoft Lens 在 Android 和 iOS 平台的服务已自 2026 年 1 月 9 日起停止。自 2 月 9 日起,应用将不再得到支持,并将从 Google Play Store 和 Apple 的 App Store 中下架。用户仍可在 3 月 9 日之前继续扫描文档,在此之后将无法创建新的扫描请求,不过可以通过最后一次登录的微软账户访问旧有的扫描记录。微软建议用户转向 OneDrive 进行文档扫描。OneDrive 内置了扫描功能,用户只需点击应用界面底部的 + 图标即可访问。不过,OneDrive 不能将扫描结果保存在本地,而是将其存储在云端。来源
    • Google 确认今年晚些时候发布的 Chrome 150 将是支持 macOS 12 Monterey 的最后一个版本。来源
    • 因澳大利亚禁止 16 岁以下未成年人使用社交媒体,Meta 自 12 月 11 日起已移除 544052 个未成年人账号,其中包括 33 万 Instagram 账号、17 万 Facebook 账号与近 4 万 Threads 账号。来源
    • 据爆料人冰宇宙,三星将在 S27 Ultra 上采用新的主摄传感器 S5KHP6,该传感器尺寸与 2023 年发布的 HP2 相同。来源
    • 微软宣布即刻退役 2003 年发布的 Windows 企业部署工具 Microsoft Deployment Toolkit(MDT),软件将停止支持、撤下下载包,未来也不再有兼容性更新。来源


    少数派的近期动态

    • 年末「夯」一下!少数派 2025 年度盘点正式上线
    • 少数派会员年终福利来袭,引荐比例限时上调至 15%,邀请好友享 85 折入会优惠。参与活动
    • 好玩又实用,还有迪士尼授权配件可选,少数派「扭扭宝」充电宝火爆开售。来一个试试
    • GAMEBABY for iPhone 17 Pro & 17 Pro Max 系列现已上市。进一步了解
    • 《蓝皮书》系列新版上架,一起探索全新 iOS 和 macOS 的精彩。试读并选购

    你可能错过的文章

    > 下载 少数派 2.0 客户端、关注 少数派公众号,解锁全新阅读体验 📰

    > 实用、好用的 正版软件,少数派为你呈现 🚀