Apple Intelligence 是为 iPhone、iPad 和 Mac 带来强大生成模型的个人智能系统。对于需要使用大模型处理复杂数据的高级功能,我们创建了私有云计算 (PCC),这是一个专为私有 AI 处理而设计的突破性云智能系统。私有云计算首次将 Apple 设备业界领先的安全性和隐私保护扩展到云端,确保发送到 PCC 的个人数据除了用户本人之外,任何人都无法访问——甚至 Apple 也无法访问。PCC 采用定制的 Apple 芯片和专为隐私保护而设计的强化操作系统构建,我们相信它是迄今为止部署用于大规模云 AI 计算的最先进的安全架构。
看起来这确实是化解隐私数据出端被泄露风险的好办法。但关键在于,这项技术是否已经真正落地到苹果手机里?我们在使用云端的 AI 时,发送出去的内容真的只有我们自己能看到吗?
本文带大家分析 BH USA 2025/Defcon33 的议题:AppleStorm - Unmasking the Privacy Risks of Apple Intelligence,分析Siri 隐私数据出端可能导致的隐私泄露风险。
在数据包都能抓到以后,我们来看看不同的场景下,都有哪些数据被 Siri 上传到云端了,以及传输是否做好了加密。
隐私数据出端泄露风险
在开始测试之前,作者预先关闭了系统中的"学习应用习惯以提供智能建议"等个性化功能,避免非必要请求干扰测试,确保在使用 Siri 时捕获的数据包为最小必要集合。
场景一:上云功能
以天气查询为例,询问 Siri What is the weather in Las Vegas?,手机所在的经纬度位置、手机里的天气相关的 APP名称(甚至如果手机里安装了虚拟机,里面天气相关的 APP 都会被找出来)、手机播放列表正在播放的内容信息都会被发送给搜索服务的主机:api-glb-ause1c.smoot.apple.com。此外,手机里当前打开的 APP列表会被发送到听写请求服务器:guzzoni.apple.com。
一个简单的天气询问,提供给云端的信息量已经远远超出于解决该问题所需的内容。
上述这些隐私数据,用户只能控制位置信息是否提供给 Siri,其他的隐私数据都是被悄悄发送到云端了。除了天气搜索外,在使用 Siri 进行计算、在线搜索、文章搜索时,也都会上传类似的数据。
并且,这些请求并没有经过隐私云计算处理,攻击者拦截到数据后可以轻易查看其中的内容。
场景二:端侧功能
对于发送消息、邮件、日历这些端侧功能,Siri 总没有必要再把数据传到云端了吧?
抓包发现,手机里当前打开的 APP列表和当前播放内容的信息仍然会被发送到 guzzoni.apple.com 这个听写服务器。更要命的是,在使用 Siri 发送消息的功能时,像发送 iMessage、发送消息到 WhatsApp,发送的信息的内容以及目标联系人,都会发送给 guzzoni.apple.com 一份。
风险总结如下:
风险来源与消解措施
隐私数据为什么上云?为什么 PCC 没落地?
苹果官方的回应是:上述 smoot 和 guzzoni 服务是给 Siri 用的,而不是 Apple Intelligence,PCC 是用来保护 Apple Intelligence的,像 Writing Tools、Extensions-ChatGPT这些功能。
PS:可是 Siri也能调用 Apple Intelligence的功能,这样同一个 APP有两条上云链路、两套隐私保护政策,本身就很不合理。
使用 Siri 发消息,为什么会传给云端?
实验证明是苹果给开发者提供的 SiriKit导致的问题,苹果后续将考虑修复该问题。
如何消解风险?
guzzoni听写服务对正常功能没有影响,可以屏蔽掉相关的请求(如果可能的话)。
启发
像苹果 Siri这种不安全的传输用户隐私数据的风险,应该是智能手机当前面临的共同问题。不管是为了提高用户的智能体验,亦或仅仅是上传了日志,都有可能在使用 AI 时不安全的上传了用户的隐私数据。
不管是苹果手机还是安卓手机,对系统级别 APP 抓包的管控越来越严格,安全研究人员和普通用户在使用 AI 时,对隐私数据使用透明化的需求越来越高。希望手机厂商在未来做好AI隐私数据使用的透明化和安全保护。
Apple Intelligence,又称 Apple 智能,俗称「苹果 AI」,发布(WWDC24,2024 年 6 月)已有一年半的时间,从 iPhone 15 Pro 系列开始境外开发者 Beta 测试,到 iPhone 16 全系以 AI 作为主要卖点时国行仍为「为 Apple 智能预备好」状态,再到 iPhone 17 全系国行激活数量超千万(2025 年 11 月),目前国行 Apple 设备依旧停留在「为 Apple 智能预备好」的阶段。
考虑到 2025 年 11 月底 Apple 短时间内上线又下线的简体中文 Apple Intelligence 问卷,以及各路小道消息暗示 Apple Intelligence 上线国行 Apple 设备的前期工作已经接近尾声,也是时候再来聊聊 Apple Intelligence 了。
目前在国行设备上「体验」Apple Intelligence 的方式有限,由于 Apple Intelligence 在国行设备的长期缺席,大多数用户只能通过有限的视频演示或是图文介绍等方式了解,对其认识可能不够系统、全面、客观,甚至存在一些误区;国行 Mac 可以通过脚本启用 Apple Intelligence,但过程中需要关闭系统完整性保护(SIP),也可能会给系统带来风险,这种方法对普通用户而言存在一定的操作门槛;Misaka26 利用已知漏洞,可以在 iOS/iPadOS 26 Beta 1 及更低版本的设备上,修改销售地区和型号版本来启用 Apple Intelligence,但此举会导致设备面临概率性变砖、丢失全部数据、失去保修等风险,且该漏洞已在 iOS/iPadOS 26 Beta 2 上修复。
故通过以上方式开启了 Apple Intelligence 功能的国行设备暂不在本文的讨论范围。
本文旨在尝试用通俗易懂的语言,从技术角度出发解释 Apple Intelligence 的设计架构、选型合理性以及现阶段所面临的困境,尽最大可能为大家提供一个更全面、更系统理解 Apple Intelligence 的视角。
Apple Intelligence 的架构
虽然本文并不是要介绍「什么是 Apple Intelligence」,但要正确理解 Apple Intelligence 我们还是不可避免地要看看它的架构,最直观、最高效的呈现方式是下图:
不难发现,一些误区例如「Apple Intelligence = 接入 ChatGPT」「Apple 与 Open AI ChatGPT 合作才推出了 AI 功能」中的 ChatGPT,其实压根儿不是 Apple Intelligence 的组成部分,至少不是狭义上 Apple Intelligence 的组成部分。
那么 Apple 为何如此设计 Apple Intelligence?Apple 所指的设备端侧和云端又是怎样分工、怎样协作的?下文将逐步回答这些问题。
「个人智能」的愿景
要讨论 Apple 为何如此设计 Apple Intelligence,我们必须先探讨 Apple 试图解决什么问题。
在 Apple 的视角里,2023 年(Apple Intelligence 发布的前一年)的 AI 浪潮虽然喧嚣,但当时的 AI 工具对普通用户而言,普遍存在三个主要的体验断层:
「AI 孤岛」造成的数据割裂。2023 年的 AI 在形式设计上大多无外乎两种——独立的 App 或网页,当你需要 AI 帮你处理工作时,你需要把邮件里的内容拷贝出来粘贴给 AI,再将 AI 的回复拷贝粘贴回邮件。
缺乏个人语境。如果一位用户尝试询问 ChatGPT 自己下午是否有空,ChatGPT 将无法回答,因为 ChatGPT 之类的 AI 并没有获取个人日历日程的权限,也不认识用户的朋友或是同事,通用模型拥有海量的世界知识(World Knowledge),但对于用户本身却一无所知。
「隐私焦虑」与「云端算力」存在矛盾。承接上一点问题,用户如果需要获得通用 AI 的智能,则需要牺牲一定的隐私数据上传云端。
Apple 在意的是用户体验的连贯性、软硬结合以及用户隐私保护,因此自然不会满足于已有的 AI 方案。不久前微软 Windows 部门的高管表示要进一步推广 Copilot,将 Windows 打造成「智能体操作系统」(链接)。这一言论引来了大波用户的批评和反对,也证明强行将「聊天机器人」式的 AI 大模型同操作系统各处随意缝合并不是可行之路。
客观上来说,AI 算力设备采购不足以及从 Google 转来的前机器学习与 AI 策略主管 John Giannandrea,彼时并未深度融入 Apple 团队、与 Apple 文化/理念不合,也导致了 Apple 难以拿出与竞争对手匹敌的云端大模型;但或许也是「塞翁失马」,大模型方面的弱势促使 Apple 进一步深入技术、仔细思考「什么才是普通用户都想用的 AI」这个问题,避免了重复造「大模型」轮子。
在明确了针对问题的对应解法,以及对于 AI 模型的要求之后,我们不难发现:即便基于现有的 AI 大模型方案稍加改良修剪,也无法满足 Apple 的需求。从零开始打造 Apple Intelligence 势在必行。
于是 Apple 选择避开与科技巨头在通用大模型参数上的军备竞赛,转而利用其在芯片、操作系统和隐私安全上的自身优势,去构建一个服务个人、与系统深度集成、端侧优先、隐私至上的混合 AI 架构。Apple Intelligence 没有追求万亿级的参数量,而是选择一条更为艰难但务实的道路:端云协同、以端为主。
可以说 Apple 是用短期技术上的劣势,去验证长期上「个人智能」使用场景路线的可行性。
Apple Intelligence 设计的合理性
Apple 选择将端侧模型作为主力,那么现在的 Apple Intelligence 设计合理吗?
要回答这个问题,我们应该要关注 Apple Intelligence 是否达成了上一节提及的、解决 AI 大模型弊病的目标。
设计目标在实现上的合理性
首先是与系统各处的无缝集成。
目前,写作工具可以在几乎所有地方(有文本框的地方)唤出使用、智绘表情几乎能在所有可以发送 emoji 的位置创作 Genmoji,信息、邮件、备忘录、照片以及提醒事项等众多第一方应用都能见到 Apple Intelligence 的影子。用户不需要为了使用 AI 而打断当前的工作流,AI 不再是喧宾夺主的中心,而是「如影随形」的辅助。
第二是多模态。
写作工具、通知总结、邮件智能回复等功能代表 Apple Intelligence 处理文本内容方面的能力,而图乐园、智绘表情、图像魔法棒等则意味着图像内容的能力。然而语义索引功能,即 Apple Intelligence 最重要的功能之一——基于个人场景的情景智能迟迟未能上线,的确令人失望。
第三是全新的计算架构。
在文章开头我们了解到 Apple Intelligence 中间是「个人智能系统」层,主要有「端侧模型」和「云端模型」两部分,且这两部分都是由 Apple 开发并运行在搭载 Apple 芯片的用户设备/Apple 服务器上;同时我们又已知 Apple Intelligence 能本地解决就不上云的策略,端侧模型能够保证个人数据全部在本地处理,并不会被上传到云端遭受数据泄露的风险。
这里一个最典型的例子是,前段时间基于努比亚 M153 的豆包手机助手技术预览版技惊四座,但频繁截图上传服务器推理的运作方式也令大量用户质疑其隐私安全性。在科技媒体 Android Authority 近日对 ARM 的采访中,ARM 高管 Chris Bergey 也完全认同基于端侧 AI 发展方向。
如果用户最关心的操作无法在本地解决,那 Apple 又是怎么设计云端的呢?这里就引出了 Private Cloud Compute(私有云计算,下文简称 PCC)。
不幸的是,现实中许多人并不一定擅长将自身需求描述清楚,在这样的情况下很难指望 AI 模型输出高质量的结果。因此云端大模型(尤其指「聊天机器人」式的依赖提示词驱动的 AI)并不适合所有人使用。对于大众用户而言,低学习成本的 AI 才是最好的 AI,要求所有人都写长长的提示词可能并不是现代个人 AI 助手的正确发展方向。
目前 iOS 设备已在全球售出超 20 亿台,iOS 覆盖的用户群极为庞大。尽管这其中并非所有设备都支持 Apple Intelligence,但 Apple Intelligence 有潜力触及到的用户规模仍在不断增长。要为世界级用户规模的操作系统无缝地集成 AI 方面的能力,就必须赋予易用性很高的优先级。
事实确实如此,我们看到 Apple Intelligence 是生长在系统里的,不需要用户费尽心思编写提示词。Apple Intelligence 将 AI 能力拆解为具体的 UI 控件。例如在邮件应用中,它并不是给用户一个对话框让用户输入「帮我把这封信的语气改得更专业」,而是直接提供了一个 [重写] 或 [专业的语气] 的按钮;而在邮件的快速回复中,AI 已经提前阅读了对方发来邮件的内容,并针对可能的回复内容设计了易于选择的选项,用户只要快速点选几个选择就可以得到大差不差的一篇智能回复;又譬如图乐园 App,用户不需要编写冗长的生图提示词,而是可以在上方直接选择生图风格、下方选择内容主题,如需为图片添加更多细节,只需在下方简单输入几个关键词即可。
架构设计与伦理上的合理性
通常 AI 模型会对内存、算力提出很高的要求,功耗也是端侧运行模式下重要的考虑因素。Apple 的做法不是加载一个巨大的通用模型,而是先加载一个核心底座模型(Base Model),然后根据任务动态挂载微小的适配器(Adapters):需要处理文本时,系统加载「写作适配器」;涉及图像处理时,系统加载「图像适配器」。
这样的做法有效避免了庞大模型在内存中的长时间驻留,节省了系统内存占用,又有可控的能耗表现。
在将 AI 封装为确定功能选项实现 AI 易用化的同时,Apple Intelligence 虽然损失了 AI 的多种可能性,但同时也给用户带来了可控性。这种可控性使得 Apple Intelligence 符合伦理、避免幻觉(参考 Google AI 曾建议用户「吃石头」、微软警告用户 Win11 的 AI 智能体可能出现「幻觉」现象),也降低了被注入攻击的风险,是一种克制下的安全。
事实上,Apple 在生成式内容上表现得非常谨慎,更多聚焦于「改写」、「总结」已有信息,而不是「凭空创作」。作为拥有超 20 亿活跃设备的厂商,用稳健的 AI 策略来避免 AI 胡言乱语可能更加稳妥。对于面向大众用户的产品而言,也许「不出错」比「惊艳但会发疯」更重要。
商业上的合理性
最后浅谈一下 Apple Intelligence 的商业策略。
在 AI 的大潮下,大量企业都在亏钱做 AI。这是由于大部分企业都押注大模型、云计算,例如 OpenAI 和 Google 为了应对不断增长的请求,需要不断扩展服务器计算卡的规模,同时负担持续上涨的电费;不仅如此,OpenAI 还在用户侧限制使用额度、推出更为细分的 Plus(20 美元/月)和 Pro(200美元/月)计划,不断提高 AI 的入场门槛。
而 Apple Intelligence 的架构设计则可能形成目前最为可持续的 AI 商业模式。Apple Intelligence 的计算主力在用户端,即用户设备中的 Apple 芯片。这使得 Apple 能够专注于 Apple Intelligence 本身的功能开发,并以极低的边际成本提供 AI 服务。即便 Apple Intelligence 也有私有云计算服务,相比起纯云端 AI 服务供应商,Apple 也不需要在云端服务器方面持续大量烧钱。
有报道称,OpenAI 正在试图构建属于 ChatGPT 的应用商店,通过将第三方 App 能力接入到 ChatGPT 的形式,用户可以让 GPT 完成原先需要手动操作的功能。然而目前接入到 ChatGPT 的应用数量比较有限,许多已经接入的应用与大模型配合工作的效果也不太理想。而时至今日 Apple 的 App Store 已经坐拥数百万款 App,如果 App 的开发商能够适配 Apple Intelligence 未来的情景智能功能,Apple 的各系统平台更有机会在更短的时间内形成一个 AI+App 的生态。
GPT 使用 OpenTable 时出错
另据多方媒体消息,OpenAI 也在积极开发各类硬件产品,意在融入公司已有的 AI 能力,试图将旗下的 AI 推广至更广阔的用户群体。这似乎暗示了软件或服务必须要依赖硬件载体才能获得更好的发展。软硬结合对 Apple 来说则是一贯的强项,Apple Intelligence 的定位是服务好系统、服务好硬件的务实功能,而不是用于拉高公司市值的叙事手段。
Apple Intelligence 可以依托既有的成熟硬件(iPhone、iPad、Mac 等)、成熟系统(iOS、iPadOS、macOS 等),通过系统更新就能实现更广的覆盖和更高效的用户触达,降低了用户使用的门槛;同时 Apple Intelligence 又融于系统的方方面面,它不仅仅是一种「能力」,更是一种「体验」。
Apple Intelligence 推出至今虽有针对其功能方面的批评,但未见大规模的反对声音或者有关从系统当中彻底移除 Apple Intelligence 功能的讨论。至此我们可以下一个结论:虽然 Apple Intelligence 目前上线的功能仍有不全之处,但是其设计理念和思维总体瑕不掩瑜;Apple 通过工程化手段、硬件垂直整合和隐私架构创新,在功耗、隐私、性能和体验之间找到了一个平衡点。
Apple Intelligence 目前的困境
既然 Apple Intelligence 在技术选型和实现上总体是合理的,那么为什么如今对于 Apple Intelligence 的主流评价是喜忧参半的呢?
前文提到,Apple Intelligence 将多种能力封装为确定性功能选项提高了 AI 工具的易用性,但这也使得 Apple Intelligence 具有明显的边界——选项里的操作全部可用,选项外的可能性一概没有。用户以 Apple 所构画的方式使用 Apple Intelligence 时可以获得流畅连贯的体验,而一旦用户的需求超出了可选项的范围则需要寻求其他方案,就会导致使用体验出现一个明显的割裂。
因此平衡易用性与工具能力是 Apple 需要面对的难题。Apple 或许应逐渐提供更多的选项,亦或是将 Apple Intelligence 在某些方面设计成半开放形式,允许用户在一定范围内进行渐进式的需求明确。
短时刺激与长期发展的矛盾
在云端 AI 大模型领域,每个季度甚至每个月都有新的更强的模型/更好的应用出现。这样的更新节奏不断刺激着用户,并在媒体的进一步催化下,普通用户逐渐习惯于快节奏的模型迭代和不断刷新认知的模型能力上限。
相比之下,受限于 Apple Intelligence 的定位(集成于系统各处的功能)和其本身的迭代节奏,Apple 难以高频率地拿出各不相同又抓人眼球营销材料,让用户直观感受到 Apple Intelligence 的变化。因此验证长期上「个人智能」使用场景路线的可行性,与满足短期刺激上的矛盾在一时间可能无法调和。
而若从同样的视角看,Apple Intelligence 的营销则是预期管理失误。Apple 的高管在 WWDC 2024 上详细展示了Apple Intelligence 的所有能力,甚至包括技术团队从 Keynote 演示中首次得知的某些功能。尽管对于 Apple 而言,在 AI 浪潮的压力下急于推出解决方案、回应市场需求的做法存在一定的合理性,但这一详细的展示无疑过度拉高了用户对于 Apple Intelligence 的预期值,以至于当用户实际体验 Apple Intelligence 时,演示内容与实际落地功能之间的落差令用户感到失望。
雪上加霜的是,WWDC 2024 上所展示的重头戏——基于个人场景的情景智能时至今日仍未落地,进一步影响了 Apple Intelligence 的口碑。
一些误区
Apple Intelligence 就是套壳的 ChatGPT?
这可能是最大的误解。前文已经展示了 Apple Intelligence 的架构,它是一个完整的、多层次的技术栈,包含了:
端侧模型(On-device Model):处理绝大多数日常、高频、隐私敏感的任务。
私有云计算(Private Cloud Compute):处理端侧算力不足的中等复杂度任务。
ChatGPT 至少并不是狭义上 Apple Intelligence 的组成部分,而只是一个可选的第三方扩展。真正的核心智能则完全由 Apple 自研模型驱动。
Apple 需要放弃隐私才能换来 AI 能力的提升?
有人认为 AI 需要海量的数据来训练和调优,Apple 在严格的隐私数据保障情况下无法提升 AI 的能力。
在这里广泛的「数据」概念不能同「隐私数据」混为一谈,并且 AI 的发展与个人的隐私数据理论上不存在对立关系。个人数据是隐私(Privacy),而互联网上公开领域的数据很多是知识(Knowledge)。
用知识来训练 AI 是行业共同的方式,至于 Fine tuning 微调,理论上也不需要个人数据。因为生的(Raw)训练数据要做标记、要经过清洗等前处理才能利用。可以借助已有的 AI 来生成标准化的「伪个人数据」(pseudo data)提高效率。
其次 Apple Intelligence 的主力是端侧模型,能有效保证推理过程中需要用到的敏感数据全部保存在本地。而私有云计算(Private Cloud Compute)则是通过独特的架构设计和开放安全审查保证个人隐私不会妥协。
Apple Intelligence 由于云端模型国内合作伙伴的问题,导致无法落地?
前文已经展示了 Apple Intelligence 的架构,云端模型并非狭义上 Apple Intelligence 的组成部分,且国内已备案商用的云端大模型已有许多选择,并不构成 Apple Intelligence 落地的障碍。
Apple 在 AI 方面已经远远落后?
结合前文的讨论理性地来看,Apple Intelligence 与其他厂商在 AI 领域走不是同一个方向/赛道。
Apple Intelligence 不是一个仓促上马的 App /「聊天机器人」,而是对 iOS、iPadOS 和 macOS 方方面面能力的深度改进;它将 AI 变成了像文件系统、网络协议一样的基础设施。
其他厂商在 AI 大模型本身领先,而 Apple 则是聚焦于软硬结合,专注于个人智能系统的布局。
尾声
作为一名技术爱好者,剥离营销术语、探索底层技术架构是令人兴奋的。
Apple Intelligence 的出现,意味着 AI 不一定是一种需要用户主动探索的「工具」,而可以是一种无处不在的「能力」。Apple Intelligence 不是成为最会写诗的 AI,但它很有可能是第一个真正了解你、尊重你,并且能默默完成日常任务的 AI——然而不完整的落地功能、失误的预期管理也让 Apple Intelligence 暂时不能让人完全满意,对 Apple 而言实现美好的 AI 蓝图还有很长的一段路要走。
近日,Google 联合沃尔玛、Shopify、Etsy 等零售巨头制定了有关 AI 购物代理的新型标准 UCP(Universal Commerce Protocol),在 NRF 全美零售联合会上正式发布。UCP 是一种新的开放标准,可统一数字商务,Google 计划在未来在其搜索引擎以及 Gemini 中集成 UCP 的相关业务,方便用户在搜索或是与 AI 对话时可以更加精准且快速的找到自己心仪的商品,并且无需跳转即可使用 Google Pay 完成购物流程。值得一提的是,本次大会上,沃尔玛也正式宣布将与 Google 展开合作,让消费者通过 Gemini 便可以在沃尔玛以及山姆中进行商品的选购,该业务率先将在美国地区推出,后续将会拓展至全球市场。来源
Apple 与 Google 就 AI 模型达成合作
1 月 12 日,Google 与 Apple 发布联合声明,双方已开展一段多年合作,下一代 Apple Foundation Models 将基于 Google Gemini 大模型与云端技术。这些模型将为 Apple Intelligence 功能与今年晚些时候上线的更加个性化的 Siri 提供支持。声明称 Apple 在审慎考量后认为 Google 的 AI 技术与 Apple Foundation Models 最为适配,同时 Apple Intelligence 不会改变本地运行与 Private Cloud Compute 等隐私承诺。此前的爆料中,有消息称 Apple 为接入 Gemini 每年支付 Google 约 10 亿美元,新 Siri 使用的模型参数量为 1.2 万亿等。声明发布后,马斯克在 X 发表评论说考虑到 Google 还拥有 Chrome 与 Android,这像是一次「不合理的权力集中」。来源
Anthropic 于 1 月 11 日正式宣布,旗下AI 产品 Claude 将上线一项符合美国《健康保险流通与责任法案》要求的医疗服务,面向医院、医疗机构和个人用户开放,用于处理受保护的健康数据。同时 Claude 已整合多种科学数据库,并增强了对生物医学研究的支持能力。在面向个人用户的功能方面,用户可通过 Anthropic 从苹果健康和 Function Health 等应用导出自身健康数据,从而更高效地整理医疗记录,并与医疗服务提供方共享。Anthropic 表示,美国大型非营利医疗系统之一 —— 班纳健康系统已有超过 22000 名临床人员在使用 Claude,其中 85% 认为工作效率和准确性有所提升。公司还在与诺和诺德和斯坦福医疗等机构展开合作。另外其医疗相关回答均基于 PubMed 和 NPI 注册库等权威来源提供引用支持,且不会使用医疗用户数据来训练模型。来源
OpenAI 收购 AI 健康公司 Torch
1 月 13 日,OpenAI 宣布收购 AI 健康公司 Torch。Torch 成立不满一年,发布有一款 Torch iOS app,该应用旨在将医院实验室检查、用药情况、可穿戴设备、消费者直购检测业务等医疗健康情况归于一处,为接入的 AI 服务提供统一的医疗记忆。Torch 团队的四位创始人将加入 OpenAI,有知情人称交易价格是超过一亿美元的股权。来源
Google 移除特定医疗关键词搜索的 AI 总结功能
近日,《卫报》在测试 Google 推出的 AI 总结功能时,发现 Google 对某些涉及医疗方面的关键词,如特定的几项血检肝脏指标做出的总结,会忽略对这些指标而言非常重要的条件等内容,直接给出数字。《卫报》采访的专家认为其中有些总结带有误导性,可能导致搜索者误判自己的健康状况。在该报道发布后,Google 悄悄移除了相关关键词的 AI 总结功能。Google 发言人称不会对单独的移除发表评论,但当 AI 总结功能失当时,Google 会做出广泛的改善,并在必要时在他们的政策框架下采取措施。来源
Instagram 因系统漏洞误发数百万封密码重置邮件
上周末,全球数百万用户收到来自 Instagram 的密码重置邮件。有安全机构与媒体指出 Instagram 或有信息泄漏问题。Meta 回应称,系统存在一个漏洞,允许外部第三方绕过正常的验证流程,针对部分 Instagram 用户批量发起密码重置请求。由于请求看起来是合法发起的,系统便自动向受影响用户的注册邮箱发送了真实的重置邮件。同时 Meta 强调,这仅仅是触发重置邮件的漏洞,并不意味着 Meta 的内部系统遭到了非法侵入,它们已定位到该问题并完成了修复,收到邮件的用户可以直接忽略邮件。来源
国内首款 3D 打印航空发动机完成试飞
据人民日报报道,由中国航空发动机集团有限公司湖南动力机械研究所研发的 3D 打印制成的涡喷航空发动机在陕西定边县试飞成功。这也是我国自主研制的首款 3D 打印涡喷航空发动机,填补了国内发动机整机 3D 打印工程应用的空白。而在过去减材制造要对整块原料切削加工,会造成材料浪费,而 3D 打印是增材制造,材料利用率高达 90% 以上。并且可实现迷宫式冷却通道、一体化承力结构等传统加工工艺无法完成的精密设计,设计更加开放灵活。此外,3D 打印技术无需调整生产线,即可切换不同产品,小批量、定制化生产能将研发周期缩短 30% 以上。来源
看看就行的小道消息
本次 CES 2026 上高通正式发布了旗下骁龙 X2 Plus 芯片,该芯片搭载第三代 Oryon CPU,搭配了 Adreno X2-45 集成 GPU,集成了最新 Hexagon NPU。使得该芯片性能较前代有不小的提升,在功耗上也有大幅降低,并且在 AI 以及光追方面也有所均衡。根据目前爆料的 CineBench 跑分数据显示,目前单核表现上依旧是 Apple M4 芯片以 173 分的成绩领先 X2 Plus 的 133 分;而在多核表现方面,X2 Plus 则是以 1011 分险胜 Apple M4 的 993 分。来源
根据微软最新发布的支持文档,Microsoft Lens 在 Android 和 iOS 平台的服务已自 2026 年 1 月 9 日起停止。自 2 月 9 日起,应用将不再得到支持,并将从 Google Play Store 和 Apple 的 App Store 中下架。用户仍可在 3 月 9 日之前继续扫描文档,在此之后将无法创建新的扫描请求,不过可以通过最后一次登录的微软账户访问旧有的扫描记录。微软建议用户转向 OneDrive 进行文档扫描。OneDrive 内置了扫描功能,用户只需点击应用界面底部的 + 图标即可访问。不过,OneDrive 不能将扫描结果保存在本地,而是将其存储在云端。来源
Google 确认今年晚些时候发布的 Chrome 150 将是支持 macOS 12 Monterey 的最后一个版本。来源