标签 数据中心 下的文章

Oracle 数据中心断电,引发 TikTok 大面积瘫痪

近日,短视频平台 TikTok 在美国出现了一次短暂的服务中断。值得玩味的是,这次中断的时间点,恰好卡在 TikTok 刚完成一项美国业务重组安排之后。

 

根据这份重组安排,由 Oracle 与一组美国本土投资者共同组建的新合资实体,将接管 TikTok 在美国的运营相关事务,并被称为 TikTok USDS。

 

TikTok USDS 承诺将用户数据通过 Oracle 公司拥有的数据中心进行传输。

 

刚重组完没几天,TikTok 就出现了大面积瘫痪,许多美国用户反映,他们无法上传视频到 TikTok,也无法观看大多数新视频,包括美国以外用户成功上传的新视频。

 

另一些用户表示,他们的算法似乎“重置”了,但目前尚不清楚这是否也与停电有关。

 

事情不断发酵,逼得 TikTok USDS 不得不出面回应了。

 

TikTok USDS 发言人 Jamie Favazza 在给 The Verge 的一封电子邮件中指出,该公司在其新创建的 X 账户上发布了一份声明,声明称,由于美国数据中心发生电力中断,影响了 TikTok 和我们运营的其他应用程序,公司一直在“努力恢复服务”。

既然问题出在了数据中心,数据中心当然也要出来回应。

Oracle 回应:完全怪天气

 

面对不断升温的质疑,Oracle 公司于当地时间 1 月 27 日通过电子邮件向媒体作出正式回应。

 

Oracle 发言人迈克尔·埃格伯特(Michael Egbert)表示,上周末美国遭遇的一场强烈冬季风暴,导致 Oracle 一处数据中心发生了暂时性停电,从而影响了 TikTok 在美国的服务。

 

“上周末,Oracle 数据中心因天气原因发生暂时性停电,影响了 TikTok 的服务。” 埃格伯特在声明中写道。他进一步解释称,美国 TikTok 用户在停电后所遇到的问题,主要源于恢复过程中出现的技术故障,目前 Oracle 正与 TikTok 合作,尽快修复相关问题。

 

这一回应明确否认了服务异常与内容审查之间存在直接关联,并将原因归结为基础设施层面的突发事故。Oracle 方面的说法,也与当时美国多地遭遇极端冬季天气的事实相吻合。

 

在随后的声明中,TikTok 指出,其工程团队正在持续推进恢复工作,并在 1 月 27 日表示,已在恢复美国系统方面取得“重大进展”,但仍提醒用户,某些技术问题可能在短期内持续存在,尤其是在发布新内容时。

作为此次事件中的关键基础设施提供方,Oracle 的角色也受到资本市场关注。

 

据 Benzinga Pro 报道,Oracle 公司股票在事件曝光当日收于 174.90 美元,下跌 4.13%,但在盘后交易中回升 1.16% 至 176.93 美元。Benzinga 的 Edge 股票排名显示,Oracle 股票在动量和价值维度上的评分均处于较低水平,反映出其在短期至长期内的价格趋势承压。

随着 TikTok USDS 合资企业逐步接管美国业务,其基础设施稳定性、内容审核机制以及与地方和联邦监管机构的互动方式,仍将持续受到审视。

网友:不只可以怪天气,还可以怪 AI

 

随着最终达成的合资协议,被外界普遍视为 TikTok 在美国“生死攸关”的一次妥协安排。

 

值得注意的是,此次技术中断发生之际,正值 TikTok 更新其美国隐私政策之后。新政策与合资架构调整相配套,但其中关于可能收集的数据类型的表述,引发部分用户不安。

 

市场情报公司 Sensor Tower 向 CNBC 提供的数据显示,在过去五天内,美国地区 TikTok 的每日应用删除量较此前三个月的平均水平增长了近 150%。

 

在 Reddit 上,一条关于 Oracle 数据中心与 TikTok 服务中断的帖子吸引了大量关注,不少网友在评论区提出了各类猜测、调侃与个人经验分享,这些反馈在一定程度上折射出技术社区对事件的怀疑态度,以及对 TikTok 内容机制与 Oracle 云服务能力的长期刻板印象。

 

一位 ID 名为transcriptoin_error的用户提出了一种“看似合理的推测”。

 

他认为,如果平台在系统中新增了内容过滤机制,那么在将相关流量迁移到新系统的过程中,确实有可能引发故障。他指出,在大规模系统迁移或数据转移时,出现配置错误或小规模失效并不罕见,尤其是在新旧系统并行、过滤规则叠加的情况下。

 

这条评论获得了数十次点赞,被不少用户视为“至少在工程逻辑上说得通”的一种解释,但评论者本人也并未声称这是事实,而是明确将其界定为推测。

 

在另一条高赞的长篇幅评论中,该用户进一步构建了一套完整但高度假设性的系统模型。

 

他设想,如果 TikTok 平台不愿直接改动现有代码,以避免引发更大规模的系统崩溃,那么新增的内容过滤功能很可能会被设计成一个独立服务,甚至可能基于人工智能模型运行。

 

在这种设想下,所有潜在“敏感内容”都会被发送至一个新的 AI 服务进行判断,只有在得到“允许发布”的反馈后,内容才会正常上线。

 

该用户进一步推测,如果这一 AI 服务发生宕机,而系统默认策略又是“未通过即阻止”,那么大量内容就可能被一并拦截,从而在用户侧表现为算法行为的“剧烈变化”。

 

这条评论虽然点赞不高,但在讨论中被多次引用,成为部分网友解释“为什么技术故障会影响内容分发”的逻辑模板。

 

也有网友对上述推测持明显怀疑态度。

 

一位在评论区拥有较高影响力的用户指出,至今仍然没有人能够清楚解释,为什么一次服务器层面的故障,会导致推荐算法或内容分发逻辑出现如此明显的变化。在他看来,如果问题仅限于数据中心断电或服务恢复过程中的技术瑕疵,那么算法层面的“性格突变”仍然缺乏合理解释

 

除了针对 TikTok 的讨论,Oracle 本身也成为 Reddit 用户情绪的集中投射对象。

 

一位用户直言,

 

“能力并非问题所在,科技圈里没人能忍受 Oracle。”

 

他还引用了一句在技术圈流传已久的说法:“Oracle 没有客户,只有囚犯。”这类评论并未直接指向此次事件的具体责任,但反映出 Oracle 在开发者与工程师群体中的长期口碑问题。

参考链接:

https://economictimes.indiatimes.com/tech/technology/oracle-says-data-center-outage-causing-issues-faced-by-us-tiktok-users/articleshow/127667105.cms?from=mdr&utm_source=contentofinterest&utm_medium=text&utm_campaign=cppst

https://slate.com/technology/2026/01/tiktok-outage-oracle-ice-shooting.html

https://www.reddit.com/r/news/comments/1qpbtv5/oracle_says_data_center_outage_causing_issues/

蓝色起源正式发布太赫兹波(TeraWave)卫星网络,该网络规划部署 5408 颗卫星,依托光通信技术实现 6 太比特每秒的传输速率,计划 2027 年末起面向企业与政府客户落地。该项目聚焦高带宽企业级商用场景,直接对标太空探索技术公司的星链网络。尽管面临监管审批与部署落地的多重挑战,这一战略转型仍有望重塑全球数据基础设施格局。

蓝色起源太赫兹波项目引燃高速数据领域太空新竞赛

杰夫・贝索斯旗下的蓝色起源,凭借太赫兹波卫星网络的发布正式入局卫星通信赛道。这一雄心勃勃的网络项目可在全球任意地点实现最高 6 太比特每秒(Tbps)的数据传输速率,于 2026 年 1 月 21 日正式对外公布。这一举措标志着该公司迎来重大战略转型:此前蓝色起源以火箭研发和探月计划为核心业务,如今将在蓬勃发展的天基互联网基础设施领域,与埃隆・马斯克旗下的太空探索技术公司展开正面竞争。根据官方最新公告,太赫兹波网络计划 2027 年末启动卫星部署,核心目标客户为企业、政府机构及数据中心,而非普通消费者。
该网络的核心竞争力在于光通信技术,凭借这一技术可实现前所未有的对称式数据传输速率。这一布局的意义远不止于提升网络速度,更是为海量数据处理需求搭建核心骨干网络,覆盖人工智能驱动的数据分析、政府高安全等级业务运营等多类场景。据雅虎财经相关报道细节,该系统专为极致传输速率设计,性能远超当前民用网络标准,成为各类对高可靠性、高带宽连接有刚性需求的大型项目的关键支撑。
业内人士认为,这是蓝色起源针对太空探索技术公司星链的战略回应。目前星链已完成数千颗卫星的部署,在宽带服务领域占据可观市场份额。与星链聚焦全球民用网络接入不同,太赫兹波网络深耕高价值企业级商用及政府专属场景,有望在数据安全与传输速率为核心需求的领域开辟专属市场。

拆解太赫兹波网络的核心技术

太赫兹波网络的核心,是基于先进激光技术的星间激光链路星地激光链路,其实现的传输速率有望彻底改变全球信息流通方式。太空领域爱好者与分析师在 X 平台的发文均对该技术表示高度关注,有观点指出,该网络的技术潜力可与美国国家航空航天局过往的激光通信里程碑项目比肩,有望实现数分钟内太字节级的数据传输。
蓝色起源在 X 平台发布的项目公告中明确表示,该网络可为数万用户提供关键业务级通信连接服务。这一能力依托公司自研的蓝环(Blue Ring)平台打造,该平台可实现跨轨道的有效载荷调度与星上数据处理,与太赫兹波网络的架构实现无缝融合。
与竞品的对比在所难免。据《个人电脑杂志》报道,尽管星链的传输速率表现亮眼,但太赫兹波网络 6Tbps 的速率指标精准对标企业级需求,在专业场景的原始吞吐量上,有望超越同类竞品。

太赫兹波项目对蓝色起源整体战略的深远意义

此次布局恰逢蓝色起源的战略关键期 —— 此前该公司因发展进度落后于太空探索技术公司而备受诟病。贝索斯入局卫星星座市场,充分发挥了其亚马逊的背景优势:亚马逊网络服务的核心正是数据中心,太赫兹波网络可与该业务形成深度协同。业内人士推测,太赫兹波网络或将与亚马逊云服务整合,为远程数据处理打造超高速传输链路。
从财务角度看,该项目是一笔巨额投资。5000 余颗卫星的部署需要多次发射任务支撑,发射载体大概率为蓝色起源仍在研发中的新格伦火箭(New Glenn)。路透社的报道强调了该项目的规模,指出其聚焦数据中心与企业服务的定位,有望为蓝色起源创造稳定的收入流。
市场对此反应迅速。据 TipRanks 的最新数据,太赫兹波网络发布后,回声星、AST 移动太空等竞品企业的股价出现下跌,反映出投资者对天基通信领域竞争加剧的担忧。

部署落地与监管层面的多重挑战

如此规模的卫星网络部署,面临着诸多现实阻碍。美国联邦通信委员会等机构的监管审批是关键环节,尤其是当前近地轨道的卫星部署已趋于饱和。蓝色起源必须妥善解决频谱分配与轨道碎片防控问题,这类问题也曾成为同类卫星项目的发展瓶颈。
技术层面,实现 6Tbps 的传输速率需要攻克大气干扰难题,并保障激光链路的精准对准。美国国家航空航天局曾在 X 平台发布过 TBIRD 实验的相关数据,该实验实现了 200Gbps 的传输速率,太赫兹波网络计划在此基础上实现跨越式升级,但实际落地过程中或面临进度延迟。
此外,2027 年第四季度启动部署的时间规划,完全依赖于新格伦火箭的研发进度。业内多方分析指出,火箭测试环节的任何延迟,都可能导致整个太赫兹波项目的推进受阻。

与星链及其他竞品的竞争格局

太空探索技术公司的星链已凭借第三代卫星实现单星太比特级的传输能力,树立了行业高标杆。X 平台去年的相关讨论提及,星链通过星舰火箭发射,单次发射有望实现 60Tbps 的总传输能力,直观体现出带宽领域的太空竞赛态势。尽管太赫兹波网络以企业级市场为差异化定位,但与星链的能力重叠仍可能引发激烈竞争。
其他玩家也在加速布局,例如 AST 移动太空公司正推进搭载大型相控阵天线的蓝鸟卫星发射,其最新进展也在 X 平台公布。蓝色起源的入局,让这场赛道竞争愈发激烈,有望推动全行业的技术创新。
从商业合作角度,太赫兹波网络具备强大的合作吸引力。各国政府为国防、灾害应急等场景寻求高安全通信方案,或将成为该网络的重要客户;数据中心也可借助该网络实现全球数据的无缝同步。

光通信技术的创新突破

深入来看,太赫兹波网络采用的光通信链路,相比传统射频通信系统,具备更低的时延更高的传输效率。这一技术方向与美国国家航空航天局的 TBIRD 实验等项目的发展趋势高度契合,该实验曾实现单次传输 3.6 太字节的数据量,相关历史数据仍可在 X 平台的存档内容中查询。
蓝色起源宣称,太赫兹波网络实现了上下行速率对称,即上传与下载速率持平,这一特性对于分布式场景下的实时人工智能训练等应用至关重要。印度数字媒体 Devdiscourse 的文章详细阐述了这一技术将如何开启全球通信的新时代,并强调该网络在应对指数级增长的数据量方面的核心作用。
在业内人士看来,该网络最具吸引力的潜力在于与边缘计算的融合。通过蓝环平台实现星上数据处理,太赫兹波网络可减少对地面计算中心的依赖,进而降低运营成本、提升数据安全性。

市场潜力与经济影响

分析师预测,在偏远地区高速数据需求的推动下,卫星通信行业将迎来指数级增长。太赫兹波网络 6Tbps 的传输能力,让蓝色起源有望在这一市场中占据一席之地,尤其在海事、航空等传统通信服务覆盖不足的领域优势显著。
其带来的经济连锁反应将十分深远。高速数据传输技术将推动远程医疗、自动驾驶等领域的技术突破,这类场景的毫秒级决策依赖于高稳定性的网络支撑。X 平台上关于星链业务拓展的讨论也印证了,这类天基通信系统正深刻重塑各行业的发展格局。
不过,定价策略仍是未知因素。面向企业的专属服务或定位于高端市场,但行业竞争可能推动价格下探,间接惠及终端用户。

环境与伦理层面的考量

太空可持续发展已成为全球关注的焦点。太赫兹波网络的 5408 颗卫星,将进一步增加轨道空间的拥堵程度,引发各界对其轨道碎片防控措施的质疑。尽管蓝色起源已承诺采取负责任的部署策略,但业内仍在密切关注其实际执行情况。
伦理层面,保障通信服务的公平可及性是核心问题。尽管该网络现阶段瞄准企业市场,但若能实现成本下探,其技术成果有望逐步惠及普通用户,助力弥合数字鸿沟。
地缘政治层面,在全球多国均在布局同类天基通信技术的背景下,太赫兹波这一美国本土研发的网络项目,将进一步强化美国在太空领域的技术实力。

蓝色起源的未来发展方向

展望未来,太赫兹波网络的应用场景或超越通信领域。该网络与蓝色起源探月计划的融合,有望将通信覆盖延伸至地月空间,为未来的月球探测任务提供通信支撑。
与科技巨头的合作将加速该网络的商业化落地。试想亚马逊网络服务借助太赫兹波网络实现全球云服务的容灾备份,这一协同效应是贝索斯独有的资源优势,有望充分发挥。
从 X 平台的热议度来看,投资者对该项目的情绪整体乐观,多篇发文强调太赫兹波网络有望大幅提升蓝色起源的企业估值。

规模落地:从项目发布到卫星入轨

从项目发布到卫星正式入轨,需要经过严苛的测试环节。地面站、用户终端、卫星原型机等核心设备均需完成优化调试。尽管蓝色起源在亚轨道飞行领域的技术积累为项目奠定了基础,但从亚轨道技术向轨道卫星星座的规模化拓展,仍是一次巨大的跨越。
与光通信组件供应商的合作尤为关键。业内报道显示,蓝色起源或将与激光技术领域的头部企业合作,以实现 6Tbps 的速率指标。
归根结底,项目的成败取决于执行能力。若蓝色起源能如期落地技术规划,太赫兹波网络将重新定义高速数据传输的行业标准,挑战现有市场格局并推动全新的技术创新。

全行业的发展变革

太赫兹波网络的发布,折射出太空正成为全球数据传输大动脉的行业趋势。在人工智能领域对带宽需求持续攀升的背景下,太赫兹波这类高速天基通信网络的出现恰逢其时。
本月早些时候彭博社的评论文章探讨了星链的发展历程,对比来看,高估值背景下的技术创新压力,正同时作用于蓝色起源与太空探索技术公司两家企业。
在业内人士眼中,太赫兹波项目标志着蓝色起源的成熟转型 —— 从单纯的火箭研发企业,成长为覆盖全领域的太空科技玩家。

战略投资与潜在风险

支撑此类大型项目需要雄厚的资金实力。贝索斯的个人财富为蓝色起源提供了资金保障,但要实现规模化发展,仍需引入外部投资者。
项目面临的风险包括技术研发失败市场饱和。若星链持续占据市场主导地位,太赫兹波网络必须凭借更优质的企业级服务实现差异化竞争。
但与此同时,项目的发展潜力也极为巨大。即便仅占据全球数据通信市场的一小部分份额,也有望为蓝色起源带来数十亿美元的营收。

展望数据驱动的未来

本质上,太赫兹波网络是太空探索与数字基础设施深度融合的产物。在数据量呈爆炸式增长的当下,这类技术解决方案已成为时代刚需。
对于各国政府而言,该网络为危机场景下提供了高韧性的通信保障;对于企业而言,其突破了传统光纤网络的地域限制,为全球化业务运营提供了核心工具。
随着蓝色起源的持续推进,太空数据领域的竞赛愈发激烈,一个以太比特级速率实现全球互联的时代,正逐步成为现实。

1月13日,Zoho宣布在迪拜、阿布扎比投建的两座数据中心正式投入运营。这是继2024年沙特利雅得、吉达数据中心落地后,Zoho在中东的又一重要基建动作。至此,Zoho在中东地区自建的数据中心已达四座,将用来全面提升对当地客户的服务响应效率与数据安全保障能力

图片

两座数据中心目前已获得迪拜电子安全中心 (DESC)颁发的CSP安全标准认证,并且符合 ISO 27001、ISO 22301、ISO 27017和CSA STAR二级数据中心认证标准。这意味着,Zoho有资格为当地政府、机构、企业及出海中东的海外企业提供安全可靠的数字化服务。

Zoho联合创始人沙伊莱什•戴维说到:「阿联酋是Zoho在中东的核心战略市场,目前已投资8000万迪拉姆(约合人民币1.52亿),两座数据中心的启用是我们持续投资中东市场战略的重要一步,更好地帮助企业实现本地数据存储,增强数据主权,并支持国家网络安全议程。」

过去五年,Zoho在中东市场的发展势头持续攀升,成功从早期的市场探索者蜕变为中东企业数字化转型的关键伙伴。仅在2025年,Zoho在阿联酋的业务就增长了38.7%,合作伙伴网络扩大了29%,本地员工人数增加了35%,助力7000多家企业实现数字化转型升级。

Meta 的 AI 堡垒:高风险技术转型中的创新封锁

在飞速迭代的人工智能领域,Meta 平台公司(Meta Platforms Inc.)做出了惊人转变 —— 摒弃开源根基,转向严密管控的闭源模式。这一战略调整于 2026 年初宣布,背后是其 LLaMA 模型表现不及预期,以及来自 OpenAI、谷歌等竞争对手的压力日益加剧。据《24/7 华尔街》(24/7 Wall St.)近期分析,Meta 的闭源决策被视为 “关键制胜之举”,有望帮助这家社交媒体巨头在 AI 军备竞赛中重新站稳脚跟。
这一转变背离了 Meta 此前的开放理念 —— 过去,该公司一直以普惠 AI 技术的倡导者自居。多年来,Meta 通过开源许可发布了 LLaMA 等模型,培育了庞大的开发者和研究社区。然而,内部评估显示,这种模式并未为 Meta 带来渴望的竞争优势。有消息称,LLaMA 在关键基准测试中未能达到预期,促使高管们重新审视战略。这一举措也契合了行业大趋势:如今,闭源系统越来越被视为保护知识产权、创造营收的核心保障。
Meta 首席执行官马克・扎克伯格亲自主导了此次变革,强调必须打造用户愿意付费的 AI 模型。据彭博社(Bloomberg)报道,扎克伯格的亲力亲为包括组建史上最昂贵的 AI 团队,目前该团队正专注于开发可直接商业化的闭源系统。

开源野心背后的不满根源

行业内批评者认为,Meta 的开源战略在无意间助力了竞争对手。通过免费开放先进模型,该公司可能在自身难以从创新中获利的同时,加速了他人的技术进步。科技圈内人士在社交平台 X(前推特)上的帖子流露出不满情绪,部分用户指出,Meta AI 部门的招聘冻结和裁员是内部动荡的信号。这些社交媒体讨论凸显出一个日益普遍的共识:开源举措削弱了 Meta 的竞争优势。
此外,此次战略转型还伴随着大规模的基础设施投资,包括一项重大核能合作。据《财经内容》(FinancialContent)的深度报道,2026 年 1 月 9 日,Meta 宣布与奥克洛公司(Oklo Inc.)等企业达成合作,为其数据中心获取千兆瓦级核能。这一 “核能驱动的 AI 转型” 旨在满足闭源模型训练所需的巨大能源需求,彰显了 Meta 在摆脱开放协作脆弱性的同时,实现规模扩张的决心。
这一能源战略不仅关乎电力供应,更是一场地缘政治布局。Meta 全球事务总裁乔尔・卡普兰在接受《福克斯商业新闻》(Fox Business)采访时表示,这些投资将帮助美国在与中国的 AI 竞赛中 “胜出”。通过掌控本土核能资源,Meta 有望确保下一代 AI 所需的计算能力不受国际供应链风险影响,实现持续获取。

内部动荡与领导层变动

Meta 内部的转型之路并非一帆风顺。在 AI 领域的全面改革过程中,公司遭遇了员工离职和士气低落等问题。《商业内幕》(Business Insider)的一篇文章将 2025 年描述为 Meta 的 “高压之年”—— 文化变革、裁员和绩效整顿引发了内部冲突。据美国全国广播公司财经频道(CNBC)报道,Meta 前首席 AI 科学家杨立昆(Yann LeCun)公开批评这一新方向,称这位 29 岁的 AI 负责人 “缺乏经验”,并预测将出现员工大规模流失。
杨立昆的离职凸显了更深层的 “研究者与执行者” 分歧。他在采访中指责 Meta 篡改 LLaMA 4 的基准测试结果,并拒绝 “世界模型” 等创新方案,转而执着于更大规模的语言模型。行业观察人士在 X 上的帖子也呼应了这一观点,认为 Meta 陷入了传统思维的循环,而竞争对手却在投资突破性理念。这种内部分歧让人质疑,闭源战略是否能孕育出真正 AI 突破所需的创造力。
尽管面临这些挑战,分析师仍持乐观态度。杰富瑞(Jefferies)在《雅虎财经》(Yahoo Finance)的报道中列出了 Meta 2026 年可能表现出色的五大原因,包括其 AI 能力和广告技术的进步。该公司重申了 “买入” 评级,目标价定为 910 美元,押注 Meta 能够利用闭源 AI 实现营收增长。

驱动变革的盈利迫切性

Meta 战略转型的核心是对盈利能力的追求。开源模型虽具创新性,却未能转化为直接收入来源。通过转向闭源 AI,Meta 可以提供高端服务,例如向企业用户收费开放集成于 Facebook、Instagram 等平台的先进模型。这与竞争对手的策略不谋而合 —— 闭源技术是其高利润企业解决方案的核心支撑。
这一举措还回应了监管与伦理层面的担忧。借助闭源系统,Meta 能更好地掌控其 AI 的使用场景,潜在降低诈骗、虚假信息等滥用风险。路透社(Reuters)的一项调查披露了 Meta 应对诈骗压力的内部 “操作手册”,包括加大欺诈广告的识别难度。在闭源生态中,此类管控措施的实施效率将大幅提升。
此外,该战略与 Meta 逐步退出元宇宙投资的大方向相一致。X 上的帖子显示,Meta 计划将元宇宙部门成本削减高达 30%,并将资源重新投向 AI 领域。这种重心调整有望精简运营流程,提升投资者信心 —— 此前元宇宙的低迷表现曾导致公司股价大幅波动。

竞争压力与市场影响

在更广阔的科技领域,Meta 的转型可能标志着行业向闭源 AI 靠拢的大趋势。《街报》(TheStreet)的分析指出,这一变化将赋予谷歌新的优势,同时给英伟达投资者带来不确定性,因为专用硬件的需求格局正在演变。Meta 对闭源模型的重视可能会给开源倡导者带来压力,重塑全球 AI 的发展模式。
财务层面,此次转型得到了巨额资金支持。据彭博社报道,Meta 的核能合作使其成为全球最大的企业级核能采购商之一,目标是到 2035 年获取高达 6.6 千兆瓦的核能。这一基础设施投资凸显了其中的高风险:AI 训练需要消耗海量能源,而 Meta 正豪赌核能能支撑其雄心。
然而,挑战依然存在。X 上的批评者认为,Meta 的模式缺乏吸引顶尖人才的声誉,部分帖子质疑其推出突破性产品的能力。埃里克・梅耶尔(Erik Meijer)在平台上的相关讨论中提出,仅靠资金无法解决 Meta 的人才困境,因为有些文化问题是金钱难以弥补的。

不确定性中的战略优势

潜在的优势十分诱人。通过闭源模式,Meta 可以在无需担心模仿的情况下加速创新,有望实现更精准的广告定向和更优质的用户体验。《AI 日报》(AI Daily)的一篇文章将 Meta 列为 2026 年顶级 AI 股票之选,重点关注其 LLaMA 4 的进展 —— 尽管战略已转向闭源。这可能使其在个性化广告这一核心收入来源上超越竞争对手。
地缘政治层面,该战略增强了美国的技术主权。卡普兰在《福克斯商业新闻》中的言论强调,核能自主将对抗中国的 AI 进步,确保 Meta—— 进而确保美国科技 —— 保持主导地位。
但前路充满荆棘。X 上的报道显示,Meta 对 AI 部门的裁员等内部重组表明,调整仍在持续。Axios 指出,Meta 正努力精简官僚机构,力求在这个速度至关重要的领域保持灵活性。

长期愿景与行业涟漪

展望未来,Meta 的闭源 AI 战略可能会重新定义其在科技生态系统中的角色。将闭源 AI 整合到其庞大的用户基础中,将带来独特优势 —— 从强化内容审核,到在剩余的元宇宙愿景中打造沉浸式体验。
包括 X 平台用户在内的行业观察家推测了其连锁反应。Polyhedra 的帖子讨论了 Meta 转向闭源训练的举措,认为这将限制外部可见性,可能抑制协作进展。这或许会导致 AI 开发环境更加碎片化,巨头企业囤积技术进步成果。
归根结底,Meta 的转型反映了 AI 战略的成熟 —— 将可持续性和盈利置于理想主义之上。在公司应对这些变革的过程中,其成功将取决于能否平衡创新与执行、人才留存与伦理治理。以核能为动力,Meta 正定位自身不仅是社交媒体巨头,更是一座坚不可摧的 AI 强国,准备在未来十年占据主导地位。

今年的 CES 真可谓是八仙过海,黄仁勋、苏姿丰、陈力武等“经典面孔”齐亮相; 不过台上谈的已不只限于显卡、算力和制程,还在于 AI 接下来要被带去哪里。

AMD 的专场演讲中,苏妈甩出一个大胆判断:

“未来五年内,将有 50 亿人每天使用 AI,超过世界人口的一半。”

——什么概念?就是这个增长速度将远超互联网早期阶段,自 ChatGPT 在 2022 年底发布以来,AI 活跃用户已从 100 万暴涨至 10 亿+。

值得一提的是,这场演讲还请来了“AI 教母”李飞飞。

李飞飞并不是来站台新品的,她和苏妈主要探讨空间智能和世界模型,这也是她已耕深 20 余年的领域。

此外,OpenAI 总裁兼联合创始人 Greg Brockman 也登台助阵,指出行业痛点:“计算能力,仍然是 AI 走向通用智能的最大瓶颈。世界需要的 GPU 数量,远超我们现在拥有的规模。”

而这正是 AMD 接下来要解决的事情,他们希望能补齐 AI 普及所需的算力基础设施。在苏姿丰描述的未来世界里,AI 将无处不在,算力将人人可及——她这次在 CES 上抛出的,不只是几块更强的 GPU,而是一套完整的 AI 版图。

对于云端,基于下一代 MI455 GPU 的 Helios 机架级平台成为全场焦点:单机架集成 72 块 AI GPU,算力高达 2.9 ExaFLOPS,可通过成千上万个机架拼接成超大训练集群,直指千亿参数大模型的核心战场。

谈到云端算力的未来,苏姿丰毫不掩饰 AMD 的野心:

“全球人工智能运行在云端,而云端运行在 AMD 平台上。”

另外,她还指出,下一代 Instinct 数据中心 AI 加速器平台 MI500 系列,将在 2027 年推出并全面转向 2nm 工艺,并放出狠话:希望借此在四年内 AI 芯片性能提升 1000 倍(远超摩尔定律啊...)。

与此同时,AMD 还在推动把 AI 从云端下放到本地,而他们的一个很核心的落点,是 AIPC。

Ryzen AI 通过内置 NPU(神经网络处理单元,一种专门为 AI 推理设计的处理器)让 AI 本地运行、离线可用

Helios 机架级平台和 AIPC

数据中心这一 AI 算力的核心战场,AMD 开始卖“一整个机架”的算力方案 Helios,一个几乎重新定义“数据中心硬件形态”的存在。

Helios,是 AMD 面向 YottaFLOPS 级 AI 的下一代机架级平台,也是本场 AMD 发布会的“镇场之作”

所谓 YottaFLOPS 级 AI,就是算力达到 10²⁴ 次浮点运算/秒 的人工智能系统。直观地说,它不只是“更快的 AI”,而是能在极短时间内模拟、理解和优化极其复杂的世界系统,如全球气候、全人类基因等,能力规模远超今天任何单一 AI 模型。

Helios 从一开始就按大模型需求设计,用开放的 OCP 机架标准做底座,并与 Meta 合作开发,强调模块化、可扩展、能快速堆出大集群。

Helios 的核心是一种全新的算力组织方式,能将 72 颗芯片协同工作。

其中的系统设计是通过高速互联和软件栈,把这些 GPU 组织成一个可以统一调度的算力池,让它们更像一个整体,而不是“72 个独立设备”。在 FP4 这种推理常用的低精度口径下,单台 Helios 机架式服务器可提供高达 2.9 ExaFLOPS 的算力,并搭载 31TB 容量的 HBM4。

如果再把数千个 Helios 机架互联起来,就能搭建出面向万亿参数模型训练和推理的超大规模集群。

至于 Helios 的算力底座,是 AMD 最新一代 Instinct MI455 GPU,也是 AMD 历史上跨代提升幅度最大的 Instinct GPU

这颗芯片拥有超过 3000 亿个晶体管,相比 MI300 系列提升约 70%,推理与训练综合性能最高可达 10× 提升。

AMD 对 MI455 GPU 的定位非常明确:它要解决大模型训练和推理里最棘手的瓶颈“内存墙”。大模型跑不动,很多时候不是算力不够,而是数据喂不进去、内存带宽跟不上。

这颗加速器芯片采用 2nm 与 3nm 混合工艺打造,再配上先进的 3D 小芯片封装技术,并搭载新一代 HBM4 高带宽内存。

更重要的是,MI455 并不是孤立地“做一颗更强的 GPU”,它在计算托盘层面就与 EPYC 服务器 CPU、Pensando 网络芯片深度集成,让 CPU、GPU、网络协同成为平台能力,而不再是分散组件的简单拼接。

苏姿丰打了个生动的比方:“Helios 是个庞然大物般的货架,它不是普通的货架,而是双倍宽度的设计,重量接近 7000 磅。”她指出,这个机架的重量超过两辆小型轿车的总重量。

时至今日,AI 的推理能力已被推到聚光灯下,其特点是调用频率高、负载长期持续,进一步带来更明显的算力缺口。

苏姿丰分享称,AMD 下一代 MI500 系列正在开发中,计划全面转向 2nm 工艺,发布时间定在 2027 年。按照 AMD 给出的路线图,从 MI300 到 MI500 的四年周期内,其 AI 计算性能目标提升幅度达到 1000 倍。

她将这一跨代跃迁称为“公司历史上幅度最大的一次性能提升规划”,并将其视为支撑下一阶段超大模型训练和推理需求的关键基础。

在数据中心之外,AMD 还把另一张牌打到终端侧:把原本只能在云端完成的 AI 工作,搬到个人电脑上。

Ryzen AI Max 400 系列(代号 Strix Halo)正是这一策略的核心载体。AMD 给它的定位并不含糊:面向 AI 开发者和高端创作者,做一颗“能真正干活”的本地 AI 芯片。

与 Ryzen AI 300 一样,Ryzen AI Max 400 系列依然是 Zen 5 和 RDNA 3.5,但支持更快内存速度。

简单来说,Ryzen AI 400 是一颗为 AI 笔记本打造的高性能处理器,最高配备 12 核 CPU,同时集成了 更强的核显 和 最高 60 TOPS 的专用 AI 引擎。再加上对高速内存的支持,让它在多任务、创作以及本地 AI 应用中运行得更流畅。

但相比传统性能参数,更关键的是它的系统设计:芯片同时集成 XDNA 2 NPU,并采用统一内存架构,CPU 与 GPU 之间可共享最高 128GB 内存。

这也是能否跑大模型的前提条件。对本地 AI 来说,算力是否够强是一回事,模型能不能完整装进内存、数据能不能顺畅流动,往往才是决定成败的关键。

AMD 用一场直观的演示给出了答案:一台搭载 Ryzen AI 的设备,在完全离线的情况下,流畅运行了一个 700 亿参数的医疗大模型。

这意味着,开发者可以直接在笔记本上调试生成式模型;医疗、金融等行业,也可以在不把数据上传云端的前提下,完成模型推理和分析。本地终端不再只是“调用云端 AI”,而是开始真正承载模型本身。

摆数据:在高端笔记本形态下,Ryzen AI Max 在 AI 与内容创作类应用中的表现,快于最新一代 MacBook Pro;在小型工作站场景中,成本明显低于英伟达的 DGX Spark,而且原生支持 Windows + Linux。

AMD 还贴心地发布了一个本地 AI 参考平台:Ryzen AI Halo 

官方将其称为“世界上最小的 AI 开发系统”,可在完全离线的条件下运行多达 2000 亿参数模型,面向需要随时随地进行模型开发和部署的专业用户。

那些过去只能在数据中心机房里完成的工作,正在被压缩进一个可以随身携带的设备。

和李飞飞同台聊空间智能

前文提到“AI 教母”李飞飞也亮相了;其实在这种聚焦硬件与平台发布的商业舞台上,李飞飞不常露面,她更常被视为学术界和公共讨论中的“定锚者”。

李飞飞此次在 AMD 的专场讲演登台,强调 AI 不仅要生成内容,更要理解并参与真实世界。

在这一点上,苏姿丰的判断高度一致,她表示,过去几年,大语言模型的出圈(LLM)推动了 AI 的爆发,但无论是人类还是机器,智能并不只来自“看和说”,真正连接“感知 → 推理 → 行动”的关键能力,是空间智能(Spatial Intelligence)

过去这几年,GPU 的快速发展已让画质起飞了,但 3D 和 4D 世界却还在慢慢搭,往往需要团队花费数月甚至数年完成;而现在 AI 正在改变这种节奏。

李飞飞表示,她认为 AI 正进入一个新阶段:从语言智能,迈向具备空间理解与行动能力的生成式 AI:

“AI 在过去几年取得了巨大突破,我在这个领域工作了二十多年,从未像现在这样,对未来的发展感到如此兴奋。”

她也介绍了自己创业公司 World Labs 的核心动向:

  • World Labs 正在训练新一代世界模型(World Model)

  • 目标不是还原二维像素,而是直接学习 3D / 4D 结构;物体之间的空间关系;深度、尺度、物理一致性

已炼成的关键能力,包括仅凭几张照片,甚至单张图片,模型即可补全被遮挡区域、推断物体背后的结构,然后生成一致、持久、可导航的 3D 世界。

不是照片也不是视频,而是真正保持几何一致性的三维空间,具备“空间补全与想象”能力,而非拼贴。

李飞飞指出,过去需要数月才能完成的 3D 场景建模,现在可以在几分钟内完成。

她举例说明潜在影响:创作者:实时“在世界中创作”;机器人 / 自动驾驶:在物理一致的虚拟世界中训练,再进入现实;设计师 / 建筑师:直接“走进”设计,而不是看平面图。

她还特别强调了一个常被忽略的点:世界模型并不是“离线生成完就结束”,它需要实时响应、即时编辑,连续保持空间一致性。

这意味着:极高的内存需求,大规模并行计算,非常快的推理速度,否则世界就无法“活起来”。

谈及算力,李飞飞也透露称:World Labs 的世界模型已运行在 AMD 的 MI325X GPU 与 ROCm 软件栈之上,并在短短几周内实现了 超过 4 倍的推理性能提升

她还提到,随着 MI450 等后续平台 推出,更大规模世界模型的训练与实时运行将成为可能。

其他亮眼新品

  • 游戏和消费级显卡:

在消费级图形领域,AMD 本次带来的主要新品是 Radeon RX 9070  Radeon RX 9070 XT

这两张显卡均搭载了 AMD 的全新 RDNA 4架构,以及最新 AI 图像技术(包括 FSR 4),将游戏体验推向“AI 加速 + 实时渲染”双驱动的新时代。

其中 RX 9070 XT 的 64 个计算单元、较高频率设计,让其在多款 3A 游戏中表现强劲,在 4K 最高设置下帧率表现明显领先前代,在 30 多款游戏中平均比 RX 7900 GRE 快 42%

而 RX 9070 的规格稍低一些(但同样 16 GB 显存),其光追与 AI 能力也因较少计算单元略弱,不过仍能在高画质下保持流畅体验,在 30 多款游戏中平均比 RX 7900GRE 的帧率快 21%。

综合来看,这两款显卡延续了 RDNA 4 在 高效能比、AI 支持(如 FSR 4)、光追性能提升 上的特性,适用于 1440p 到 4K 游戏场景。

  • AI 专用 CPU:

EPYC Venice 是 AMD 为“AI 数据中心时代”打造的下一代服务器 CPU。

它采用 2nm 工艺,最多可集成 256 个 Zen 6 高性能核心,定位不只是“算得更快”,而是专门为 AI 集群服务。

相比上一代 EPYC,Venice 的内存带宽和 GPU 带宽都实现了翻倍,核心目标只有一个:在机架级规模下,持续、稳定地把数据“喂”给 MI455X 等 AI GPU。

换句话说,它不追求抢 GPU 的计算活,而是负责调度、通信和数据供给,避免 GPU 因“等数据”而空转。

为了支撑这种规模,EPYC Venice 还配套 800G 以太网,并结合 Pensando Volcano / Selena 网络芯片,面向万级机架规模的横向扩展。

在 AMD 的设计中,Venice 不只是服务器 CPU,而是 AI 机架级系统里的“中枢处理器”,决定整个集群能否高效运转。

参考链接:

https://www.youtube.com/watch?v=UbfAhFxDomE&list=TLGGBbam0h3MCckwNjAxMjAyNg&t=3063s

https://www.techtimes.com/articles/313772/20260105/amd-ceo-lisa-su-declares-ai-everyone-ces-2026-guests-openai-luma-ai-liquid-ai-world-labs.htm

https://www.amd.com/content/dam/amd/en/documents/corporate/events/amd-ces-2026-distribution-deck.pdf