标签 GPU 下的文章

采访嘉宾 | 天数智芯 AI 与加速计算技术负责人 单天逸

对于国产 GPU 行业来说,没有哪个时间节点比当下更宝贵。在政策支持硬科技企业上市的背景下,国产 GPU 迎来了难得的上市黄金窗口期。但上市并非终点,在敲钟的那一刻,下一战场大幕已经拉开——GPU 厂商的技术路线、产品能力和长期判断,被放到了更公开也更严苛的舞台上,谁能撑起资本市场和大众期待,谁就能撑起市值。

这也是为什么,天数智芯上市后的首场发布会能够在业内形成广泛讨论。它以极其务实的工程师表达方式,把架构放回到国产 GPU 技术叙事的中心。在 1 月 26 日召开的天数智芯“智启芯程”合作伙伴大会中,围绕架构层的创新与思考占据了相当比重。基于这些创新点与思考,天数智芯公布了过去一代以及未来三代的架构路线图:

  • 2025 年,天数天枢架构已经超越英伟达 Hopper,在 DeepSeek V3 场景中实测性能数据超出 20%;

  • 2026 年,天数天璇架构对标 Blackwell,新增 ixFP4 精度支持;

  • 2026 年,天数天玑架构超越 Blackwell,覆盖全场景 AI/加速计算;

  • 2027 年,天数天权架构超越 Rubin,支持更多精度与创新设计。

国产 GPU,开启 AI++ 计算新范式

根据天数智芯公布的架构路线图及阶段发展目标,在 2027 年之前,天数智芯将通过多代产品完成对英伟达的追赶;在 2027 年之后,将转向更富创新性的架构设计,聚焦更具突破性的超级计算芯片架构设计。看似宏大,但对于仍处于爬坡阶段的国产 GPU 行业来说,这条路径实际上相当务实——只有在工程化能力上完成对标甚至是超越,国产 GPU 才有资格进入更大规模的生产环境中。

而在规模化落地阶段的竞争,焦点早已从峰值性能指标转向有效计算能力。当 Token 成为 AI 时代最基本的生产资料,当算力消耗开始对标真实业务产出,无论是国际顶尖 GPU 厂商还是国内 GPU 企业,核心命题都只有一个:如何在真实业务中,把算力转化为有效的 Token。这似乎又将大家都拉到同一起跑线。

围绕这一命题,天数智芯提出了两条明确的架构判断:其一,回归计算本质;其二,提供高质量算力。

回归计算本质,核心在于“不设限”

过去十年,规模的快速扩张带来了阶段性的产业繁荣,也使得算力实现野蛮增长。但这种粗放式发展,也带来了能效比失衡、算力资源严重浪费等问题。背后的根因十分复杂。以开车行驶为例,路途中可能会遇到雨雪冰雹天气、崎岖道路等各种复杂情况。物理、芯片、系统世界也是如此,计算、通讯、存储都会带来各种障碍。所以,幻想奔跑在平坦的赛道上毫无意义,产业真正需要的,是能够翻山越岭的全能越野车。

广义上,芯片可分为专用芯片和通用芯片:专用芯片类似“应试教育”,它的优势和边界都很清晰,能加速特定算法、特定指令,比如矩阵乘法、Softmax 这些主流任务,但一旦计算范式发生变化,适应空间就会迅速收紧;通用芯片的设计哲学,不是为了押中某一类算法,而是回归计算本质,覆盖更广泛,甚至全新的计算需求。

这也是天数智芯坚持推出并量产通用 GPU 的根因。在其看来,硬件与算法的关系本来就不应该相互掣肘,算力的僵化不应限制算法的进化,而是通过通用算力为探索未知算法提供一个坚实的底座。

支撑探索未来算法的关键,实则就是“不设限”。

基于这一判断,天数智芯的芯片设计哲学,在计算层面追求的是覆盖几乎所有的数学运算图谱,而非某一类、某一种计算:从 Scalar、Vector、Tensor 到 Cube,支持从高精度科学计算到 AI 精度计算,从 MMA 到 DPX,不管是 AI 的 Attention 机制、前沿的科学计算,还是未来的量子计算相关模拟,天数智芯全都支持。

在执行层面,追求的是更高的算力利用率:大、中、小任务会被精准分配到不同的计算单元中执行,配合高密度的多任务核心设计,算力可以被拆解、调度得更加精细,从而减少算力浪费,提高计算效率。

这种“不设限”的设计哲学,让天数天枢架构得以实现三大创新,这也是天枢能够超越英伟达 Hopper 架构的根因:

  • TPC BroadCast(计算组广播机制)设计:不是简单粗暴地放大带宽,而是从单位带宽的使用效率入手,存在相同地址的数据时,芯片内部的 load store 单元不会进行重复、无用的访问,而是在上游进行 BroadCast,减少不必要的内存访问次数,从而有效降低访存功耗,等效提升访存带宽,用更小的功耗和面积实现相同的功能。

  • Instruction Co-Exec(多指令并行处理系统)设计:在指令执行层面,通过 Instruction Co-Exec 设计实现了多种指令类型的并行执行能力,不仅支持 Tensor Core 与 Vector Core 的并行协同,还将 Exponent 计算、通信等操作一并纳入统一调度。在天数 IX-Scheduler 模块中,通过极低的成本增强了不同指令之间的并行处理能力,无论是 MLA、Engram,还是面向更复杂模型场景的计算需求,都可以在这一并行框架下被同时处理,从而提升整体执行效率。

  • Dynamic Warp Scheduling(动态线程组调度系统)设计:随着 MoE 架构在大模型中被广泛采用,模型厂商普遍面临推理效率低等现实挑战。为提升并行度,微架构层面允许芯片中同时驻留更多 warp,但 warp 的增加也意味着对计算资源的竞争更为激烈。为此,天数智芯首创了 Dynamic Warp Scheduling 机制,通过动态调度让不同 warp 在资源使用上实现有序协作,避免计算资源闲置,也减少了对同一资源的无序争抢。

这三项设计的出发点本质上都指向相同的目标:高性能与高效率。数据显示,这些创新让天数天枢的效率较当前行业平均水平提升 60%,基于这些效率优势,实现在 DeepSeek V3 场景平均比 Hopper 架构高约 20% 性能。

从这三项设计中可以看出,天数智芯在架构层面的创新,并不是围绕某一个具体模型或算子展开,而是试图打破 GPU 通用范式边界。天数智芯 AI 与加速计算技术负责人单天逸在接受采访时表示,在天数智芯提出 Dynamic Warp Scheduling 设计之前,几乎没有人从调度机制的角度去思考,还能为 MoE 带来哪些性能空间。从更深层次意义来看,这类微架构层面的调度和优化,一直是英伟达、AMD 等巨头保持领先的“内功”,天数智芯在这些单点上的突破,实际上也是国产 GPU 向顶级玩家看齐的重要一步。

提供高质量算力:高效率、可预期、可持续

在天数智芯的架构语境中,回归计算本质并不是一个抽象的口号,而是实现高质量算力的前提条件。只有当 GPU 从底层开始真正对计算负责,高质量算力才成为可能。基于这一判断,天数智芯将高质量算力拆解为三个核心维度:高效率、可预期与可持续。

高效率意味着能为客户创造最优的 TCO(总体拥有成本),节省使用成本;可预期则通过精准的仿真模拟,让客户在拿到芯片、部署算力之前,就能清晰预判最终的性能表现,做到所见即所得;可持续指的是从现在主流的 CNN、RNN,到当下火热的 Transformer,再到未来还未诞生的全新算法,算力始终能无缝适配。

围绕这三个方向,天数智芯在架构及系统设计上,选择从多任务并行处理、长上下文 IX-Attention 模块、IX-SIMU 全栈软件仿真系统以及 IXAI++ 算力系统多个层面同步推进。这几项,其实哪个都值得单独展开探讨。

比如,基于“不设限”的设计理念,在当前 PD 分离的架构下,天数智芯的 GPU 不只做计算,还支撑通信、KV 数据传输这些关键任务,通过打造 Ⅸ 并行任务处理模块,GPU 能精准调度 KV 传输、多路多流、计算与通信等各类任务,让它们并行不冲突。在真实业务场景中,该模块成功帮助头部互联网客户实现了端到端 30% 的性能跃升。

为了提高算力可持续性,天数智芯统一了芯片内、外,来构建算力系统,并通过不断更新的软件栈和软件系统,三类库共同支持和保障多场景的高效运行。其中,AI 库、通讯库(ixccl)、加速计算库是基石,在基石之上,直接支撑各类神经网络模型 CNN、Transformer、LSTM 与高性能计算的各个领域,并以此提供各类 AI 应用,包括支持 AI4Sci 的相关应用,如蛋白质结构预测(AlphaFold)、医疗影像分析(Clara)、气候模拟(Earth2)等,以及量子计算的平台 cudaQ、分子动力学 Gromacs,大规模方程组求解器 HPL 等。

这套算力系统被命名为 IXAI++,寓意为自我迭代,不止于 AI。其最终的目标是,成为一座连接算法创新与物理世界的桥梁,带领人类科技通往未知探索。

但给业内带来最多惊喜的,是 IX-Attention 模块和 IX-SIMU 全栈软件仿真系统。前者解决的是当前大模型推理中最具代表性的效率难题,后者解决的是企业部署算力系统最头疼的不可控难题。

在大模型推理场景中,长上下文被普遍认为是最具代表性的效率难题之一。即便是在国际主流 GPU 架构上,Attention 的执行效率依然不高,如果不对其进行针对性优化,首字延迟将明显偏高,模型响应速度差,推理成本高昂,最终影响大模型在真实业务中的可用性。

围绕这一痛点,天数智芯设计了 Ⅸ Attention 模块,从底层对 Attention 的执行路径进行重构:Attention 底层涉及 exponent、reduce、MMA、atomic 等多类指令与算子,Ⅸ Attention 模块的核心思路,是将这些分散的组件有机地拼装到一起,如同指挥一支乐队一般,确保多种乐器能够和谐共鸣。

“其中的技术难点在于调度,多种乐器需要同时演奏,任何一个环节拖慢节奏,都会成为整个系统的瓶颈”,单天逸表示,在实际的长上下文推理中,Ⅸ Attention 模块有效改善了 Attention 的执行效率,带来了约 20% 的提升。

针对企业部署算力系统最头疼的不可控难题,天数智芯搭建了IX-SIMU 全栈软件仿真系统,这套仿真系统的目标,就是零意外、可预期。通过对芯片等硬件与软件执行策略的联合仿真,能精准输出任意模型的性能表现,提升算力在真实场景中的可控性。

单天逸表示,在算力系统的仿真与评估中,最难建模的是指令级别的硬件行为。IX-SIMU 的核心能力在于,能够对底层指令执行进行精细建模。在实际使用中,用户只需输入软件代码,IX-SIMU 便会自动整合 GPU、CPU、网卡、PCIe 等硬件组件,匹配网络拓扑,再结合软件策略、投机策略、Streaming LLM 策略、前缀匹配等各类策略,最终精准输出 Deepseek、千问等任意模型的性能表现,实现从单卡到万卡集群的 “精密扩展”。

围绕高效率、可预期、可持续三大判断,天数智芯在算力侧从硬件架构到系统设计进行了整体布局,并用未来三代架构路线图提前回答下一个问题:当算力僵化开始掣肘未来计算,架构层还能怎么演进?

决定上限的,最终还是应用和生态

架构代表的其实是下限,决定上限的,最终还是应用和生态。数据显示,截至 2025 年年底,天数产品已在互联网、大模型、金融、医疗、教育、交通等超过 20 个行业落地应用,服务客户数量超过 300 家,并通过软硬件协同优化,完成 1000+ 次模型部署,让产品能力真正达到商用级别。

支撑这些场景应用的,早已不是一个产品的能力范畴,而是“产品 + 解决方案” 双轨模式,这一模式其实与英伟达定位非常相近,聚焦的都是解决方案落地。在大模型深入产业应用的当下,这套组合打法相当务实,毕竟应用落地才是唯一真理,谁能在企业真实业务场景中快速部署、持续稳定运行,谁就能赢得先机。在速度和兼容性上,天数智芯也交出了一份不错的答卷:国内新的大模型发布当天便能跑通,目前已稳定运行 400 余种模型、数千个已有算子与 100 余种定制算子,数千卡集群稳定运行超 1000 天。

在这次发布会上,天数智芯面向物理 AI 场景落地,一口气发布了四款边端算力产品“彤央”系列:包括边端 AI 算力模组 TY1000、TY1100,以及边端 AI 算力终端 TY1100_NX、TY1200。 据了解,“彤央”系列产品的标称算力均为实测稠密算力,覆盖 100T 到 300T 范围。数据显示,在计算机视觉、自然语言处理、DeepSeek 32B 大语言模型、具身智能 VLA 模型及世界模型等多个场景的实测中,彤央 TY1000 的性能全面优于英伟达 AGX Orin。

在发布会中,天数智芯展示了“彤央”系列产品在具身智能、工业智能、商业智能和交通智能四大边端核心领域的落地应用:具身智能领域,为格蓝若机器人提供高算力、低延迟的“大脑”支撑;在工业智能领域,落地园区与产线,推动产线自动化升级;在商业智能领域,瑞幸咖啡数千家门店部署彤央方案,高效处理视频流、挖掘消费数据价值;在交通智能领域,与“车路云一体化”20 个头部试点城市合作,验证车路协同方案。

整体来看,天数智芯走的路线虽然是底层技术自研,但在生态上并非封闭。在生态建设上,天数智芯与硬件厂商、解决方案提供商等多家生态伙伴签署战略合作协议,进一步完善国产 AI 算力生态闭环。通过兼容主流开发生态,持续开放底层能力,降低开发者迁移和使用门槛。未来,天数智芯还会持续增加在生态共建上的资本与人力投入,从应用到芯片与开发者一同优化 AI 应用系统,共同为应用落地提供性能、性价比与生态易用的价值。

从底层架构到产品,从应用到生态,国产算力正在实现完整闭环,这种从芯片到生态的协同能力,不仅让国产算力更可用、更可持续,也为行业探索新模式提供了更多想象空间。

整理 | 华卫

 

“一圈又一圈的循环融资,投资回报率却不尽如人意,这些 AI 系统实际用起来也远没有想象中好用,或许方向本身就站不住脚。”

 

近日,知名 AI 专家、认知科学家 Gary Marcus 在一场访谈中愤愤表示,“整个世界都在全力押注神经网络,还在这个我始终觉得毫无道理的理念上投入了巨资,但大语言模型根本无法带我们抵达 AGI 这一终极目标。”

 

这场对话由曾因成功预测 2008 年金融危机而闻名的传奇投资人、华尔街最具影响力人物之一 Steve Eisman 发起,他与 Marcus 共同探讨了当下 AI 进展的方方面面,包括商业路径、社区现状和未来方向等。Marcus 认为,大语言模型已经达到了收益递减的阶段。并且,他指出,现在 AI 领域根本没有技术壁垒了,所有 AI 企业的研发思路基本一致。

 

对于大量人才从大厂离职去办初创公司的现象,Marcus 直言道,“如果 OpenAI 真的能在下周推出 AGI,谁会在这个即将改变世界的关键节点离职,去创办一家可能要花四年时间才能做出成果的小公司?显然没人会这么做,大家都会想留在公司见证这个时刻。”在他看来,这些企业内部的人也清楚,他们根本没有做出宣称的那种突破性成果。

 

值得一提的是,他认为,OpenAI 最终会成为 AI 领域的 WeWork,这家公司原本计划以 500 亿美元的巅峰估值风光上市、却在一夕之间破产。“我觉得最终 OpenAI 可能会被微软这样的企业收购。OpenAI 每个月的亏损大概有 30 亿美元,一年就是 300 多亿美元,即便最近完成了 400 亿美元的融资,也只够支撑一年的运营。”

 

谈及各家模型的未来,Marcus 的预测是,“大语言模型会成为一种标准化商品,各家的模型只会比上一年的版本稍有提升,差距微乎其微,最终品牌差异会变得无关紧要。当产品变成商品后,价格必然下跌。”

 

以下是详细对话内容,我们在不改变原意的基础上进行了翻译和删减,以飨读者。

 

2 万亿美元押注 Transformer,根本“毫无道理”?

 

Steve Eisman:大家好,我是 Steve Eisman。今天我们请到了一位特别的嘉宾,他就是 Gary Marcus。他是大语言模型的坚定质疑者,而大语言模型正是整个 AI 领域的核心根基。接下来,Gary 会和我们分享他的观点,聊聊大语言模型到底是什么。

 

Gary Marcus:谢谢你的邀请,也感谢一两个月前你在 CNBC 对我的盛赞。

 

Steve Eisman:不客气,这都是你应得的。在正式开始之前,我的观众大多还不了解你,不如先和大家说说你的背景,让大家知道你在这个领域发表观点是完全有底气的。

 

Gary Marcus:我这辈子几乎都在研究智能相关的问题。我 10 岁学会编程后,就开始涉足 AI 领域了。我的职业生涯中,很大一部分精力都用在研究自然智能上,比如人类的智能、还有孩子是如何学习语言这类问题。我在 MIT 的博士论文围绕两个方向展开,一个是儿童的语言学习机制,另一个就是神经网络。神经网络是 AI 领域的一种特定研究方法,也被用于人类思维的建模,它的设计灵感可以说和大脑有一点松散的关联。这其实是个很巧妙的营销说法,会让人觉得它是完全基于大脑研究的,但事实并非如此,二者只是浅层关联。早年间神经网络就曾风靡一时,我在上世纪 90 年代就研究过这类模型,发现它们并不能很好地模拟人类的思维方式,但我还是投入了大量精力,想弄清楚它们的实际工作原理。

 

2012 年深度学习重新兴起时,我当时就觉得,这些东西我早就研究过了,和我博士论文里的内容高度相似。我在 2001 年写过一本名为《The Algebraic Mind》的书,在书里我其实就预判到了如今大语言模型出现的幻觉问题,还有一些推理层面的缺陷,这些都是我们今天要探讨的话题。所以当深度学习再次成为热点时,我一眼就看出了其中的诸多问题,对我来说这些问题都很熟悉。2012 年,我在《The New Yorker》上发表了一篇文章,标题是《Is Deep Learning a Revolution in Artificial Intelligence?》,我在文中写道:“深度学习确实很有意思,我很佩服 Jeff Hinton,他能长期坚持自己的研究方向。”

 

Steve Eisman:Jeff Hinton 是谁?

 

Gary Marcus:他是去年诺贝尔生理学或医学奖的得主,也是深度学习领域的核心奠基人之一。

 

Steve Eisman:原来如此。

 

Gary Marcus:他的一些学生,最近也开始认同我的观点了。Jeff Hinton 确实是这个领域的大人物,在神经网络一度无人问津的时期,是他一直坚守,这份坚持值得肯定。但当然,他的研究并非全无可议之处,我们这里就不细谈了。他让神经网络重获关注,而更值得你的听众了解的是,真正让这个领域迎来爆发的,是他的学生 Ilya Sutskever,或许还有另外几位研究者。他们找到了方法,能让这套研究了许久的系统落地应用。要知道,神经网络的研究最早能追溯到上世纪 40 年代,Jeff Hinton 也在上世纪 80 年代中期做出了不少重要贡献。而这些研究者发现,借助英伟达研发的图形处理器(GPU),就能实现神经网络的高效运行。

 

彼时的英伟达,生产 GPU 主要是为了满足电子游戏的需求。这些原本为游戏设计的 GPU,核心优势在于并行计算,简单来说,就是能同时处理多个计算任务,而非按顺序逐个完成。传统的中央处理器(CPU),运行软件程序时基本是逐行执行的,虽然现在的技术已经有了改进,但这仍是计算机科学入门课程里会教的基础原理。而 GPU 能把一个复杂问题拆解成无数个小任务,同时进行处理,它的设计初衷就是为了计算机图形处理。比如要渲染电子游戏的下一帧画面,如果逐行处理,耗时会非常久,而用 GPU 的话,能同时处理整个画面,一个子处理器负责一个像素点,以此类推。不得不说,GPU 在图形处理上的表现堪称完美,我偶尔也玩电子游戏,深知 GPU 的算力有多惊人。

 

Ilya Sutskever,还有另一位我一时想不起名字的论文合作者,他们证明了 GPU 是运行神经网络的绝佳载体,至于神经网络的具体定义和实际意义,我们之后可以再聊。他们的这一发现,让神经网络的运行实现了两大突破:一是速度大幅提升,二是能处理海量数据。在此之前,六十多年的神经网络研究做出的基本都是些玩具级的模型,而他们证明,借助 GPU 这项技术能真正实现规模化的实际应用,能在更大的维度上落地。可以说,我们如今看到的所有深度学习成果,都源于 2012 年的这次突破。

 

而在这一突破出现后,两件事接踵而至:《The New York Times》刊发了文章,盛赞深度学习的惊人潜力;第二天,我就在《The New Yorker》的博客上发表了文章。我在文中表示,深度学习固然出色,但也存在诸多问题,它注定会在一些领域表现优异,却在另一些领域束手无策。它擅长模式识别和统计分析,这一点毋庸置疑,但人类的认知活动中还有大量的抽象思维过程。比如我们能理解家谱的逻辑,进而对现实世界的相关问题进行推理,而深度学习模型永远无法擅长这类任务,它的架构本身就不适合做抽象推理。从早年对神经网络的研究以及对人类认知机制的研究中,我早就看清了这一点。你应该读过 Daniel Kahneman 的经典著作《Thinking, Fast and Slow》吧?

 

Steve Eisman:我读过。

 

Gary Marcus:Daniel Kahneman 在书中提出了双系统认知理论,他将人类的认知分为系统一和系统二。系统一的思考速度快,是无意识的、基于统计的、本能的反应;而系统二的思考速度更慢,更具思辨性,核心是逻辑推理。神经网络本质上就相当于人类的系统一,这本身没问题,系统一也是人类认知的重要组成部分,但人类的认知还有系统二的部分。尤其是在理性思考时,我们会依赖系统二,进行更审慎、更有逻辑的推理。而神经网络模型,从始至终都不擅长系统二的这类任务,直到现在依然如此。我在 2012 年就指出,深度学习模型只能实现系统一的功能,却无法完成系统二的思考。

 

而在这之后的 14 年里,整个世界都在全力押注神经网络。这里要说明的是,我们所说的神经网络,就是如今的大语言模型,大语言模型是神经网络的一种形式,抱歉,我之前没明确说明这一点。事实上,2012 年时大语言模型还未出现,后续又有不少技术突破,其中关键的就是 2017 年发表的 Transformer 论文,这也是大语言模型的起源。而全世界在这一领域的投资规模达到了天文数字,据我粗略估算,已经有 1 到 2 万亿美元了,全都投在了这个我始终认为毫无道理的理念上。这些研究者的想法是,只要持续发展神经网络,就能实现智能所需的一切能力,抵达 AGI 的目标,但他们却忽视了系统二的核心价值。

 

一开始,他们只是把神经网络当成一个巨大的黑箱,直到现在,还有很多人抱着这样的想法。他们觉得,只要把海量数据喂进去,就能得到一个拥有智能的系统,却从未从科学的角度深入思考过真正的智能究竟该具备怎样的架构。我认为这些人太过天真,我也一直试图指出这一点,这也让我成了这个领域里的“孤行者”。很长一段时间里,人们对我的观点不屑一顾,甚至不只是不屑,而是鄙夷。

 

Steve Eisman:没错,他们对你的态度远不止是不屑,而是赤裸裸的鄙夷。

 

Gary Marcus:我们还能举出很多这样的例子。我对他们的这种态度感到失望,这个话题我们可以聊很久。他们甚至对我公开表现出敌意,比如我了解到,OpenAI 内部还为我做了专属的表情包。

 

Steve Eisman:我也看到过这个消息。

 

Gary Marcus:某种程度上,这也算是一种认可吧,既觉得荣幸,又觉得有些离谱,你能看出来,我一直试图用平常心看待这件事。但这也能从侧面说明问题,Sam Altman 还在推特上称我为“喷子”。他们就是不想听我的观点,而我核心的观点,都写在了 2022 年发表的论文《Deep Learning is Hitting a Wall》里。我在这篇论文中指出,当时“规模化扩张”的理念已经开始流行,也就是通过不断投入更多数据、更多 GPU,把模型做得越来越大,他们认为只要模型足够大,就会拥有超乎想象的能力。

 

我先暂停一下,和大家解释下这个“规模化扩张”的理念。他们确实有一些数据能支撑这个观点,但这种想法依然太过天真。我把这种理念称作“万亿磅婴儿谬误”,道理很简单:一个婴儿出生时 8 磅重,一个月后长到 16 磅,并不意味着他会一直这样翻倍增长,到上大学时长成万亿磅的巨人。他们就是做出了这样天真的推断,我相信你在商业领域也经常见到这种情况。很多手握巨资的聪明人,都押注了这个理念,他们说,“我们从数据中看到了这样的发展规律,只要投入足够多的数据,就能实现真正的智能。”

 

“大模型不会思考,重构信息碎片致幻”

Steve Eisman:先稍停一下,我们倒回去说。大语言模型到底能做什么?这些研发者又认为它们本该实现什么功能?我真想把这个问题彻底讲清楚。

 

Gary Marcus:你这个问题问得特别好。大语言模型的核心工作原理,就是预测序列中的下一个内容。你可以想想苹果手机的自动校正功能,原理差不多,虽说那功能有时候能把我逼疯,你继续说。这个功能并非总能生效,核心逻辑就是你在输入句子时,它会预判接下来可能要打的内容。比如你打出“在……见我”,它大概率会推测你想说“在餐厅见我”。它会对人类的语言表达做统计分析,效果还算过得去,但绝非完美,偶尔还会出错,让人恼火,这就是我们说的自动补全。

 

而我把大语言模型称作“超级版自动补全工具”,它们只是用一种特殊的方式完成这种预测,这就是其最本质的功能。它们的运作方式里还有些有意思的点,其中一个就是会把所有信息拆解成细碎的片段,之后再重新整合,这就导致信息之间的关联会被切断。也正是因此,它们才会时不时出现幻觉现象,凭空编造内容。

 

Steve Eisman:我们稍后再细说幻觉这个问题。

 

Gary Marcus:好,回头再聊。幻觉是这类模型的典型错误之一,早在 2001 年,大语言模型甚至还没被发明出来的时候,我就指出过这个问题。我当时就说,如果一直沿着这个方向研究下去,必然会出现这个问题,而事实也确实如此。大语言模型把信息拆分成碎片,再通过这些碎片预测后续内容。如果用整个互联网的内容对它们进行训练和数据投喂,它们的表现会好得让人意外,因为几乎任何你能想到的问题,注意,这里的“几乎”是关键,几乎所有问题,此前都有人提出过,也有人给出过答案。从某种程度来说,这些模型就是功能强大的记忆机器。

 

就在前几天,《大西洋月刊》还刊发了相关的文章,而且一直以来都有大量证据能证明这一点。比如你输入《哈利·波特》的部分内容,它能直接补完整段文字,本质上就是因为它记住了这些内容。如果一个模型能记住整个互联网的信息,那确实算得上很厉害。比如你问“道奇队在搬到洛杉矶之前,主场在哪”,网上有大量相关表述,它会告诉你是布鲁克林,大概率能给出正确答案。但仅仅依靠这种方式,模型根本无法形成抽象的概念和思想,还会因为信息碎片的拆解和错误整合出现各种问题。

 

Steve Eisman:那我们现在聊聊幻觉吧。到底什么是 AI 幻觉?举个例子,再说说出现这种情况的原因。

 

Gary Marcus:幻觉就是模型凭空编造内容,还无比笃定地呈现出来,但这些内容根本不符合事实。

 

Steve Eisman:那给我们举个例子。

 

Gary Marcus:我最喜欢的一个例子和 Harry Shearer 有关,你可能听过他的名字,看过《摇滚万万岁》吗?

 

Steve Eisman:当然看过。

 

Gary Marcus:他在这部影片里饰演贝斯手,巧的是,他还是我的朋友。他出演了《摇滚万万岁》,还和 Christopher J. Guest 合作了多部影片,参演了《楚门的世界》,还为《辛普森一家》里的伯恩斯先生等多个角色配音,他的知名度还挺高的,这点对接下来的故事很重要。先倒回说个题外话,我之前遇到的最典型的幻觉案例,主角是我自己。有人发给我一份我的人物简介,里面说我养了一只叫 Henrietta 的宠物鸡,但我根本没养过,这就是个很典型的幻觉案例,纯粹是凭空编造的。后来发现,有位插画师大概叫 Gary Oswald,写过一本关于 Henrietta 去上学的书,模型不过是把这些碎片化的信息胡乱拼凑在了一起。

 

Steve Eisman:那为什么会出现这种幻觉呢?

 

Gary Marcus:这就和我刚才说的信息碎片化拆解有关了。我再给你讲讲 Harry Shearer 的那个例子。我总拿宠物鸡 Henrietta 的事举例,有一天他给我发消息,说他没遇到过宠物鸡这种事,却遇到了和自己相关的幻觉案例。他比我有名多了,至少以前是。我当时也算小有名气,而模型给出的信息里,说他是英国的配音演员和喜剧演员,但他根本不是英国人。你只要花两秒看一下维基百科,就会发现他出生在洛杉矶。他名气不小,你也能在烂番茄、互联网电影数据库上查到他的资料,他接受过很多采访,也聊过自己的成长经历,他小时候还在洛杉矶的《杰克·本尼秀》里当过童星,想找到正确的信息一点都不难。

 

我们会错误地把大语言模型当成和人类一样拥有智能的个体,但实际上,它们所做的只是重构信息碎片之间统计层面的大概率关联,所以难免会出错,这种重构过程也常会出现偏差。Harry Shearer 这个案例就是如此,模型其实就是在构建一个信息集群,用统计学的方式预测各类信息之间的关联。而现实中确实有很多英国的配音演员和喜剧演员,比如 Ricky Gervais、Don Cleeve 等等。模型就把这些信息混为一谈了,这种信息融合的方式整体来看效果还算不错,但你永远无法确定它给出的某一个具体信息是准确的,所以幻觉现象才会频繁出现。

 

有人专门追踪过相关的法律案件,发现律师提交的辩护状里,有很多引用的判例都是模型编造的,根本不存在。我第一次关注这件事时,他已经发现了约 300 起这样的案件,三个月后再看,数量涨到了 600 起。这些律师不仅用 ChatGPT 这类工具代写文书,还因此被法官发现,受到了处罚。模型会出错,而最危险的是,这些错误还很容易被忽略,人们根本发现不了。还有一个例子,CNET 是最早用 AI 写稿的媒体之一,他们首批用 AI 写的 75 篇文章里,有近一半都存在错误,编辑们却没发现。因为这些文章语法通顺、格式规范,也没有拼写错误,人们很容易就放松了警惕。

 

我把这种现象称作“看着没问题效应”。大语言模型带来的这种效应,还催生了一个新词汇,我真后悔不是我发明的,叫“低效工作产物”。这个词大概是去年由几位教授提出的,指的是人们用 AI 写报告、提交给雇主,表面上看没什么问题,实则漏洞百出,因为大语言模型根本不具备真正的理解能力。

 

Steve Eisman:你的意思是,大语言模型并不会思考。

 

Gary Marcus:它们确实不会思考,只是把统计学上大概率关联的内容拼凑在一起。

 

Steve Eisman:只是简单拼凑。

 

Gary Marcus:没错。我还喜欢用“黏合”这个词,它们只是把信息黏合在一起。从统计学角度来说,大部分内容的拼凑是合理的,但总有一部分是错误的,而这些模型根本无法区分对错,也不会主动告知你。它们永远不会说,“维基百科显示 Harry Shearer 出生在洛杉矶,但作为大语言模型,我感觉他可能出生在伦敦,你可以去核实一下”。它们从来不会给出这样的提示,只会把所有内容都当作百科全书里的标准答案呈现出来,无论真假,这也是这类模型的危险之处。

 

Steve Eisman:确实是这样。

 

Gary Marcus:这类问题其实有很多,这个案例属于另一种情况,但也和模型的本质缺陷有关。这个问题的根源在于,所有大语言模型都有数据截止日期,它们的训练都是在某个特定时间点完成的,核心模型所掌握的信息,也只到这个时间点为止。研发者会给它们加各种补救措施,比如接入网络搜索功能,但这些补救措施和核心模型的融合效果都很差,不同系统的表现略有差异而已。这类模型最大的问题就是无法应对新事物、新情况,也是它们最根本的缺陷。早在 1998 年,我就通过研究早早发现了这一点。如果一个模型本质上只是个功能强大的记忆机器,当你向它输入一个超出其训练数据范围的内容时,它就会失灵。

 

有个例子特别能说明问题,具体细节我不太清楚,但特斯拉的 AI 系统也大量采用了这种记忆式的运作方式,而且其系统的复杂程度并不高。有人用过特斯拉的召唤功能,你应该记得马斯克说过,未来可以从纽约远程召唤洛杉矶的特斯拉,但现在显然做不到,不过据说能在停车场里召唤车辆。有人在一场航空展上试过这个功能,你能在油管上找到相关视频。这个人召唤自己的特斯拉,想在航空展上秀一下,结果车子径直撞上了一架价值 350 万美元的私人飞机。

 

原因就是,特斯拉的训练数据里,根本没有教系统如何应对飞机,毕竟谁会专门训练汽车躲避飞机呢?系统对世界没有形成通用的认知,比如“不要撞上挡路的大型贵重物体”,它根本不懂这些,只会识别训练数据里的自行车、行人等目标,它的识别分类里根本没有“飞机”这一项,所以才会直接撞上去。

所有 AI 企业都变了:悄悄复用经典符号式工具

Steve Eisman:那你有没有了解到,随着这场争论的风向转变,各大企业内部现在的情况如何?

 

Gary Marcus:我了解到的情况主要有几点。首先,我一直都在说,单纯的大语言模型行不通,必须结合传统的符号式 AI 技术。但之前他们都对此嗤之以鼻,觉得这套技术早就过时了,没必要用,还说人脑的工作模式本就不是这样。而现在,他们都悄悄在一定程度上采用了这项技术,比如引入代码解释器来运行 Python 代码,这些都是经典的符号式工具。说白了,他们正在偷偷把系统二的相关能力融入模型中,只是没有大肆宣扬,但这一改变确实带来了不小的提升。

 

马斯克发布 Grok 4 时的演示就很能说明问题,我还为此写过一篇文章,标题是《为何 GPT-3 和 Grok 4 无意间印证了神经符号 AI 的正确性》。文章里放了当时的演示图表,能清晰看到,正是那些他们不愿提及的符号式工具的加入,让模型的表现变得更好。如今模型的些许提升,绝大部分都来自这个原因,而非单纯的大语言模型优化,他们其实已经悄悄放弃了纯大语言模型的研发思路。而这对你所关注的商业领域来说意义重大,因为这些符号式工具根本不需要在 GPU 上运行,普通的 CPU 就足够了。

 

Steve Eisman:原来如此。

 

Gary Marcus:对我而言,从技术角度来说,这印证了我一直以来倡导的研发思路是正确的。这是第一个变化。第二个变化是,各大企业的很多人都离职去创办自己的初创公司了。你可以想想,如果 OpenAI 真的能在下周推出 AGI,谁会在这个即将改变世界的关键节点离职,去创办一家可能要花四年时间才能做出成果的小公司?显然没人会这么做,大家都会想留在公司见证这个时刻。

 

所以,大量人才离职的事实就说明,这些企业内部的人也清楚,他们根本没有做出宣称的那种突破性成果。还有一个变化,就是谷歌正在迎头赶上。就像我几年前在 Substack 专栏里预测的那样,因为现在所有企业的研发思路基本一致,这个领域根本没有技术壁垒。

 

Steve Eisman:没错,完全没有技术壁垒。

 

Gary Marcus:你和其他一些人都认为,如果所有人都在做大语言模型的规模化扩张,那么最终的赢家就是最有实力承担这笔扩张成本的企业。而放眼整个行业,谁的资金实力能超过谷歌?根本没有。

 

Steve Eisman:确实。

 

Gary Marcus:我其实也表达过类似的观点,只是表述略有不同,你的这个说法其实也没错。我当时的观点是,行业头部企业会逐渐趋同,而随着大语言模型成为标准化商品,行业内会引发价格战,服务定价会大幅下降。事实也确实如此,现在大语言模型的按 token 计费价格,已经暴跌了 99%。价格战确实爆发了,而最终的受益者自然是谷歌,这一点我当初虽然没有直接点明,但也有所预判。我大概是在 2024 年 3 月,也可能是 2023 年 8 月开始写相关文章,当时就说,所有企业都在遵循同一种研发思路,没人掌握什么独门绝技,这就意味着头部企业的产品会越来越趋同。

 

大语言模型会成为一种标准化商品,各家的模型只会比上一年的版本稍有提升,差距微乎其微,最终品牌差异会变得无关紧要。这一趋势带来的结果就是,谷歌迎头赶上了,中国的企业也追上来了,Anthropic 同样不甘落后。就像你说的,当产品变成商品后,价格必然下跌。这对终端消费者来说是好事,但对企业的商业模式来说却是巨大的打击。毕竟企业原本的设想是,花巨资采购 GPU,然后靠模型服务赚回巨额利润。

推理模型进行不了逻辑分析,再升级也没价值?

Steve Eisman:我们能不能聊聊推理模型?先给我的观众解释一下,推理模型和大语言模型有什么区别?推理模型是基于大语言模型研发的吗?

 

Gary Marcus:推理模型是在大语言模型的基础上运作的,但它不会像大语言模型那样直接给出第一个想到的答案,而是会反复迭代、花费时间去推敲,试图得出最优解。至于具体的研发细节,各家企业都没有公开太多。传统的神经网络模型,在某种意义上都是一次性输出结果的,当然现在行业内对“一次性”的定义有所不同。简单来说,就是把数据输入模型后,神经网络会立刻完成一次正向传播,粗略来讲,模型中的每个神经元都会处理信息并生成对应的结果。而推理模型则会进行多次传播,这是本质上的区别。

 

我有个朋友把传统模型的输出方式称为“恒时推理”,意思是模型生成答案的时间基本固定,无论什么问题,耗时都相差无几:把数据输入模式识别器,模型会根据现有的模式给出最优解。而推理模型采用的是全新的“变时推理”模式,我之后会聊聊它的适用场景和短板,这种模式的特点是,处理不同的问题,耗时会有所不同。目前还没有企业能完全解决推理模型的所有技术难题,但在一些场景下,它的表现确实不错。

 

据我了解,推理模型的研发思路之一,就是让模型模仿人类解决问题的思考过程,毕竟这些模型本质上都是模仿系统。比如在解决几何题或代数题时,模型会刻意模仿人类的解题步骤。人类解决这类问题需要一步步推导,融合了推理能力的神经网络模型,同样需要分步骤完成。

 

Steve Eisman:那推理模型的优势是什么?又有哪些明显的短板?

 

Gary Marcus:在回答这个问题之前,我想先提一点:推理模型的成本天生就更高,因为它需要占用 GPU 更长的时间来生成答案。

 

Steve Eisman:好的。

 

Gary Marcus:那我来说说它的适用场景和短板。推理模型最擅长的,是那些能生成形式规范、可验证的数据来训练模型的领域。比如数学和计算机编程,我们可以编写程序生成各种不同的代码片段来训练模型,也能生成各类几何证明题的解题思路。这类领域之所以适合推理模型,是因为它们都属于封闭领域,相关的知识边界是明确的。

 

Steve Eisman:没错,数据库中的知识量和相关的有效知识量都是有限的。

 

Gary Marcus:对,就是这个意思。所以推理模型在几何、编程这类领域的表现最好,而在开放式的现实世界中,它的表现就差强人意了。我总会从你所熟悉的金融领域举例子,当然你肯定有更贴切的案例,比如长期资本管理公司的破产。其实那也是一种模型失效的情况,只是模型的原理不同,当时没人考虑到俄罗斯债券市场崩盘的可能性,最终导致美国金融市场出现了大幅动荡。这是因为当时的金融模型,其参数设定根本没有覆盖这类极端情况。

 

而现在的推理模型,也面临着类似的问题:它其实并不具备真正的思考能力,哪怕是关于债券的基本问题,它也无法进行真正的逻辑分析。如果用它处理的问题,和训练数据中的内容高度相似,那一切都顺理成章;但一旦超出了它的认知范围,就像我们之前聊到的特斯拉的例子,模型就会立刻失效。

 

Steve Eisman:也就是它依然无法应对新事物、新情况。

 

Gary Marcus:没错,即便升级到了新的推理模型,核心问题依然是无法处理未知信息。它只是在原有基础上做了些许改进,但本质上还是受限于对新事物的适配能力。而关键问题在于,现实世界中,大多数有价值的问题都包含着一定的新要素、新情况,并非全是已知的问题。当然,也有例外,我们确实可以用这种不擅长处理新事物的技术,在一些狭窄的领域做出成绩,比如国际象棋和围棋。这些领域的规则千百年间基本没有太大变化,有海量的历史数据可供参考,模型还能通过自我对弈生成更多训练数据。

 

但在开放式的现实世界中,比如政治、军事战略领域,永远会出现训练数据中没有的新情况。比如,如何应对一位总统授意将军用飞机伪装成民用飞机,去袭击另一个国家的行为?这种情况此前从未发生过,想要分析这类问题,根本无法依靠过往的数据,必须依靠抽象的概念思考,比如权力、外交规则、国际格局的构建逻辑等,这些都是相关领域的学者更擅长的内容。要做到这一点,模型需要接受正确的训练,具备抽象思维能力,而不是单纯依赖数据。即便是在商业应用中,比如看似简单的客户服务,也会遇到类似的问题:用户总会用全新的方式提出问题,而一旦出现这种情况,模型就会因为无法应对新情况而失效。

OpenAI 只够支撑一年,要么倒闭、要么求救微软?

Steve Eisman:假设我任命你为 AI 领域的总负责人,由你掌控所有相关企业,指导整个行业的研发方向。如果你把这些企业的负责人都召集到一起,你会告诉他们,想要实现真正的突破,需要做些什么?

 

Gary Marcus:我会告诉他们,整个行业需要更多的学术思维多样性。就像在你的金融领域,你会告诉人们不要把所有鸡蛋放在一个篮子里,要做资产配置,分散投资股票、债券、黄金、房地产等。而 AI 领域在过去这些年,就是把所有的精力都押在了一个思路上,大语言模型的规模化扩张,这是行业唯一的研发方向。不可否认,这个思路确实带来了一些成果,模型并非毫无用处,我们也确实能利用它解决一些问题,但它终究无法带我们实现所谓的通用人工智能(AGI)这一终极目标,而且这还是一种成本极高、效率极低的研发方式。你可以对比一下,我的孩子只需要少量的信息和学习,就能理解这个世界,而大语言模型却需要学习整个互联网的海量数据,二者的效率差距简直可笑。

 

这些企业花费巨资,做出的却是效率低下、可靠性堪忧,但又有一定使用价值的模型。我们需要的是其他更高效、更经济、更可靠的研发思路,企业应该投入资金去探索这些新方向。但问题的根源,其实也来自你所熟悉的金融领域:风险投资家能从那些听起来合理的投资项目中,赚取 2%的管理费。我很好奇你对这个观点的看法,因为这毕竟是你的专业领域。试想一下,作为风险投资家,如果有一个项目能让你管理一万亿美元的资金,哪怕你根本不在乎项目最终的结果,也能赚到 2%的管理费,这足以让你成为亿万富翁。我并不是说所有的风险投资家都是这样想的,我见过很多投资人,他们确实真心想推动技术进步。

 

但就像任何行业一样,很多投资人都带着功利的心态。对这些功利的投资人来说,最理想的投资标的,就是那些听起来前景广阔、无需真正落地、成本极高的项目,这样他们就能赚取巨额的管理费。我认为,这就是整个行业都沉迷于规模化扩张的原因:投资人能从中赚取不菲的管理费,而且数额极其可观。但从学术研究的角度来说,这绝不是正确的选择,最终也没有带来理想的结果,反而造成了巨额的资金浪费。风险投资家赚走了管理费,而那些有限合伙人,最终会损失大量的资金。

 

Steve Eisman:你是不是觉得,这个行业的泡沫快要破裂了,还是说现在根本没法判断?

 

Gary Marcus:其实炒股的那句老话你我都懂,市场保持非理性的时间,可能比你保持偿付能力的时间还要长。

 

Steve Eisman:没错。

 

Gary Marcus:我去年用一个比喻形容当下的情况,就像《兔八哥》里的歪心狼跑到了悬崖边,它不往下看,就不会掉下去。当然这不符合物理规律,但很有意思。而现在,你所在的投资圈里,已经有人开始往下看了。我觉得从去年 11 月开始,就不断有投资人说,他们看到了一圈又一圈的的循环融资,投资回报率却不尽如人意,这些 AI 系统实际用起来也远没有想象中好用,或许这个赛道本身就不靠谱。我个人觉得,英伟达的产品做得非常出色,生态体系也很完善,不只是芯片本身,配套的软件等方方面面都很好。我见过黄仁勋,他给我留下了很深的印象,英伟达的产品确实很棒。

 

但问题的关键是,他们最终能卖出多少芯片?我认为,目前的芯片销售全靠市场投机,大家都在赌,我稍后再说说其他人的看法。所有人都在投机,认为这类芯片的需求会无限大,而这种投机的底层逻辑,是相信这些 AI 模型最终能实现 AGI。真正的 AGI 能完成人类能做的所有事,其商业价值不可估量,每年创造数万亿美元的价值都有可能。但《华盛顿邮报》几天前报道了一项一个月前完成的研究,研究显示,人类日常的工作中,只有 2.5%的工作能真正由 AI 系统完成。所以人们幻想中 AI 能完成的大部分工作,其实它都做不到,也根本做不好。这就意味着,最终所有在芯片上的投资,都会变得毫无意义。

 

而在这些企业里,OpenAI 可能是最脆弱的那个。OpenAI 有超过一万亿美元的未兑现承诺,却从未实现过盈利,如今又身处一个产品高度同质化的市场。它最大的竞争对手谷歌已经迎头赶上,甚至可以说实现了反超,还拿下了和苹果的合作大单,这可是笔大生意。所以我觉得 OpenAI 现在已经手忙脚乱了,实在看不出它的估值有任何合理性。

 

Steve Eisman:对我所在的投资圈来说,如果投资人开始从 OpenAI 撤资,而它又融不到新的资金,那会给整个生态系统带来连锁反应。

 

Gary Marcus:没错,这正是我认为即将发生的事。我觉得最终 OpenAI 可能会被微软这样的企业收购。我这几年一直说,OpenAI 最终会成为 AI 领域的 WeWork。未来人们都会疑惑,它当初怎么会有那么高的估值,这完全不合逻辑。OpenAI 的年收入只有几十亿美元,却每个月亏损数十亿美元,还有众多竞争对手,这样的企业根本撑不下去。如果投资人撤资,或者不再继续注资,OpenAI 就会陷入巨大的危机。它每个月的亏损大概有 30 亿美元,一年就是 300 多亿美元,即便最近完成了 400 亿美元的融资,也只够支撑一年的运营。

 

Steve Eisman:没错,也就一年的时间。

 

Gary Marcus:而且现在很多人都在持观望态度,他们会觉得,谷歌才是更适合这场竞争的玩家,毕竟谷歌已经追上来了。如果这场竞争只拼规模,那赢家必然是谷歌,这是毋庸置疑的。谷歌有能力做出巨额投入,甚至根本不需要英伟达的芯片,因为他们自研了张量处理单元,能实现类似的功能,所以谷歌的抗风险能力更强。他们有稳定的财务支撑,最终一定会赢。

 

Steve Eisman:没错。

 

Gary Marcus:只要有一部分人意识到,OpenAI 想要活下去,需要的资金量是天文数字,它的处境就会变得岌岌可危。它下一轮可能需要 1000 亿美元的融资,而全世界能拿出这么多钱的人,可能也就五个。就算其中四个愿意投资,只要有一个拒绝,就会出问题;而如果五个都拒绝,它要么倒闭,要么只能去找微软求救。

“脱离世界模型做 AI,根本行不通”

Steve Eisman:Gary,在我们结束访谈前,还有什么我该问却没问的问题吗?

 

Gary Marcus:我觉得这次访谈特别棒。要说还有什么重要的点没聊到,那应该就是“世界模型”这个概念。

 

Steve Eisman:没错,我本来也想聊这个。你一直说我们需要构建世界模型,这个概念完全超出了我的专业领域,不如你给大家解释一下,到底什么是世界模型?

 

Gary Marcus:不同的人对世界模型有不同的定义,简单来说,它就是在计算机系统中,构建一个能表征外部现实世界的体系。我说说我认为我们需要的世界模型是什么样的:软件内部需要有一个结构,能对应现实世界中的各种事物。比如导航系统的世界模型,需要能表征道路的分布、连接方式,以及不同路段的通行时间。在传统的 AI 领域,世界模型是研发的起点,所有的研究都基于此,没人会想过脱离世界模型做研发。Herbert Alexander Simon 是上世纪 50 年代 AI 的奠基人之一,他写过一本自传叫《Models of My Life》,他一生都在研究各类模型和世界模型,并且认为,做好 AI 的关键就是构建正确的世界模型。

 

而大语言模型却试图脱离世界模型运作。构建一个针对特定事物的世界模型,尤其是复杂事物,需要付出巨大的努力。比如过去研发专家系统时,研究者需要构建能模拟医生思考方式的模型,能表征病人身体机能、生理结构的模型,这个过程非常繁琐。当时还有一个专门的领域叫知识工程,做这项工作成本极高,没人愿意做。大语言模型和其他类型的神经网络出现后,研发者宣称,不用再做这些繁琐的工作,只需要让系统从数据中自主学习就行。

 

但事实证明,这根本行不通。就像大语言模型会把出生在洛杉矶的 Harry Shearer 说成是伦敦人,原因就是它没有一个完善的世界模型,无法像设计精良的软件那样,精准调取正确的信息。所以我们必须在 AI 系统中融入世界模型,才能避免幻觉现象的发生。

 

Steve Eisman:我还是不太理解世界模型到底是什么。

 

Gary Marcus:用非专业的语言解释确实有难度,简单说,它就是对世界的一种表征,而且这个“世界”不一定是现实世界。比如我们对《星际迷航》《星球大战》《哈利·波特》这些虚构世界,也会有对应的世界模型。这也是人类和当前 AI 系统最本质的区别:当我们看一部电影、读一本书时,会在脑海中构建出这个世界的运行规则,并且能判断情节是否符合这个世界的逻辑,会不会有不合理的设定。比如看了《哈利·波特》,我们会知道里面的人能骑着扫帚飞,但不会把这个设定和现实世界混淆,不会回家后跳上扫帚就想从窗户飞出去。

 

人类能快速构建并同时掌握多个世界模型,就算看一部新的科幻剧,20 分钟左右就能理解这个全新世界的规则,这是人类的天赋。但在 AI 领域,无论是传统的符号式 AI,还是现在的大语言模型,都做不到这一点。传统 AI 的优势是可以人工构建世界模型,你可以雇一群学者花六周时间,把一个问题的相关规则梳理清楚,构建成模型。最近离世的顶级研究者 Doug Lenat 就做过这样的研究,他为《罗密欧与朱丽叶》构建了世界模型,他的系统能真正理解这部剧的关键情节,而非从网上的读书笔记中获取二手信息,表现非常惊艳。但问题是,我们不知道该如何让传统 AI 自主学习、构建世界模型。而大语言模型则完全做不到构建世界模型,只是在假装自己能做到。

 

我有个很经典的例子,就算用整个互联网的内容训练大语言模型,让它接触海量的国际象棋规则和对局记录,它依然会走出违规的棋步,因为它从未真正抽象出国际象棋的运行逻辑。这一点就足以说明问题了。试想一下,一个人看了一百万盘象棋对局,读了维基百科、象棋网站上的所有规则,还看了 Robert James Fischer 的象棋著作,不可能连基本的棋规都掌握不了,但 AI 就是做不到。

 

所以我们需要研发能自主归纳出世界模型的 AI 系统,这类系统能从数据中挖掘因果规律,识别其中的核心要素。这是一个难题,不是说有人明天回家鼓捣一下就能解决的。长期以来,无论是传统 AI 还是大语言模型,都在回避这个问题,而现在,我们必须直面它。

 

Steve Eisman:看来这需要很长的时间来研究。

 

Gary Marcus:确实需要很久。我想说的是,AI 确实会以我们难以想象的方式改变世界,但绝不是现在,靠当下的这项技术根本做不到。我们需要把这一点考虑进去,做出合理的投资决策。现在的问题是,我们到底是在投资基础研究,还是在为一项已经成熟的技术做规模化投入?答案显然是后者。而当下的市场,大多是在投机,赌那些目前行不通的技术,只要做得更大,就能凭空实现突破。

 

但事实上,单纯的规模化根本解决不了这些核心问题,我们真正需要的是扎实的基础研究。这是我过去五年一直强调的观点,也是 SSG 在去年 11 月提出的观点,而 Ilya Sutskever 也表达了类似的看法。当我们这些背景截然不同的人,都达成了这样的共识,行业内的人其实应该认真听一听。

 

参考链接:

https://www.youtube.com/watch?v=aI7XknJJC5Q

整理 | 华卫

 

“世界上不会再出现第二个我这样的 CEO 了。”近日,英伟达联合创始人兼首席执行官黄仁勋(Jensen Huang)在一场私人访谈中这样说道。

 

据称,这场深度对话已经酝酿了三十年,将黄仁勋鲜为人知的一面展现在大众眼前。主持人 Jodi Shelton 与黄仁勋的职业交集始于三十余年前,彼时,图形处理器(GPU)尚未掀起席卷全球的 AI 革命。从加速计算的源头到生成式 AI 的前景,这场对话堪比一堂远见大师课。

 

在访谈中,黄仁勋表示,从某种意义上说,英伟达其实有 61 位 “CEO”。过去这些年,包括他在内,很多人都犯过严重的错误,但在英伟达,从来没有人因为犯错而被解雇。“我们打造了一个足够安全的环境。”他还透露,CEO 这个职位,远比人们想象的要脆弱得多。“实际上,我们可能是公司里最脆弱的一群人。不过对我来说,承认这种脆弱,并不是什么难事。”

 

有意思的是,他提到,在很多方面,自己都算是一个 “不情愿的 CEO”。“公开演讲简直让我怕得要死。比起待在公司外面抛头露面,我更喜欢扎根在公司内部;比起发表演讲,我更喜欢安静做事;我甚至一点都不喜欢做主题演讲,但为了公司,我必须去做这些事。”

 

此外,黄仁勋称,英伟达的成功,绝不是靠产量取胜。“虽然是英伟达发明了 GPU,但从产量来看,我们其实是全球最小的 GPU 制造商。很多不知名的厂商,GPU 产量都比我们高。”而“没有终极目标” 这一点,对英伟达的发展真的起到了至关重要的作用。

 

对于五年后的世界,黄仁勋断言,英伟达和整个行业在 AI 领域的投入,必将彻底改变计算机的运作模式,未来的计算机,将从 “由人类编程” 进化为 “在人类引导下自主学习编程”。并且,100% 的工作岗位都会发生变化,但不会有 50% 的岗位消失。未来的趋势不会是就业岗位减少,反而是大家会变得比现在更忙碌。并且,那些现在没有工作的人,很可能会因为 AI 获得谋生的手段。

 

网友们纷纷就此次访谈对黄仁勋评价道,“我从未见过他如此坦诚直率,真是不可思议。”

 

以下是详细对话内容,我们在不改变原意的基础上进行了翻译和删减,以飨读者。

“走了整整 33 年才看到成果”

Jodi Shelton:大众其实特别好奇像你这样的人,毕竟你们正在定义科技的未来,而科技的未来就是整个世界的未来。所以我们想做的,是挖掘你成功光环背后的个人经历以及支撑你走到今天的价值观。你对这个定位怎么看?

 

黄仁勋:说实话,不太喜欢。

 

Jodi Shelton:真的不喜欢吗?可你现在是名人啊,大家都想了解名人的故事。

 

黄仁勋:我从不觉得自己是名人,也根本不是什么名人。我只是恰好执掌着一家举足轻重的企业,是这家堪称史上最成功的科技公司之一的 CEO。很早以前,我们就做了一些正确的决策。回溯到 1993 年,我们就立志要重塑计算行业,而且对于计算机的架构,我们有着自己独到的见解。在很长一段时间里,这个观点都不被看好,甚至颇具争议。要知道,当时整个行业的焦点都在微处理器和 CPU 上。说起来,我和你就是在那个时期认识的。我们早在 1993 年底或者 1994 年就相识了,对吧?从那时起,英伟达就在做我们现在依然在做的事:重塑计算。

 

Jodi Shelton:没错,我记得很清楚。那时候的硅谷,正处在 CPU 为王、摩尔定律大行其道、个人电脑革命如火如荼的年代。

 

黄仁勋:是啊。而且我们早期的客户,全都是 PC 芯片组领域的初创公司。这些企业可以说是半导体行业辉煌版图的奠基者,像 Cirrus Logic、S3 Graphics、Western Digital、Trident Microsystems,你还记得这些名字吗?

 

Jodi Shelton:当然记得。

 

黄仁勋:这些公司,称得上是英伟达的 “前辈”。而现在,我们依然在这条路上前行,致力于打造一种全新的计算模式。这条路,我们走了整整 33 年才看到成果。我只是恰好成为了这家公司的 CEO,仅此而已。

 

Jodi Shelton:可能对你来说,这一切是水到渠成,但对整个世界而言,英伟达的崛起堪称横空出世。大概从 2023 年 11 月起,整个世界的科技格局都因你们而改变。你是怎么看待这次转型的?

 

黄仁勋:要知道,想要创造未来,就必须在未来到来之前,先置身于未来之中。坦诚地说,从我们发明 CUDA 技术、推出相关产品的那一刻起,就已经踏上了通往未来的道路。英伟达最让我骄傲的一点是:我们不仅擅长技术发明,更擅长把技术转化为产品推向市场。世界上有太多的公司、科研人员和发明家,他们确实创造出了先进的技术,但最后往往只能感慨 “这个技术我早就做出来了”、“这个想法我早就有了”。每次听到这种话,我都觉得很惋惜。这些优秀的发明家,遗憾的是没能遇上同样优秀的产品创新者。

 

所谓产品创新者,就是能把一项技术发明转化为一款能推向市场的成熟产品的人。而这还不够,你还得为产品制定精准的市场策略,甚至需要亲手培育出一个全新的市场,让市场能够接纳你研发的产品和制定的策略。英伟达就是这样一家公司,我们具备技术发明、产品创新、策略制定、生态构建乃至市场培育的全链条能力,而且我们已经多次成功做到了这一点。所以对我来说,这种 “身处未来” 的状态,已经持续了很长时间。

 

Jodi Shelton:确实如此。

 

黄仁勋:很久以前,我们有一个战略,现在已经不怎么提了,叫 “CUDA 无处不在”。很多人都听过我当年四处推广 CUDA 的故事,跑遍各大高校、初创企业和成熟企业。有时候,台下听众加起来也就三个人,但我还是会掏出笔记本电脑,为他们演示 CUDA,告诉他们这项技术将如何改变世界。我走访了无数科研机构和实验室,参加了数不清的行业会议,推广 CUDA 的次数,估计比世界上任何人都多。长久以来,我一直沉浸在这样的 “未来图景” 里,讲的故事多了,甚至会产生一种 “未来已经到来” 的错觉。

 

Jodi Shelton:确实有这种感觉。

 

黄仁勋:所以现在看到这一切成为现实,我依然满心欢喜。而且在我看来,这一切其实并不意外,因为支撑英伟达发展的是计算机科学领域最根本的底层逻辑,不是靠一时的直觉,也不是凭主观的喜好。从很多方面来说,如今的成果是一种必然。但我想说的是,当你把一件事物的速度提升一千倍,或者规模扩大一千倍、体积缩小一千倍时,无论这件事物原本是什么,都会发生质的飞跃。而这种质变最终带来的结果,往往是超乎想象的。

 

我们早就预见到深度学习技术有着巨大的扩展潜力,这也是我们举全公司之力押注这一领域的原因。我们知道,AlexNet(深度卷积神经网络)绝不会是深度学习的终点,这种技术架构天生具备极强的可扩展性,再加上全球海量的数据资源,深度学习的爆发是水到渠成的事。不过我当时也清楚,有一项技术会成为我们前进路上的障碍,那就是无监督学习,或者说自监督学习,也就是让计算机摆脱人工标注数据的束缚,实现自主学习。因为人工标注数据的效率,迟早会成为技术发展的瓶颈。而当无监督学习技术取得突破的那一刻,我就知道,我们的时代来了。

 

就在不久前的投资者路演上,还有人跟我说,我当时就明确跟他们提过这场 “质变”。如果你去回看当时的财报电话会议,就会发现每当谈到对世界至关重要的技术话题时,我都会把这一点讲得非常透彻。在每一场投资者路演,在每一个我演讲的场合,我都会强调这个观点。如今,无监督学习技术确实取得了重大突破,深度学习的规模效应也彻底释放出来,我们才算真正驶入了发展的快车道。但即便如此,这项技术如今能解决的问题,依然让我感到惊喜。我们早就预料到技术会发生质变、计算平台会迎来变革,但我们没想到,变革的成果如此丰硕。

 

我们现在能够解读蛋白质的 “语言”、细胞的 “语言”、量子的 “语言”,能够读懂世间万物的各种表征形式。过去我们用来描述信息的方式,如今正在被彻底重塑。从几何图形、纹理材质到如今的 3D 高斯和 3D 点云,信息的呈现形式日新月异。这种感觉就好像人类突然变得无比聪慧,连英语这种语言体系都随之改变了。我们不再沿用过去的词汇、语法和句式,因为我们的智慧已经进化到了一个全新维度,能够用一种全新的方式进行交流。或许未来人类的交流方式会变成简单的 “嘀嘀嗒嗒” 的信号声。这让我想起了电影《降临》里的场景,人类突然开始用抽象的图形进行沟通,仅仅通过图形就能传递海量的信息,实现更深层次、更高效率的交流。

 

最不可思议的是,我们现在解决的很多问题在过去是完全无法想象的,而且解决问题的速度也远超以往。过去我们常说摩尔定律,而现在英伟达的发展速度完全可以用 “英伟达定律” 来形容,比过去快了整整一千倍。未来十年必将是波澜壮阔的十年,光是想想就让人无比兴奋。

 

Jodi Shelton:要做到你所做的这些事,要能够预见未来,并且坚信未来一定会到来,需要何等强大的自信啊。就像你之前说的,我们 1994 年就认识了,这么多年来,你一直都是这个样子。

 

黄仁勋:是啊,我记得很清楚。

 

Jodi Shelton:那时候我才二十几岁。你应该比我大一点吧?

 

黄仁勋:当时我差不多 29 岁,快 30 岁了。

英伟达有 61 位“CEO”,从没有人因犯错而被解雇

Jodi Shelton:我还记得我们第一次见面的场景,当时我是为了给杂志写稿采访你。我问你:“黄仁勋,硅谷人才流动频繁,很多人来了又走,你会担心这个问题吗?” 毕竟当时很多 CEO 都在抱怨这件事。而那时你才 29 岁或 30 岁,你是这么回答我的:“英伟达既不是教堂,也不是监狱。想来的人可以来,想走的人也可以走。” 我当时听完特别震撼,心里想着:“这个人到底是谁啊?” 年纪轻轻,却有着如此的自信和智慧。我还听过一个类似的故事,张忠谋( Morris Chang)第一次见到你的时候,你当场就说:“我会成为你最大的客户,至少也是最大的客户之一。” 他当时的反应是:“哇,这小伙子可真有魄力。” 所以我很好奇,你这么年轻的时候,这份自信是从哪里来的?

 

黄仁勋:哈哈,你要知道,什么都懂其实也挺痛苦的,我开玩笑的。对了,张忠谋要是知道英伟达现在是台积电最大的客户,一定会很开心的。

 

Jodi Shelton:那是肯定的,他肯定会为你感到骄傲。

 

黄仁勋:我也为他感到骄傲。要知道,在个人电脑革命时期,英伟达就曾是台积电最大的客户。如今,我们再次成为了他们最大的客户,对此我感到非常欣慰。言归正传,我觉得一个人必须坚信自己所相信的东西。而且这份信念,不能建立在道听途说之上,不能因为别人说了什么,你就去相信什么。你必须认真思考,梳理出自己相信这件事的逻辑,并且把这些逻辑拆解成可靠的底层原则。之后,你还需要定期检验这些原则,确保你所秉持的信念、所付诸的行动,都是建立在坚实的基础之上的。

 

如果这个基础不够稳固,或者因为某些原因发生了变化,那就说明它可能并非真正的底层原则 ,也许它并没有锚定在物理规律或客观事实之上。一旦出现这种情况,你就要重新评估,然后及时调整方向。我一直都是这样做的。而且,如果你真心相信一件事,就应该付诸行动去实现它。我从 1993 年起就坚信我们正在做的事情,直到今天,这份信念依然没有改变。正因为坚信不疑,所以我才会不断地推演,不断地在脑海里进行逻辑梳理。我会持续复盘过去的决策,也会不断预判未来的趋势。

 

就像昨天我们开了那么多场会议,每场会议上,我都会重新梳理我们一路走来的逻辑。你会发现,过去的那些假设,有些是正确的,但也有些是错误的。正是因为我们足够灵活,能够根据实际情况及时调整方向,才最终走到了今天。所以,时常回头复盘、重新推演过往的决策,是一件很有意义的事,它能帮你更好地锻炼向前推演的能力。正因为我一直坚持这样做,所以我始终活在自己认定的真相里。直到现在,我依然觉得自己只是英伟达的一名员工。我非常在乎这家公司,但公司里有很多人都和我一样,对这家公司倾注了深厚的感情。

 

在一家治理完善的公司里,CEO 的角色定位是很明确的。CEO 需要向董事会汇报工作,而董事会则要对股东负责。如果 CEO 的工作表现没有达到董事会的预期,不管董事会有 12 位、13 位还是 15 位成员,他就会被解雇。所以说,CEO 其实也是公司这个组织里的一名员工。这就是为什么我说,英伟达既不是教堂,不是想来就能来;也不是监狱,不是想走都走不了。这种心态能让你始终保持脚踏实地,保持谦逊,保持锐意进取的状态,因为你必须每天都努力,才能对得起自己的这份工作。

 

有时候会有人问我:“黄仁勋,你热爱自己的工作吗?” 我会告诉他们,我并非每天都热爱这份工作,但我每天都会全力以赴去做好它。我觉得,这种态度源于两个方面:第一,我坚信自己是这份工作的最佳人选;第二,我必须每天都努力,才能配得上 “最佳人选” 这个身份。

 

Jodi Shelton:在大家眼里,你就是英伟达的代名词,英伟达就是你。这么多年下来,你已经和这家公司深度绑定了。

 

黄仁勋:我应该是英伟达内部被拍照最多的人吧。

 

Jodi Shelton:没错。不过,要是将来换了新的 CEO,这个人真的能接好你的班吗?

 

黄仁勋:世界上不会再出现第二个我这样的 CEO 了。原因很简单,我是被这家公司一步步培养起来的。刚创立英伟达的时候,我对怎么当 CEO、怎么做战略规划、怎么打造产品、怎么开创一个全新的行业,一窍不通。我只知道怎么融资,却不懂怎么和股东沟通,不了解股东、政策制定者、各国领导人以及企业管理者的想法,也不知道该如何把握员工的心态、如何打造企业文化,甚至连 “企业文化” 这个词到底意味着什么,我都无法准确界定,让我制定公司战略那更是天方夜谭。这就是我第一天接手工作时的真实状态。而在过去的 33 年里,我在这些领域都一步步做到了得心应手。

 

如果说这个世界上有谁能称得上是 “企业战略宗师” 或者 “行业开创者”,那这个人大概就是我这样一个小个子。我把自己的整个职业生涯都投入到学习这些能力上,而且我本身就是个好学生。除此之外,我对这份工作的投入程度和深厚感情,是很难通过招聘来复制的。在我心里,英伟达就像我的孩子一样,我对它倾注了全部的心血。我的家人也陪着我一起,为这家公司的成长付出努力。这种对公司的特殊情感,是很难被替代的。毕竟 33 年来,我见证了英伟达的每一次成功、每一次失败、每一次挫折,亲历了它做过的所有明智决策,也目睹了它犯下的各种错误。这种对公司的深刻理解和情感联结,不是随便招一个能力出众的人就能替代的。

 

不过从另一方面来说,英伟达的管理团队架构其实早就做好了准备。我现在有将近 60 位直接下属,他们中的每一个人,放到其他公司都能胜任世界级 CEO 的职位。我总是当着他们的面推演各种决策逻辑,我的每一个决定,都是在他们的注视下做出的,我会把背后的思考过程原原本本地讲给他们听。公司的每一次成功、每一次挫折、每一个挑战、每一场困境,我都会和他们一起复盘。所以从某种意义上说,英伟达其实有 61 位 “CEO”。他们每个人都对这家公司饱含深情,很多人已经在这里奋斗了 33 年。我认为,英伟达的成长模式是独一无二的,这也造就了它无可比拟的韧性。

 

Jodi Shelton:显然,你搭建的这套管理架构在行业内已经成了一段传奇,所有人都在谈论你这近 60 位直接下属。要让这样的架构顺畅运转,这些人肯定都得是万里挑一的顶尖人才。

 

黄仁勋:没错。

 

Jodi Shelton:他们不光要头脑聪明,毕竟硅谷从来不缺聪明人,更得是适配英伟达的顶尖人才。

 

黄仁勋:确实如此。

 

Jodi Shelton:那你能不能跟我说说,你是怎么筛选和培养这些人才的?另外,我记得你有个原则,找不到合适的人,就宁可让职位空着。我想到了 Colette Kress 的例子,你当时面试了 22 位首席财务官候选人,最终才选定了她。现在她在华尔街已经是一位传奇人物了。你当初是怎么选中她的?你选拔这类核心人才的标准是什么?

 

黄仁勋:在我看来,宁让职位空着,也不能让不合适的人占着位置,所以我从来不会急于招人。就算 CEO 的位置暂时空缺,或者某个副总裁职位没人接任,公司的运转也不会停滞。只要你坚信这一点,坚信 “空位胜于错配”,你就有足够的时间去寻找那个真正合适的人。这个合适的人选,需要满足很多条件,其中很重要的一点,就是你得发自内心地欣赏他、认可他。

 

我记得 Colette Kress 入职第一周的时候,就问过我:“黄仁勋,你希望我在首席财务官这个岗位上干多久?” 我告诉她:“只要我们还活着,只要死亡不将我们分开,你就一直干下去。” 因为任何其他答案都是没有意义的。这份工作没有所谓的 “截止日期”,唯一的终点,就是当她觉得英伟达不再适合自己的时候。这个原则不仅适用于 Colette,也适用于我那 60 位直接下属。我愿意为了等待合适的人,让职位空很久。而在这个过程中,公司依然会稳步向前。无论这个空缺的职位对应着什么使命、什么工作,大家都会主动顶上。退一步说,就算没人接手,我也会尽全力扛起这份责任,保证公司正常运转。

 

这就是我的用人哲学,永远不要让不合适的人占据岗位,耐心等待那个对的人出现。经常有人问我,什么样的员工才算优秀员工,什么样的管理者才算卓越管理者。说来奇怪,我其实没有标准答案。因为能走到我面前的人,都足够聪明、足够能干。你随便找一个首席财务官,我敢保证他绝对胜任本职工作。其他岗位的候选人也是如此。在我看来,英伟达之所以能创造奇迹,关键不在于单个人的能力有多强,而在于团队成员之间的 “化学反应”。更重要的是,这源于我们的企业品格。这种品格,才是一家伟大公司的核心竞争力。市面上有很多公司都在做芯片,虽然是英伟达发明了 GPU,但从产量来看,我们其实是全球最小的 GPU 制造商。

 

这话听起来可能有点不可思议,但事实就是如此,很多不知名的厂商,GPU 产量都比我们高。很明显,英伟达的成功,绝不是靠产量取胜。我认为,真正的秘诀在于我们独特的企业文化和企业品格、团队在逆境中凝聚在一起的力量。在外人看来,我们似乎总是一帆风顺,但其实研发 Grace Blackwell 芯片的过程,差点拖垮了整个公司。但我们硬是咬牙扛了过来。这个项目的复杂度和规模都是前所未有的,外界对我们的期望也高得离谱。我们最终不仅达标,甚至超出了所有人的预期,而支撑我们做到这一点的,100% 是企业品格。这不是靠智商,也不是靠勤奋就能实现的,毕竟这个世界上,聪明又努力的人太多了。

 

这种企业品格,是没法通过面试来筛选的。但我始终相信一件事:几乎任何人进入英伟达之后,都会被这种品格所感染、所塑造。这就是我们公司最神奇的地方:我们能够承受挫折,能够直面各种艰巨的挑战,并且一次次从困境中突围。很少有公司的团队能做到这一点。通常来说,当公司遭遇重大挑战后,总会有人因为心存不满离开,或者因为被当成 “背锅侠” 而被解雇。在团队合作中,出了问题总要有人承担责任,这是毋庸置疑的,就像一场球赛输了,我们必须清楚是谁失误丢了球。

 

在英伟达,我们打造了一个足够安全的环境。过去这些年,包括我在内,很多人都犯过严重的错误,这些失误大家都看在眼里,但从来没有人因为犯错而被解雇。久而久之,英伟达就形成了自己独有的文化和特质。这种文化的核心,就是包容、宽恕,以及从错误中学习。对我来说,有两件事至关重要:只要团队里的每一个人,都为了共同的目标拼尽了全力,这就足够了。

敢叫板 20 岁新锐的黄仁勋,也有至暗时刻?

Jodi Shelton:刚才聊到 “痛苦与磨砺” 的理念,你可以再深入谈谈吗?我最近听 Andy Karp 在播客里说,“人生的二十几岁,要么用来享乐,要么用来打拼事业”。你认同这个观点吗?当然,不是每个人都能成为帕兰提尔或者英伟达的 CEO,但对年轻人来说,想要在事业上有所成就,到底需要付出什么?你想给年轻人传递怎样的职业与成功之道?

 

黄仁勋:Andy 很睿智,总能说出一些深刻的人生哲理。不过我对这类说法,倒没那么执念。我一直很佩服张忠谋先生,他一直工作到 80 多岁,思维依然敏锐得像一把刀。如果要在维基百科里查 “大器晚成” 这个词,配图说不定就是他。能在人生最具创造力的阶段,持续奋斗 50 年,这难道不是一件幸事吗?我自己也倾向于这种人生轨迹。对我而言,投身于有价值的事业,远比用后 20 年的时间环游世界更有意义,当然,环游世界本身也没什么不好,只是我现在就已经在满世界奔波了。

 

不得不承认,二十几岁的我,确实更聪明、专注力更强、思维速度也更快。但那个年纪的人,往往缺少一样至关重要的东西,阅历沉淀出的智慧、处理复杂问题的分寸感、制定长远战略的眼光,以及长线思维的能力。这些能力,光靠读书是学不来的。现在的年轻人可以刷短视频,通过共情去感受别人的经历,算是一种间接的经验积累,这种模仿式学习确实有价值。但还有一样东西,是无法通过旁观习得的,那就是坚韧的意志,是直面痛苦与挫折时,懂得如何应对的底气;是熬过精神内耗、挺过煎熬时刻、战胜内心恐惧的勇气。

 

经营公司的过程中,恐惧是真实存在的。我们的决策,关乎数万人的生计。当公司发展不顺时,一个感受不到恐惧、焦虑和脆弱的领导者,反而是不合格的。如果对结果毫不在意,那未免也太冷漠了。而这些真切的感受和应对的能力,只有亲身经历过,才能真正掌握。所以我觉得,两种人生选择没有绝对的对错。年轻时打拼,确实精力充沛,可以熬夜加班,可以付出十倍的努力,更容易早早取得成功。但我现在身上拥有的东西,是三十岁时的我完全不具备的。

 

如今的我,思维速度虽然慢了,但依靠智慧和经验积累的思维模型,能更快地找到正确答案。就算和二十岁的年轻人同台竞争,我也有信心不输给他。他们未必能胜过现在的我。

 

Jodi Shelton:那我们来聊点更私人的话题吧。能不能说说你的童年?哪些高光或至暗的经历,对你如今的性格特质产生了直接影响?

 

黄仁勋:我从来不觉得自己是天赋异禀的人,智商也算不上出众。小时候入学需要参加考试,我当时的成绩确实很不错,那会儿的考试还是全国性的。我记得母亲总是逢人就说,我是个非常聪明的孩子。不管这话是不是真的,她反复的肯定,无形中给了我一种压力,我必须变得足够聪明。这件事让我意识到,无论是为人父母还是做管理,给身边的人或者整个公司设定一个超出常理的高目标,往往能激发他们的潜能,让他们迎难而上。当然,也有人会被这样的目标吓退,但对我而言,这种激励起到了积极的作用。这是我第一个想到的童年片段。

 

另一件事,是关于我母亲的。当年我们学习英语的时候,她其实根本不懂英文,而且我觉得她可能连高中都没毕业。但这丝毫没有妨碍她每天教我们学英语。你可能会觉得不可思议,一个完全不懂英语的人,怎么教孩子学英语?她的方法很简单:买一本韦伯斯特词典,照着单词的拼写规律,写下英文单词,再标注上中文释义,把纸对折做成单词卡,然后逼着我们背下来。我们的发音准不准确,她其实也无从判断。但这件事,让我学到了一个道理:一个人只要有足够坚定的意志,就算暂时不知道该怎么做,也不该停下脚步。很多事情,其实并没有想象中那么难。小时候的这段记忆,我一直记到现在。

 

还有一段经历,是我们搬到肯塔基州之后。我当时是学校里年纪最小的孩子,就读的奥尼塔浸会学院坐落在山顶。每天上学,我都得走下山坡,穿过一条河,再走过一片广阔的田野,才能到达那所小小的学校。那是 1973 年,我是整个镇上第一个出现的中国孩子。镇上的那些孩子都很野,每次我过吊桥的时候,他们都会找我的麻烦。那座吊桥的桥面是木板铺的,有些木板已经缺失了,桥下的河水很深。而那些孩子,就守在桥的另一头等我。那时候我才 9 岁。

 

Jodi Shelton:天哪,才 9 岁。眼前是一条河,一座破吊桥,桥对面还有等着找麻烦的孩子,这简直太糟糕了。

 

黄仁勋:是啊,但我每天都得走这条路去上学。这大概就是童年时期的 “痛苦与磨砺” 吧。每天早上都是这样。下午放学回家后,我还有任务:打扫卫生间。那时候家里的每个孩子都有分工,我哥哥当时 11 岁,他的活儿是去烟草农场干活,而我的工作就是打扫卫生间,每天都要做。

 

Jodi Shelton:你觉得当年那些找你麻烦的孩子,知道你现在的成就吗?

 

黄仁勋:奥尼塔浸会学院的校长最近还发邮件给我呢。他们每年都会给我寄圣诞礼物,知道我喜欢吃肯塔基风味的香肠肉汁配饼干。

 

Jodi Shelton:这个爱好是在肯塔基养成的吧?

 

黄仁勋:没错。我记得我 45 岁生日的时候,家人带我回了一趟母校。当年食堂里做饭的阿姨们居然还健在,特意回来给我做了一顿饭。

 

Jodi Shelton:天哪,这也太暖心了。

 

黄仁勋:真的特别感动。她们给我做了正宗的肯塔基香肠肉汁配饼干,味道还是小时候的样子。

 

Jodi Shelton:你的父母见证了你的成功吗?

 

黄仁勋:当然,他们现在身体还很好,特别为我骄傲。他们对我的事情了如指掌,我父亲会读所有和我相关的报道。要是看到有人说我的坏话,他还会生气。我总劝他别什么都看,不然天天都得生气,别理会那些负面新闻。

 

Jodi Shelton:挺有意思的。现在功成名就了,你会怀念那些还没这么受关注的日子吗?会想念那些平凡的小事吗?比如你很爱车,现在却没什么机会开车了吧?我记得你是我认识的人里,第一个也是唯一一个拥有柯尼赛格跑车的人。

 

黄仁勋:克里斯蒂安・冯・柯尼赛格真是个天才设计师,那辆车太棒了。启动的时候,引擎声和蝙蝠侠的座驾一模一样。而且启动它得按七个步骤,因为动力实在太强劲了,不能随便让别人碰。不过我现在已经没有那辆车了,也确实很少开车了。

 

Jodi Shelton:会想念开车的感觉吗?

 

黄仁勋:有一点吧。我现在还是会关注新车,比如新款的法拉利,每次看到都觉得很惊艳,这些车真的是工程学的杰作。

 

Jodi Shelton:确实很厉害。我去过法拉利的工厂,亲眼看到一辆车从工业器械一步步变成顶级消费品,现在甚至成了艺术品,这个过程太震撼了。

黄仁勋眼中五年后的世界

Jodi Shelton:如果五年后我们再坐在这里,你觉得到那时的世界会是什么样子?哪些变化会让我们最惊讶?

 

黄仁勋:如果我们回归底层逻辑,再结合现实的实用性和技术落地的规律来判断,有几件事是可以预见的。首先,英伟达和整个行业在 AI 领域的投入,必将彻底改变计算机的运作模式 ,未来的计算机,将从 “由人类编程” 进化为 “在人类引导下自主学习编程”。过去我们是手把手教计算机学日语,未来我们只需要告诉它 “去学日语” 就够了。未来的计算机,将能够处理比现在大十亿倍的问题规模。这个变化的影响之大,我们现在甚至无法完全想象,因为提出解决方案是一回事,而能否构想出需要解决的问题,就是另一回事了。很多问题之所以无法被解决,往往是因为我们连如何定义和描述它们都做不到。

 

未来,无论是数字生物学、物理科学、量子物理还是材料科学的复杂难题,都会变得容易攻克。就算是交通拥堵这种日常问题,也能得到极大改善。就拿智能电网来说,现在的电网存在大量能源浪费,AI 会精准计算出所需的能源量,实现按需分配,从根本上避免过度供应造成的损耗。AI 解决这些日常难题的能力,会让人惊叹不已。到那时,每一个科学领域都会被重塑,当下所有的难题都会被技术赋能、迎刃而解。工具的速度提升了,难题自然就显得 “渺小” 了。举个例子,如果飞机的速度能达到 10 马赫,整个世界就会变得 “小” 很多, 喷气式飞机的出现,其实已经让世界变小了。

 

英伟达制造的计算机也是如此,极致的运算速度让所有问题都变得更容易被解决。就像 OpenAI 的研究人员曾经说的:“为什么不把整个互联网的数据都喂给计算机呢?” 因为在算力爆发之后,全球互联网的数据量,突然就显得微不足道了。现在我们看互联网数据,也会觉得体量很小,原因就在这里。这种心态,未来会渗透到几乎所有的科学领域。过去人们会说 “这是个无解的难题”,未来大家只会觉得 “这事儿很简单”。五年后,每一位科学家、工程师、企业家和创新者,都会抱着这样的心态。曾经的难题变得简单,我们就能解决更多的问题。这是第一个必然结果。

 

第二个结果,就是企业的生产效率会实现质的飞跃。今天的难题变成明天的小事,供应链管理会变得无比顺畅,浪费现象基本消失;计算机的设计流程也会简化,我们可以尝试更多的方案。这并不是说我们会每年推出更多的产品,我们还是保持一年一款的节奏,但每一款产品都会经过更多次的迭代优化,最终呈现的成品会比现在好得多。这样一来,公司的效率会更高,利润会更丰厚,所有企业都会变得更赚钱,整个社会的财富也会随之增长。但还有一个值得深思的点:当所有我们能想到的问题都变得可以解决时,我们就会去探索更多新的问题。

 

所以,未来的趋势不会是就业岗位减少,反而是大家会变得比现在更忙碌。因为以前那些被认为 “不可能完成” 的任务,现在都摆上了台面;那些因为成本太高而无法开展的实验,现在都可以去尝试,AI 还会帮我们推进这些实验。只要我们有足够的想象力,所有搁置的难题,都会找到解决的路径。我可以做一个思想实验。现在我工作时,身边围绕着 60 位顶尖人才,而他们每个人又带着数千名精英。这些人在各自的领域里,能力都远超于我,对我来说,他们就像是 “领域内的人工超级智能”。但和他们合作,我完全没有障碍。现在我使用的 OpenAI、Gemini、Grok、Perplexity、Anthropic 这些 AI 工具,在很多方面也已经比我聪明了,但我每天都在和它们高效协作。

 

不过有一个很有意思的变化:以前我给团队布置一个问题,需要等两三天才能得到反馈和答案,这段时间里我可以思考下一步的计划 ,因为我的决策需要基于这些中间结果。但如果这些答案能在一秒钟内就反馈给我,会发生什么?我的工作节奏会变得无比紧凑,因为我会成为所有事情的关键节点。刚得到一个答案,立刻就要推导下一步,马上启动新的实验。你不觉得吗?现在信息技术的提速,已经让我们变得更忙碌了。信息、知识和答案的获取速度越来越快,我们作为决策节点,自然会比以往更忙。我觉得未来很多人都会有这种感受。

 

最后一点,对于那些没能赶上之前科技浪潮的人来说,AI 会填平技术鸿沟。我特别喜欢 “氛围编程” 这个概念,现在任何人都可以成为软件程序员,借助 AI 写出的代码,甚至比很多专业程序员的作品还要好。我很欣赏 Cursor 这家公司的成果,前几天还见到了 Lovable 的 CEO,他是个很厉害的人,他们的公司在瑞典。AI 会帮助那些在自己的领域很有天赋,但不懂如何用技术放大自身能力的人实现能力的跃迁。Lovable 的 CEO 就跟我说过,很多人用他们开发的软件创办了小公司,现在每年能赚 2300 万美元。这太不可思议了。这些人终于能融入全球经济体系,不再被技术门槛挡住去路,这一切都是 AI 的功劳。

 

五年后的世界,大家会拥有更有价值的工作,经济效率会大幅提升,GDP 有望实现增长,劳动力短缺的问题会得到缓解,通货膨胀也会回落。更多的科学领域会被开拓,更多的难题会被解决。当然,也有一些悲观的论调,认为 AI 会让一半的人失去工作。但我觉得,更可能发生的情况是:100% 的工作岗位都会发生变化,但不会有 50% 的岗位消失。而且,那些现在没有工作的人,很可能会因为 AI 获得谋生的手段。

 

当然,我们的技术会发生翻天覆地的变化,但这些技术层面的革新,反而不是最有意思的。五年后,计算机还是计算机,只是应用变得更智能了,本质上还是软件。我们依然会做电商,只是可能不用自己逛网站了,会有智能代理帮我们购物,但商品还是来自亚马逊这些平台。很多事情,其实都会保持原样。最后我还有一个小小的愿望或者说期待:希望我们在机器人和人形机器人领域的研究能结出硕果,希望未来每个人都能拥有属于自己的 R2-D2 和 C-3PO,它们可爱又贴心。就像在 GTC 大会上,我每次都会邀请迪士尼的机器人上台,那些机器人真的太萌了。

 

为什么不让每个人都拥有一个呢?我还希望迪士尼能把这些机器人做成周边商品,它们真的值得。我的宠物猫莫莫和库玛,也需要这样的 “宠物玩伴” 不是吗?我真心希望这个愿望能实现。现在有很多孤独的人,已经有不少人联系过我,希望能拥有可以在家陪伴自己的机器人,尤其是那些独居的老人。机器人能给他们带来陪伴和帮助,而且它们本身又那么可爱,这绝对是我们技术发展带来的意外之喜。

 

Jodi Shelton:如果以后有机器人帮我们做饭、打扫卫生,你还会像现在这样,饶有兴致地看着别人做饭吗?

 

黄仁勋:当然会。原因很简单,我现在完全有能力不用自己做饭,但我还是会选择下厨。我们完全可以雇很多佣人,但我们没有这么做。我和洛里一直都是两个人自己过日子。昨晚她做了墨西哥辣椒肉酱,味道棒极了,全程都是她一个人忙活的。以后我们大概率还会保持这样的生活。对我来说,最幸福的时刻,就是孩子们回家来,我们一起下厨做饭,喝喝小酒,这就是最完美的时光。

 

Jodi Shelton:一家人在厨房里忙活,这种亲密感真的太美好了。

 

黄仁勋:是啊,人生的幸福莫过于此。我们打拼奋斗,不就是为了这样的时刻吗?

“不爱演讲的黄仁勋”:CEO 是公司里最脆弱的一群人

Jodi Shelton:当一切尘埃落定,你希望后人如何记住你?

 

黄仁勋:首先,能被人记住,本身就是一件很幸运的事。我很庆幸,凭借英伟达的成就,凭借我们打造的事业,凭借我们在全球最重要的科技产业:人类最核心的工具 “计算机” 领域留下的印记,英伟达很可能会在我离开这个世界很久之后,依然对这个世界有着重要的意义。我很庆幸自己能和克里斯、柯蒂斯一起创立这家公司,很庆幸自己能一路学习成长,没有成为拖垮公司的那个短板,反而常常是推动公司走下去的一份力量。我们打造的这家企业,对整个世界都有着深远的影响,而不只是局限于某个行业或某个群体。

 

能做到这一点的人,在这个世界上并不多。我很庆幸自己作为创始人,能亲身参与并见证这一切,见证英伟达成长为如今的模样,见证它对全球各行各业产生实实在在的影响。公司里有很多已经工作了 33 年的老员工,他们的人生因为英伟达变得更加丰盈;现在甚至已经有第二代、第三代员工加入我们。我们在全球各地建立了自己的团队,我很荣幸能和这些员工并肩作战,分享他们一路走来的绝望与喜悦、希望与悲伤。这样的经历,并不是每个人都能拥有的。我为我们在中国的团队感到骄傲,为我们在印度的员工们由衷赞叹,也为欧洲、加拿大的团队感到欣慰。我们在加拿大的团队正在不断壮大。

 

我还希望有朝一日,英伟达能把业务拓展到南半球,让更多地区的人们,也能享受到我们今天所拥有的技术成果。昨天我还和人聊起我们在非洲开展的工作,聊到我们应该在拉美和东南亚投入更多精力。我真的为我们公司带来的这些影响感到自豪。所以,人们会怎么记住我?或许,他们会记得我是英伟达的创始人之一,是这家公司的缔造者之一。或许,还会记得我是个好人。

 

Jodi Shelton:这是毋庸置疑的。

 

黄仁勋:他们或许还会觉得,我是个风趣幽默的人,不喜欢端着架子。其实在很多方面,我都算是一个 “不情愿的 CEO”。比起待在公司外面抛头露面,我更喜欢扎根在公司内部;比起发表演讲,我更喜欢安静做事;我甚至一点都不喜欢做主题演讲,但为了公司,我必须去做这些事。我确实是个不太情愿的 CEO,但我绝对是个满腔热忱的英伟达建设者。只要是为了公司发展必须做的事,我都会全力以赴。说了这么多,其实我也不知道,人们最终会如何记住我。

 

Jodi Shelton:我觉得,看到好人获得成功,总是一件令人开心的事。这么多年来,看着你一路打拼,经历起起落落,最终收获成功,我真的由衷地为你高兴。你这一路走来,见过了形形色色的人。

 

黄仁勋:是啊,真的见过了太多人。我想提醒所有的 CEO,没有人能单枪匹马地成功。

 

Jodi Shelton:确实如此。

 

黄仁勋:我们虽然是 CEO,但这个位置总需要有人来坐。如果不是早年大家对我的提携与帮助,比如你一直不遗余力地宣传英伟达还有张忠谋奖带来的认可,这些都对我意义重大。张忠谋奖大概是我人生中获得的第一个真正有分量的奖项,直到今天,它对我来说依然意义非凡。这个奖项以他的名字命名,而且他还亲自参与了评选,这份认可真的让我铭记于心。还有那些和我们合作的企业,他们的慷慨相助,我也一直记在心里。

 

其实 CEO 这个角色,很多时候都需要寻求帮助。我已经记不清有多少次,我是这样开启一段对话的:“我需要你的帮助。” 很多时候,我是真的需要帮助,而且对方往往是唯一能帮到我的人。一路走来,很多人都慷慨地伸出援手,分享他们的知识,教我做事的方法,帮我解决棘手的难题。这或许才是 CEO 这个角色带给我的真正启示,这个职位远比人们想象的要脆弱得多。

 

Jodi Shelton:而且还是一个很孤独的职位,对吧?

 

黄仁勋:确实可能会感到孤独。但我想说,这种孤独更多是存在于我们的内心世界。当你试图解决一些棘手的难题时,往往需要长时间独自思考,自己跟自己对话。公司发展的每一次转型、每一次跨越,每一次我推动公司自我革新的时刻,我都不知道自己独自思考了多少个小时。在那些时刻,你会真切地感受到孤独。但我们也要明白,其实有很多人都希望我们能成功。就像你之前说的,你很乐意看到我成功,我知道你是真心希望我好,而我也同样希望你能越来越好。从这个角度来说,我们其实并不孤单。

 

所以说,CEO 这个职业,是一份充满脆弱感的工作。你无法单打独斗完成任何事,很多时候都需要依赖别人的帮助与善意。或许在外界看来,我们是强大的领导者,但实际上,我们可能是公司里最脆弱的一群人。我经常说,我是公司里唯一一个离开别人的帮助就寸步难行的人。我想,大多数 CEO 应该都是如此。这或许就是这份职业带给我们的感悟:CEO 们,远比他们愿意承认的要更加脆弱。不过对我来说,承认这种脆弱,并不是什么难事。

“没有终极目标” ,才成就了英伟达?

Jodi Shelton:接下来我们用快问快答收尾。你见过的最聪明的人是谁?

 

黄仁勋:这个问题我没法回答。我知道大家心里对 “聪明” 的定义,就是智商高、会解决问题、技术能力强。但在我看来,这种能力早已经成了一种 “通用品”。而且我们很快就能证明,AI 处理这类问题是最轻松的,不是吗?举个例子,以前大家都觉得软件编程是最考验智商的工作,结果呢?AI 最先攻克的领域之一就是编程。所以说,“聪明” 的定义,其实和大多数人想的完全不一样。

 

在我看来,从长远来讲,真正的 “聪明”,是那种兼具技术洞察力与人文同理心的能力,是能够洞察弦外之音、预判未知风险、看透表象背后本质的能力。那些能 “见人所未见” 的人,才是真正的聪明人,他们的价值是无可估量的。这种人能凭借数据、分析、底层逻辑、人生阅历、智慧经验,再加上对他人的感知,敏锐地捕捉到潜在的风险,在问题发生之前就提前规避。我觉得这才是 “聪明”,而且拥有这种能力的人,说不定在学术能力评估测试(SAT)里的分数惨不忍睹。

 

Jodi Shelton:外界对你有什么误解?

 

黄仁勋:这些问题都好犀利啊。首先,我都不知道外界对我有什么印象。

 

Jodi Shelton:比如,大家觉得你喜欢抛头露面,觉得你是个很棒的演讲者,所以肯定很享受做演讲的过程。但你之前已经说了,事实并非如此。

 

黄仁勋:对,完全相反。公开演讲简直让我怕得要死。不是说站在台上的那一刻害怕,而是现在,想到两周后在华盛顿举办的 GTC 大会,我就焦虑得不行。不,应该说,我已经焦虑一个月了。这种事总是让我心神不宁,脑子里时时刻刻都想着,压力特别大。公司内部的会议演讲也让我紧张到极致。因为台下坐的都是对我而言最重要的人,从某种程度上说,这是我做过的最重要的演讲。但这种演讲根本没法准备,我要讲的所有内容,其实都能在网上的某个视频里找到,他们完全可以自己去看。

 

我很讨厌把那些内容重复一遍讲给他们听,因为你绝不会回家对着家人做一场 GTC 主题演讲,对吧?我也不想那样做。演讲内容必须是真诚的、独一无二的、对听众有价值的、有意义的,能给他们带来改变。毕竟我还在领导这家公司,我希望通过演讲达成一定的目标。所以我必须拿出全新的内容,但不到演讲结束的那一刻,我永远不知道最终效果会怎么样。大家都觉得财报发布周我会很紧张,但说实话,我一点感觉都没有。真正让我紧张的,是公司的内部会议演讲。所以外界的这个印象,真的大错特错。

 

Jodi Shelton:你最受不了的事是什么?

 

黄仁勋:在关键时刻,有人不认真听我说话、不理解我的问题,还胡乱回答。尤其是在我们处理非常棘手、非常困难的问题时,我们需要的是事实,是真相。这个时候我提出问题,如果有人答非所问,我会立刻火冒三丈。我实在无法理解,为什么有人意识不到这场会议的重要性?我们正在为一件至关重要的事努力,我们需要尽快找到真相、解决问题。我到现在都想不通这一点,这种情况每次都会激怒我。谁要是想惹我生气,这招百试百灵。

 

Jodi Shelton:这下我们知道怎么让黄仁勋发火了。

 

Jodi Shelton:最后一个问题,是最近有人问我的,我特别喜欢这个问题。如果让你回到 20 岁,你是想回到自己当年的那个年代,还是活在当下的 20 岁?

 

黄仁勋:我会毫不犹豫地回到自己的那个年代。因为我觉得,我们那一代人的 20 岁,比现在年轻人的 20 岁更快乐。我总觉得,每个人都应该拥有一段 “懵懂无知” 的时光,不必从第一天起就背负着全世界的重担。我坚信这一点,没人能说服我。有时候,“无知” 也是一种快乐,甚至是一种超能力。如果当初我知道创立英伟达是一件 “不可能完成的任务”,那今天的英伟达根本就不会存在。事实就是,创立英伟达这件事,本来就是天方夜谭。但当时的我什么都不懂,所以没人能说服我放弃。

 

我觉得,乐观的人都这样,你永远没法说服他们 “这件事做不成”。他们就是这么 “无知”,对现实的艰难视而不见,所以才会充满乐观。这难道是坏事吗?现在的年轻人,过早地接触到了太多信息,变得越来越愤世嫉俗。他们并不是天生就这么消极,而是因为看到的东西太多太杂了。其实大可不必如此。人需要培养内心的乐观精神,需要在心里留存一份善意,学会只看到世界美好的一面。我们得锻炼这种能力。我们那一代人,有更多这样的机会。我们 20 岁的时候,就是这样的,乐观得像超人一样,觉得凡事皆有可能。所以,我肯定会选择回到自己的 20 岁。

 

Jodi Shelton:真是个完美的收尾。无知是福啊。

 

黄仁勋:没错,无知是福,无知也是一种超能力。任何一个想要开启新征程的人,如果不是因为这份 “无知”,他们一早就会因为觉得事情太难而放弃了。我真的很庆幸,自己当年虽然也算勤奋、也算有一些能力,但那份 “无知” 帮了我大忙。我那时候做任何事都抱着一种心态:“这能有多难?” 结果后来才发现,简直难到超乎想象。你根本没法想象。你看看我今天建立的这一切,如果当初我就知道前路会有这么多艰辛、这么多挫折、这么多失望,把这些困难全都摆在我面前,我绝对不会去做的,绝对不会。所以说,“无知” 真的是一种超能力。

 

还有一种超能力,就是“没有终极目标”。英伟达就没有什么终极目标。总有人问我:“黄仁勋,你的计划是什么?” 我们没有计划,“活下去” 就是我们的计划。我们对未来的世界有憧憬,我们会畅想技术会如何改变世界,但我们 100% 的计划,就是让公司一直运营下去。以前也有人问我,现在也经常有人问:“黄仁勋,你的人生目标是什么?” 我没有什么人生目标,就是想一直工作,一直有事可做,能和一群优秀的人一起做有意义的事。这就是我的目标。

 

所以说,从很多方面来讲,“没有终极目标” 这一点,对英伟达的发展真的起到了至关重要的作用。

 

参考链接:

https://www.youtube.com/watch?v=8FOdAc_i_tM

整理 | 华卫

 

“世界上不会再出现第二个我这样的 CEO 了。”近日,英伟达联合创始人兼首席执行官黄仁勋(Jensen Huang)在一场私人访谈中这样说道。

 

据称,这场深度对话已经酝酿了三十年,将黄仁勋鲜为人知的一面展现在大众眼前。主持人 Jodi Shelton 与黄仁勋的职业交集始于三十余年前,彼时,图形处理器(GPU)尚未掀起席卷全球的 AI 革命。从加速计算的源头到生成式 AI 的前景,这场对话堪比一堂远见大师课。

 

在访谈中,黄仁勋表示,从某种意义上说,英伟达其实有 61 位 “CEO”。过去这些年,包括他在内,很多人都犯过严重的错误,但在英伟达,从来没有人因为犯错而被解雇。“我们打造了一个足够安全的环境。”他还透露,CEO 这个职位,远比人们想象的要脆弱得多。“实际上,我们可能是公司里最脆弱的一群人。不过对我来说,承认这种脆弱,并不是什么难事。”

 

有意思的是,他提到,在很多方面,自己都算是一个 “不情愿的 CEO”。“公开演讲简直让我怕得要死。比起待在公司外面抛头露面,我更喜欢扎根在公司内部;比起发表演讲,我更喜欢安静做事;我甚至一点都不喜欢做主题演讲,但为了公司,我必须去做这些事。”

 

此外,黄仁勋称,英伟达的成功,绝不是靠产量取胜。“虽然是英伟达发明了 GPU,但从产量来看,我们其实是全球最小的 GPU 制造商。很多不知名的厂商,GPU 产量都比我们高。”而“没有终极目标” 这一点,对英伟达的发展真的起到了至关重要的作用。

 

对于五年后的世界,黄仁勋断言,英伟达和整个行业在 AI 领域的投入,必将彻底改变计算机的运作模式,未来的计算机,将从 “由人类编程” 进化为 “在人类引导下自主学习编程”。并且,100% 的工作岗位都会发生变化,但不会有 50% 的岗位消失。未来的趋势不会是就业岗位减少,反而是大家会变得比现在更忙碌。并且,那些现在没有工作的人,很可能会因为 AI 获得谋生的手段。

 

网友们纷纷就此次访谈对黄仁勋评价道,“我从未见过他如此坦诚直率,真是不可思议。”

 

以下是详细对话内容,我们在不改变原意的基础上进行了翻译和删减,以飨读者。

“走了整整 33 年才看到成果”

Jodi Shelton:大众其实特别好奇像你这样的人,毕竟你们正在定义科技的未来,而科技的未来就是整个世界的未来。所以我们想做的,是挖掘你成功光环背后的个人经历以及支撑你走到今天的价值观。你对这个定位怎么看?

 

黄仁勋:说实话,不太喜欢。

 

Jodi Shelton:真的不喜欢吗?可你现在是名人啊,大家都想了解名人的故事。

 

黄仁勋:我从不觉得自己是名人,也根本不是什么名人。我只是恰好执掌着一家举足轻重的企业,是这家堪称史上最成功的科技公司之一的 CEO。很早以前,我们就做了一些正确的决策。回溯到 1993 年,我们就立志要重塑计算行业,而且对于计算机的架构,我们有着自己独到的见解。在很长一段时间里,这个观点都不被看好,甚至颇具争议。要知道,当时整个行业的焦点都在微处理器和 CPU 上。说起来,我和你就是在那个时期认识的。我们早在 1993 年底或者 1994 年就相识了,对吧?从那时起,英伟达就在做我们现在依然在做的事:重塑计算。

 

Jodi Shelton:没错,我记得很清楚。那时候的硅谷,正处在 CPU 为王、摩尔定律大行其道、个人电脑革命如火如荼的年代。

 

黄仁勋:是啊。而且我们早期的客户,全都是 PC 芯片组领域的初创公司。这些企业可以说是半导体行业辉煌版图的奠基者,像 Cirrus Logic、S3 Graphics、Western Digital、Trident Microsystems,你还记得这些名字吗?

 

Jodi Shelton:当然记得。

 

黄仁勋:这些公司,称得上是英伟达的 “前辈”。而现在,我们依然在这条路上前行,致力于打造一种全新的计算模式。这条路,我们走了整整 33 年才看到成果。我只是恰好成为了这家公司的 CEO,仅此而已。

 

Jodi Shelton:可能对你来说,这一切是水到渠成,但对整个世界而言,英伟达的崛起堪称横空出世。大概从 2023 年 11 月起,整个世界的科技格局都因你们而改变。你是怎么看待这次转型的?

 

黄仁勋:要知道,想要创造未来,就必须在未来到来之前,先置身于未来之中。坦诚地说,从我们发明 CUDA 技术、推出相关产品的那一刻起,就已经踏上了通往未来的道路。英伟达最让我骄傲的一点是:我们不仅擅长技术发明,更擅长把技术转化为产品推向市场。世界上有太多的公司、科研人员和发明家,他们确实创造出了先进的技术,但最后往往只能感慨 “这个技术我早就做出来了”、“这个想法我早就有了”。每次听到这种话,我都觉得很惋惜。这些优秀的发明家,遗憾的是没能遇上同样优秀的产品创新者。

 

所谓产品创新者,就是能把一项技术发明转化为一款能推向市场的成熟产品的人。而这还不够,你还得为产品制定精准的市场策略,甚至需要亲手培育出一个全新的市场,让市场能够接纳你研发的产品和制定的策略。英伟达就是这样一家公司,我们具备技术发明、产品创新、策略制定、生态构建乃至市场培育的全链条能力,而且我们已经多次成功做到了这一点。所以对我来说,这种 “身处未来” 的状态,已经持续了很长时间。

 

Jodi Shelton:确实如此。

 

黄仁勋:很久以前,我们有一个战略,现在已经不怎么提了,叫 “CUDA 无处不在”。很多人都听过我当年四处推广 CUDA 的故事,跑遍各大高校、初创企业和成熟企业。有时候,台下听众加起来也就三个人,但我还是会掏出笔记本电脑,为他们演示 CUDA,告诉他们这项技术将如何改变世界。我走访了无数科研机构和实验室,参加了数不清的行业会议,推广 CUDA 的次数,估计比世界上任何人都多。长久以来,我一直沉浸在这样的 “未来图景” 里,讲的故事多了,甚至会产生一种 “未来已经到来” 的错觉。

 

Jodi Shelton:确实有这种感觉。

 

黄仁勋:所以现在看到这一切成为现实,我依然满心欢喜。而且在我看来,这一切其实并不意外,因为支撑英伟达发展的是计算机科学领域最根本的底层逻辑,不是靠一时的直觉,也不是凭主观的喜好。从很多方面来说,如今的成果是一种必然。但我想说的是,当你把一件事物的速度提升一千倍,或者规模扩大一千倍、体积缩小一千倍时,无论这件事物原本是什么,都会发生质的飞跃。而这种质变最终带来的结果,往往是超乎想象的。

 

我们早就预见到深度学习技术有着巨大的扩展潜力,这也是我们举全公司之力押注这一领域的原因。我们知道,AlexNet(深度卷积神经网络)绝不会是深度学习的终点,这种技术架构天生具备极强的可扩展性,再加上全球海量的数据资源,深度学习的爆发是水到渠成的事。不过我当时也清楚,有一项技术会成为我们前进路上的障碍,那就是无监督学习,或者说自监督学习,也就是让计算机摆脱人工标注数据的束缚,实现自主学习。因为人工标注数据的效率,迟早会成为技术发展的瓶颈。而当无监督学习技术取得突破的那一刻,我就知道,我们的时代来了。

 

就在不久前的投资者路演上,还有人跟我说,我当时就明确跟他们提过这场 “质变”。如果你去回看当时的财报电话会议,就会发现每当谈到对世界至关重要的技术话题时,我都会把这一点讲得非常透彻。在每一场投资者路演,在每一个我演讲的场合,我都会强调这个观点。如今,无监督学习技术确实取得了重大突破,深度学习的规模效应也彻底释放出来,我们才算真正驶入了发展的快车道。但即便如此,这项技术如今能解决的问题,依然让我感到惊喜。我们早就预料到技术会发生质变、计算平台会迎来变革,但我们没想到,变革的成果如此丰硕。

 

我们现在能够解读蛋白质的 “语言”、细胞的 “语言”、量子的 “语言”,能够读懂世间万物的各种表征形式。过去我们用来描述信息的方式,如今正在被彻底重塑。从几何图形、纹理材质到如今的 3D 高斯和 3D 点云,信息的呈现形式日新月异。这种感觉就好像人类突然变得无比聪慧,连英语这种语言体系都随之改变了。我们不再沿用过去的词汇、语法和句式,因为我们的智慧已经进化到了一个全新维度,能够用一种全新的方式进行交流。或许未来人类的交流方式会变成简单的 “嘀嘀嗒嗒” 的信号声。这让我想起了电影《降临》里的场景,人类突然开始用抽象的图形进行沟通,仅仅通过图形就能传递海量的信息,实现更深层次、更高效率的交流。

 

最不可思议的是,我们现在解决的很多问题在过去是完全无法想象的,而且解决问题的速度也远超以往。过去我们常说摩尔定律,而现在英伟达的发展速度完全可以用 “英伟达定律” 来形容,比过去快了整整一千倍。未来十年必将是波澜壮阔的十年,光是想想就让人无比兴奋。

 

Jodi Shelton:要做到你所做的这些事,要能够预见未来,并且坚信未来一定会到来,需要何等强大的自信啊。就像你之前说的,我们 1994 年就认识了,这么多年来,你一直都是这个样子。

 

黄仁勋:是啊,我记得很清楚。

 

Jodi Shelton:那时候我才二十几岁。你应该比我大一点吧?

 

黄仁勋:当时我差不多 29 岁,快 30 岁了。

英伟达有 61 位“CEO”,从没有人因犯错而被解雇

Jodi Shelton:我还记得我们第一次见面的场景,当时我是为了给杂志写稿采访你。我问你:“黄仁勋,硅谷人才流动频繁,很多人来了又走,你会担心这个问题吗?” 毕竟当时很多 CEO 都在抱怨这件事。而那时你才 29 岁或 30 岁,你是这么回答我的:“英伟达既不是教堂,也不是监狱。想来的人可以来,想走的人也可以走。” 我当时听完特别震撼,心里想着:“这个人到底是谁啊?” 年纪轻轻,却有着如此的自信和智慧。我还听过一个类似的故事,张忠谋( Morris Chang)第一次见到你的时候,你当场就说:“我会成为你最大的客户,至少也是最大的客户之一。” 他当时的反应是:“哇,这小伙子可真有魄力。” 所以我很好奇,你这么年轻的时候,这份自信是从哪里来的?

 

黄仁勋:哈哈,你要知道,什么都懂其实也挺痛苦的,我开玩笑的。对了,张忠谋要是知道英伟达现在是台积电最大的客户,一定会很开心的。

 

Jodi Shelton:那是肯定的,他肯定会为你感到骄傲。

 

黄仁勋:我也为他感到骄傲。要知道,在个人电脑革命时期,英伟达就曾是台积电最大的客户。如今,我们再次成为了他们最大的客户,对此我感到非常欣慰。言归正传,我觉得一个人必须坚信自己所相信的东西。而且这份信念,不能建立在道听途说之上,不能因为别人说了什么,你就去相信什么。你必须认真思考,梳理出自己相信这件事的逻辑,并且把这些逻辑拆解成可靠的底层原则。之后,你还需要定期检验这些原则,确保你所秉持的信念、所付诸的行动,都是建立在坚实的基础之上的。

 

如果这个基础不够稳固,或者因为某些原因发生了变化,那就说明它可能并非真正的底层原则 ,也许它并没有锚定在物理规律或客观事实之上。一旦出现这种情况,你就要重新评估,然后及时调整方向。我一直都是这样做的。而且,如果你真心相信一件事,就应该付诸行动去实现它。我从 1993 年起就坚信我们正在做的事情,直到今天,这份信念依然没有改变。正因为坚信不疑,所以我才会不断地推演,不断地在脑海里进行逻辑梳理。我会持续复盘过去的决策,也会不断预判未来的趋势。

 

就像昨天我们开了那么多场会议,每场会议上,我都会重新梳理我们一路走来的逻辑。你会发现,过去的那些假设,有些是正确的,但也有些是错误的。正是因为我们足够灵活,能够根据实际情况及时调整方向,才最终走到了今天。所以,时常回头复盘、重新推演过往的决策,是一件很有意义的事,它能帮你更好地锻炼向前推演的能力。正因为我一直坚持这样做,所以我始终活在自己认定的真相里。直到现在,我依然觉得自己只是英伟达的一名员工。我非常在乎这家公司,但公司里有很多人都和我一样,对这家公司倾注了深厚的感情。

 

在一家治理完善的公司里,CEO 的角色定位是很明确的。CEO 需要向董事会汇报工作,而董事会则要对股东负责。如果 CEO 的工作表现没有达到董事会的预期,不管董事会有 12 位、13 位还是 15 位成员,他就会被解雇。所以说,CEO 其实也是公司这个组织里的一名员工。这就是为什么我说,英伟达既不是教堂,不是想来就能来;也不是监狱,不是想走都走不了。这种心态能让你始终保持脚踏实地,保持谦逊,保持锐意进取的状态,因为你必须每天都努力,才能对得起自己的这份工作。

 

有时候会有人问我:“黄仁勋,你热爱自己的工作吗?” 我会告诉他们,我并非每天都热爱这份工作,但我每天都会全力以赴去做好它。我觉得,这种态度源于两个方面:第一,我坚信自己是这份工作的最佳人选;第二,我必须每天都努力,才能配得上 “最佳人选” 这个身份。

 

Jodi Shelton:在大家眼里,你就是英伟达的代名词,英伟达就是你。这么多年下来,你已经和这家公司深度绑定了。

 

黄仁勋:我应该是英伟达内部被拍照最多的人吧。

 

Jodi Shelton:没错。不过,要是将来换了新的 CEO,这个人真的能接好你的班吗?

 

黄仁勋:世界上不会再出现第二个我这样的 CEO 了。原因很简单,我是被这家公司一步步培养起来的。刚创立英伟达的时候,我对怎么当 CEO、怎么做战略规划、怎么打造产品、怎么开创一个全新的行业,一窍不通。我只知道怎么融资,却不懂怎么和股东沟通,不了解股东、政策制定者、各国领导人以及企业管理者的想法,也不知道该如何把握员工的心态、如何打造企业文化,甚至连 “企业文化” 这个词到底意味着什么,我都无法准确界定,让我制定公司战略那更是天方夜谭。这就是我第一天接手工作时的真实状态。而在过去的 33 年里,我在这些领域都一步步做到了得心应手。

 

如果说这个世界上有谁能称得上是 “企业战略宗师” 或者 “行业开创者”,那这个人大概就是我这样一个小个子。我把自己的整个职业生涯都投入到学习这些能力上,而且我本身就是个好学生。除此之外,我对这份工作的投入程度和深厚感情,是很难通过招聘来复制的。在我心里,英伟达就像我的孩子一样,我对它倾注了全部的心血。我的家人也陪着我一起,为这家公司的成长付出努力。这种对公司的特殊情感,是很难被替代的。毕竟 33 年来,我见证了英伟达的每一次成功、每一次失败、每一次挫折,亲历了它做过的所有明智决策,也目睹了它犯下的各种错误。这种对公司的深刻理解和情感联结,不是随便招一个能力出众的人就能替代的。

 

不过从另一方面来说,英伟达的管理团队架构其实早就做好了准备。我现在有将近 60 位直接下属,他们中的每一个人,放到其他公司都能胜任世界级 CEO 的职位。我总是当着他们的面推演各种决策逻辑,我的每一个决定,都是在他们的注视下做出的,我会把背后的思考过程原原本本地讲给他们听。公司的每一次成功、每一次挫折、每一个挑战、每一场困境,我都会和他们一起复盘。所以从某种意义上说,英伟达其实有 61 位 “CEO”。他们每个人都对这家公司饱含深情,很多人已经在这里奋斗了 33 年。我认为,英伟达的成长模式是独一无二的,这也造就了它无可比拟的韧性。

 

Jodi Shelton:显然,你搭建的这套管理架构在行业内已经成了一段传奇,所有人都在谈论你这近 60 位直接下属。要让这样的架构顺畅运转,这些人肯定都得是万里挑一的顶尖人才。

 

黄仁勋:没错。

 

Jodi Shelton:他们不光要头脑聪明,毕竟硅谷从来不缺聪明人,更得是适配英伟达的顶尖人才。

 

黄仁勋:确实如此。

 

Jodi Shelton:那你能不能跟我说说,你是怎么筛选和培养这些人才的?另外,我记得你有个原则,找不到合适的人,就宁可让职位空着。我想到了 Colette Kress 的例子,你当时面试了 22 位首席财务官候选人,最终才选定了她。现在她在华尔街已经是一位传奇人物了。你当初是怎么选中她的?你选拔这类核心人才的标准是什么?

 

黄仁勋:在我看来,宁让职位空着,也不能让不合适的人占着位置,所以我从来不会急于招人。就算 CEO 的位置暂时空缺,或者某个副总裁职位没人接任,公司的运转也不会停滞。只要你坚信这一点,坚信 “空位胜于错配”,你就有足够的时间去寻找那个真正合适的人。这个合适的人选,需要满足很多条件,其中很重要的一点,就是你得发自内心地欣赏他、认可他。

 

我记得 Colette Kress 入职第一周的时候,就问过我:“黄仁勋,你希望我在首席财务官这个岗位上干多久?” 我告诉她:“只要我们还活着,只要死亡不将我们分开,你就一直干下去。” 因为任何其他答案都是没有意义的。这份工作没有所谓的 “截止日期”,唯一的终点,就是当她觉得英伟达不再适合自己的时候。这个原则不仅适用于 Colette,也适用于我那 60 位直接下属。我愿意为了等待合适的人,让职位空很久。而在这个过程中,公司依然会稳步向前。无论这个空缺的职位对应着什么使命、什么工作,大家都会主动顶上。退一步说,就算没人接手,我也会尽全力扛起这份责任,保证公司正常运转。

 

这就是我的用人哲学,永远不要让不合适的人占据岗位,耐心等待那个对的人出现。经常有人问我,什么样的员工才算优秀员工,什么样的管理者才算卓越管理者。说来奇怪,我其实没有标准答案。因为能走到我面前的人,都足够聪明、足够能干。你随便找一个首席财务官,我敢保证他绝对胜任本职工作。其他岗位的候选人也是如此。在我看来,英伟达之所以能创造奇迹,关键不在于单个人的能力有多强,而在于团队成员之间的 “化学反应”。更重要的是,这源于我们的企业品格。这种品格,才是一家伟大公司的核心竞争力。市面上有很多公司都在做芯片,虽然是英伟达发明了 GPU,但从产量来看,我们其实是全球最小的 GPU 制造商。

 

这话听起来可能有点不可思议,但事实就是如此,很多不知名的厂商,GPU 产量都比我们高。很明显,英伟达的成功,绝不是靠产量取胜。我认为,真正的秘诀在于我们独特的企业文化和企业品格、团队在逆境中凝聚在一起的力量。在外人看来,我们似乎总是一帆风顺,但其实研发 Grace Blackwell 芯片的过程,差点拖垮了整个公司。但我们硬是咬牙扛了过来。这个项目的复杂度和规模都是前所未有的,外界对我们的期望也高得离谱。我们最终不仅达标,甚至超出了所有人的预期,而支撑我们做到这一点的,100% 是企业品格。这不是靠智商,也不是靠勤奋就能实现的,毕竟这个世界上,聪明又努力的人太多了。

 

这种企业品格,是没法通过面试来筛选的。但我始终相信一件事:几乎任何人进入英伟达之后,都会被这种品格所感染、所塑造。这就是我们公司最神奇的地方:我们能够承受挫折,能够直面各种艰巨的挑战,并且一次次从困境中突围。很少有公司的团队能做到这一点。通常来说,当公司遭遇重大挑战后,总会有人因为心存不满离开,或者因为被当成 “背锅侠” 而被解雇。在团队合作中,出了问题总要有人承担责任,这是毋庸置疑的,就像一场球赛输了,我们必须清楚是谁失误丢了球。

 

在英伟达,我们打造了一个足够安全的环境。过去这些年,包括我在内,很多人都犯过严重的错误,这些失误大家都看在眼里,但从来没有人因为犯错而被解雇。久而久之,英伟达就形成了自己独有的文化和特质。这种文化的核心,就是包容、宽恕,以及从错误中学习。对我来说,有两件事至关重要:只要团队里的每一个人,都为了共同的目标拼尽了全力,这就足够了。

敢叫板 20 岁新锐的黄仁勋,也有至暗时刻?

Jodi Shelton:刚才聊到 “痛苦与磨砺” 的理念,你可以再深入谈谈吗?我最近听 Andy Karp 在播客里说,“人生的二十几岁,要么用来享乐,要么用来打拼事业”。你认同这个观点吗?当然,不是每个人都能成为帕兰提尔或者英伟达的 CEO,但对年轻人来说,想要在事业上有所成就,到底需要付出什么?你想给年轻人传递怎样的职业与成功之道?

 

黄仁勋:Andy 很睿智,总能说出一些深刻的人生哲理。不过我对这类说法,倒没那么执念。我一直很佩服张忠谋先生,他一直工作到 80 多岁,思维依然敏锐得像一把刀。如果要在维基百科里查 “大器晚成” 这个词,配图说不定就是他。能在人生最具创造力的阶段,持续奋斗 50 年,这难道不是一件幸事吗?我自己也倾向于这种人生轨迹。对我而言,投身于有价值的事业,远比用后 20 年的时间环游世界更有意义,当然,环游世界本身也没什么不好,只是我现在就已经在满世界奔波了。

 

不得不承认,二十几岁的我,确实更聪明、专注力更强、思维速度也更快。但那个年纪的人,往往缺少一样至关重要的东西,阅历沉淀出的智慧、处理复杂问题的分寸感、制定长远战略的眼光,以及长线思维的能力。这些能力,光靠读书是学不来的。现在的年轻人可以刷短视频,通过共情去感受别人的经历,算是一种间接的经验积累,这种模仿式学习确实有价值。但还有一样东西,是无法通过旁观习得的,那就是坚韧的意志,是直面痛苦与挫折时,懂得如何应对的底气;是熬过精神内耗、挺过煎熬时刻、战胜内心恐惧的勇气。

 

经营公司的过程中,恐惧是真实存在的。我们的决策,关乎数万人的生计。当公司发展不顺时,一个感受不到恐惧、焦虑和脆弱的领导者,反而是不合格的。如果对结果毫不在意,那未免也太冷漠了。而这些真切的感受和应对的能力,只有亲身经历过,才能真正掌握。所以我觉得,两种人生选择没有绝对的对错。年轻时打拼,确实精力充沛,可以熬夜加班,可以付出十倍的努力,更容易早早取得成功。但我现在身上拥有的东西,是三十岁时的我完全不具备的。

 

如今的我,思维速度虽然慢了,但依靠智慧和经验积累的思维模型,能更快地找到正确答案。就算和二十岁的年轻人同台竞争,我也有信心不输给他。他们未必能胜过现在的我。

 

Jodi Shelton:那我们来聊点更私人的话题吧。能不能说说你的童年?哪些高光或至暗的经历,对你如今的性格特质产生了直接影响?

 

黄仁勋:我从来不觉得自己是天赋异禀的人,智商也算不上出众。小时候入学需要参加考试,我当时的成绩确实很不错,那会儿的考试还是全国性的。我记得母亲总是逢人就说,我是个非常聪明的孩子。不管这话是不是真的,她反复的肯定,无形中给了我一种压力,我必须变得足够聪明。这件事让我意识到,无论是为人父母还是做管理,给身边的人或者整个公司设定一个超出常理的高目标,往往能激发他们的潜能,让他们迎难而上。当然,也有人会被这样的目标吓退,但对我而言,这种激励起到了积极的作用。这是我第一个想到的童年片段。

 

另一件事,是关于我母亲的。当年我们学习英语的时候,她其实根本不懂英文,而且我觉得她可能连高中都没毕业。但这丝毫没有妨碍她每天教我们学英语。你可能会觉得不可思议,一个完全不懂英语的人,怎么教孩子学英语?她的方法很简单:买一本韦伯斯特词典,照着单词的拼写规律,写下英文单词,再标注上中文释义,把纸对折做成单词卡,然后逼着我们背下来。我们的发音准不准确,她其实也无从判断。但这件事,让我学到了一个道理:一个人只要有足够坚定的意志,就算暂时不知道该怎么做,也不该停下脚步。很多事情,其实并没有想象中那么难。小时候的这段记忆,我一直记到现在。

 

还有一段经历,是我们搬到肯塔基州之后。我当时是学校里年纪最小的孩子,就读的奥尼塔浸会学院坐落在山顶。每天上学,我都得走下山坡,穿过一条河,再走过一片广阔的田野,才能到达那所小小的学校。那是 1973 年,我是整个镇上第一个出现的中国孩子。镇上的那些孩子都很野,每次我过吊桥的时候,他们都会找我的麻烦。那座吊桥的桥面是木板铺的,有些木板已经缺失了,桥下的河水很深。而那些孩子,就守在桥的另一头等我。那时候我才 9 岁。

 

Jodi Shelton:天哪,才 9 岁。眼前是一条河,一座破吊桥,桥对面还有等着找麻烦的孩子,这简直太糟糕了。

 

黄仁勋:是啊,但我每天都得走这条路去上学。这大概就是童年时期的 “痛苦与磨砺” 吧。每天早上都是这样。下午放学回家后,我还有任务:打扫卫生间。那时候家里的每个孩子都有分工,我哥哥当时 11 岁,他的活儿是去烟草农场干活,而我的工作就是打扫卫生间,每天都要做。

 

Jodi Shelton:你觉得当年那些找你麻烦的孩子,知道你现在的成就吗?

 

黄仁勋:奥尼塔浸会学院的校长最近还发邮件给我呢。他们每年都会给我寄圣诞礼物,知道我喜欢吃肯塔基风味的香肠肉汁配饼干。

 

Jodi Shelton:这个爱好是在肯塔基养成的吧?

 

黄仁勋:没错。我记得我 45 岁生日的时候,家人带我回了一趟母校。当年食堂里做饭的阿姨们居然还健在,特意回来给我做了一顿饭。

 

Jodi Shelton:天哪,这也太暖心了。

 

黄仁勋:真的特别感动。她们给我做了正宗的肯塔基香肠肉汁配饼干,味道还是小时候的样子。

 

Jodi Shelton:你的父母见证了你的成功吗?

 

黄仁勋:当然,他们现在身体还很好,特别为我骄傲。他们对我的事情了如指掌,我父亲会读所有和我相关的报道。要是看到有人说我的坏话,他还会生气。我总劝他别什么都看,不然天天都得生气,别理会那些负面新闻。

 

Jodi Shelton:挺有意思的。现在功成名就了,你会怀念那些还没这么受关注的日子吗?会想念那些平凡的小事吗?比如你很爱车,现在却没什么机会开车了吧?我记得你是我认识的人里,第一个也是唯一一个拥有柯尼赛格跑车的人。

 

黄仁勋:克里斯蒂安・冯・柯尼赛格真是个天才设计师,那辆车太棒了。启动的时候,引擎声和蝙蝠侠的座驾一模一样。而且启动它得按七个步骤,因为动力实在太强劲了,不能随便让别人碰。不过我现在已经没有那辆车了,也确实很少开车了。

 

Jodi Shelton:会想念开车的感觉吗?

 

黄仁勋:有一点吧。我现在还是会关注新车,比如新款的法拉利,每次看到都觉得很惊艳,这些车真的是工程学的杰作。

 

Jodi Shelton:确实很厉害。我去过法拉利的工厂,亲眼看到一辆车从工业器械一步步变成顶级消费品,现在甚至成了艺术品,这个过程太震撼了。

黄仁勋眼中五年后的世界

Jodi Shelton:如果五年后我们再坐在这里,你觉得到那时的世界会是什么样子?哪些变化会让我们最惊讶?

 

黄仁勋:如果我们回归底层逻辑,再结合现实的实用性和技术落地的规律来判断,有几件事是可以预见的。首先,英伟达和整个行业在 AI 领域的投入,必将彻底改变计算机的运作模式 ,未来的计算机,将从 “由人类编程” 进化为 “在人类引导下自主学习编程”。过去我们是手把手教计算机学日语,未来我们只需要告诉它 “去学日语” 就够了。未来的计算机,将能够处理比现在大十亿倍的问题规模。这个变化的影响之大,我们现在甚至无法完全想象,因为提出解决方案是一回事,而能否构想出需要解决的问题,就是另一回事了。很多问题之所以无法被解决,往往是因为我们连如何定义和描述它们都做不到。

 

未来,无论是数字生物学、物理科学、量子物理还是材料科学的复杂难题,都会变得容易攻克。就算是交通拥堵这种日常问题,也能得到极大改善。就拿智能电网来说,现在的电网存在大量能源浪费,AI 会精准计算出所需的能源量,实现按需分配,从根本上避免过度供应造成的损耗。AI 解决这些日常难题的能力,会让人惊叹不已。到那时,每一个科学领域都会被重塑,当下所有的难题都会被技术赋能、迎刃而解。工具的速度提升了,难题自然就显得 “渺小” 了。举个例子,如果飞机的速度能达到 10 马赫,整个世界就会变得 “小” 很多, 喷气式飞机的出现,其实已经让世界变小了。

 

英伟达制造的计算机也是如此,极致的运算速度让所有问题都变得更容易被解决。就像 OpenAI 的研究人员曾经说的:“为什么不把整个互联网的数据都喂给计算机呢?” 因为在算力爆发之后,全球互联网的数据量,突然就显得微不足道了。现在我们看互联网数据,也会觉得体量很小,原因就在这里。这种心态,未来会渗透到几乎所有的科学领域。过去人们会说 “这是个无解的难题”,未来大家只会觉得 “这事儿很简单”。五年后,每一位科学家、工程师、企业家和创新者,都会抱着这样的心态。曾经的难题变得简单,我们就能解决更多的问题。这是第一个必然结果。

 

第二个结果,就是企业的生产效率会实现质的飞跃。今天的难题变成明天的小事,供应链管理会变得无比顺畅,浪费现象基本消失;计算机的设计流程也会简化,我们可以尝试更多的方案。这并不是说我们会每年推出更多的产品,我们还是保持一年一款的节奏,但每一款产品都会经过更多次的迭代优化,最终呈现的成品会比现在好得多。这样一来,公司的效率会更高,利润会更丰厚,所有企业都会变得更赚钱,整个社会的财富也会随之增长。但还有一个值得深思的点:当所有我们能想到的问题都变得可以解决时,我们就会去探索更多新的问题。

 

所以,未来的趋势不会是就业岗位减少,反而是大家会变得比现在更忙碌。因为以前那些被认为 “不可能完成” 的任务,现在都摆上了台面;那些因为成本太高而无法开展的实验,现在都可以去尝试,AI 还会帮我们推进这些实验。只要我们有足够的想象力,所有搁置的难题,都会找到解决的路径。我可以做一个思想实验。现在我工作时,身边围绕着 60 位顶尖人才,而他们每个人又带着数千名精英。这些人在各自的领域里,能力都远超于我,对我来说,他们就像是 “领域内的人工超级智能”。但和他们合作,我完全没有障碍。现在我使用的 OpenAI、Gemini、Grok、Perplexity、Anthropic 这些 AI 工具,在很多方面也已经比我聪明了,但我每天都在和它们高效协作。

 

不过有一个很有意思的变化:以前我给团队布置一个问题,需要等两三天才能得到反馈和答案,这段时间里我可以思考下一步的计划 ,因为我的决策需要基于这些中间结果。但如果这些答案能在一秒钟内就反馈给我,会发生什么?我的工作节奏会变得无比紧凑,因为我会成为所有事情的关键节点。刚得到一个答案,立刻就要推导下一步,马上启动新的实验。你不觉得吗?现在信息技术的提速,已经让我们变得更忙碌了。信息、知识和答案的获取速度越来越快,我们作为决策节点,自然会比以往更忙。我觉得未来很多人都会有这种感受。

 

最后一点,对于那些没能赶上之前科技浪潮的人来说,AI 会填平技术鸿沟。我特别喜欢 “氛围编程” 这个概念,现在任何人都可以成为软件程序员,借助 AI 写出的代码,甚至比很多专业程序员的作品还要好。我很欣赏 Cursor 这家公司的成果,前几天还见到了 Lovable 的 CEO,他是个很厉害的人,他们的公司在瑞典。AI 会帮助那些在自己的领域很有天赋,但不懂如何用技术放大自身能力的人实现能力的跃迁。Lovable 的 CEO 就跟我说过,很多人用他们开发的软件创办了小公司,现在每年能赚 2300 万美元。这太不可思议了。这些人终于能融入全球经济体系,不再被技术门槛挡住去路,这一切都是 AI 的功劳。

 

五年后的世界,大家会拥有更有价值的工作,经济效率会大幅提升,GDP 有望实现增长,劳动力短缺的问题会得到缓解,通货膨胀也会回落。更多的科学领域会被开拓,更多的难题会被解决。当然,也有一些悲观的论调,认为 AI 会让一半的人失去工作。但我觉得,更可能发生的情况是:100% 的工作岗位都会发生变化,但不会有 50% 的岗位消失。而且,那些现在没有工作的人,很可能会因为 AI 获得谋生的手段。

 

当然,我们的技术会发生翻天覆地的变化,但这些技术层面的革新,反而不是最有意思的。五年后,计算机还是计算机,只是应用变得更智能了,本质上还是软件。我们依然会做电商,只是可能不用自己逛网站了,会有智能代理帮我们购物,但商品还是来自亚马逊这些平台。很多事情,其实都会保持原样。最后我还有一个小小的愿望或者说期待:希望我们在机器人和人形机器人领域的研究能结出硕果,希望未来每个人都能拥有属于自己的 R2-D2 和 C-3PO,它们可爱又贴心。就像在 GTC 大会上,我每次都会邀请迪士尼的机器人上台,那些机器人真的太萌了。

 

为什么不让每个人都拥有一个呢?我还希望迪士尼能把这些机器人做成周边商品,它们真的值得。我的宠物猫莫莫和库玛,也需要这样的 “宠物玩伴” 不是吗?我真心希望这个愿望能实现。现在有很多孤独的人,已经有不少人联系过我,希望能拥有可以在家陪伴自己的机器人,尤其是那些独居的老人。机器人能给他们带来陪伴和帮助,而且它们本身又那么可爱,这绝对是我们技术发展带来的意外之喜。

 

Jodi Shelton:如果以后有机器人帮我们做饭、打扫卫生,你还会像现在这样,饶有兴致地看着别人做饭吗?

 

黄仁勋:当然会。原因很简单,我现在完全有能力不用自己做饭,但我还是会选择下厨。我们完全可以雇很多佣人,但我们没有这么做。我和洛里一直都是两个人自己过日子。昨晚她做了墨西哥辣椒肉酱,味道棒极了,全程都是她一个人忙活的。以后我们大概率还会保持这样的生活。对我来说,最幸福的时刻,就是孩子们回家来,我们一起下厨做饭,喝喝小酒,这就是最完美的时光。

 

Jodi Shelton:一家人在厨房里忙活,这种亲密感真的太美好了。

 

黄仁勋:是啊,人生的幸福莫过于此。我们打拼奋斗,不就是为了这样的时刻吗?

“不爱演讲的黄仁勋”:CEO 是公司里最脆弱的一群人

Jodi Shelton:当一切尘埃落定,你希望后人如何记住你?

 

黄仁勋:首先,能被人记住,本身就是一件很幸运的事。我很庆幸,凭借英伟达的成就,凭借我们打造的事业,凭借我们在全球最重要的科技产业:人类最核心的工具 “计算机” 领域留下的印记,英伟达很可能会在我离开这个世界很久之后,依然对这个世界有着重要的意义。我很庆幸自己能和克里斯、柯蒂斯一起创立这家公司,很庆幸自己能一路学习成长,没有成为拖垮公司的那个短板,反而常常是推动公司走下去的一份力量。我们打造的这家企业,对整个世界都有着深远的影响,而不只是局限于某个行业或某个群体。

 

能做到这一点的人,在这个世界上并不多。我很庆幸自己作为创始人,能亲身参与并见证这一切,见证英伟达成长为如今的模样,见证它对全球各行各业产生实实在在的影响。公司里有很多已经工作了 33 年的老员工,他们的人生因为英伟达变得更加丰盈;现在甚至已经有第二代、第三代员工加入我们。我们在全球各地建立了自己的团队,我很荣幸能和这些员工并肩作战,分享他们一路走来的绝望与喜悦、希望与悲伤。这样的经历,并不是每个人都能拥有的。我为我们在中国的团队感到骄傲,为我们在印度的员工们由衷赞叹,也为欧洲、加拿大的团队感到欣慰。我们在加拿大的团队正在不断壮大。

 

我还希望有朝一日,英伟达能把业务拓展到南半球,让更多地区的人们,也能享受到我们今天所拥有的技术成果。昨天我还和人聊起我们在非洲开展的工作,聊到我们应该在拉美和东南亚投入更多精力。我真的为我们公司带来的这些影响感到自豪。所以,人们会怎么记住我?或许,他们会记得我是英伟达的创始人之一,是这家公司的缔造者之一。或许,还会记得我是个好人。

 

Jodi Shelton:这是毋庸置疑的。

 

黄仁勋:他们或许还会觉得,我是个风趣幽默的人,不喜欢端着架子。其实在很多方面,我都算是一个 “不情愿的 CEO”。比起待在公司外面抛头露面,我更喜欢扎根在公司内部;比起发表演讲,我更喜欢安静做事;我甚至一点都不喜欢做主题演讲,但为了公司,我必须去做这些事。我确实是个不太情愿的 CEO,但我绝对是个满腔热忱的英伟达建设者。只要是为了公司发展必须做的事,我都会全力以赴。说了这么多,其实我也不知道,人们最终会如何记住我。

 

Jodi Shelton:我觉得,看到好人获得成功,总是一件令人开心的事。这么多年来,看着你一路打拼,经历起起落落,最终收获成功,我真的由衷地为你高兴。你这一路走来,见过了形形色色的人。

 

黄仁勋:是啊,真的见过了太多人。我想提醒所有的 CEO,没有人能单枪匹马地成功。

 

Jodi Shelton:确实如此。

 

黄仁勋:我们虽然是 CEO,但这个位置总需要有人来坐。如果不是早年大家对我的提携与帮助,比如你一直不遗余力地宣传英伟达还有张忠谋奖带来的认可,这些都对我意义重大。张忠谋奖大概是我人生中获得的第一个真正有分量的奖项,直到今天,它对我来说依然意义非凡。这个奖项以他的名字命名,而且他还亲自参与了评选,这份认可真的让我铭记于心。还有那些和我们合作的企业,他们的慷慨相助,我也一直记在心里。

 

其实 CEO 这个角色,很多时候都需要寻求帮助。我已经记不清有多少次,我是这样开启一段对话的:“我需要你的帮助。” 很多时候,我是真的需要帮助,而且对方往往是唯一能帮到我的人。一路走来,很多人都慷慨地伸出援手,分享他们的知识,教我做事的方法,帮我解决棘手的难题。这或许才是 CEO 这个角色带给我的真正启示,这个职位远比人们想象的要脆弱得多。

 

Jodi Shelton:而且还是一个很孤独的职位,对吧?

 

黄仁勋:确实可能会感到孤独。但我想说,这种孤独更多是存在于我们的内心世界。当你试图解决一些棘手的难题时,往往需要长时间独自思考,自己跟自己对话。公司发展的每一次转型、每一次跨越,每一次我推动公司自我革新的时刻,我都不知道自己独自思考了多少个小时。在那些时刻,你会真切地感受到孤独。但我们也要明白,其实有很多人都希望我们能成功。就像你之前说的,你很乐意看到我成功,我知道你是真心希望我好,而我也同样希望你能越来越好。从这个角度来说,我们其实并不孤单。

 

所以说,CEO 这个职业,是一份充满脆弱感的工作。你无法单打独斗完成任何事,很多时候都需要依赖别人的帮助与善意。或许在外界看来,我们是强大的领导者,但实际上,我们可能是公司里最脆弱的一群人。我经常说,我是公司里唯一一个离开别人的帮助就寸步难行的人。我想,大多数 CEO 应该都是如此。这或许就是这份职业带给我们的感悟:CEO 们,远比他们愿意承认的要更加脆弱。不过对我来说,承认这种脆弱,并不是什么难事。

“没有终极目标” ,才成就了英伟达?

Jodi Shelton:接下来我们用快问快答收尾。你见过的最聪明的人是谁?

 

黄仁勋:这个问题我没法回答。我知道大家心里对 “聪明” 的定义,就是智商高、会解决问题、技术能力强。但在我看来,这种能力早已经成了一种 “通用品”。而且我们很快就能证明,AI 处理这类问题是最轻松的,不是吗?举个例子,以前大家都觉得软件编程是最考验智商的工作,结果呢?AI 最先攻克的领域之一就是编程。所以说,“聪明” 的定义,其实和大多数人想的完全不一样。

 

在我看来,从长远来讲,真正的 “聪明”,是那种兼具技术洞察力与人文同理心的能力,是能够洞察弦外之音、预判未知风险、看透表象背后本质的能力。那些能 “见人所未见” 的人,才是真正的聪明人,他们的价值是无可估量的。这种人能凭借数据、分析、底层逻辑、人生阅历、智慧经验,再加上对他人的感知,敏锐地捕捉到潜在的风险,在问题发生之前就提前规避。我觉得这才是 “聪明”,而且拥有这种能力的人,说不定在学术能力评估测试(SAT)里的分数惨不忍睹。

 

Jodi Shelton:外界对你有什么误解?

 

黄仁勋:这些问题都好犀利啊。首先,我都不知道外界对我有什么印象。

 

Jodi Shelton:比如,大家觉得你喜欢抛头露面,觉得你是个很棒的演讲者,所以肯定很享受做演讲的过程。但你之前已经说了,事实并非如此。

 

黄仁勋:对,完全相反。公开演讲简直让我怕得要死。不是说站在台上的那一刻害怕,而是现在,想到两周后在华盛顿举办的 GTC 大会,我就焦虑得不行。不,应该说,我已经焦虑一个月了。这种事总是让我心神不宁,脑子里时时刻刻都想着,压力特别大。公司内部的会议演讲也让我紧张到极致。因为台下坐的都是对我而言最重要的人,从某种程度上说,这是我做过的最重要的演讲。但这种演讲根本没法准备,我要讲的所有内容,其实都能在网上的某个视频里找到,他们完全可以自己去看。

 

我很讨厌把那些内容重复一遍讲给他们听,因为你绝不会回家对着家人做一场 GTC 主题演讲,对吧?我也不想那样做。演讲内容必须是真诚的、独一无二的、对听众有价值的、有意义的,能给他们带来改变。毕竟我还在领导这家公司,我希望通过演讲达成一定的目标。所以我必须拿出全新的内容,但不到演讲结束的那一刻,我永远不知道最终效果会怎么样。大家都觉得财报发布周我会很紧张,但说实话,我一点感觉都没有。真正让我紧张的,是公司的内部会议演讲。所以外界的这个印象,真的大错特错。

 

Jodi Shelton:你最受不了的事是什么?

 

黄仁勋:在关键时刻,有人不认真听我说话、不理解我的问题,还胡乱回答。尤其是在我们处理非常棘手、非常困难的问题时,我们需要的是事实,是真相。这个时候我提出问题,如果有人答非所问,我会立刻火冒三丈。我实在无法理解,为什么有人意识不到这场会议的重要性?我们正在为一件至关重要的事努力,我们需要尽快找到真相、解决问题。我到现在都想不通这一点,这种情况每次都会激怒我。谁要是想惹我生气,这招百试百灵。

 

Jodi Shelton:这下我们知道怎么让黄仁勋发火了。

 

Jodi Shelton:最后一个问题,是最近有人问我的,我特别喜欢这个问题。如果让你回到 20 岁,你是想回到自己当年的那个年代,还是活在当下的 20 岁?

 

黄仁勋:我会毫不犹豫地回到自己的那个年代。因为我觉得,我们那一代人的 20 岁,比现在年轻人的 20 岁更快乐。我总觉得,每个人都应该拥有一段 “懵懂无知” 的时光,不必从第一天起就背负着全世界的重担。我坚信这一点,没人能说服我。有时候,“无知” 也是一种快乐,甚至是一种超能力。如果当初我知道创立英伟达是一件 “不可能完成的任务”,那今天的英伟达根本就不会存在。事实就是,创立英伟达这件事,本来就是天方夜谭。但当时的我什么都不懂,所以没人能说服我放弃。

 

我觉得,乐观的人都这样,你永远没法说服他们 “这件事做不成”。他们就是这么 “无知”,对现实的艰难视而不见,所以才会充满乐观。这难道是坏事吗?现在的年轻人,过早地接触到了太多信息,变得越来越愤世嫉俗。他们并不是天生就这么消极,而是因为看到的东西太多太杂了。其实大可不必如此。人需要培养内心的乐观精神,需要在心里留存一份善意,学会只看到世界美好的一面。我们得锻炼这种能力。我们那一代人,有更多这样的机会。我们 20 岁的时候,就是这样的,乐观得像超人一样,觉得凡事皆有可能。所以,我肯定会选择回到自己的 20 岁。

 

Jodi Shelton:真是个完美的收尾。无知是福啊。

 

黄仁勋:没错,无知是福,无知也是一种超能力。任何一个想要开启新征程的人,如果不是因为这份 “无知”,他们一早就会因为觉得事情太难而放弃了。我真的很庆幸,自己当年虽然也算勤奋、也算有一些能力,但那份 “无知” 帮了我大忙。我那时候做任何事都抱着一种心态:“这能有多难?” 结果后来才发现,简直难到超乎想象。你根本没法想象。你看看我今天建立的这一切,如果当初我就知道前路会有这么多艰辛、这么多挫折、这么多失望,把这些困难全都摆在我面前,我绝对不会去做的,绝对不会。所以说,“无知” 真的是一种超能力。

 

还有一种超能力,就是“没有终极目标”。英伟达就没有什么终极目标。总有人问我:“黄仁勋,你的计划是什么?” 我们没有计划,“活下去” 就是我们的计划。我们对未来的世界有憧憬,我们会畅想技术会如何改变世界,但我们 100% 的计划,就是让公司一直运营下去。以前也有人问我,现在也经常有人问:“黄仁勋,你的人生目标是什么?” 我没有什么人生目标,就是想一直工作,一直有事可做,能和一群优秀的人一起做有意义的事。这就是我的目标。

 

所以说,从很多方面来讲,“没有终极目标” 这一点,对英伟达的发展真的起到了至关重要的作用。

 

参考链接:

https://www.youtube.com/watch?v=8FOdAc_i_tM

联发科天玑9500s、8500发布:GPU、光追拉满,红米Turbo 5Max将搭载

0%
icon展开列表
联发科天玑9500s、8500发布:GPU、光追拉满,红米Turbo 5Max将搭载
今天
img
通用级PixVerse P1的技术突破,揣着进入平行世界的密码
今天
img
Mira公司内乱?CTO被开除,带团队回OpenAI,翁荔上推发言
今天
img
Nature丨清华等团队揭示AI科研双重效应:个人效率亦或是科学边界
今天
img
刚刚,喝到了千问APP给我点的奶茶
今天
img
人脸机器人登上Science Robotics封面:用AI教会仿生人脸机器人「开口说话」
今天
img
实测夸克「千问划词快捷指令」,这7个邪修Prompt,建议收藏
今天
img
已证实!清华姚班陈立杰全职加入OpenAI,保留伯克利教职
今天
img
解锁任意步数文生图,港大&Adobe全新Self-E框架学会自我评估
今天
img
5分钟定制一个AI采购专家:讯飞发布“招采智能体工厂”,重新定义行业开发范式
今天
img
Agent时代,为什么多模态数据湖是必选项?
今天
img
大模型长脑子了?研究发现LLM中层会自发模拟人脑进化
今天
img
性能提升60%,英特尔Ultra3这次带来了巨大提升
01月14日
img
继宇树后,唯一获得三家大厂押注的自变量:具身模型不是把DeepSeek塞进机器人
01月14日
img
Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起
01月14日
img
端到端智驾新SOTA | KnowVal:懂法律道德、有价值观的智能驾驶系统
01月14日
img
仅用10天?Anthropic最新智能体Cowork的代码竟然都是Claude写的
01月14日
img
AAAI 2026|AP2O-Coder 让大模型拥有「错题本」,像人类一样按题型高效刷题
01月14日
img
用AI从常规病理切片重建空间蛋白图谱:基于H&E图像的高维蛋白质表达预测
01月14日
img
京东首届AI影视创作大赛启动 最高奖金10万元邀全民共创AI视频
01月14日
img

联发科天玑9500s、8500发布:GPU、光追拉满,红米Turbo 5Max将搭载

1 月 15 日,联发科(MediaTek)正式发布了天玑 9500s 和天玑 8500 移动芯片。

作为天玑家族的新成员,两款新品承袭了天玑旗舰芯片的诸多先进技术,在性能、能效、AI、影像、游戏和无线连接等方面表现强大,为旗舰细分市场注入了新动力。

天玑 9500s 采用 3nm 制程工艺和全大核架构(拥有超过 290 亿晶体管),八核 CPU 包含 1 个主频 3.73GHz 的 Cortex-X925 超大核、3 个 Cortex-X4 超大核和 4 个 Cortex-A720 大核,配备同档次出众的大容量高速缓存(二级缓存、三级缓存+系统缓存共 29m),结合第二代天玑调度引擎,可为手机等终端带来强大性能和能效表现。

GPU 方面,天玑 9500s 搭载 Immortalis-G925 GPU ,提供重载硬核手游满帧、沉浸式的畅游体验,能够满足游戏发烧友、电竞选手对性能的期待。天玑 9500s 支持先进的光线追踪技术,天玑 OMM 追光引擎能够高效渲染图形,大幅提升游戏画面的真实感和精细度,带来主机级的环境光照和反射效果。

此外,借助天玑星速引擎的自适应技术 3.0(MAGT 3.0)和天玑倍帧技术 3.0(MFRC 3.0),天玑 9500s 可显著提高主流游戏的能效表现,延长终端的续航时间。该芯片还支持 165 超高帧游戏,助力玩家体验快人一步。

在 AI 性能方面,天玑 9500s 集成了旗舰级 NPU,拥有强大的端侧 AI 推理能力,面向生成式推理、多模态模型进行了优化,以构建强大的旗舰端侧影像、内容生成等多元能力。该芯片支持端侧 AI 实况照片美化、AI 照片编辑(扩图、抠图、消除),AI 内容摘要(通话、会议和文件)等日常高频功能,能够助力终端厂商打造用户的个人随身 AI 设备,满足日益增长的社交、生产力场景需求。

联发科表示,其正在持续与大量应用端厂商合作,致力于打造更多新形态的 AI 体验。

影像方面,天玑 9500s 搭载先进的 MediaTek Imagiq 影像处理器,支持实时 30 帧运动追焦和 8K 全焦段杜比视界 HDR 视频录制,视频创作者可轻松捕捉清晰、生动的视频画面。此外,该芯片还支持杰出的抓拍和降噪技术,带来既快又清晰的旗舰拍照体验。

今天推出的另一款芯片天玑 8500 采用台积电 4nm 制程打造,全大核架构 CPU 包含 8 个主频至高可达 3.4GHz 的 Cortex-A725 大核,带来性能和能效的进一步提升。天玑 8500 支持精准的调度技术,支持传输速率更高的 LPDDR5X 9600Mbps 内存,用户在日常应用、游戏和多任务处理等使用场景中能够享受丝滑流畅、持久续航。

天玑 8500 搭载性能更强的八核 Mali-G720 GPU,峰值性能相较上一代提升 25%,功耗相较上一代峰值性能下降低 20%。得益于全面升规的计算核心、天玑调度和星速双引擎,天玑 8500 可为玩家带来兼具游戏满帧稳帧、疾速加载和冰峰高能效的劲爽体验。据介绍,在流行开放世界手游的高画质设置上,搭载该芯片的手机可以保持 60 帧满帧的效果。

此外,天玑 8500 还将光线追踪技术落地于主流移动游戏,提供更加逼真的画质效果,显著提升玩家的沉浸感。

联发科表示,基于天玑新一代次旗舰芯片,通过与腾讯语音团队的合作,目前双方已在王者荣耀游戏中落地了 AI 语音转文字的功能。

至于搭载新一代芯片的手机,联发科介绍了与小米(REDMI)vivo,OPPO 等厂商的深度合作。

小米集团手机部副总裁李俊也来到了发布会现场,介绍了即将搭载联发科新一代芯片的手机。他表示,即将在本月发布的红米 Turbo 5 Max(天玑 9500s 版)的安兔兔跑分达到了 361 万分,在 2500 元价位上实现了前所未有的性能。

除了天玑 9500s 与 8500 芯片,红米 Turbo 5 Max 预计还将拥有大屏幕及超大容量电池。

目录帖:

PS:看完的佬友可以发条评论,最近几章的阅读量越来越少,是行文出了问题或是难以理解?还是单纯的帖子被淹没了?

============ 以下正文 ============

驱动的安装

在这里只讲 Ubuntu 和 Windows 的。首先说 Windows,大家应该都非常熟悉了,官网下载驱动包一键安装就行。

对于 Ubuntu 来说,大部分情况下建议采用如下方式安装驱动,而非官网下载.run 文件安装驱动:

  • /etc/modprobe.d/blacklist.conf 的末尾追加 blacklist nouveau 并执行 sudo update-initramfs -u && reboot 以禁用 nouveau

  • 执行 ubuntu-drivers devices 以查询推荐驱动。如:

    (base) root@ubuntu:~# ubuntu-drivers devices
    == /sys/devices/pci0000:c0/0000:c0:01.1/0000:c1:00.0 ==
    modalias : pci:v000010DEd00002684sv000010DEsd000016F3bc03sc00i00
    vendor   : NVIDIA Corporation
    model    : AD102 [GeForce RTX 4090]
    driver   : nvidia-driver-535 - distro non-free
    driver   : nvidia-driver-570-server-open - distro non-free
    driver   : nvidia-driver-580-open - distro non-free
    driver   : nvidia-driver-580-server - distro non-free
    driver   : nvidia-driver-535-server - distro non-free
    driver   : nvidia-driver-570 - distro non-free
    driver   : nvidia-driver-580 - distro non-free recommended
    driver   : nvidia-driver-535-open - distro non-free
    driver   : nvidia-driver-580-server-open - distro non-free
    driver   : nvidia-driver-570-open - distro non-free
    driver   : nvidia-driver-535-server-open - distro non-free
    driver   : nvidia-driver-570-server - distro non-free
    driver   : xserver-xorg-video-nouveau - distro free builtin
    

    可以看到目前推荐的驱动版本是 580。那么执行 sudo apt install nvidia-driver-580 -y 即可安装。

注意,驱动程序和 CUDA 版本的关系很简单:显卡驱动的版本必须大于等于 CUDA Toolkit 所要求的最低版本。

nvidia-smi

看懂 nvidia-smi

安装完驱动以后,执行 nvidia-smi 来检查一下驱动是否已经正确安装:

(base) root@ubuntu:~# nvidia-smi
Wed Jan 14 02:22:46 2026       
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 580.95.05              Driver Version: 580.95.05      CUDA Version: 13.0     |
+-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce RTX 4090        On  |   00000000:81:00.0 Off |                  Off |
| 67%   25C    P8             20W /  300W |       1MiB /  49140MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
|   1  NVIDIA GeForce RTX 4090        On  |   00000000:82:00.0 Off |                  Off |
| 30%   25C    P8             22W /  300W |       1MiB /  49140MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
|   2  NVIDIA GeForce RTX 4090        On  |   00000000:C1:00.0 Off |                  Off |
| 30%   28C    P8             25W /  300W |       1MiB /  49140MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
|   3  NVIDIA GeForce RTX 4090        On  |   00000000:C2:00.0 Off |                  Off |
| 30%   27C    P8             17W /  300W |       1MiB /  49140MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI              PID   Type   Process name                        GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|  No running processes found                                                             |
+-----------------------------------------------------------------------------------------+

先从回显的第一行看起。这里可以看到我们安装了 580.95.05 版本的驱动。那么这个 CUDA Version 是怎么回事呢?

即使没装过 CUDA ToolKit,这里其实也会显示一个版本号的。这是因为驱动程序里有一个动态链接库 libcuda.so,它决定了当前版本的驱动能够支持的最高 CUDA 版本。

然后看一下每列的内容:

  • GPU / Fan:显卡序号(从 0 开始)、显卡风扇转速(以百分比计)
  • Name / Temp:显卡名、当前核心温度
  • Perf:性能状态(Performance State),P8 = 休眠模式;P2 = 高性能模式;P0 = 最大性能模式(一般 CUDA 计算都是在 P2 上)
  • Persistence-M / Pwr:持久化模式状态、功耗监控。持久化会在下面讲到。功耗监控列的格式为:当前功耗 / 最大功率(可以自己调整)
  • Bus ID:PCI 总线地址。这里可以和 lspci | grep -i vga 的回显对应上
  • Disp.A:Display Activate,显示输出激活状态。由于这些卡都没有连接显示器,所以目前都是 Off
  • Memory Usage:显存占用。喜闻乐见的核心指标,格式为:当前使用显存 / 总显存
  • GPU Util:GPU 核心使用率
  • Volatile Uncorr. ECC:ECC 开启状态。我没开,开了少 3G 显存,太致命了
  • Compute M.:计算模式(Compute Mode),分为 Default(默认)、Exclusive_Process(独占进程)、Prohibited(禁止计算)
  • MIG M.:多实例 GPU 模式(Multi Instance GPU Mode),高贵的数据中心卡才有,可以在硬件层面上把 GPU 切分

最后一行表格是当前活动进程。在这里可以看到使用了 GPU 的进程状态。

持久化

在 Windows 上,系统启动时内核模式驱动就会被加载并一直保持加载状态,天生就带着持久化的特性,所以通常情况下不用管。但在 Linux 中(尤其是无头机),因为没有客户端一直维护 GPU 句柄,所以每次目标 GPU 上有程序启动和停止时,内核模式驱动都会初始化和取消初始化目标 GPU。这无疑是一种资源上的浪费。最要命的是,在实践中,这个现象还会经常导致莫名其妙的 bug。你都准备跑 AI 计算了,还缺那点电费吗?持久化走起!如无意外,每个 Linux 用户都应该开启持久化功能:

nvidia-smi -pm 1

检查 GPU 拓扑

当你连接了 NVLink 后,可以使用如下命令来查看 NVLink 连接状态:

(base) root@gpu-a6000:~# nvidia-smi topo -m

        GPU0    GPU1    GPU2    GPU3    CPU Affinity    NUMA Affinity   GPU NUMA ID
GPU0     X      NV4     SYS     SYS     48-63,112-127   3               N/A
GPU1    NV4      X      SYS     SYS     32-47,96-111    2               N/A
GPU2    SYS     SYS      X      NV4     16-31,80-95     1               N/A
GPU3    SYS     SYS     NV4      X      0-15,64-79      0               N/A

Legend:

  X    = Self
  SYS  = Connection traversing PCIe as well as the SMP interconnect between NUMA nodes (e.g., QPI/UPI)
  NODE = Connection traversing PCIe as well as the interconnect between PCIe Host Bridges within a NUMA node
  PHB  = Connection traversing PCIe as well as a PCIe Host Bridge (typically the CPU)
  PXB  = Connection traversing multiple PCIe bridges (without traversing the PCIe Host Bridge)
  PIX  = Connection traversing at most a single PCIe bridge
NV#= Connection traversing a bonded set of # NVLinks 

如上表格所示:这个系统里有 4 张卡,NVLink 两两一组,GPU0/1 一对,GPU2/3 一对。从 0/1 到 2/3 就要走 CPU PCIE 了。

至于 CPU/NUMA 亲和性在此处不再展开讲述,如果你使用多路 Xeon 或 AMD Epyc 则可能需要注意一下调节 NPS 以优化 NCCL 性能。

CUDA

如果你是一个拥有很大固态和很快网络的 Docker 战神,那我的建议是不要在宿主机里装任何 CUDA,一切交给 Docker。

一般地,建议使用:nvidia/cuda - Docker Image

但是,如果你需要编译一些源码或者坚持古法环境配置,那么就需要在官网下载.run 文件去安装 CUDA 了。有几点需要注意:

  • 对于新安装的系统来说,安装 CUDA 前尽可能地补全环境,避免安装失败。CUDA 最好一口气装好,不然清理环境非常头疼:

    sudo apt-get install zlib1g -y
    sudo add-apt-repository ppa:ubuntu-toolchain-r/test
    sudo apt update
    sudo apt install gcc-11 g++-11 -y
    sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-11 60 --slave /usr/bin/g++ g++ /usr/bin/g++-11
    sudo apt-get install build-essential libgomp1 -y
    
  • 非常重要:安装时记得取消掉驱动安装。CUDA 工具包里会带一个驱动,不要用!如果你已经装好驱动了,再把这玩意带上,装完了必炸

  • 安装结束后,记得检查环境变量(以 CUDA 12.6 为例):

    vi ~/.bashrc
    尾部追加:
    export PATH=/usr/local/cuda-12.6/bin:$PATH
    export LD_LIBRARY_PATH=/usr/local/cuda-12.6/lib64:/usr/local/cuda-12.6/extras/CUPTI/lib64:/usr/local/cuda-12.6/targets/x86_64-linux/lib:/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH
    export CUDA_HOME=/usr/local/cuda-12.6
    执行:
    source ~/.bashrc 
    

执行命令以检查 CUDA 环境是否都已正确配置:

(base) root@ubuntu:~# nvcc --version
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2024 NVIDIA Corporation
Built on Tue_Oct_29_23:50:19_PDT_2024
Cuda compilation tools, release 12.6, V12.6.85
Build cuda_12.6.r12.6/compiler.35059454_0

Pytorch

安装 Pytorch 有许多讲究。首先,你应该使用 uvconda 创建一个靠谱的虚拟环境,任何操作都需要在虚拟环境里执行。

访问:https://pytorch.org/get-started/locally/,查看当前 Stable 版本的 Pytorch 安装命令。

Pytorch 依赖许多特定环境:如 CUDA 版本、Python 版本、C++ 版本等,所以通常官网会列出 3 个主力 CUDA 版本对应的 Pytorch 安装命令。那么,假如你在使用特定版本的 CUDA 或需要安装特定版本的 Pytorch,如何确定有可用的 whl 呢?

检查可用 whl

Pytorch 官方构建:

https://download.pytorch.org/whl/cuXXX/torch

XXX 代表 CUDA 版本,以三位数表示。比如 CUDA 11.8 就是 cu118,CUDA 12.6 就是 cu126

截至本文动笔的时间,Pytorch Stable 版本是 2.9.1,官网默认列出的版本是 CUDA 12.6 / 12.8 / 13.0。假如我创建了一个 Python 3.11 的环境并且宿主机的 CUDA 版本为 12.4,应该如何确定 whl 是否存在(可以直接安装)呢?

按照以上信息,我们访问:

https://download.pytorch.org/whl/cu124/torch/

很遗憾!我们看到了,最新的也就只有 2.6 版本:

torch-2.6.0+cu124-cp310-cp310-linux_x86_64.whl
torch-2.6.0+cu124-cp310-cp310-win_amd64.whl
torch-2.6.0+cu124-cp311-cp311-linux_x86_64.whl
torch-2.6.0+cu124-cp311-cp311-win_amd64.whl
torch-2.6.0+cu124-cp312-cp312-linux_x86_64.whl
torch-2.6.0+cu124-cp312-cp312-win_amd64.whl
torch-2.6.0+cu124-cp313-cp313-linux_x86_64.whl
torch-2.6.0+cu124-cp313-cp313-win_amd64.whl
torch-2.6.0+cu124-cp313-cp313t-linux_x86_64.whl
torch-2.6.0+cu124-cp39-cp39-linux_x86_64.whl
torch-2.6.0+cu124-cp39-cp39-win_amd64.whl

正式版的版本太老,看看 nightly 会不会好些,访问:

https://download.pytorch.org/whl/nightly/cu124/torch/

好多了,有 2.7 版本的每夜构建。如果你只是一个小白用户,那在坚守 CUDA 12.4 的情况下也就只有 Pytorch 2.7 可用了:

torch-2.7.0.dev20250310+cu124-cp310-cp310-manylinux_2_28_x86_64.whl
torch-2.7.0.dev20250310+cu124-cp310-cp310-win_amd64.whl
torch-2.7.0.dev20250310+cu124-cp311-cp311-manylinux_2_28_x86_64.whl
torch-2.7.0.dev20250310+cu124-cp311-cp311-win_amd64.whl
torch-2.7.0.dev20250310+cu124-cp312-cp312-manylinux_2_28_x86_64.whl
torch-2.7.0.dev20250310+cu124-cp312-cp312-win_amd64.whl
torch-2.7.0.dev20250310+cu124-cp313-cp313-manylinux_2_28_x86_64.whl
torch-2.7.0.dev20250310+cu124-cp313-cp313-win_amd64.whl
torch-2.7.0.dev20250310+cu124-cp313-cp313t-manylinux_2_28_x86_64.whl
torch-2.7.0.dev20250310+cu124-cp313-cp313t-win_amd64.whl
torch-2.7.0.dev20250310+cu124-cp39-cp39-manylinux_2_28_x86_64.whl
torch-2.7.0.dev20250310+cu124-cp39-cp39-win_amd64.whl

指定镜像及安装特定版本

现在我们确定了最新的 whl 了,但显然直接从官方源下载太慢。比如,我是 CUDA 12.6 用户,虚拟环境里用的 Python 3.11,想要安装 Pytorch 2.9.1(当前的 stable),官方给出的命令是:

pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu126

这里推荐使用南京大学的镜像,更新比较及时:

pip3 install torch torchvision --index-url https://mirrors.nju.edu.cn/pytorch/whl/cu126

实际上,这等价于安装了如下 whl(以 torch 包举例):

torch-2.9.1+cu126-cp311-cp311-manylinux_2_28_x86_64.whl

可以看到 whl 的命名规则:包版本+CUDA版本-Python版本-对应系统_系统架构

那么,假如我想要安装 Pytorch 2.8.0 呢?那么就应该注意一下版本对应关系。torchtorchaudio 的版本号是直接对应的,而 torchvision 则可能需要查一下。

当 Pytorch 2.1.0 时,包版本如下:

  • torch==2.1.0
  • torchaudio==2.1.0
  • torchvideo==0.16.0
  • torchtext==0.16.0

从 Pytorch 2.4.0 开始,没有 torchtext 包了。包版本如下:

  • torch==2.4.0
  • torchaudio==2.4.0
  • torchvideo==0.19.0

可以看到,它们都是递增关系。那么很容易推出来 Pytorch 2.8.0 需要的安装命令:

pip3 install torch==2.8.0 torchvision==0.23.0 torchaudio==2.8.0 --index-url https://mirrors.nju.edu.cn/pytorch/whl/cu126

注:Pytorch 2.9.0 的 Conv3d 有问题,如果你部署 / 微调 Qwen3VL 的时候发现明显的性能降级,则应将版本回退到 2.8 或升级至 2.9.1(最好是退到 2.8)


📌 转载信息
原作者:
flymyd
转载时间:
2026/1/14 18:25:02

性能提升60%,英特尔Ultra3这次带来了巨大提升

0%
icon展开列表
性能提升60%,英特尔Ultra3这次带来了巨大提升
今天
img
继宇树后,唯一获得三家大厂押注的自变量:具身模型不是把DeepSeek塞进机器人
今天
img
Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起
今天
img
端到端智驾新SOTA | KnowVal:懂法律道德、有价值观的智能驾驶系统
今天
img
仅用10天?Anthropic最新智能体Cowork的代码竟然都是Claude写的
今天
img
AAAI 2026|AP2O-Coder 让大模型拥有「错题本」,像人类一样按题型高效刷题
今天
img
用AI从常规病理切片重建空间蛋白图谱:基于H&E图像的高维蛋白质表达预测
今天
img
京东首届AI影视创作大赛启动 最高奖金10万元邀全民共创AI视频
今天
img
合合信息多模态文本智能产品“上新”,覆盖AI教育、AI健康、AI Infra多元场景
今天
img
500万次围观,1X把「世界模型」真正用在了机器人NEO身上
今天
img
跳出「黑盒」,人大刘勇团队最新大语言模型理论与机理综述
今天
img
百川开源全球最强医疗大模型M3,「严肃问诊」定义AI医疗新能力
今天
img
相约AAAI 2026 | 上海AI实验室北极星 X 星启交流会(报名开启)
01月13日
img
视觉模型既懂语义,又能还原细节,南洋理工&商汤提出棱镜假说
01月13日
img
无需重新训练,即可学习新任务,Arc研究所开源单细胞基础模型Stack及细胞反应全景图谱
01月13日
img
不上云、不租卡,如何优雅地在本地微调Qwen-VL-30B?
01月13日
img
OpenAI的首款硬件:是AI耳机,今年销量要冲5000万
01月13日
img
华为推出软工代码智能体SWE-Lego,解锁SFT训练极致性能
01月13日
img
大模型中标TOP10里的黑马:中关村科金的应用攻坚之道
01月13日
img
刚刚,梁文锋署名开源「记忆」模块,DeepSeek V4更细节了
01月13日
img

性能提升60%,英特尔Ultra3这次带来了巨大提升

上周,英特尔在 CES 2026 上正式发布了代号为 Panther Lake 的 Core Ultra Series 3 处理器,成为了本次展会的绝对主角。它终于让 PC 芯片摆脱了多年挤牙膏的困境,在 CPU、GPU 和 NPU 架构上均带来了显著的「代际」升级。

这是首款基于英特尔自家 18A 工艺(等效 1.8 纳米级别)大规模量产的消费级芯片,桌面端和移动端版本同期推出。对英特尔来说,新制程与新芯片具有重大意义,标志着该公司重新引领芯片性能与方向的开始。

CES 之后,英特尔对下一代酷睿 Ultra 平台作了完整的技术概述。

在新一代 Panther Lake 产品上,能效核 Darkmont 与性能核 Cougar Cove,GPU(升级版 Xe3)都是新架构,引入了第五代 NPU 用于 AI 加速,缓存、图像处理单元都是新的,芯片整体采用了基于 chiplet 的封装,使用 Foveros-S 堆叠技术。

具体来说,每颗 Panther Lake 主要由三种小芯片组成:基于 Intel 18A 的计算芯片、基于 Intel 3 或台积电 N3E 工艺的图形芯片,以及基于台积电 N6E 的平台控制器芯片。每个配置都采用了 Foveros-S 封装,安装在同一个基板上,CPU、GPU、I/O 芯片会被集成到一个紧凑的 SoC 布局中。

英特尔表示,Panther Lake 会具备 Lunar Lake 的能效与 Arrow Lake 的性能,CPU 最多拥有 16 个核心,性能相比上代提升 60%(比之前宣称的 50% 又有提升),低功率情况下,单核性能较上一代提升 40%。

在 CPU 上,Panther Lake 集成了三种类型的核心,Cougar Cove P 核心在 Lion Cove 的基础上进行了改进,增加了 TLB 的容量,配备了更精确的多级分支预测器。每个 P 核心包含 3MB 的 L2 缓存和 256K 的 L1 缓存。Darkmont E 是上一代 Skymont 的升级版,支持 9 路解码,更大的乱序执行窗口和 26 个调度端口。

Panther Lake 还新增了一个四核低功耗集群,它基于 Darkmont 架构,直接位于计算单元上,用于处理后台或轻量级负载。

英特尔表示,重新设计的内存子系统支持 DDR5-7200 与 LPDDR5X-9600,相比前几代产品带宽和容量更高,计算单元可在核心集群上共享 18MB 的 L3 缓存,并连接到 8MB 的内存端缓存,从而减少 DRAM 流量和延迟。

GPU 方面,新一代芯片搭载了全新的 Xe3 架构核显,拥有最多 12 个 Xe 核心,官方宣称游戏性能相比上一代(Lunar Lake)提升高达 77%,同功耗水平性能提升 50%,其性能甚至超越了部分独立显卡(如部分 RTX 4050 移动版)。当然,这一代核显的性能相较 AMD 的同档产品也有巨大的优势。

可见在魔兽世界、群星等游戏上,以后我们基本可以用集显玩了。我们甚至可以展望 Ultra 3 发布会,会有搭载集显的全能笔记本出现。

12 核心的 Xe3 版本使用台积电 N3E 工艺打造,提升了 L1、L2 缓存容量,改进了各向异性过滤和模板渲染速率,并配备了增强型光线追踪单元和动态光线管理功能。

Panther Lake 还首次搭载了 XeSS 3 多帧生成技术,可以通过生成多个插帧的方法实现更加流畅的游戏体验。英特尔计划在其图形软件中增加帧生成覆盖控制功能,从而让用户可以强制指定特定的帧生成模式。

在 AI 计算方面,Panther Lake 采用了更加均衡的 XPU 设计,可实现更高水平的 AI 计算加速,总平台算力超过了 180TOPS。其中 NPU 算力提升至 50 TOPS,支持 FP8、INT8 等量化格式,MAC 吞吐量翻倍,功耗降低 40% 以上。

利用新的线程管理器,Panther Lake 能够适应不断变化的工作负载,在游戏时提升约 10% 的帧率。通过优化 Windows 电源模式,新的芯片在相同的功耗限制下可以把性能提升大约 20%。

Panther Lake CPU 预计将提供八核心 + 两个十六核心的版本,命名为英特尔酷睿 Ultra 处理器第三代(3xx)。另外在连接方面,这一代芯片支持最多 20 条 PCIe 通道,集成雷电 4;无线连接方面则支持 Wi-Fi 7 Revison 2 和蓝牙 6.0Core。

除了个人电脑领域之外,Panther Lake 的应用范围还扩展到了包括机器人在内的边缘应用领域。英特尔提供了 AI 软件套件与参考板卡,能够帮助复杂 AI 应用的客户快速上手,利用新一代 AI 芯片实现控制和 AI 感知,并快速开发机器人。

英特尔表示,得益于 18A 工艺,Panther Lake 芯片的能效比进一步优化,官方宣称部分机型续航可达 27 小时。再加上性能的提升,新一代芯片在轻薄笔记本和游戏本上都会带来更好的体验。

预计搭载 Panther Lake 的笔记本电脑在今年 1 月就会大批量上市。

英特尔还预告了 30W 功率掌机版本的 Panther Lake 的信息,不过更多信息有待公布。

随着 Ultra 第三代产品的推出,AI PC 距离实用化更近了一步。

有 h20 可以跑 sd

代码仓库:100GiB
对象存储:100GiB
云原生构建 - CPU:2026 核时 / 月
云原生开发 - CPU:20260 核时 / 月
特权有效期:永久
申请截止时间:2026 年 12 月 31 日

这里申请就可以了


📌 转载信息
原作者:
wuming
转载时间:
2026/1/8 10:10:35

贴个原报道的 ai 翻译

it 之家也有引用


📌 转载信息
原作者:
GYMo
转载时间:
2026/1/2 14:31:57