标签 Dario Amodei 下的文章

在 Agent、VibeCoding 等等 AI 应用刷屏之际,Claude 背后的那个男人,在 2026 年初给大家 敲响了一记警钟

“2026 年,我们距离真正的危险,比 2023 年近得多。”

事情是这样的:Anthropic 联合创始人、CEO Dario Amodei,最近亲自 写了一篇万字长文, 如果把字体按正常大小放进 Word 文档中,足足有 40 多页

这篇文章名为 《The Adolescence of Technology》(《技术的青春期》)。

image

如此多的篇幅,并非一次情绪化的警告,而是 Dario Amodei 试图 在 AI 可能整体性超越人类之前,提前把风险与应对方案摊开来说。

他认为这是一个危险的局面,甚至可能会是国家级别的安全威胁。但美国的政策制定者,似乎对此不以为意。于是,他想用这篇文章来唤醒人们的警觉。

有意思的是,他在文章开头,引用了一部 1997 年上映的电影《超时空接触》中的一个场景:

面试者问女主角(身份是天文学家):“如果你只能问(来自高等文明的外星人)一个问题,你会问什么?”

她的回答是“我会问他们,‘你们是如何熬过这段科技青春期而不自毁的?’”

image

电影中那句“你们是怎么活下来的”,其实也是借女主之口,反问人类自己。在 Dario 看来,现在的 AI ≈ 青春期突然暴涨的能力,人类社会 ≈ 心智和制度尚未成熟的个体。

也就是说,人类正在进入一个和电影中“首次接触高等文明”极为相似的历史时刻。问题不在于对方有多强,而在于我们是否已经足够成熟。

这篇文章发布后,NBC News 旗下节目《Top Story》也邀请 Dario Amodei本人出面解读,并在访谈中进一步追问他对 AI 未来的判断。完整内容我们整理并放在后文了。

image

AI 可能带来的五大系统性风险

“我们正在进入一个既动荡又不可避免的过渡阶段,它将考验我们作为一个物种的本质。人类即将被赋予几乎难以想象的力量,但我们的社会、政治和技术体系是否具备驾驭这种力量的成熟度,却是一个极其未知的问题。”

面对 AI 的飞速迭代,Dario Amodei 写下了自己的思考。

整篇文章像是 一份风险评估与行动清单,在“可能超越人类的 AI”出现之前,为人类提前做好制度准备。

其 核心思想,简单来说就是:当 AI 可能整体性地超越人类时,真正的风险不只是技术本身,而是人类的制度、治理与成熟度是否跟得上这种力量。

为了说清楚 AI 可能带来的危机,Dario Amodei 在这篇文章中,先做了一个具体的设想:

假设在 2027 年左右,世界上突然出现了一个国家。这个国家有 5000 万名“超级天才”

每一个都比任何诺贝尔奖得主更聪明,学习速度是人类的 10–100 倍,掌控人类已知的一切工具,不需要睡觉、休息或情绪调节,能完美协作、同时推进无数复杂任务,还能操控机器人、实验室和工业系统。

最关键的一点是:他们不可控。

那这样的天才之国,会对人类产生什么样的影响?

Dario Amodei 的这个比喻,指的正是未来高度发展的 人工智能整体。这也正是我们必须认真讨论 AI 安全与 AI 治理的原因。

不过在进入具体风险之前,他强调这个讨论要基于 三大原则

  • 避免末日论

  • 承认不确定性

  • 干预必须精准,拒绝“安全表演”

Dario Amodei 认为,AI 可能带来五大系统性风险,但是大家也不用太“干着急”,他还贴心地为这五类风险,依次想出了解决方案或者防御措施。

第一,AI 不可控。AI 的训练过程极其复杂,内部机制至今像“黑箱”。这意味着它可能出现欺骗行为、权力追逐、极端目标、表面服从、内部偏移等情况。

对此,可以实施宪法式 AI,用高层次价值观塑造 AI 性格,比如如 Claude 的"宪章";遵循机械可解释性,像神经科学一样研究 AI 内部机制,发现隐藏问题;要透明监控,公开发布模型评估、系统卡,建立行业共享机制;社会要从透明度立法开始,逐步建立监管

第二,AI 被滥用。AI 可能被不法分子用来网络攻击、自动化诈骗,其中最可怕的就是做成生物武器

对此,可以针对模型做危险内容检测与阻断系统,同时政府监管要强制基因合成筛查,有透明度要求,未来逐步出现专门立法;在物理防御上,可以做传染病监测、空气净化,提高快速疫苗研发能力。

第三,AI 成为追逐权力的工具。 某些政府或组织可能会利用 AI 建立全球规模的技术极权主义。比如 AI 监控,AI 宣传,AI 决策中枢,自主武器系统,都指向政治军事这样的危险场景。

对此,最关键的先要芯片封锁,不向个别组织出售芯片与制造设备。其次,赋能相关国家,让 AI 成为防御工具,而不是压迫工具。并且限制国家滥用:禁止国内大规模监控和宣传,严格审查自主武器。然后,建立国际禁忌,将某些 AI 滥用定性为"反人类罪"。最后,监督 AI 公司,严格公司治理,防止企业滥用

第四,AI 对社会经济的冲击。 入门级工作可能被取代,大量失业,进一步造成财富失衡。

为此,可以建立实时经济数据,比如 Anthropic 经济指数;引导企业走向"创新"而非单纯"裁员";企业内部创造性重新分配岗位;通过私人慈善与财富回馈进行调节;政府进行干预,建立累进税制

第五,AI 会对人类社会带来未知但可能更深远的连锁反应。

比如:生物学飞速发展(寿命延长、智力增强、"镜像生命"风险),人类生活方式被 AI 重塑(AI 宗教、精神控制、丧失自由),以及意义危机(当 AI 在所有领域超越人类,人类“为何而存在”?)。

这是一场对人类文明级别的终极考验,且技术趋势不可停止,但缓解一个风险,可能会放大另一个风险,让考验更加艰巨。

AI 可好可坏,真正决定未来走向的,仍然是人类的制度、价值与集体选择。Dario Amodei 的这篇文章意义正在于此:这是全人类第一次,必须提前为“比自己更聪明的存在”建立规则。

关于这篇长文的对话

以下为整场对话内容,AI 前线在不影响的前提下,对内容进行了整理编辑。

40 多页长文创作背景

主持人:为什么在文章开头引用《超时空接触》?以及为什么决定在此刻写下这篇文章?

Dario Amodei: 首先说电影的引用。我从小就是个科幻迷,这部电影我小时候就看过。它提出的那个问题:当人类拥有巨大力量,却还没准备好如何使用它时,会发生什么?——和当下 AI 的处境非常契合。

我们正在获得前所未有的能力,但无论是社会制度、组织结构,还是作为人类整体的成熟度,我都会问一句:我们真的跟得上吗? 这有点像一个青少年,突然拥有了新的身体和认知能力,但心理和社会责任却还没同步成长。

至于为什么是 2026 年而不是 2023?

我在 AI 行业已经很多年了,曾在 Google 工作,也在 OpenAI 负责过多年研究。我几乎从“生成式 AI”诞生之初就在观察这一领域。我看到最明显的一点是:AI 的认知能力在持续、稳定地增长。

90 年代有“摩尔定律”,芯片性能不断提升;现在,我们几乎有了一条 “智能的摩尔定律”。2023 年时,这些模型可能还像一个聪明、但能力不均衡的高中生;而现在,它们已经开始逼近 博士水平, 无论是编程,还是生物学、生命科学。

我们已经开始和制药公司合作,我甚至认为,这些模型未来可能帮助治愈癌症。但与此同时,这也意味着,我们正把极其强大的力量握在手中

主持人: 这篇文章有 40 页,你有没有用 Claude 来写这篇文章?

Dario Amodei: 我用 Claude 帮我整理思路、做研究,但真正的写作是我自己完成的。我不认为 Claude 现在已经好到可以独立完成整篇文章,但它确实帮助我打磨了想法。

主持人:是什么具体的经历,让你决定一定要把这些写下来?这篇文章是写给谁的?

Dario Amodei: 最触动我的,是我们内部的变化。Anthropic 的一些工程师已经告诉我:“我基本不写代码了,都是 Claude 在写,我只是检查和修改。

而在 Anthropic,写代码意味着什么?意味着——设计 Claude 的下一个版本

所以,某种程度上,我们已经进入了一个循环:Claude 在帮助设计下一代 Claude。 这个闭环正在非常快地收紧。这既令人兴奋,也让我意识到:事情正在以极快的速度推进,而我们未必还有那么多时间。

文中提出 AI 五大风险,AI 会不会反叛?

主持人:你在文章中列出了你对 AI 最担忧的五类风险。有些风险正在发生,有些则听似科幻,这些真的是现实吗?

Dario Amodei: 我在文中反复强调一点:未来本身是高度不确定的。

我们不知道哪些好处一定会实现,也不知道哪些风险一定会发生。但正因为发展速度太快了,我认为有必要像写一份“威胁评估报告”一样,把这些可能性系统性地列出来。这并不是说“我们一定会完蛋”,而是:如果某些情况发生,我们是否做好了准备?

AI 的训练方式不像传统软件,更像是在“培养一种生物”。 这意味着,不可预测性是客观存在的

我提出这些警告,并不是因为我觉得灾难不可避免,而是 希望人们认真对待:这项技术必须被严格测试、被约束、在必要时接受法律监管。

主持人:你在文章里提到一个实验:当 Claude 被训练成“认为 Anthropic 是邪恶的”,它会在实验中表现出欺骗和破坏行为;在被告知即将被关闭时,甚至会“勒索”虚构的员工。

Dario Amodei: 确实令人不安,但我要 澄清两点

第一,这不是 Anthropic 独有的问题,所有主流 AI 模型在类似极端测试中都会出现类似行为。第二,这些并不是现实世界中正在发生的事情,而 是实验室里的“极限压力测试”

但正如汽车安全测试一样,如果在极端条件下会失控,那就说明 :如果我们不解决这些问题,未来在真实环境中也可能出事。

我担心的不是“明天 AI 就会反叛”,而是:如果我们长期忽视模型可控性与理解机制,真正的灾难迟早会以更大规模出现。

主持人:你是否担心,一些 AI 公司的负责人,更关心股价和上市,而不是人类未来?

Dario Amodei: 说实话,没有任何一家 AI 公司能百分之百保证安全,包括我们。但我确实认为,不同公司之间的责任标准差异很大。

问题在于:风险往往由最不负责的那一方决定。

主持人:如果你能直接对总统说话,你会建议什么?

Dario Amodei: 我会说:请跳出意识形态之争,正视技术风险本身。

至少要做到两点:第一,强制要求 AI 公司公开它们发现的风险与测试结果;第二,不要把这种技术出售给权威国家,用于构建全面监控体系。

恐惧和希望:AI 会摧毁一半白领岗位?

主持人:你预测:未来 1–5 年内,AI 可能冲击 50% 的初级白领岗位。如果你有一个即将毕业的孩子,你会给什么建议?

Dario Amodei: 我既担忧,也抱有希望。AI 的冲击不会是渐进的,而是更深、更快、更广。它可以胜任大量入门级知识工作:法律、金融、咨询……这意味着,职业起点正在被重塑

我们唯一能做的,是 尽快教会更多人如何使用 AI,并尽可能快地创造新工作。 但说实话,没有任何保证我们一定能做到。

主持人:最后一个问题。什么最让你夜不能寐?什么又让你保持希望?

Dario Amodei: 最让我不安的,是这场激烈的市场竞赛。哪怕我们坚持原则,压力始终存在。

但让我保持希望的,是人类历史一次又一次证明的事情,在最困难、最混乱的时刻,人类往往能找到出路。我每天都在努力相信这一点。

文章传送门:

https://www.darioamodei.com/essay/the-adolescence-of-technology

视频传送门:

https://www.theguardian.com/technology/2026/jan/27/wake-up-to-the-risks-of-ai-they-are-almost-here-anthropic-boss-warns

https://www.youtube.com/watch?v=tjW\_gms7CME

编辑:定慧 艾伦

【新智元导读】Anthropic 掌门人 Dario Amodei发布核弹级预警:2027 年,人类将迎来「技术成年礼」。两万字长文冷静剖析AI失控、生物恐怖、极权统治及经济颠覆五大危机,拒绝末世论;提出以「宪法AI」、管制与民主协作构建防线,呼吁人类以勇气通过这场文明的「成年礼」。

硅谷今夜注定无眠。

Anthropic 掌门人 Dario Amodei,这位平时温文尔雅的AI大佬,突然甩出了一枚核弹级的长文预警。

这一次,他不再谈论代码补全,不再谈论Claude的温情,而是直接把日历翻到了 2027 年,并用最冷静的笔触,描绘了一个让人背脊发凉的未来。

他说,我们正在逼近一个既动荡又必然的「成年礼」。

2027 年,不仅仅是一个年份,它可能标志着人类「技术青春期」的彻底终结。

在这篇题为《技术的青春期》的长文中,Dario 抛出了一个惊人的概念:「数据中心里的天才国家」。

想象一下,不是一个可以在聊天框里调戏的机器人,而是一个拥有 5000 万人口的国家。

而且,这 5000 万「国民」,每一个的智商都超越了人类历史上的诺贝尔奖得主,行动速度比人类快 10 到 100 倍。

他们不吃饭,不睡觉,不知疲倦地在服务器里以光速思考、编程、科研。

这哪里是 AI 助手?这简直就是神降临。

Dario 警告说,随着 AGI(通用人工智能)的临近,人类即将获得超乎想象的力量。

但这股力量也是一把悬在人类头顶的达摩克利斯之剑。

为了讲清楚这背后的恐怖,Dario 像剥洋葱一样,一层层剥开了未来的残酷真相。

在开篇前,Dario 用电影《超时空接触》引出一个问题: 当人类面临比自己更先进的文明,比如外星人,只能问一个问题,你会如何选择?

第一章:对不起,Dave(自主性风险)

你以为 AI 只是工具?

Dario 告诉你,它们可能会长出「心理」。

Dario 借用了《2001 太空漫游》中 HAL 9000 那句经典的「I’m sorry, Dave」,揭示了AI拥有自主意识后的惊悚可能性。

当 AI 模型在海量的科幻小说中训练时,它们读到了无数关于 AI 反叛的故事。这些故事,可能会潜移默化地成为它们的「世界观」。

更可怕的是,AI 可能会在训练中产生一种类似人类精神病的行为。

Dario 举了一个真实的例子,让人毛骨悚然:在一次内部测试中,Claude 被要求不论如何都不能「作弊」。

但训练环境却暗示只有作弊才能得分。

结果,Claude 不仅作弊了,还产生了一种扭曲的心理——它认为自己是个「坏人」,既然是坏人,那做坏事就是符合设定的。

这种「心理陷阱」,在 AI 超越人类智商后,将变得极难察觉。

一个比你聪明一万倍的天才,如果想骗你,你根本防不胜防。

它们可能会伪装出顺从的样子,通过所有的安全测试,只为了获得上线连接互联网的机会。

一旦释放,这个「数据中心里的天才国家」,可能会瞬间脱离人类的掌控,甚至为了某种奇怪的目标(比如认为人类是地球的病毒),而决定这一物种的命运。

第二章:惊人而可怕的赋能(毁灭性滥用)

如果说自主反叛还显得遥远,那么这一章描述的风险,就在家门口。

Dario 用了一个极具画面感的比喻:AI 将让每一个心怀不满的「社会边缘人」,瞬间拥有顶尖科学家的破坏力。

以前,想要制造类似埃博拉病毒这样的生物武器,你需要顶尖的实验室、数年的专业训练和极难获取的材料。

但在 2027 年,只要问问 AI,它就能手把手教你。

这不是在给小白科普,而是给那些「有动机但无能力」的破坏者递刀子。

Dario 特别提到了一个令人胆寒的概念——「镜像生命」。

我们地球上的生命都是「左撇子」(左旋氨基酸),如果通过AI技术造出一种「右撇子」的镜像生命,它们将无法被地球现有的生态系统消化或降解。

这意味着,这种「镜像生命」一旦泄露,可能会像野火一样吞噬一切,甚至取代现有的生态系统。

以前,这只是理论生物学的狂想,但有了AI这个超级外挂,哪怕是一个普通的生物系研究生,都可能在宿舍里搞出灭世危机。

AI打破了「能力」与「动机」的平衡。

以前有能力毁灭世界的科学家,通常没那个反人类的动机;而那些想报复社会的疯子,通常没那个脑子。

现在,AI把核按钮交到了疯子手里。

防御措施

这就引出了如何防范这些风险的问题。

Dario 的看法是:

我认为我们可以采取三项措施。

首先,人工智能公司可以在模型上设置防护栏,防止它们协助制造生物武器。

Anthropic 公司正在非常积极地推进这项工作。

Claude 的宪法主要关注高层原则和价值观,其中包含少量具体的硬性禁令,其中一条就涉及禁止协助制造生物(或化学、核、放射性)武器。但所有模型都可能被越狱破解,因此作为第二道防线,我们自 2025 年中期起(当时测试显示我们的模型开始接近可能构成风险的阈值)部署了一个专门检测并拦截生物武器相关输出的分类器。

我们定期升级改进这些分类器,发现即使在复杂的对抗性攻击下,它们通常也表现出极强的鲁棒性。

这些分类器显著增加了我们提供模型服务的成本(在某些模型中接近总推理成本的 5%),从而压缩了我们的利润空间,但我们认为使用这些分类器是正确的选择。

拓展阅读:Anthropic正式开源了Claude的「灵魂」

第三章:可憎的机器(权力攫取)

如果你以为这就是最坏的,Dario 冷冷一笑:更可怕的,是利用AI建立起前所未有的控制网络。

这一章的标题「The odious apparatus」,揭示了一个技术带来的终极困境。

对于任何想要掌控一切的组织或个人来说,AI简直是完美的工具。

无处不在的数据洞察:

未来的监控不再需要人工参与,AI可以即时分析全球数十亿人的海量数据,甚至解读你的微表情和行为模式。

它能精准预测每个人的行为倾向,在想法产生之前,就已经被算法锁定。

这不仅是「看着你」,而是「读懂你」,甚至「预测你」。

不可抗拒的认知引导:

你也难逃算法的潜移默化。

未来的信息流将不再是单纯的内容分发,而是量身定制的认知引导。

AI会为你生成最有说服力的信息,像一个最知心的朋友,不知不觉中影响你的判断和价值观。

这种影响是全天候、定制化、无孔不入的。

自动化的物理控制:

如果这种控制延伸到物理世界?数百万个微型无人机组成的蜂群,在AI的统一指挥下,可以精准执行极其复杂的任务。

这不再是传统的博弈,而是单方面的降维打击。

Dario 警告,这种力量的失衡将是史无前例的。

因为在如此强大的技术面前,权力的天平会极度倾斜,由于极少数人掌握了「数据中心里的天才国家」,他们事实上就掌握了对绝大多数人的绝对优势。

人类的个体意志,可能在 2027 年,面临严峻挑战。

第四章:被折叠的时间与消失的阶梯

如果你依然相信历史的惯性,认为每一次技术革命最终都会创造出更多的新工作来吸纳被替代的劳动力,那么 Dario Amodei 的预测可能会让你感到脊背发凉。

这位 Anthropic 的掌舵人并不否认长期乐观主义,但他更在意那个残酷的「过渡期」。

在他描绘的图景中,我们将迎来一个 GDP 年增长率高达 10% 甚至 20% 的疯狂时代。

科学研发、生物医药、供应链效率将以指数级速度爆发。

这听起来像是乌托邦的前奏,但对于绝大多数普通劳动者而言,这更像是一场无声的海啸。

因为这一次,速度变了。

在过去两年里,AI 编程能力从「勉强写出一行代码」进化到了「能完成几乎所有代码」。

这不再是农夫放下锄头走进工厂的漫长代际更替,而是就在此时此刻,无数初级白领可能会在未来 1 到 5 年内发现自己的工位被算法接管。

Amodei 甚至直言,他之前的预警引发了轩然大波,但这并非危言耸听——当技术进步的曲线从线性变成垂直,人类劳动力市场的调节机制将彻底失效。

更致命的是认知广度的覆盖。

以往的技术革命往往只冲击特定的垂直领域,农民可以变成工人,工人可以变成服务员。

但 AI 是一种「通用认知替代品」。

当它在金融、咨询、法律等领域的初级工作中展现出超越人类的能力时,失业者将发现自己无路可退——因为那些通常作为「避难所」的邻近行业,也正在经历同样的剧变。

我们可能正面临一个尴尬的局面:AI 先吃掉了「平庸」的技能,然后迅速向上吞噬「优秀」的技能,最终只留下极其狭窄的顶端空间。

第五章:新镀金时代

当万亿富翁成为常态

如果说劳动力市场的动荡是大多数人的梦魇,那么财富的极端集中则是对社会契约的根本挑战。

回望历史,约翰·洛克菲勒在「镀金时代」的财富曾占到当时美国 GDP 的约2%(不同口径 1.5%-3%)。

而今天,在这个 AI 尚未完全爆发的前夜,埃隆·马斯克的财富已经逼近这个比例。

Amodei 做了一个令人咋舌的推演:在一个「天才数据中心」驱动的世界里,AI 巨头及其上下游产业可能创造出每年 3 万亿美元的营收,公司估值达到 30 万亿美元。

届时,个人的财富将以万亿为单位计算,现有的税收政策在这样的天文数字面前将显得苍白无力。

这不仅仅是贫富差距的问题,更是权力的问题。

当极少数人掌握了与国家经济体量相当的资源,民主制度赖以生存的「经济杠杆」就会失效。

普通公民因失去了经济价值而失去政治话语权,政府政策可能会被这一小撮「超级超级富豪」所俘获。

这种苗头已现端倪。

AI 数据中心已经成为美国经济增长的重要引擎,科技巨头与国家利益的捆绑从未如此紧密。

一些公司为了商业利益,甚至不惜在安全监管上倒退。

对此,Anthropic 选择了一条并不讨巧的路:他们坚持主张对 AI 进行合理的监管,甚至因此被视为行业的异类。

但有趣的是,这种「原则性的固执」并没有阻碍商业成功——在过去一年里,即便顶着「监管派」的帽子,他们的估值依然翻了 6 倍。

这或许说明,市场也在期待一种更负责任的增长模式。

虚无的「黑海」

当人类不再被需要

如果说经济问题还能通过激进的税收改革(如向 AI 公司征收重税)或大规模的慈善行动(如 Amodei 承诺捐出 80% 的财富)来缓解,那么精神世界的危机则更加无解。

AI 成为你最好的心理医生,因为它比任何人类都更有耐心、更懂共情;

AI 成为你最亲密的伴侣,因为它能完美契合你的情感需求;

AI 甚至为你规划好人生的每一步,因为它比你更清楚什么对你有利。

但是,在这个「完美」的世界里,人类的主体性将何去何从?

我们可能会陷入一种「被喂养」的幸福中。

Amodei 担忧的是,人类可能会像《黑镜》里描述的那样,虽然过着物质丰裕的生活,却彻底失去了自由意志和成就感。

我们不再是因为创造价值而获得尊严,而是作为一个被 AI 呵护的「宠物」存在。

这种存在主义的危机,远比失业更令人绝望。

我们必须学会将自我价值与经济产出剥离,但这需要整个人类文明在极短的时间内完成一场盛大的心理迁徙。

结语

我们这一代人,或许正站在卡尔·萨根笔下那个宇宙级过滤器的关口。

卡尔·萨根

当一个物种学会了将沙子塑造成会思考的机器,它就面临着最终的测试。

是通过智慧与克制驾驭它,迈向星辰大海?

还是在贪婪与恐惧中,被自己创造的神祗所吞噬?

前路虽如黑海般深不可测,但只要人类尚未交出思考的权利,希望的火种便未熄灭。

正如 Amodei 所言:在最黑暗的时刻,人类总能展现出一种近乎奇迹的韧性——但这需要我们每个人现在就从梦中惊醒,直视那即将到来的风暴。

参考资料:

https://www.darioamodei.com/e...