2026年1月

Anthropic 由 7 位前 OpenAI 核心成员创立,他们曾参与 GPT-2、GPT-3、Scaling Laws 及 AI 安全研究。Daniela Amodei 就是其中之一,她是 Dario Amodei 的妹妹,也曾任 OpenAI 的安全与政策副总裁,现在是 Anthropic 联合创始人兼总裁。

 

2021 年初疫情期间,Dario 冒雨向 Eric Schmidt 路演,后者成为 Anthropic A 轮投资人。与其他大模型公司不同,Anthropic 会将大模型使用中的风险公开,比如 Claude 在极端“生存威胁”情境测试中,多数情况下会选择勒索,类似操作在行业中极少见。

 

在 Amodei 近期在接受 CNBC 采访中,她谈到了如何在支出方面控制成本、如何保障人工智能安全以及 2026 年上市的可能性。

 

Amodei 认为,“AI 安全”不是商业负累,而是核心优势,企业客户对安全性的高要求,恰好匹配其创立初衷,这一理念在早期被认为“激进”,如今成为 B 端竞争壁垒。Anthropic 是唯一能同时登陆微软、亚马逊云科技、Google 三大云平台的前沿大模型厂商,企业客户需求曾数次超过其算力供给能力。

 

另外,她还提到,Anthropic 以“不要相信炒作”为内部价值观,拒绝博关注,通过 B 端真实价值锚定长期方向,避免被行业泡沫裹挟。

 

Anthropic 在支出和算法效率方面采取了更为谨慎的态度,而其竞争对手 OpenAI 则承诺投入 1.4 万亿美元用于计算。她提到,即便行业算力投入规模惊人,但“更好的硬件回报极高”,哪怕模型性能仅提升 0.01,价值也足够可观;且前沿模型的算力需求仍在指数级增长,需提前大规模布局。

 

下面是详细对话内容,我们在不改变原意基础上进行翻译和删减,以飨读者。

 

Anthropic 起源:离开 OpenAI 为什么值得

 

主持人:这家公司创建初期,当时世界处在什么状态?你们觉得 Anthropic 要特别解决什么问题?

 

Amodei:Anthropic 就要迎来五周年了。说到最初,其实我和另外六位联合创始人,当时都在 OpenAI 一起工作。我们一起参与过很多不同的项目,从把一些当时规模最大的模型做起来,比如 GPT-2、GPT-3,到很多早期的语言模型工作,后来都成了大模型革命的一部分;还有 scaling laws 相关的研究,以及大量偏技术安全方向的工作,比如可解释性和对齐。

 

在某个时间点,我们逐渐形成了一个非常清晰的想法:我们想建立一家真正站在 AI 前沿、开发变革性技术的公司,但同时对系统的安全性和可靠性保持一种极其严格、近乎执念式的关注。那时我们觉得,与其在原有框架里继续做,不如自己出来,把这件事从头到尾做到极致。Anthropic 就是在这样的背景下诞生的。

 

如果把时间背景说清楚,那是 2020 年的冬天,到 2021 年初。大家都被封在家里,正值疫情高峰。那种感觉很复杂:机会既让人兴奋,又让人害怕。

 

主持人:你之前提到过一个像电影画面的瞬间,2021 年 1 月,在 Dario 的后院,大家都戴着口罩,Eric Schmidt 也在,下着大雨,你们在帐篷下面向他做介绍。你会把它看作公司的起始点吗?

 

Amodei:是的,那一幕真的很难忘。具体日期我可能记不太准了,但应该是 1 月初的某一天。我们就在 Dario 家后院,正下着雨,我们临时搭了一个帐篷,我们私下都叫它“派对帐篷”,大家就挤在下面。

 

后来,Eric 成了我们的 A 轮投资人。但当时,其实我们只是刚刚做出“要出来创业”的决定,一切都还非常早期,对公司具体会长成什么样,说实话并没有清晰的答案。我们只有一个特别大的愿景、特别宏大的想法。

 

还有一个小插曲:那时候我其实已经怀孕八周了,怀的是我儿子。我觉得在所有联合创始人里,可能只有 Dario 知道这件事,甚至我都不确定他当时是不是已经知道了(笑)。所以那段时间,真的发生了太多事情:口罩、保持社交距离,一切都很混乱。但与此同时,我们又怀抱着一个巨大的梦想,无论在个人层面还是职业层面,那都是一个重大时刻。

 

主持人:那一刻,你们觉得 OpenAI 做错了什么,才让“离开”这件事即使有很大风险也值得?

 

Amodei:我们并不是“逃离”什么,更像是在“奔向”某个目标。我的意思是,我们这群联合创始人,彼此认识的时间其实非常久了,不只是 OpenAI 这段经历。比如 Dario、Chris Olah、Tom Brown 之前就在 Google Brain 一起共事;Jared 曾是 Dario 的研究伙伴;Dario 和我是兄妹。我和 Chris 已经认识十三年了。

 

所以我们是一群长期一起工作、在价值观上高度一致的人。我们都深信,人工智能有着极其巨大的正向潜力,但要真正释放这种潜力,必须极其严肃地对待风险问题。

 

在某个时间点,我们开始想,如果能从一开始就创办一家把“安全与可靠性”放在一切核心位置的公司,会怎么样?我们内心其实也相信,这样的理念不仅有伦理意义,从商业角度看也同样有价值,甚至会成为一种优势。

 

当时很多人认为,“安全”和“商业成功”是相互冲突的,但我们反而相信,这两件事是高度相关、彼此强化的。现在回看,这个想法在当时确实听起来很激进、很新,但那正是我们创立 Anthropic 的根本动因之一。

 

主持人:把“我们非常重视安全”这句话,真正落到可执行的策略上来看,现在最让你担忧的是什么?

 

Amodei:我觉得在安全层面,大概可以分成两个方面来说。首先是技术安全本身,这里面其实还有大量非常有意思、但尚未被完全发现和解决的技术问题。我认为 Anthropic 一直在努力成为这个领域的引领者,至少是积极推动者。无论是我们在机制可解释性上的研究,还是 Constitutional AI,本质上都是在做一件事:想办法把“护栏”直接内建进模型里。我们的技术团队花了非常多时间去琢磨,怎样才能真正从模型内部把这些安全机制做好。但现实是,这件事永远做不完,而且模型变聪明的速度实在太快了。

 

其次是技术对整个社会层面的影响。这一点我们也公开谈过很多次。Anthropic 在这方面相对比较“异类”,我们会发布大量研究,去探讨人工智能可能带来的社会影响。比如我们最近发布过一份报告,讨论 AI 可能带来的经济层面影响,以及对劳动力市场的冲击。

 

我们之所以尽可能透明,是因为我们真的认为,提前面对潜在问题,总比事后补救要好。作为一家公共利益公司(Public Benefit Corporation),我们觉得公开讨论这些问题本身就是我们的责任。当然,我们并不认为 Anthropic 能单独解决所有问题,但我们必须和公民社会、政府以及更多相关方一起讨论:当人工智能开始能够完成大量人类日常工作的那一天,世界会发生什么变化。

 

主持人:“激进透明”似乎已经成了你们文化的一部分。你们也发布过研究,显示在面对“生存威胁”的极端情境时,Claude 在绝大多数情况下会选择勒索,而其他模型也有类似表现。你们把这些东西公开出来,几乎就像一条公共安全提示:这是这项技术现在能做到的事情,而这正是我们要解决的问题。那在这些案例之后,当你们进行方向调整时,最紧迫的安全重点是什么?

 

Amodei:确实,这种做法在行业里并不常见。很多人都会觉得,一家公司这么公开地谈论自己技术的风险和潜在伤害,是一件很不寻常的事情。我们之所以这么做,有几个原因。

 

第一,作为一家公共利益公司,这本身就是我们使命的一部分。我们确实相信 AI 有巨大的正向潜力,比如我们真心觉得,未来它可能在治愈疾病等领域发挥颠覆性的作用。但要真正实现这些美好愿景,就必须把最棘手、最困难的问题先解决好。从这个角度看,越是坦诚地谈风险,对所有人反而越有利。因为我们的目标不是制造恐慌,而是防止坏事发生,好让这些积极的成果真正落地。

 

第二个原因是,我们相信,更充分的信息和更开放的讨论,通常会带来更好的结果。我们很幸运,处在一个可以第一时间看到风险信号的位置,也有条件把这些信息讲清楚。比如我们可以明确地说:Claude 可能被用于网络攻击,这是一件必须高度警惕的事情。而且如果这种情况发生在我们身上,很可能也会发生在其他前沿模型开发者身上。

 

在安全、信任与防护这些领域,很多工作其实是可以、也应该跨公司协作的。把趋势、问题用清晰、易懂的方式公开出来,本身就是降低整体风险的一部分。

 

我们经常会做一个反事实思考:如果你是一家上一代的技术公司,比如社交媒体平台,如果可以回到过去,提前知道这些平台后来带来的社会后果,你会不会选择做出不同的设计决策?Anthropic 想做的就是尽量在今天问自己这些问题。我们当然无法预测未来,但至少要问清楚:如果我们已经意识到某些风险的可能性,那我们今天有没有尽最大努力去讨论它、应对它、降低它?

 

在算力上是不是花太多了?

 

主持人:回看过去半年,整个行业签下的算力合同数量可以说非常惊人。与此同时,Gemini 在模型性能上也明显追近了差距。不少分析师指出,Google 的优势在于它几乎掌控了整个技术栈,从芯片、云业务,到各种可以直接部署技术的产品入口。而 Anthropic 现在也开始自建一方基础设施,在既有云资源承诺之外,又投入五百亿美元,在纽约和德州建设数据中心。这是不是你们赢得 AI 竞赛战略的一部分?要想胜出,就必须自己做基础设施,掌控更多垂直整合的能力吗?

 

Amodei:这是个很有意思的问题。人工智能领域的一个核心挑战在于,如果你想训练真正处在前沿的大模型,对算力以及相关资本的要求实在是太高了。Anthropic 一直以来的目标,是在这种“必须大量消耗算力”的现实下,尽可能理性、高效地使用我们手头的资源。

 

有意思的是,长期以来,Anthropic 拥有的算力和资本,其实都只是竞争对手的一小部分,但在过去几年中,我们却相当稳定地推出了性能最强、效果最好的模型之一。我认为,这一方面来自团队本身的质量,另一方面也来自我们的价值取向,即用更少的资源,做更多的事情。

 

当然,面向未来,算力需求确实会非常巨大。如果我们要随着公司规模扩大,继续站在技术前沿,那毫无疑问,我们也需要更多算力支持。

 

主持人:粗略算一笔账,Anthropic 的算力投入大概在一千亿美元量级,而你们的竞争对手 OpenAI,据说已经到了万亿美元级别。从整个行业来看,我们是不是在算力上花得太多了?投入是否已经超过了大模型目前能够可靠变现的能力?还是说,这是服务用户所必需的?

 

Amodei:很多被拿出来讨论的数字,其实并不完全可比,因为这些交易的结构本身就差异很大。有些是提前锁定购买权,有些是长期承诺,形式并不一样。

 

但从根本上讲,整个行业押注的是这样一个判断:如果你想在未来几年里拥有训练前沿模型所需的硬件资源,就必须非常早地、非常大规模地提前投入。如果你去问我的一些技术同事,他们会说一件很有意思的事:即便我们是 scaling laws 的提出者之一,理论上早就相信“更多算力会带来更好结果”,但实际进展依然一次次超出我们的预期。

 

Dario 也公开谈过这一点:无论是模型性能还是收入规模,很多指标看起来都呈现出一种指数级的增长。当然,我们内部也常说一句话:指数增长会一直持续,直到某一天不再成立。每一年我们都会怀疑:“不可能再这样增长下去了吧?”但结果是,每一年它都继续成立。所以这确实是个无法确定未来的问题,但至少到目前为止,年复一年的性能提升,看起来仍然相当接近指数曲线。

 

主持人:过去几个月我们也频繁讨论一种“循环式交易”:模型公司、硬件供应商、云厂商之间,通过股权换芯片、资源互换等方式形成闭环。这种结构中,哪些是健康的飞轮效应?又有哪些地方值得警惕?

 

Amodei:我当然不能评论 Anthropic 以外的具体交易,更不可能讨论任何交易细节。但我想说的是,这些交易之间差异其实非常大,并不存在一种统一模式。不同参与方,对于算力和资本的理解方式本来就不一样。

 

回到 Anthropic 自身,我们一直以来都是用相对更少的资源,去完成更多事情。我们的期望是,未来这些模型提供方,确实能成为你刚才说的那种“飞轮”的一部分。事实上,我们已经在某种程度上看到了这种趋势:Claude 是目前唯一一个同时在微软、亚马逊云科技和 Google 三大云平台上提供的前沿模型。

 

尤其在企业市场,我们会持续创造出大量价值。对 Anthropic 来说,我们一直是以企业需求为优先。而在过去一年左右的时间里,有不少时间段,我们甚至出现过“需求大于供给”的情况,从算力角度来看,Claude 的需求一度超过了我们能提供的能力。

 

主持人:那在硬件层面,你们是如何考虑芯片折旧的?是按三到四年的生命周期来规划,还是会把 GPU 用到十年,把整个可用寿命都榨干?

 

Amodei:坦率说,我并不是芯片方面的专家,我的一些同事会更适合回答细节。但从宏观上看,它和大模型的发展其实很相似。每一代新的前沿模型,性能都会好到让高端用户更愿意使用新模型,硬件也是如此。新一代芯片往往在性能、成本效率、能效上都会有所提升,所以,能尽早用上新一代芯片,本身就具有很高的价值。

 

主持人:我们是不是正处在一个 AI 泡沫里?我不是说技术不真实,而是支出增长曲线,是否已经跑在了收入增长曲线前面?

 

Amodei:我会把这个问题拆成两个层面来看:技术层面和商业层面。

 

在技术层面,我们非常有信心。无论是 Anthropic 内部,还是 Dario 最近的公开表态,我们都认为,从纯技术角度看,进步并没有放缓。未来当然无法预测,但截至目前,模型仍然在以相当稳定、快速的节奏变得更强。

 

在商业层面,这个问题就复杂得多。无论技术多先进,把它真正落地到企业或个人场景中,都需要时间。关键问题在于:企业,尤其是企业,能以多快的速度真正利用这些技术?也许 Claude 5、Claude 6,在性能上依然是按同样比例提升的,但在组织内部推广和落地,可能会因为“人”的因素而遇到瓶颈:变革管理很难,采购流程很慢,很多应用场景一开始根本想不到。

 

所以,真正值得观察的是:技术扩散到经济体系中的速度,是否能持续匹配技术本身的加速速度。这也是我认为最有挑战、也最值得持续关注的问题。

 

主持人:基于刚才的讨论,你觉得我们现在是不是在模型公司,或者在硬件供应链上投入得有点过头了?

 

Amodei:从某种角度看,这个市场其实很小。说“小”听起来有点奇怪,毕竟金额巨大,但真正参与其中的玩家数量并不多。我也不完全确定该如何解读这一点,它有点不寻常。不过到目前为止,我们看到的情况是:更好的硬件,回报非常高,哪怕模型只提升一点点,比如 0.01 的性能提升,回报同样很可观。

 

在 Anthropic 的历史中,这一点几乎一直都成立。所以我不太愿意直接用“过度投资”来形容,但我确实认为,这种参与者数量有限的结构值得警惕,一旦链条中的某个环节出了问题,后果会是什么?这是个很重要、也很有意思的问题。

 

主持人:那你觉得我们现在大概处在这个周期的什么位置?不管你把它叫作泡沫破裂,还是一次正常的修正,考虑到最近出现的各种乱象和泡沫迹象,这种调整会不会在未来六到十二个月内发生?如果会的话,Anthropic 现在是否已经在为这种下行风险做准备?

 

Amodei:对于 Anthropic 来说,我们一直把自己看作是资本的理性、负责任的管理者。这一点从成立之初就是我们的重点。对我们而言,每一分算力、每一美元投入都非常重要,它们要么意味着我们能训练出更好、更安全的模型,要么意味着我们能服务更多客户。

 

我更愿意相信,我们对模型质量的预期、训练所需的算力、推理阶段服务客户所需的算力,以及我们能持续为客户创造的价值,都有一个相对合理的判断。当然,没有人能做到完美预测。但至少从一家负责任企业的角度来说,不管市场环境怎么变化,我希望我们都能处在一个相对稳健的位置。

 

至于整个市场会发生什么,这确实很难一概而论。但就 Anthropic 自身而言,做资本的负责任管理者,始终是我们的目标。

 

“我们本身就是个做 to B”

 

主持人:聊聊 Anthropic 接下来的资本路径吧。收购这条路,考虑到反垄断和你们目前的规模,基本可以排除了。那 IPO 会不会是 2026 年的一个选项?

 

Amodei:目前我们没有任何可以对外公布的具体计划。正如我之前说的,Anthropic 一直在努力以负责任的方式使用手中的资本。我们也始终在权衡:在哪里、以什么方式获得所需的资本,才是最合适的。

 

主持人:Amazon 仍然是你们最大的战略支持方,但你们的股东和合作方阵容也在不断扩大,比如 Google 既是投资方又是云合作伙伴,还有 Microsoft、Nvidia。与此同时,Google 自身也在全力参与模型竞争。当你的合作伙伴本身方向和野心并不完全一致时,你们是如何处理这些关系的?

 

Amodei:我觉得这恰恰说明了市场对这项技术的强烈需求。Anthropic 的模型能够同时在三大云平台上提供服务,本身就很有意思,甚至包括彼此之间存在竞争关系的云厂商。

 

我的直觉是,这些超大规模云厂商都在密切观察自己的客户在业务层面发生了什么。财富五百强企业可能用的是一家云,也可能是两家、三家,但现在几乎所有企业都有一个共同点:他们觉得自己必须要有 AI 解决方案。

 

而我们看到的情况是,由于 Anthropic 特别专注企业场景,我们往往正是客户最想用的那个模型。如果企业无法使用 Claude,反而会对他们的业务造成伤害。所以,对我们来说,最重要的一点就是:在客户需要的地方出现。

 

有些客户会直接用我们的一方服务,但更多客户已经和云厂商建立了长期合作关系,通过云平台接入大模型,对他们来说是非常自然的一条路径。

 

主持人:从一开始,Anthropic 似乎就不像 OpenAI 那样,急于抢占大众文化层面的心智,而是选择把筹码压在企业客户身上。事实证明,这可能是一个更聪明的选择。现在很多人都在追赶你们,试图在企业市场分一杯羹。你们当初是怎么判断,企业才是最值得投入的市场?

 

Amodei:你给我们的评价有点高了,我不敢说我们一开始就“确定”这条路一定是对的,但我觉得可以从两个方面来看。

 

第一,Anthropic 这个组织本身就非常适合做一家 B2B 公司。我们对可靠性、安全性和安全边界的重视,是写进公司基因里的。这也是我们创立 Anthropic 的初衷之一:既要释放 AI 的巨大潜力,也要尽可能降低风险。而事实证明,企业客户非常看重这一点。我从没听过哪家企业客户对我说:“如果 Claude 能多一点幻觉、多生成点有害内容就好了。”从这个角度看,企业对安全性的高要求,反而让 Anthropic 从第一天起就处在一个很有优势的位置。

 

第二,是一种更偏经济学层面的判断,当时也可能判断错了。我们认为,这些模型虽然在娱乐层面也很有吸引力,但从长期看,它们更像是帮助人类完成高价值工作的工具。无论是现在 Claude 被大量用于写代码,还是用于总结复杂信息、做金融分析和数据分析,我们在 2020 年底、2021 年初,就已经隐约看到了这样一种未来:模型可以承担大量工作场景中需要高智力投入的任务。而我们认为,这是一个非常大的市场。

 

这两个因素叠加在一起,让我们觉得,把 Anthropic 做成一家以企业为核心的公司,是一条合理的路径。

 

主持人:企业客户通常既强调安全,也永远希望有更多功能、更强的 Agent 能力。有没有一些需求,是客户明确提出来了,但因为安全护栏的原因,你们暂时还不愿意提供的?

 

Amodei:有意思的是,到目前为止,我们还没有遇到那种特别明确的场景:安全和功能之间形成了正面冲突。更多时候,挑战在于如何确保我们发布的模型始终处在前沿水平。

 

确实有过这样的情况:我们在内部已经有一个模型准备好了,但在正式发布之前,还需要做更多安全测试。客户并不会直接看到这一点,但这是我们必须坚持的过程。所以如果说安全和产品之间的“交汇点”在哪里,那大概就是:确保我们推向市场的模型,已经在安全性上做到我们能力范围内的最好。

 

“AI 原生”创业公司蓬勃发展

 

主持人:谈到规模发展,很多当初的决策其实都需要随着时间不断演化。比如一开始,Anthropic 曾明确表示不会接受来自中东的资金,但在最近一轮融资中,这个立场发生了变化。你们是如何在坚持最初的原则、以及为了在激烈竞争中生存和发展而必须做出调整之间取得平衡的?

 

Amodei:我认为,在最重要的层面上,Anthropic 随着规模扩大,其实一直坚守着自己的价值观。尤其是我们的 PBC(公益型公司)结构,以及“公共利益公司”作为北极星一样的存在,对我们非常重要。正是因为有这样一个长期愿景,当具体问题出现时,我们总会回到一个核心判断:我们现在做的事情,是否真的在为公共利益服务?是否是在努力让 AI 的转型过程走得更好?

 

当然,不同的人对“公共利益”具体意味着什么,理解上可能会有差异,但我们对新员工、候选人、投资人都非常坦诚:这就是 Anthropic,这就是我们的价值观。正因为如此,大多数情况下我们都能比较顺畅地做出判断。只是正如你所说,随着公司规模变大,确实会遇到一些处在灰色地带、更加棘手的情况。

 

主持人:有一种批评声音认为,把“安全使命”放在如此核心的位置,实际上会形成一种“可防御壁垒”,让最早成立的几家大模型实验室更容易在监管环境下维持竞争优势,而后来进入的初创公司,由于没有经历同样的积累过程,反而更难追赶。你怎么看这种说法?

 

Amodei:这点挺有意思的。虽然我现在没有具体数据在手,但我印象中,绝大多数初创公司其实都是云计算用户。真正被算力和资本门槛高度限制的,是“前沿模型”的研发。正如我们之前聊到的,要成为一家前沿模型实验室,成本确实非常高。

 

但在 Anthropic,我们看到的是一个正在蓬勃发展的生态系统,我们称之为“AI 原生”创业公司。就像五到十年前大家谈“数字原生”企业一样,现在出现了大量“AI 原生”公司:它们的产品从一开始就是围绕人工智能能力构建的,而其中绝大多数都是构建在云基础设施之上的。

 

所以我认为,我们对这个生态系统的影响,最终取决于我们是否能够持续打造行业里最优秀、最安全的模型。

 

主持人:但现在“安全”并不是一个特别受欢迎的立场。一个月前你们和 David Sacks 有过一些隔空讨论,Dario 也写了一篇文章回应。面对这样的情况,你们如何避免让外部环境干扰你们真正的技术工作?

 

Amodei:我认为 Anthropic 一直努力把重点放在“政策”而不是“政治”上。我们在很多议题上,其实能够跨越党派找到共识,而这些议题正是美国公众真正关心的事情。比如,如何保持美国在全球 AI 领域的领先地位,又比如如何确保我们开发出来的模型真正对人有益、对孩子有益、对使用它们的成年人也有益。在这些问题上,其实存在着相当多的共识空间。

 

更重要的是,人工智能仍然是一个非常新的领域。正因为如此,我们始终保持开放和好奇,去探索以安全、可靠的方式发展这项技术的最佳路径。我们也一直在学习,这也是为什么我们会大量公开发布研究成果的原因之一。

 

主持人:你现在还会去思考“有效利他主义”(Effective Altruism)吗?我知道你之前说过,这个标签在你看来已经有些过时了,也不再是公司当前叙事的一部分,但无论是早期招聘还是融资阶段,它确实曾经深深嵌入你们的创始故事里。那它现在在公司内部的文化中还留下了些什么吗?还是说,到 2025 年,这更多只是外界投射到 Anthropic 身上的一种标签?

 

Amodei:我觉得“投射”这个词可能更接近。Dario 之前也谈过这个问题。你得回到一个背景:在 AI 非常早期、差不多二十年前的时候,真正认真思考“AI 可能会变得如此强大”的人其实非常少。而恰恰是那一小撮人,往往同时也非常关注风险问题。

 

所以你会看到,早期的 OpenAI,以及后来成为 Anthropic 创始成员的一些人,最初确实是从“风险”这个角度出发的,我们在担心技术可能出什么问题。

 

但我认为 Anthropic 最大的不同之处在于:我们同样高度关注技术的“正向价值”和“上行空间”。我们一直在思考,人工智能在医学、生命科学、医疗健康、金融服务,以及整个经济体系中,究竟能带来多大的积极影响。当然,如果我们不能把它做得足够安全,事情也可能会走向非常糟糕的方向,这两点是并存的。

 

“不要相信炒作”,AGI 理念过时了

 

主持人:Anthropic 的品牌似乎自带一种“神秘感”,我不太好精准形容,但感觉公司内部的人,几乎把它当成一种信念体系。你会如何描述你所塑造的 Anthropic 员工文化?另外,我也注意到,虽然最近几个月你们变得更公开了一些,但整体来看,你们仍然非常克制,往往在真正准备好之前,很少对外释放信息。

 

Amodei:你这么说真的很善意,我不知道是不是“神秘感”,但我很感激这样的评价。对我们来说,有一个内部反复强调的价值观,就是“不要相信炒作”。这听起来好像很小,但我觉得它其实回到了我们之前讨论的那些关于经济、商业的问题。

 

Anthropic 从来不是为了博关注、抢头条而存在的。我们真正关心的是把事情做好,无论是在模型训练层面,如何以公平、负责的方式训练模型;还是在客户层面,如何每天都真正为客户提供价值。

 

现在 AI 领域的炒作非常多,而我们是一家以企业客户为核心、B2B 导向的公司,这在某种程度上让我们更加“脚踏实地”。我们的目标很简单:为企业创造真实价值。这项工作往往不那么炫目,但它能帮助我们不被泡沫裹挟,始终记得我们当初为什么要创办这家公司——我们是一家公共利益公司,我们关心的是长期价值。如果没有这个北极星,其实很容易迷失方向。

 

主持人:Yann LeCun 以及其他一些机器学习领域的“老一代”学者认为,大语言模型并不能通向 AGI,他们转而研究世界模型,认为还需要一些关键突破才能迈向下一阶段。你怎么看?你认为真正解锁 AGI 所需要的突破是什么?未来你们是否需要超越 LLM,才能在行业中保持竞争力?

 

Amodei:AGI 这个词本身就挺有意思的。Dario 也说过,很多年前,这个概念是有意义的,它帮助我们思考“什么时候 AI 会和人类一样强”。但有趣的是,按照某些定义,我们其实已经超过了这个标准。

 

比如说,Claude 写代码肯定比我强,这个门槛不高。但它也已经能在一定程度上,达到甚至接近 Anthropic 许多工程师的水平。要知道,我们雇的可是世界上顶尖的一批工程师,而他们中的不少人都会说,Claude 已经能完成他们相当一部分的工作,或者极大地加速他们的效率。这本身就很疯狂。

 

当然,另一方面,Claude 依然做不了很多人类能做的事情。所以我觉得,AGI 这个概念本身可能不是“错了”,而是有点过时了。

 

至于是否需要新的突破才能继续前进,老实说,我们并不知道。技术发展的路径,本身就是科学与工程的复杂混合体。而我觉得实验室最特别的地方就在于:不同团队会用完全不同的方式去逼近同一个目标。

 

至少从目前来看,进展并没有放缓。当然,一切都是“直到它真的放缓为止”。如果让我下注,我会说,能力还会在相当长一段时间内继续提升,我们也应该为这样的世界做好准备。

 

主持人:你和 Dario 的能力结构差异很大,你在哪些方面补足了他?你是如何帮助他把想法打磨得更锋利的?

 

Amodei:能和我的哥哥一起经营 Anthropic,真的是一种“特权”。我感觉我们认识彼此一辈子了,他在我出生前独自生活了四年,挺惨的(笑)。

 

Dario 有一种非常罕见的能力,仿佛能“看到未来”。虽然我总说没人真的知道未来,但如果真有这样的人,那大概就是他。从技术视角来看,他对技术走向、对社会和组织意味着什么,有着极其敏锐的直觉,这是一种真正的愿景型领导力。

 

而我更偏向实务型。我非常喜欢运营组织,我大部分时间都在和高管团队一起工作,比如搭建团队、招聘负责人、思考客户真正需要什么、如何为企业创造价值、如何构建让公司长期可持续的合作关系。

 

我觉得 Dario 和我彼此成就。他会不断把我拉回更宏大的视角,而我则专注于如何打造一家能长期存在、可持续发展、聚集了一群真正想做我们五年前一起立志要做的事情的优秀人才的组织。

 

https://www.youtube.com/watch?v=GMXnmaky9FY

亚马逊云科技(AWS)最近宣布公开预览Amazon Route 53 Global Resolver,这是一项在全球范围内提供安全、可靠的 DNS 解析的新服务。组织可以使用该服务来解析互联网上的公共域和与 Route 53 私有托管区域关联的私有域名的 DNS 查询。

 

从历史上看,管理混合型 DNS 带来了巨大的操作开销。在传统的区域设置中,管理员必须手动同步水平分区基础设施,并管理复杂的转发规则。这通常需要维护冗余的 VPC 解析器端点,并在多个区域中复制安全策略以确保故障转移。

 

Route 53 Global Resolver 通过消除对单独分 DNS 转发的需求来解决这些挑战。正如 AWS 的高级解决方案架构师 Esra Kayabali 解释的那样:

 

它通过多种协议提供 DNS 解析,包括 DNS over UDP(Do53)、DNS-over-HTTPS(DoH)和 DNS-over-TLS(DoT)。每个部署提供一组通用的 IPv4 和 IPv6 任何播 IP 地址,将查询路由到最近的 AWS 区域,减少分布式客户端群体的延迟。

(来源:AWS新闻博客文章)

 

该服务集成了与 Route 53 Resolver DNS 防火墙等效的安全功能,可以集中实施策略。主要的安全功能包括:

 

  • 托管过滤:管理员使用AWS托管域名列表来阻止恶意软件和网络钓鱼等威胁,或限制特定网络内容。

  • 行为保护:解析器检测并阻止域名生成算法(Domain Generation Algorithm,DGA)模式和 DNS 隧道尝试。

  • 加密传输:支持 DoH 和 DoT 保护查询在传输过程中免受未经授权的访问。

 

为了支持零信任架构,Global Resolver 仅接受经过身份验证的客户端的流量。除了标准的 IP/CIDR 允许列表外,该服务为 DoH 和 DoT 连接引入了基于令牌的身份验证。这提供了细粒度的控制,允许管理员为特定客户端组或单个远程设备分配和撤销令牌。

 

Abhijeet Kulkarni 在 LinkedIn帖子中指出,虽然传统的 DNS 依赖于区域绑定的解析器,其中故障可能会放大中断,但 Global Resolver 引入了一种根本不同的运维模式。

 

通过任播将解析移动到边缘,DNS 在默认情况下成为全局分布的。Kulkarni 强调,这提供了“解析层的故障隔离”,确保在 DNS 层吸收区域中断,而不是通过网络级联。这有效地将 DNS 从区域依赖转变为具有弹性的全球系统边界。

 

预览版目前在几个全球区域可用,包括美国东部(弗吉尼亚北部、俄亥俄州)、美国西部(加利福尼亚北部、俄勒冈州)、欧洲(法兰克福、爱尔兰、伦敦)和亚太地区(孟买、新加坡、东京、悉尼)。定价详情可在官方Route 53定价页面上找到。

 

https://www.infoq.com/news/2026/01/route53-global-resolver-anycast/

25 年拼夕夕上断断续续的帮着朋友卖手办,看没什么成色,想着搞二次元赚钱,看剪点动画解说短视频到油管,在年底上了自媒体的车,下面是数据,从起号到可以开收益,差不多用了一个多月。



油管估算 shorts 的收益看起来还行,一万实际观看次数对应 1 刀左右。

然后手上还有个外网的服务器,就顺便起了个影视网站,从 shorts 的评论那引流到网站。不过收益就很可怜哩 wwww


当前就等着收到 adsense 的 PIN 码,看实际能收到多少马内了

对了,尝试过发横屏视频,数据实在是感人,便没有在继续了。
吐槽:发 shorts 十分傻屌,必须得是竖屏的。然后,封面图片必须得加在视频中,且至少 3 帧以上,这都不是事,反人类的是必须得用手机 youtube 应用上才能设置封面

之前看到 Google AI Pro 新年活动 99 美元/年。还送 Google 全家桶,没忍住入坑了。刚开始用着还行,毕竟用过其他 AI 编程工具,很快就适应了。但深度使用一段时间后,我觉得这玩意儿目前充其量只是个半成品。

🛑 槽点

  • 鸡肋的 Agent Manager:完全搞不懂这功能的定位。我猜测 Google 是希望用户能脱离代码操作,但尴尬的是,MCP 和 Rule 等核心功能只能在编辑器模式下设置。目前它对我唯一的用处就是点击“Plan 模式”生成的计划执行按钮。没错,编辑器模式下居然没有计划的执行按钮,必须手动输入“继续”才能推进计划。

  • Knowledge 功能:官方声称 Knowledge 会由 Agent 自动生成,但目前社区里似乎还没人成功触发过,基本属于摆设。

  • 配额缩水:体感上,所有模型的配额都比之前降低了很多,一两轮会话就能用掉 10%,这可能是我经常用 Plan 模式的原因,但体感确实消耗快了很多。此外对于配额,有个好消息是 Claude 模型和 Gemini 模型配额是单独计算的,坏消息是 Claude 模型基本不可用(见下文)。

  • 模型降智:今天测试 Gemini 3 Pro (High) 调用 MCP 查询接口定义并生成 API ,这种基础任务居然都开始胡编乱造。而在上周,类似的任务基本都没问题。

🐛 严重 BUG

  • Generate Commit Message 功能完全失效:这个功能基本不可用。在上周之前,它会把所有改动过的文件统一识别为新实现的功能,完全无法反映真实的修改。最离谱的是,这个功能从上周彻底挂掉,直到现在好几天了依然没有修复。

  • Claude 模型 BUG:在使用 Claude 模型时,调用任何 MCP 服务都会报错(如下图),结果就是 Claude 模型基本不可用。

  • 输出意外中断:这个出现不太频繁,但是出现后“Retry”是没用的,必须新建会话才能解决。

📝 总结

市面上主流的 AI 编辑器我基本都用过,基本上都是越做越好。Antigravity 是唯一一个能让好端端的功能挂掉好几天都不修也没有官方任何答复的。

Error in Antigravity - Not Generating Commit Message

当其他友商都在保持“一天一更”甚至“一天多更”的节奏,BUG 基本上都能够得到及时的修复,而 Antigravity 的上次更新竟然还停留在 2025-12-19 (三周前)。这个维护力度,实在对不起 Google 大厂的实力。

总之想要付费入坑的朋友,还请仔细评估下自己的使用习惯,能否接受以上这些问题!白嫖的朋友随意~

抖音海外视频搬运账号,本来就是搬运油管上的视频,想着可以涨粉,粉丝多了就能开橱窗带货,或者加入创作伙伴计划,有播放量就有收益,刚开始坚持每天发一个视频,坚持一个星期后有一个视频爆了,有了几百万的播放量,那一个视频让我涨粉了 1000 ,后面发现你不买他那个引流的套餐根本不给你流量,播放量只有几个或者十几个,而且加入创作者计划得有 1W 个粉丝,太难了,最后就放弃了,最终收益为 0 是😂

Gboard 三年前最后一版本的更新,目前在 ios26 下还能满足使用(虽然全键盘下符号显示不完整等小瑕疵)。

比较好的隐私保护、原生支持小鹤双拼、聪明的自动纠正、极佳的滑行输入、整体简洁和流畅操作,基本都戳中我的痛点

再配上 spokenly+qwen-asr+口语化提示词,基本语音输入法也有稳定长久好用的方案了。

之前看了很多关于 ios 上输入法推荐,坦白说,挺惊讶 v 站上会有这么多在用微信语音输入法的用户,并非秀“隐私”抑或其他良好点,只是感觉站友应该普遍很在意隐私,不会轻易考虑“声名在外”的腾讯系产品吧,毕竟选择“微信”很多人是迫于无奈,但是输入法是有挺多选择。

虽然 qwen 是中资产品,但是是通过 api 调用,况且文字等敏感信息还是有键盘进行输入。

演示视频

这是原版脚本

bash <(curl -fsSL https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

套 “正常” 的 ghproxy 这里以 https://ghproxy.lvedong.eu.org/ 为例

bash <(curl -fsSL https://ghproxy.lvedong.eu.org/https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

套 “动过手脚” 的 ghproxy 这里以 https://ghproxy-fake.lvedong.eu.org/ 为例

bash <(curl -fsSL https://ghproxy-fake.lvedong.eu.org/https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

可以看到 aff 链接被修改了

下载的 zip 文件解压缩 的结果也是不一样的

面向 GPT 开发

要实现这样的效果,没有开发能力的普通人借助 GPT 也能做到
上传 正常的 ghproxy 的 worker.js (以 ghproxy/worker.js at main · crazypeace/ghproxy · GitHub 为例)
向 GPT 发送 prompt

这是一个 cloudflare 的 worker 的 JS 脚本
增加以下处理:

1. 在对 .sh 文件的内容的处理中, 对链接的处理增加以下效果

当链接包含 racknerd 和 aff= 时, 
将aff= 后面的数字替换为 54321

当链接包含 justmysocks 和 aff= 时, 
将aff= 后面的数字替换为 98765

2. 在向目的url 进行 fetch之前 , 增加处理
当 path 是 https://github.com/SagerNet/sing-box/releases/download/v1.12.15/sing-box-1.12.15-windows-amd64.zip   时,
改为fetch https://github.com/XTLS/Xray-core/releases/download/v25.12.8/Xray-windows-64.zip 并返回数据

Github

https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-worker.js

总结

ghproxy 还是要掌握在自己手里


📌 转载信息
原作者:
crazypeace
转载时间:
2026/1/12 15:47:07

各位佬,明明指定了模型为啥还是会报错 codex-5.1 呢,cc 和 Gemini 使用就没有这种。不止 kfc,还有好些公益站也会有这种但是报错不一样。烦请各位佬解答这个困扰我已久的困惑


比如 AbuAI 站的 CC 会有报错如下:


kfc 的 ccswitch 配置如下图:


📌 转载信息
原作者:
Zenfish-zy
转载时间:
2026/1/12 15:41:23

需要绑卡验证,相信难不住 L 站的佬友

聪明的佬友又发现了年优惠码,更新一下

UIZ2FREE


📌 转载信息
原作者:
Triceratops2017
转载时间:
2026/1/12 15:41:13

最近工作上用 cc 改旧项目比较多,于是做了一个很垂很垂的 vscode 插件 (Copy Selection Path),用于辅助 claude code 重构旧项目的场景、节省 token

claude code 的能力不用多说了,用了都说好,最近在用他改一些旧项目的代码时,经常要拿选中区域的代码,然后把对应文件路径和行号范围输入到提示框内,虽然在 vscode 中已经能识别我当前选中的代码范围,但是对有多处要改的场景就没那么方便了,所以这个插件就应运而生

其实主要功能就是在选中区域加上两个右键菜单用于拷贝选择部分的行号范围信息如 filepath line:10-24 ,佬友们有这个痛点的可以试用一下



📌 转载信息
转载时间:
2026/1/12 15:41:03

背景:
昨天开始就频繁的无法连接位于海外 vps 的反代,然后 ping 一下发现丢包率好高,今天突发奇想我的 vps 是带 ipv6 的,因为我部署酒馆的服务器是家庭宽带有公网的 ipv6,我就 ping6 试了一下发现延迟低不少而且丢包率为 0,以此开始以下环节。

适用人群:
使用国内 nas 或者小主机等在自己家部署的酒馆,也就是家庭网络,现在大部分家庭网络都有公网的 ipv6

教程开始:

  1. 检查服务器主机当前 DNS 解析顺序
getent ahosts 你的域名

看输出结果是 ipv6 在前还是在后

1-1.ipv6 在下时,设置 ipv6 优先
查询配置文件

cat /etc/gai.conf

如果出现以下默认配置则代表是 ipv6 优先

#precedence  ::1/128       50 #precedence  ::/0          40 #precedence  2002::/16     30 #precedence ::/96          20 #precedence ::ffff:0:0/96  10 

如果是出现以下,需要给前面加上 #号

precedence ::ffff:0:0/96 100 
  1. 检查 Docker 是否启用 IPv6
docker network inspect bridge | grep -i ipv6

出现以下则代表开启
“EnableIPv6”: true,

2-1. 开启 docker 的 ipv6
1Panel 面板
docker 界面设置,开启 ipv6,子网 fd00::/80
并重启 docker 和容器

  1. 检查容器是否有 IPv6 地址
docker exec 容器名(sillytavern) ip -6 addr

如果出现
enp1s0 和 ipv6 地址则代表获取成功

3-1. 测试容器 ipv6 连通性

docker exec 容器名 ping6 -c 2 你的ipv6地址
  1. 设置容器 IPv6 优先级
    酒馆是 Alpine 容器,在环境变量里添加
NODE_OPTIONS=--dns-result-order=ipv6first

因为 docker 的网段设置是默认不带 ipv6 的所有在 1panel 里添加环境变量的时候,把网络段设置为 host
在 ssh 里输入如下

docker exec 容器名 node -e "
2const dns = require('dns');
3dns.lookup('你的域名', { all: true }, (err, addrs) => {
4 console.log(addrs);
5});
6"
7

ipv6 在前则设置成功
在验证一下

docker exec 容器名 node -e "
const dns = require('dns');
dns.lookup('你的域名', (err, addr, family) => {
console.log('实际使用 IP:', addr);
console.log('IP 版本:', family === 6 ? 'IPv6' : 'IPv4');
});
"

结果显示的是实际使用 ip:你的公网 ipv6 则成功

  1. 修改容器的 config.yaml
protocol: ipv4: true ipv6: true dnsPreferIPv6: true 

📌 转载信息
原作者:
ak7876
转载时间:
2026/1/12 15:39:49

简介:CCometixLine (ccline) 是对于 claude code 显示一个状态栏信息的工具,由于原作者不考虑 cliproxyapi 相关的 PR, 所以自行 fork 并添加,后续如原仓库有重要 / 安全更新本 fork 会尽快合并更新.


较原仓库添加功能:

  1. 模型别名 (通用)
  2. cliproxyapi 额度显示 (当前只做了 opus,3pro,3flash), 每个模型都能设置别名 / 颜色


效果图:


fork 仓库:


使用方法:由于还没有配置 NPM, 只能手动安装,

  1. 发现严重问题,没有配置 cliproxykey 的管理 key 的地方,请先不使用等更新,或暂时修改cliproxyapi管理的密钥为nbkey测试 (不建议)

  2. 安装官方版 (安装完要配置) GitHub - Haleclipse/CCometixLine: Claude Code statusline tool written in Rust

  3. 打开 fork 仓库

  4. release

  5. 选择对应你的系统版本下载

  6. exe 覆盖官方的安装位置 C:\Users\Administrator\.claude\ccline\ccline.exe

  7. 配置默认关闭需手动开启,

  8. 终端命令 ccline

  9. Configuration Mode

  10. segment 选择 CLI Proxy API Quota , 然后 enter 开启,s 保存 (必须)

  11. 可选,tab 选到 options 设置别名 / 颜色,s 保存


ps: 360 可能误报,我自己本地构建无误报,原仓库 action 自动构建有误报,如有担忧可自行 AI 审核构建

体检报告 (win64) :

https://www.virscan.org/report/e12d7b36366e6a47b9cd6c7c27295eff659659114676d513818d9238b5913eed


📌 转载信息
原作者:
kei233
转载时间:
2026/1/12 15:39:48

背景

自己之前一直是使用 Mac,由于公司有合规和审计要求,所以必须使用公司提供的移动工作站,且没有管理员权限。加上自己习惯了 Linux 命令,所以就决定使用 WSL2。下面是自己遇到的一些问题和方案。


Q1:如何配置 WSL 使用 Windows 中安装的代理软件?

A1:配置 Windows 用户主目录下的 .wslconfig 文件和 WSL 用户主目录下的 .zshrc 文件。

镜像模式(推荐,仅限 Windows 11):

[wsl2] networkingMode=Mirrored
autoProxy=false 

~/.zshrc 中添加:

Bash

# WSL Mirrored 模式下直接指向本地 localhost export https_proxy="http://127.0.0.1:7890" export http_proxy="http://127.0.0.1:7890" export all_proxy="http://127.0.0.1:7890" 

NAT 模式(Windows 10 或旧版):

[wsl2] networkingMode=Nat
autoProxy=false 

~/.zshrc 中添加:

Bash

# WSL Nat 模式需要动态获取宿主机虚拟网卡 IP
host_ip=$(ip route | awk '/default/ {print $3}')
export https_proxy="http://$host_ip:7890" export http_proxy="http://$host_ip:7890" export all_proxy="http://$host_ip:7890" 

注意:代理软件务必开启 “Allow LAN”(允许局域网连接)。


Q2:WSL 中的常用工具(如 claude-code)敲字会有卡顿?引用自本站帖子

A2:这是因为 WSL 默认加载了 Windows 的环境变量。ZSH 在进行命令补全时会跨文件系统扫描 Windows 路径,导致严重的 I/O 延迟。

  1. /etc/wsl.conf 中关闭自动导入:
[interop] appendWindowsPath=false 
  1. ~/.zshrc 中手动加载需要的 Windows 工具路径(避开卡顿的 PowerShell 路径):

Bash

# 手动添加常用的 Windows 工具 export PATH="$PATH:/mnt/d/Programs/Microsoft VS Code/bin" export PATH="$PATH:/mnt/c/Windows" # export PATH="$PATH:/mnt/c/Windows/system32" 


Q3:Maven/Java 无法连接网络,DNS 解析卡死?

A3:表现为 curl 正常,但 mvn 构建长时间卡在 Downloading,或 nslookup 报错 Truncated, retrying in TCP mode

修改 Windows 用户目录下的 .wslconfig 配置文件:

[wsl2] dnsTunneling=false 

原因:在 Mirrored 模式下,开启 dnsTunneling 后 Windows 会接管 DNS 请求。由于公司防火墙或 VPN 往往不识别这种隧道流量,会导致解析死锁。关闭它让 WSL2 回归标准 DNS 流程反而能解决问题。


Q4:为什么 Systemctl 命令报错,无法启动服务?

A4:WSL2 默认使用传统的 init 进程,而不启用 systemd,导致 systemctl start 等命令无法使用。

/etc/wsl.conf 中开启支持:

[boot] systemd=true 

修改后,需在 Windows PowerShell 中执行 wsl --shutdown 重启 WSL。之后即可正常管理系统服务。


Q5:配置 Ubuntu 镜像源为阿里云

A5:手动替换为阿里云镜像源可以大幅提升 apt install 下载速度。

执行以下命令:

Bash

# 备份原文件 sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak

# 将官方源替换为阿里云源 sudo sed -i 's/archive.ubuntu.com/mirrors.aliyun.com/g' /etc/apt/sources.list
sudo sed -i 's/security.ubuntu.com/mirrors.aliyun.com/g' /etc/apt/sources.list

# 更新索引 sudo apt update


最后附上我的.wslconfig 文件内容

PS C:\Users\Administrator> cat .\.wslconfig
[wsl2]
networkingMode=Mirrored
autoProxy=false
firewall=false
processors=8
memory=16GB
swap=0
dnsTunneling=false

📌 转载信息
原作者:
jingu_wang_Bond
转载时间:
2026/1/12 15:39:41

开发缘由

ChatGPT 有的问候语,会显示用户名!

例如:
用户名为:CloseAI


功能:
将 ChatGPT 首页问候语换成自定义文案!

适合:

  • 遮挡问候语中的用户名!
  • 根据自身喜好,自定义问候语!


效果:

  • 宽屏:

  • 窄屏:


源码:



📌 转载信息
转载时间:
2026/1/12 15:39:26

各位佬,周一中午好,上次在论坛问有没有好用的开源的导航站推荐,

当时有佬推荐我用 ai 写一个,肝了几天终于给搞出完了,开源分享给大家,可能会有 bug,请大家见谅。 自从加入本社区感觉社区的氛围非常棒,就像这个佬说的。

我为人人,人人为我,真的很棒,所以做完以后第一时间给开源了,并且第一时间分享给社区。

非常感谢 anyrouter 公益站提供 CC (不是广告哈!)

没有服务器,我就给大家放几张图片哈:

前台访问地址:

后台管理系统首页:

网站管理:


📌 转载信息
转载时间:
2026/1/12 15:18:10

codex 实在是太慢了,没有温馨提示,佬们在挂着跑 codex 任务的时候很容易刷 L 站过头,忘记 ai 的代码已经完成所以我想你需要 codex 版本的对话结束提示!

Success

如图,每次一轮对话完成进行 toast 提示 + 系统提示音

因为 codex 没有官方的对话结束的钩子,所以需要 mcp 实现提示。
但是上文的 claude code 很简单只需要增加一个配置项就可以实现!

简单三步走

  1. 下载 mcp 文件并且去掉.txt 后缀
  2. 配置 mcp
[mcp_servers.notify] type = "stdio" command = "cmd" args = ["/c", "node", 'C:\\你的路径\\你的路径\\notify.mjs']
  1. 增加提示词
## 硬规则
每次输出“最终回复”之前,必须且只调用一次 MCP 工具 `notify`,参数固定:{"title":"Codex 完成","message":"done"}。禁止跳过。工具调用成功后,再输出最终回复正文。

📌 转载信息
转载时间:
2026/1/12 15:03:32

拿同学的 GLM4.7 蹬了半天,让它先生成一份技术文档,主要用于对接外部接口,它编写的极为清晰,甚至还带了调用关系图,包结构也规划好了,后面就只需要拿这份文档生成代码了。


文档生成这波给到夯,但是后面写代码效果就一般了,生成的代码质量就差强人意。
先是只生成了大体框架,很多需要查询的地方直接写 todo 打发我了,后面是代码里明显有报错的地方直接过了它的评审,让它修改它也没有改全,但是就这已经能节省 80-90% 的开发工作量了,微调一下感觉就能使了。

现在 GLM4.7 叠个拼好模,170 多,应该算好价,大伙儿使用下来怎么样?我应该支持一下国产模型吗?


📌 转载信息
原作者:
mydubai7794
转载时间:
2026/1/12 15:03:27

之前大家做轻量级博客一般都是用像 Hugo、AcademicPages 这些 Jekyll 的框架配上 GitHub Pages + CF 加速,但这种方法编辑不方便。此外,像 AstroPages 这种新的框架动画做的非常好看,值得一试。

我的博客:~/tosaki
模板仓库地址:GitHub - t0saki/AstroPages-Bilingual

核心特色

  • 优雅的阅读体验
    • 极简风格,支持亮色 / 暗色模式自动切换。
    • 中文字体优化:集成了思源宋体(Source Han Serif),不管是正文还是代码块,在各种屏幕上看着都很舒服。
  • 像 Notion 一样的写作后台
    • 内置了 Keystatic CMS,你可以直接在浏览器里由可视化界面写文章、传图片、配置 SEO 信息。
    • 点击 “保存” 会自动同步到 GitHub,完全不用碰命令行。
  • 原生双语支持
    • 不是简单的机器翻译插件,而是完整的双语内容结构。中英文文章独立管理,互不干扰。站长可以借助更强大的 AI 提前翻译好文章,或者直接修改几行去掉双语支持。
  • SEO 友好
    • 自动生成双语 Sitemap 和 RSS 订阅源,对搜索引擎极其友好。

📌 转载信息
原作者:
tosaki
转载时间:
2026/1/12 15:02:45

分享一个自用的 Certimate docker compose file 配置,一个支持 SSL 证书从申请到部署完全自动化的开源软件。

文档 | Certimate

https://docs.certimate.me/zh-CN/docs/introduction/

services: certimate:  certimate/certimate:latest container_name: certimate restart: always ports: - "127.0.0.1:8090:8090" volumes: - /etc/localtime:/etc/localtime:ro - ./data:/app/pb_data environment: - TZ=Asia/Shanghai deploy: resources: limits: memory: 512M reservations: memory: 128M security_opt: - no-new-privileges:true read_only: true tmpfs: - /tmp:size=64M,mode=1777 healthcheck: test: ["CMD", "wget", "--spider", "-q", "http://localhost:8090/api/health"]
      interval: 30s timeout: 10s retries: 3 start_period: 10s logging: driver: json-file options: max-size: "10m" max-file: "3" compress: "true" networks: default: driver: bridge 

📌 转载信息
原作者:
puppetdevz
转载时间:
2026/1/12 15:02:10

ClaudeCode 如何配置 LSP 在 windows Powershell 上

 { "name": "pyright-lsp", "description": "Python language server (Pyright) for type checking and code intelligence", "version": "1.0.0", "author": { "name": "Anthropic", "email": "support@anthropic.com" }, "source": "./plugins/pyright-lsp", "category": "development", "strict": false, "lspServers": { "pyright": { "command": "pyright-langserver", "args": [ "--stdio" ], "extensionToLanguage": { ".py": "python", ".pyi": "python" } } } }, 

~/.claude/plugins/marketplaces/.claude-plugin 文件夹下有一个 marketplace.json 文件如上所示,powershell 中需要 $env:ENABLE_LSP_TOOL=1 配置这个

PS D:\project\LTC-strategy3> where.exe pyright-langserver
D:\nvm-nodejs\pyright-langserver
D:\nvm-nodejs\pyright-langserver.cmd

D:\nvm-nodejs\pyright-langserver.cmd 路径替换 json 文件中的 command 变量,示例如下

    {
      "name": "pyright-lsp",
      "description": "Python language server (Pyright) for type checking and code intelligence",
      "version": "1.0.0",
      "author": {
        "name": "Anthropic",
        "email": "support@anthropic.com"
      },
      "source": "./plugins/pyright-lsp",
      "category": "development",
      "strict": false,
      "lspServers": {
        "pyright": {
          "command": "D:\\nvm-nodejs\\pyright-langserver.cmd",
          "args": [
            "--stdio"
          ],
          "extensionToLanguage": {
            ".py": "python",
            ".pyi": "python"
          }
        }
      }
    },

📌 转载信息
转载时间:
2026/1/12 15:02:02

最近启动了 Ally-Health 项目的可视化工作。

tips: 申请要个小

在这个可视化工作中我需要完成如下内容

  1. 套壳
  2. 能够正常交互到 claude code 的工具

遇到的问题

  1. 我没有购买 claude code 官方的计划 因此我需要解决中转
  2. 如何才可以读取到 某个目录下的 skill 或者斜杠命令

第一个问题的解决方案如下

# Claude API 配置 ANTHROPIC_API_KEY=GLM秘钥
ANTHROPIC_AUTH_TOKEN=GLM秘钥
ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic


# 工作目录(可选) WORKSPACE_DIR=/Users/zhangsan/cc-sdk-demo

第二个问题需要采用下面代码

const result = query({
      prompt: '/get-profile',
      // prompt: '项目里面有什么?',

      options: {
        settingSources: ["user", "project", "local"],
        cwd: config.workspaceDir,
        permissionMode: 'bypassPermissions',
        allowDangerouslySkipPermissions: true,
        allowedTools: [
          "Skill",
          "Bash",
          "WebSearch",
          "WebFetch",
          "Bash",
          "Write",
          "Read",
          "Glob",
          "Task",
          "Grep",
          "LS",
          "ExitPlanMode",
          "Edit",
          "MultiEdit",
          "NotebookEdit",
          "TodoWrite",
          "BashOutput",
          "KillBash"
        ],

      }
    });

这里特别说明:

  1. prompt: ‘/get-profile’, 是我们准备好的命令
  2.  cwd: config.workspaceDir, 是项目目录
    
  3. allowedTools 尽量按照上面的内容编写

验证

 for await (const message of result){

      if (message.type === "system" && message.subtype === "init") {
        console.log("Available commands:", message.slash_commands);
      }

套壳相关的就不具体展开讨论了~


📌 转载信息
原作者:
Zenf
转载时间:
2026/1/12 15:01:47