标签 DeepSeek 下的文章

最近在折腾自动化内容产出,发现微信公众号的排版和发布流程非常割裂。虽然 mdnice 很好用,但它没有官方 API ,很难集成到自动化流里。

于是自己动手撸了一套方案,并把其中最关键的 Markdown 转微信排版 环节封装成工具开源了。

技术栈:

n8n:作为全流程自动化编排中心。

DeepSeek:负责高质量文本生成。

Gemini (Image Generation):根据内容自动生成配图作为头图。

自建 API (markdown2wechat):解析 mdnice 主题并将 MD 转换为适合微信预览的 HTML 格式。

全流程逻辑:

定时触发或 Webhook 触发。

调用 DeepSeek API 生成符合排版规范的 Markdown 。

调用 Gemini 生成文章封面图并自动上传。

通过我的工具接口,将 MD 自动套用 mdnice 主题模板并转换为 HTML 。

推送到草稿箱。

工具开源地址: https://github.com/koala9527/markdown2wechat

欢迎 V 友们拍砖,如果大家有更好的全自动发布 API 思路也欢迎交流。


今天凌晨,喜欢闷声做大事的 DeepSeek 再次发布重大技术成果,在其 GitHub 官方仓库开源了新论文与模块Engram,论文题为“Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models”,梁文锋再次出现在合著者名单中。

与传统的大模型架构相比,该方法提出了一种新的“查—算分离”机制,通过引入可扩展的查找记忆结构,在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现。代码与论文全文均已开源。

 

论文地址:https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf

代码地址:https://github.com/deepseek-ai/Engram

 

这种查和算分离的 Engram 新方法的整体架构如下图所示:

 

为什么需要 Engram?

 

那么,我们为什么需要 Engram ?

 

目前主流的大语言模型架构依然基于 Transformer 和Mixture-of-Experts(MoE)结构。MoE 是目前推进参数规模和能力扩展的关键技术之一,通过动态路由机制,只激活部分参数以降低计算成本,同时在任务容量方面实现大规模扩展。DeepSeek 自家系列模型(如 DeepSeek V2、DeepSeek V3 等)也采用了先进的 MoE 方法进行扩展训练。

 

但在这些传统的 Transformer 架构(无论是 Dense 还是 MoE)中,模型的参数实际上承担着两种截然不同的角色:

 

事实性记忆(Memorization):存储海量的知识事实。例如,“法国的首都是哪里?”、“世界最高的山脉是哪座”等。这类信息相对死板,更多依赖于“查表”式的检索。

 

逻辑推理与计算(Calculation):负责复杂的逻辑链条、多步推理和情境理解。例如,“根据这段代码的逻辑推导可能的 Bug”、“解析一段复杂的哲学论证”。

 

目前的大语言模型倾向于将这两者混在一起。当你试图让模型记住更多知识时,你不得不增加参数量。而在传统的 Dense 模型中,参数量增加意味着前向传播时的计算量(FLOPs)也会同步激增。MoE 架构虽然通过稀疏激活解决了“算力随参数同步爆炸”的问题,但 DeepSeek 研究发现,MoE 专家在处理“死记硬背”的任务时依然不够高效

 

神经网络本质上是连续的数学变换,用高昂的矩阵运算去模拟简单的“查表检索”,本身就是一种极大的浪费。DeepSeek 的 Engram 正是为了打破这一困境——“该查表的查表,该算的算”

Engram 的核心思想与架构

 

聚焦到问题本身,Engram 方法为什么能解决上述问题?

 

“Engram”一词源自神经科学,意为“记忆痕迹”,它是一个可扩展、可查找的记忆模块,用于语言模型在推理过程中过去可能已经见过的模式或片段。

 

Engram 的核心技术之一是现代化的哈希 N-Gram 嵌入(Modernized Hashed N-gram Embeddings)

 

  • 传统方式:模型通过多层自注意力(Self-Attention)和 MLP 层的非线性变换,反复提取输入文本中的特征。

  • Engram 方式:它对输入的 Token 序列进行 N-Gram(连续 N 个词)切片,并利用哈希算法将这些片段映射到一个巨大的、可学习的查找表(Lookup Table)中。

 

由于采用哈希索引,这种查找是确定性且 O(1) 时间复杂度的。这意味着无论模型存储了多少万亿个记忆片段,检索的速度几乎是恒定的,且算力消耗极低。

 

O (1) 的含义是: 一次查找的耗时是常数级的,与 N-gram 表的规模无关。

 

也就是说,这种设计本质上将一部分“记忆职责”从深度神经计算中卸载出来(例如序列模式、固定知识段的识别与回填),使得模型既拥有活跃神经通道(例如 Transformer + MoE)处理复杂计算,也有静态记忆通道高效处理固定模式,这就是所谓的“稀疏性的新轴”(a new axis of sparsity)。

 

简单来说就是 MoE 负责:“计算密集”神经推理与复杂组合功能、Engram 负责:“记忆查找”固定模式以及模式重建,两者协同构成一个更高效的整体架构。

 

此外,它还具备条件记忆(Conditional Memory)。与简单的静态查找表不同,Engram 是“条件化”的。它会根据当前上下文的隐向量(Hidden States)来决定提取哪些记忆。

 

在架构设计上,Engram 模块位于 Transformer 层的早期阶段。它负责“模式重构(Pattern Reconstruction)”,即在计算层(MoE 或 Dense)开始干活之前,先把相关的背景事实和历史模式检索出来,作为“素材”喂给后续的逻辑层。

 

它与 MoE(Mixture of Experts)的关系是怎样的?

 

论文特别指出:Engram 提供了一个新的稀疏性轴,与 MoE 的条件计算不同,它通过条件查找提供静态记忆容量。下面图表中从目标、计算方式、优化方向和作用位置四个维度解释了 Engram 和 MoE 的区别。

 

最后,DeepSeek 将 Engram 与 MoE 结合,形成了一个双系统:

 

  • Engram 模块:负责海量知识点的“存储与快速检索”。

  • MoE 专家:摆脱了沉重的记忆负担,全身心投入到“逻辑推理与合成”中。

 

这种分工极大地优化了参数效率。在 27B 的实验模型中,Engram 模块可以占用大量的参数用于记忆,但在实际推理时,它只消耗极少的计算量(FLOPs)。

 

网友:V4 将采用这种架构

 

在 Reddit、X 和其他平台的相关帖子中,Engram 的技术核心受到了不少用户的肯定和技术肯定。众多网友认为这个模块的特点在于让模型架构处理“记忆模式查找”和“神经计算推理”两块职责分离,从而开启了新的稀疏性方向。

 

在 Reddit 平台有用户评论说:

 

 “Engram 嵌入方法很有意思。大多数模型仅通过 MoE 进行扩展,但 Engram 增加了静态记忆作为补充的稀疏性轴,查找复杂度为 O(1)。他们发现 MoE 和 Engram 之间存在 U 形缩放规律,这指导着如何在两者之间分配容量。分析表明,这减轻了早期层级静态模式重建的压力,从而保留了用于复杂推理的深度。确定性寻址意味着它们可以将嵌入表卸载到主机内存中,而不会增加太多推理开销。”

 

同时,有用户对这种基于 n-gram lookup 的机制表达了直观兴趣,他评论道:

 

“即便是在不依赖 GPU 的环境下也能实现这种 O(1) 查找方式,让不少开发者对本地部署这样的大模型功能有了更实际的期待。”

 

在部分技术性评论中,有人指出:

 

即从已有技术逻辑来看,在 LLM 中加入静态记忆查找似乎是“顺理成章”的发展方向。

 

这类观点反映了一个重要观点:专家群体开始从纯参数扩张思维转向更“智能”的架构设计,包括查表式模块和神经网络的协同。

 

不少高级开发者在讨论中进一步提到,这种设计在理念上类似于对传统 NLP 技术(如 n-gram embedding)的现代化转换,结合了高效寻址机制(deterministic addressing)和神经推理模块,这种组合在纸面上看具有较高的可行性和实用性(这一点正是 Engram 的核心贡献)。 

 

另一条社区评论指出,Engram 很可能是DeepSeek 即将发布的 V4 模型的核心技术基础

 

业内观察者认为 Engram 模块可能会成为 DeepSeek V4 的重要组成部分,并预示 DeepSeek 下一代模型会在记忆和推理协同上实现架构级提升。

 

在 X 平台,也有网友表达了同样的猜测,认为 V4 也将采用这种架构。

还有网友调侃,原本想抄袭下谷歌的技术,但现在要抄袭 DeepSeek 了,因为它比谷歌更好!

还有网友表示,其实 Meta 之前也有过类似想法,但用到的技术不同。

参考链接:

https://www.reddit.com/r/LocalLLaMA/comments/1qb034t/github_deepseekaiengram_conditional_memory_via/?utm_source=chatgpt.com

https://x.com/scaling01/status/2010748516788777445

https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf

我自己简单组了一套:
IDE:vscode
插件:roocode
大模型:Gemini/DeepSeek
MCP:Serena,以及站里大佬开发的 ace-tool(配的也是站里佬的中转 API)
系统提示词:基本都是去 gemini 网页版现写,然后加到 roocode 的模式里。

这种自组的,和 cursor、antigravity 相比,能追上 90% 的使用体验吗?
另外感谢 L 站的巨佬们,开源、免费用了很多好东西,磕头


📌 转载信息
原作者:
Grant9062
转载时间:
2026/1/10 19:11:56

上学时,就为背单词头疼。后来工作了,也没有进一步增加词汇量的需求,所以英语一直保持着 3000 个单词的水平,聊胜于无。

最近,因为个人工作原因,订阅了一些英文邮件通讯,才深感专业词汇的不足。为了更好的阅读领域材料,我想针对性记忆一些领域常用的单词。

为了解决这个问题,我尝试了很多方法,但是发现一个问题:传统的背单词软件大部分都是为了考试而准备的,与我只想学习自己用得着的单词有所冲突。

经过多次尝试,通过 Mac 的「快捷指令」+「大模型」+「滴答清单」的组合,我终于摸索出了一套适合自己的个性化单词学习方案,分享给大家。

下面是快捷指令的分享链接,如果不想修改的话,直接输入你的 API Key 并设置快捷键之后就可以使用了。感兴趣的朋友可以继续阅读后文的思路说明。

下载链接

使用快捷指令的前提条件

上述快捷指令需要提供大模型的 API Key 和安装滴答清单。

  • 大模型:我推荐使用国产之光——DeepSeek,每百万 token 不到 3 元。只是背单词的话,估计一辈子也用不到 10 元钱,简直等于不要钱。直接在官网注册、申请就可以,具体流程不赘述。亦可自行更换为其他兼容 OpenAI API 的提供商。
  • 滴答清单:是我用的比较多的任务管理软件,功能强大、界面简洁,免费版本就能满足日常使用需求。很多任务管理工具只有简单的提醒,但滴答清单内置了 「艾宾浩斯记忆法」重复模式。在滴答清单中,你只需将单词任务设置为该模式,它就会根据科学的间隔(1 天、2 天、4 天、7 天、15 天……)自动弹出提醒。你不需要自己去规划复习进度,只需要在收到提醒时看一眼单词卡片即可。当然,如果你有其他软件同样支持快捷指令和艾宾浩斯记忆法,也可在后续指令中替换。

运行效果

整个流程分为五步:

1. 即时查词:阅读英文内容时,选中生词并按下指定的快捷键组合(默认为 Option-D)。

在浏览时,选中单词,按快捷键

2. AI 解析:系统会自动调用 DeepSeek 大模型,并在弹窗中展示该词的音标、中文含义和例句。

自动弹出自定义翻译和解释

3. 一键入库:点击「确定」后,单词及所有解析内容会自动保存至滴答清单的专用文件夹中。

加入清单成功提示

4. 重复模式:浏览完文章后,进入滴答清单对应的列表,将单词的「重复」模式改为艾宾浩斯记忆法。

重复记忆设置

5. 自动提醒:在查看滴答清单每日任务时,单词及其读音、解释就会根据设置自动出现。每天花上几分钟简单记忆,自然形成单词的长期记忆。

设计思路和制作过程

在完成申请大模型的 API Key 和创建单词清单之后,就可以进入快捷指令页面,点击「+」号,开始「新建快捷指令」。

本文转载自:清华大学人工智能国际治理研究院微信公众号


AI

2025 人工智能大事件回顾

科技巨头篇

-2025 Annual Major Events-

1 月

中国 DeepSeek 发布 R1 推理模型,震动全球 AI 市场

1 月 20 日,中国 AI 初创公司 DeepSeek 发布了开源推理模型 DeepSeek-R1,宣称其性能与 OpenAI 的 o1 模型相当,但训练成本仅为约 600 万美元 —— 远低于 OpenAI GPT-4 约 1 亿美元的训练成本。该模型采用 MIT 许可证开源发布,引发全球科技界震动。1 月 27 日,DeepSeek 的消息导致英伟达市值单日蒸发约 6000 亿美元,创下美国公司史上最大单日市值损失纪录。DeepSeek 证明了即使在美国芯片出口限制下,中国仍能开发出具有竞争力的 AI 模型,这一事件也推动了开源 AI 模型的发展浪潮。

2 月

特朗普宣布 Stargate 项目,5000 亿美元投资 AI 基础设施

1 月 21 日,美国总统特朗普在白宫宣布了名为 "Stargate" 的 AI 基础设施投资计划。该项目由 OpenAI、软银和甲骨文联合发起,计划在四年内投资高达 5000 亿美元,用于在美国建设 AI 数据中心。软银 CEO 孙正义担任项目主席,OpenAI 负责运营。项目首批 1000 亿美元将立即投入使用,首个数据中心已在德克萨斯州阿比林开工建设。特朗普称这是 "史上最大的 AI 基础设施项目",将创造超过 10 万个美国就业机会。马斯克对此表示质疑,声称 "他们实际上没有这笔钱",但 OpenAI CEO 阿尔特曼进行了反驳。

3 月

Anthropic 完成 35 亿美元融资,估值达 615 亿美元

3 月 3 日,Anthropic 宣布完成 35 亿美元融资,投后估值达到 615 亿美元。本轮融资由 Lightspeed Venture Partners 领投,Salesforce Ventures、思科投资、富达等机构参与。Anthropic 由前 OpenAI 高管创立,其 Claude AI 助手已成为 ChatGPT 和 Google Gemini 的主要竞争对手。截至年初,公司年化收入已达 10 亿美元。融资将用于推进下一代 AI 研发,特别是在机制可解释性和对齐研究领域。

3 月

谷歌发布 Gemini 2.5,引入 "思考" 能力

3 月 25 日,谷歌发布了其最智能的 AI 模型 Gemini 2.5,首个版本为 Gemini 2.5 Pro 实验版。这是谷歌首款具备 "思考" 能力的模型,能够在回答前进行推理过程,在数学、科学、编程等领域的基准测试中达到最先进水平,并在 LMArena 排行榜上以显著优势位居第一。

4 月

Meta 发布 Llama 4 系列模型,首次采用 MoE 架构

4 月 5 日(周六),Meta 发布了全新的 Llama 4 模型系列,包括 Llama 4 Scout 和 Llama 4 Maverick,以及仍在训练中的 Llama 4 Behemoth。这是 Llama 系列首次采用混合专家(MoE)架构和原生多模态设计。Scout 拥有 17B 活跃参数、109B 总参数和 10M token 上下文窗口;Maverick 同样拥有 17B 活跃参数,但总参数达 400B,拥有 128 个专家。Meta 声称其教师模型 Behemoth(约 2 万亿参数)在 STEM 基准测试中超越了 GPT-4.5、Claude Sonnet 3.7 和 Gemini 2.0 Pro。当被问及为何选择周六发布时,CEO 扎克伯格简单回应:“准备好了就发了。”

5 月

Anthropic 正式发布 Claude Code,编程助手市场爆发

5 月,Anthropic 正式发布了 Claude Code 开发工具,专为软件工程师设计。该工具通过命令行和编辑器插件(VS Code、JetBrains 等)集成,提供 AI 驱动的结对编程、调试和多文件代码编辑功能。凭借在 SWE-bench 上 72.5% 的成绩,Claude Code 被认为是市场上最强大的编程助手之一。该产品迅速获得市场认可,到 8 月已产生超过 5 亿美元的年化收入,三个月内使用量增长超过 10 倍。

7 月

英伟达成为全球首家市值突破 4 万亿美元的公司

7 月 10 日,英伟达收盘市值首次突破 4 万亿美元大关,成为史上第一家达到这一里程碑的上市公司。在 AI 芯片需求持续火爆的推动下,英伟达的市值此时已超过英国所有上市公司的总和。从 2023 年 6 月的 1 万亿美元,到 2024 年 2 月的 2 万亿美元、6 月的 3 万亿美元,英伟达仅用了约一年时间就实现了市值的四倍增长。

8 月

OpenAI 发布 GPT-5,整合推理与通用能力

8 月 7 日,OpenAI 通过直播活动正式发布了 GPT-5。这是继 GPT-4 之后的第五代生成式预训练变换器模型,首次将推理能力与非推理功能整合到统一接口中。发布时,GPT-5 在数学(AIME 2025 达 94.6%)、编程(SWE-bench Verified 达 74.9%)、多模态理解等多项基准测试中达到最先进水平。据 OpenAI 表示,GPT-5 的响应速度更快、编程和写作能力更强、健康问题回答更准确、幻觉率也大幅降低。然而,部分用户反映 GPT-5 的语气较 GPT-4o 显得 "平淡" 和 "缺乏创意",OpenAI CEO 阿尔特曼随后表示将优化模型的个性化表现。

8 月

OpenAI 发布首个开源模型 GPT-OSS,应对中国开源浪潮

8 月 5 日,在 GPT-5 发布前两天,OpenAI 发布了 GPT-OSS,这是自 2019 年 GPT-2 以来该公司首次发布开放权重模型。阿尔特曼在后来的采访中承认,来自中国开源模型(尤其是 DeepSeek)的竞争影响了这一决定,他表示:"很明显,如果我们不这样做,世界将主要建立在中国的开源模型之上。" 这标志着 OpenAI 战略方向的重大转变。

9 月

Anthropic 完成 130 亿美元融资,估值跃升至 1830 亿美元

9 月 2 日,Anthropic 宣布完成 130 亿美元 F 轮融资,投后估值达 1830 亿美元,较 3 月估值增长近三倍。本轮融资由 ICONIQ 领投,富达和 Lightspeed 联合领投,Altimeter、General Catalyst、Coatue 等参与。公司表示,年化收入已从年初的约 10 亿美元飙升至 8 月的超过 50 亿美元,成为史上增长最快的科技公司之一。Anthropic 服务超过 30 万企业客户,包括 Netflix、Spotify、Salesforce 等知名企业。

10 月

英伟达成为全球首家市值突破 5 万亿美元的公司

10 月 29 日,英伟达股价上涨超过 3%,收盘市值突破 5 万亿美元,成为人类历史上首家达到这一里程碑的公司。从 4 万亿到 5 万亿,英伟达仅用了约三个月时间。当天,特朗普总统表示将与黄仁勋讨论 Blackwell 芯片对华出口事宜,为股价注入额外动力。英伟达 CEO 黄仁勋在此前一天披露,公司已获得 5000 亿美元的芯片订单,并宣布与诺基亚合作开发 6G 技术、与 Uber 合作开发自动驾驶汽车。此时,英伟达的市值已超过除美国和中国以外所有国家的 GDP。

11 月

谷歌发布 Gemini 3,开启智能新时代

11 月,谷歌发布了 Gemini 3,这是其有史以来最强大的 AI 模型。据报道,Gemini 3 Pro 的发布让 OpenAI 进入 "红色警戒" 状态,该模型迅速占据 AI 排行榜榜首位置。在 LMArena 排行榜前 10 名中,谷歌独占 4 席,是表现最好的公司;OpenAI 唯一进入前 10 的模型排名第 8。Gemini 3 被引入 Google 搜索的 AI 模式,标志着首次在发布当天就将最新模型应用于搜索产品。谷歌还宣布在德克萨斯州投资 400 亿美元用于 AI 和云基础设施建设。

11 月

谷歌宣布 400 亿美元德克萨斯州 AI 基础设施投资

11 月,谷歌和 Alphabet CEO 桑达尔・皮查伊与德克萨斯州州长格雷格・阿博特共同宣布了 400 亿美元的 AI 和云基础设施投资计划。这是谷歌 2025 年 AI 投资推进计划的收官之作,该计划旨在释放经济机遇、推进科学突破,投资范围覆盖美洲、欧洲、非洲和亚太地区。计划还包括培训 10 万名电气工人和创造 3 万个新学徒岗位的美国劳动力发展计划。

12 月

特朗普政府允许英伟达 H200 芯片出口中国

12 月,特朗普总统宣布允许英伟达向中国出口 H200 芯片,但需向美国财政部缴纳 15% 的销售收入作为费用。这是继禁止最先进 Blackwell 芯片出口后的政策调整。H200 是英伟达上一代 Hopper 架构中最强大的 AI 芯片,其性能约为中国国产最先进加速器的 2-3 倍。消息传出后,阿里巴巴、字节跳动等中国科技巨头立即联系英伟达下单,据报道订单量已达 200 万片,远超英伟达当前 70 万片的库存。英伟达已开始与台积电协商增加 H200 产能。

12 月

谷歌发布 Gemini 3 Flash,以速度和效率取胜

12 月 17 日,谷歌发布了 Gemini 3 Flash,这是其旗舰模型的更高效、更经济版本,旨在帮助用户更快速地处理复杂查询。Gemini 3 Flash 将取代 Gemini 应用中的 2.5 Flash,并成为 Google 搜索 AI 模式的默认模型。该模型结合了前沿模型的速度与改进的推理能力,为博士级推理能力提供了堪比大型模型的表现,同时在多模态理解方面实现了重大飞跃。


📌 转载信息
原作者:
wilsons
转载时间:
2026/1/7 18:57:08

本文为《2025 年度盘点与趋势洞察》系列内容之一,由 InfoQ 技术编辑组策划。本系列覆盖大模型、Agent、具身智能、AI Native 开发范式、AI 工具链与开发、AI+ 传统行业等方向,通过长期跟踪、与业内专家深度访谈等方式,对重点领域进行关键技术进展、核心事件和产业趋势的洞察盘点。内容将在 InfoQ 媒体矩阵陆续放出,欢迎大家持续关注。

 

我们采访了无问芯穹联合创始人兼 CEO 夏立雪,他指出,2025 年之前,算力集中于 “造模型”;2025 年起,“用模型” 的算力需求快速起量,尽管单纯扩大模型规模的边际回报递减,但整体算力需求并未下降,行业进入 “高效用模型” 的良性阶段。此外他表示,从企业一号位开始重视 AI 的公司,已在业务流中找到大量落地机会,决策层对 AI 的认知度,是未来企业拉开差距的关键。下面是详细对话内容,以飨读者。

 

两个代表性模型串联起今年 AI 圈

 

InfoQ:您眼中 2025 年科技圈的关键词是什么?您会怎样总结自己这一年的收获与遗憾?

 

夏立雪:我眼中的关键词是“跃升”。我认为,今年 AI 圈发生了非常多的可喜变化,由两个代表性模型串联,也包含了技术和产业两个角度。

 

第一个转变以 OpenAI 从 24 年底推出的 o1 模型为转折点,象征着模型从单次生成转向多步推理。第二个转变以 DeepSeek-R1 的发布为关键时刻,证明了软硬协同优化的核心价值,可以推动模型性能与应用成本巨大跃迁。而这两个模型不止带来了技术突破,也带动了巨大的产业跃升:一系列推理模型的不断出现使得 AI 能从事的工作越来越丰富,而开源模型(特别是中国的开源模型)站上人工智能舞台中央,大大加速了世界范围内各种 AI 技术的部署和实验,最终促成了行业智能体为代表的各种应用新物种的诞生。

 

与这个跃升相对应的,人工智能基础设施的关键指标在执行研发任务所需的“性能、资源利用率、算力成本”等基础保障指标之上,新增关注智能体规模化服务的“业务弹性、并发稳定性、可观测性、安全性”等服务效果指标,为这个堪称第四次工业革命的时代做好基础设施准备。

 

回头来看这一年,我很幸运能见证技术浪潮的重要拐点,而我们的技术路径能在其中创造真实价值,这种体验带来的信心,比任何事都珍贵。同时我也见证了团队的成长——既能沉下心打磨产品、陪客户啃硬骨头,又能持续在复杂的事情里面找最重要的问题,就像写数学公式一样,把最需要找到的核心剥出来,这个过程里,人是最大的收获。

 

算力需求却没有下降

 

InfoQ:在您看来今年跑出来了哪些明星公司,以及带来了怎样的行业影响?哪些企业相对落后了?

 

夏立雪:DeepSeek 是今年公认的明星公司。从生态上看,R1 的出现和它的开源姿态,极大地活跃了 AI 中下游的创新生态,让许多创业公司和开发者,能以更低的门槛获得接近前沿的推理能力,去试验和构建自己应用。

 

从算力用量上看,虽然整体上单纯扩大规模的回报在边际递减,但算力需求却没有下降。因为如果把模型制造和使用方当作一个整体玩家,你会发现从去年到今年初,基本全部算力资产都配置在了“如何造模型”,今年开始“如何用模型”的算力起量,这也是一个良性的变化。

 

关于企业的领先和落后,我的观点是 AI 是一个全新的“物种”,每一个行业都有与 AI 紧密合作的巨大机会。而我看到的现象是,在同一个行业中,自一号位开始认真拥抱 AI 的,明显已经在自己的业务流中找到许多落地的机会了,所以决策人的认识是未来拉开差距的关键点。而 AI 还在不断创新,所以我更愿意说这是一场面向未来的、所有玩家都需要边跑边学的马拉松。

 

InfoQ:根据您的观察,科技公司今年面临的压力如何?对此采取了什么样的应对措施?员工们的状态如何?(可以针对广泛的科技圈,也可以是您所在公司或细分行业公司)

 

夏立雪:今年的行业压力,更多还是在兴奋与焦虑中负重转向。以 DeepSeek 为代表的推理范式和智能体应用前景的爆发,给大家带来了一些转型压力。这种转型不止是应用产品的迭代,它会牵动整个技术栈、组织架构和商业逻辑的变化,大家都在焦虑自己的速度能否跟上范式迁移的浪潮。

 

面对快速的变化,一个组织最容易遇到的问题就是决策困难,而我们因为从诞生之日就以“让 AGI 触手可及”为目标,所以在复杂的变化中能够保持冷静和坚定,比较早就洞察到了变化,率先在相应领域进行了布局,这也是创业公司的敏捷性优势,让我们在变局中保持了一定的主动性和节奏感。甚至我们会认为,今年的许多变化都是让通往目标的路径更清晰的喜讯,这让我们信心满满。

 

在员工状态方面,作为一家身处前沿的 AI 企业,我们看到许多同事展现出极强的适应性与学习热情,积极拥抱技术变革带来的挑战。整体上,团队在对技术未来充满信心的同时,也对工作稳定性和清晰的职业发展路径产生了更强烈的期待——这是一种理性和积极并存的健康状态。

 

全球在真正生产中使用中国 AI

 

InfoQ:经过一年竞赛,国内前沿 AI 水平取得了怎样的成绩?是否赶上了硅谷科技公司?

 

夏立雪:最近 OpenRouter 和 a16z 合作的报告里讲得很清晰,全球对开源模型的使用激增与 DeepSeek V3 和 Kimi K2 等主要开放模型发布相吻合,而且这些增长持续了长时间,说明全球正在真正的生产中使用中国 AI。我们今年也自己出去走了走,体感是高度一致的。

 

这个时代可以说,是自工业革命以来,中国第一次能够以技术引领者,而不仅仅是追随者的身份,站在一场世界级产业革命的前沿。我们不仅在解决别人的问题,更在定义新的问题、新的赛道和新的游戏规则。

 

InfoQ:您认为,2026 年的技术赛点可能是什么?您会重点关注哪些行业和技术?

 

夏立雪:2026 年的技术赛点可能还是聚焦在智能体上,基础设施如何让数字世界智能体在各种场景中规模化落地,以及如何通过云端协同帮助具身智能(作为物理世界的智能体)从实验室走向特定场景的落地验证,是我们会重点关注的方向。

 

Clicks 推出 Power Keyboard 和 Communicator 手机

1 月 2 日,科技初创公司 Clicks Technology 发布了继实体键盘保护壳之后的首批新品。

其中,Clicks Communicator 手机被定义为一款「现代通讯伴侣」,定位类似于 Kindle 之于 iPad,主要作为用户的第二部手机使用。该设备运行 Android 系统,直板设计,配备 4 英寸屏幕与实体全键盘,重 170 克,厚 12 毫米。为了减少信息干扰,其系统界面由 Niagara Launcher 深度定制,摒弃了传统的应用网格,转而采用极简的消息聚合中心。硬件方面,Communicator 有 5000 万像素后摄、2400 万像素前摄,保留了 3.5mm 耳机孔、静音开关与 MicroSD 卡槽,侧面设有可根据通知类型改变颜色的信号灯按键,搭载 4000mAh 电池。处理器和存储参数未公布。该机起售价为 499 美元(约合人民币 3487 元),目前提供 399 美元的早鸟预订价,预计将于今年晚些时候发货。

另一款新品 Clicks Power Keyboard 则是蓝牙键盘与移动电源二合一设备。它支持 MagSafe 与 Qi2 无线充电标准,可以磁吸在手机背面。键盘采用滑盖式设计,除了作为手机的实体键盘外,还支持通过蓝牙 5.4 连接至多三台平板电脑、智能电视等设备。Power Keyboard 重 180 克,厚 15.2 毫米,电池容量为 2150mAh,其中 500mAh 划分给键盘使用。该产品定价 109 美元(约合人民币 790 元),早鸟价 79 美元,将于今年春季正式发售。


Pebble 推出 Round 2 手表

1 月 2 日,智能手表品牌 Pebble 发布 Pebble Round 2。作为品牌重启计划的一部分,Round 2 复刻了 2015 年推出的 Pebble Time Round,旨在通过更现代的技术重现这款当年「业界最薄」的圆形手表经典设计。

在硬件设计上,Pebble Round 2 解决了初代产品边框过宽的痛点。新品在保持 8.1mm 超薄不锈钢机身的同时,搭载了一块 1.3 英寸彩色电子墨水屏,像素密度较前代翻倍至 283 ppi,且具备背光功能。Round 2 保留侧边实体按键,让用户可在会议等场景下通过触觉盲操作。

为实现 10 至 14 天的续航,Pebble Round 2 在功能上做了明显的取舍,仅保留计步、睡眠追踪等基础健康功能,未配备心率传感器,因此不适合作为运动追踪设备使用。系统方面,它运行开源的 Pebble OS,兼容数千款表盘与应用,内置麦克风支持语音输入与回复,但受限于苹果系统限制,该功能目前主要面向 Android 用户,iOS 端的支持将率先在欧盟地区开放。此前,Pebble 已推出过一款具备录音转写功能的低成本 AI 智能戒指,官方表示未来计划将类似的 AI 能力引入手表端。

该产品定价 199 美元(约 1390 元),即日起在官网开启预售,预计将于今年 5 月发货。对于此前已预订方形表盘 Pebble Time 2 的消费者,官方也提供了保留排队位次改订 Round 2 的选项。


DeepSeek 发论文介绍高效训练技术 mHC

1 月 1 日,DeepSeek 发布了一篇由创始人梁文锋合著的技术论文,提出了一种名为「流形约束超级连接」(Manifold-Constrained Hyper-Connections, mHC)的新型深度学习架构。该研究旨在通过优化计算效率,在算力资源受限的环境下,以更低的成本训练更大规模的模型。

mHC 技术是对「超级连接」(Hyper-Connections)架构的进一步改良。超级连接最初由字节跳动研究人员于 2024 年 9 月提出,旨在改进由微软亚洲研究院何恺明等人发明的 ResNet(残差网络)主流架构,以解决深层网络中的信号衰减(信息在传递过程中「声音」越来越小,深层网络接收不到有效信息)与模型坍塌(无论输入什么不同的数据,层层处理后变得相似甚至趋同)。

DeepSeek 团队指出,虽然字节跳动的方案提升了网络复杂度,但在大模型训练中忽略了日益增长的显存成本,导致实际扩展性受限。就此,DeepSeek 的 mHC 方案通过引入特定的流形约束,让数据流仅在特定的几何轨迹(流形)上运行。这在保留超级连接优势的同时,成功解决了内存与成本瓶颈,实现了「几乎可忽略的计算开销」。论文数据显示,DeepSeek 研究团队在 30 亿、90 亿及 270 亿参数规模的模型上测试,实证结果表明 mHC 具备优于传统架构的扩展性,且能维持大规模训练的稳定性。

该论文由梁文锋本人账号上传至 arXiv。梁文锋此前仅亲自发布过 DeepSeek 最重要的技术论文(如 R1 和 V3 模型相关研究),且被列为本文的最后一位作者,这一举动证实了他仍深入参与核心研发,也被视为 DeepSeek 下一代核心模型技术路线确立的信号。目前市场预期 DeepSeek 可能延续 R1 的发布策略,在 2 月中旬的春节假期前发布新款大模型。


华硕通知渠道今起涨价

VideoCardz 报道,华硕于去年 12 月 30 日向合作伙伴发出《2026 年产品价格调整说明函》,宣布将于 2026 年 1 月 5 日起实施价格调整。

该函称,受全球供应链结构性波动影响,多项关键零组件正承受严峻的成本上升压力,特别是 DRAM 内存和 NAND。此变动源于「全球原厂产能配置调整」「先进製程投资成本增加」,以及「AI 算力需求导致的产业结构性缺口」。

尽管华硕未列出具体受影响的型号,但明确表示将「针对部分产品组合策略性价格调整」。由于此次调价生效日期恰逢 2026 年 CES 开幕前夕,业界分析认为,华硕即将在 CES 上发布的新一代硬件产品,特别是 AI PC 及电竞设备,将首当其冲,并可能确立新的市场价格基准。

华硕强调,此次调价是公司在「长期吸收与因应成本压力后所做出的必要决定」,目的是为了「确保稳定供应、维持品质与服务水准」。针对后续影响,华硕业务代表将主动联系合作伙伴,提供详细说明并协助规划最适切的因应方案或配置建议。

华硕公关部门证实了该文件的真实性,但向媒体澄清,这是一份仅供渠道合作伙伴参考的内部商业沟通文件,并非面向公众发布的正式新闻稿。


新一批作品进入公有领域

2026 年 1 月 1 日,全球迎来一年一度的版权释放重要时刻。弗洛伊德、爱因斯坦、汤因比等名家名作分别在美国、欧洲或中国等司法辖区进入公有领域。

在美国,随着 1930 年作品保护期的终结,福克纳的《我弥留之际》、弗洛伊德的《文明及其不满》等著作,《西线无战事》等电影进入公有领域。蒙德里安与保罗·克利的画作、初代「贝蒂娃娃」、迪士尼最早期的普鲁托(当时名为 Rover)形象均不再受版权限制,基于这些早期素材二次创作成为可能。

在实行「作者有生之年加 70 年」版权期限的司法辖区,如欧盟、英国、俄罗斯,1955 年逝世作者作品保护期届满。这意味着物理学家爱因斯坦、《人性的弱点》作者卡耐基、诺贝尔文学奖得主托马斯·曼的作品在这些地区将不再受版权限制。

在实行「作者有生之年加 50 年」版权期限的司法辖区,如中国及亚洲和非洲大部分地方,1975 年逝世的作者作品保护期届满。这包括蒋介石、历史学家阿诺德·汤因比、苏联作曲家肖斯塔科维奇、政治哲学家汉娜·阿伦特等。


比亚迪超越特斯拉成为 2025 年全球电动车销量榜首

据《纽约时报》报道,2025 年,特斯拉失去全球最大电动汽车制造商的位置,首次被比亚迪超越。根据 12 月 31 日公布的数据,特斯拉全年交付量同比下降 9% 至 164 万辆,其中第四季度销量受政策冲击暴跌 16%。相比之下,比亚迪全年纯电车型销量增长 28%,达到 226 万辆,并凭借价格优势在亚洲、欧洲和拉美市场实现了显著扩张。

特斯拉销量的下滑主要受到美国政策急剧转向的冲击。尽管马斯克在 2024 年大选中大力支持特朗普,但共和党重新执掌白宫和国会后,迅速废除了最高 7500 美元的联邦电动车税收抵免,并着手削弱清洁空气法规。特斯拉作为占据美国电动车市场 45% 份额的绝对主力,成为此项政策变动的最大受害者,导致其第四季度交付量从上年同期的 49.6 万辆锐减至 41.8 万辆。

除外部环境恶化外,特斯拉自身的产品迭代滞后也是关键因素。其主力车型 Model Y 自 2020 年上市以来未见重大更新,新推出的 Cybertruck 销量惨淡。在欧洲市场,特斯拉的销量已被大众汽车反超。此外,马斯克将公司重心转向自动驾驶出租车(Robotaxi)和人形机器人,但尚未产生显著营收,且在自动驾驶落地进程上已落后于谷歌旗下的 Waymo。

行业分析师预测,2026 年美国电动车市场将持续低迷,需等到 2027 年更多低于 3 万美元的廉价车型上市后才有望回暖。尽管汽车销售疲软,但华尔街因看好其在自动驾驶领域的长期潜力,特斯拉股价目前仍维持在历史高位。与此同时,比亚迪虽然因高关税壁垒无法进入美国市场,但已确立了其在全球其他市场的领跑地位。


看看就行的小道消息

  • 近日,多名 Reddit 用户抱怨多邻国通过实时活动功能显示订阅广告,而这是 App Store 审核规则禁止的行为,可能被下架处理。多邻国后来似乎停止了广告展示。
  • 据 StackOverflow 官方数据,该站在 2025 年 12 月仅新增 3862 个问题,已低于初创不久时 2008 年 8 月的水平。
  • 据路透社查阅的 Meta 内部文件显示,面对全球监管机构打击社交媒体诈骗广告的压力,Meta 制定了一套名为「全球剧本」(Global Playbook)的应对策略。文件揭露,Meta 并没有全面验证广告主身份、根除诈骗,而是通过操纵搜索结果,使监管机构难以发现违规广告,以此通过合规审查。例如在日本,Meta 团队发现监管机构会通过特定关键词(如名人姓名)在公开的广告资料库中搜索诈骗广告,于是在监管审查前针对性地清洗相关搜索结果,制造出诈骗广告已大幅减少的假象。此外,当一地加强监管时,算法会自动将诈骗广告流量导向其他监管较松的地区。此前,Meta 曾因 Facebook 和 Instagram 上泛滥的投资诈骗和 AI 合成名人代言虚假广告而面临日本、新加坡等国政府的严厉质询。
  • 1 月 3 日晚,雷军在新年直播中披露,2025 年小米汽车交付量目标原本定的是 30 万辆,中间提高到 35 万,最后实现超过 41 万辆,并宣布 2026 年小米汽车交付目标为 55 万辆。当晚,雷军直播四个小时,随工程师团队完整拆解了一台 YU7。拆车结束后,雷军集中回应了近期围绕小米汽车的多项舆情与争议。关于「1300公里只充一次电」「200公里瞬间刹停」等营销表述质疑,雷军表示,相关说法源自驾驶体验展示视频,主要用于展示 SU7 的续航、刹车性能,有完整视频作为佐证,但在传播过程中被「断章取义」。雷军还承认「小字营销」是行业陋习,接受批评,已于去年 11 月要求各业务团队尽量使用大字直观展示。


少数派的近期动态

  • 年末「夯」一下!少数派 2025 年度盘点正式上线
  • 少数派会员年终福利来袭,引荐比例限时上调至 15%,邀请好友享 85 折入会优惠。参与活动
  • 好玩又实用,还有迪士尼授权配件可选,少数派「扭扭宝」充电宝火爆开售。来一个试试
  • GAMEBABY for iPhone 17 Pro & 17 Pro Max 系列现已上市。进一步了解
  • 《蓝皮书》系列新版上架,一起探索全新 iOS 和 macOS 的精彩。试读并选购


你可能错过的好文章


    教大家薅智谱的免费模型打造豆包手机
    记得在 glm 官网注册 api
    https://open.bigmodel.cn/

    豆包手机功能快速配置指南


    (下一期给大家讲虚拟屏技术,给手机虚拟 “外接” 屏幕效果演示)

    趁着质谱官方平台 autoglm-phone 模型免费,快别管你那 api 公益站了,来玩 UI 自动化

    对话模型:deepseek-chat(不要换过傻的模型,就用 deepseek 官网!!公益商会注水,你的 gemini、claude,gpt 可能效果都没 deepseek v3 好,而且官网有缓存,实际用起来花销极低)

    UI 自动化模型:autoglm-phone(一定要质谱大模型平台才免费!!!)

    一个比价任务成本不到一毛钱(但是虚拟屏非常吃手机性能)

    耗时:不到 2 分钟配置,剩下的 AI 自动操作;比价任务耗时 10 分钟,这个下期展示

    步骤一:在 Operit 中新建一个模型配置专门给 UI 控制器用,别动默认聊天模型

    步骤二:开权限让 AI 动手

    步骤三:选配置方式

    方法 A(懒人版):

    进工具箱,点 AutoGLM 自动配置 按钮


    跟着提示走完就行

    方法 B(手动版):

    关掉 Automatic_ui_base,打开 Automatic_ui_subagent

    给 UI 控制器选个能看图的模型


    记得开 直接图片处理 开关

    步骤四:开始使用

    回到聊天界面,直接告诉 AI 你想做什么
    这个软件也支持悬浮窗和语音

    步骤五:享受自动化

    看着 AI 自己操作你的手机
    不满意就接管。可屏幕多开。

    现在你的手机已具备豆包手机核心功能:

    ✓ 屏幕视觉理解
    autoglm-phone 似乎还可以作为一个识图模型去使用,效果如图 hhh,还是免费的

    ✓ 自动化操作

    ✓ 零成本实现

    软件:operit
    权限:shiziku 或 root(无障碍无法开启虚拟屏幕,但是可以实现自动化操作)
    虚拟屏幕技术比 adb 和无障碍底层,会比较难检测,目前操作购物平台没问题
    不建议操作微信
    开着无障碍权限三角洲会封号
    开源地址:(半年快 3k​了)


    📌 转载信息
    原作者:
    yihong
    转载时间:
    2026/1/3 12:03:21



    📌 转载信息
    原作者:
    BunnHack
    转载时间:
    2026/1/1 16:15:20

    2026 新年快乐~

    这次 V1.2 更新大幅加强了较弱模型的绘图能力,此前往往只有类似于 claude-sonnet 这样对 drawio 内容特殊训练的模型才能有效地绘制 drawio。这次更新引入了知识和主题的概念,同时重构了操作的工具来解决这个问题。

    直接放一个使用 deepseek-chat(v3.2,非思考) 下展示下效果:

    这一次的更新内容 electron/web 双端都能使用 详细介绍下这次更新内容:

    自定义绘图主题 / 颜色风格 / 知识

    可以在单次会话或在设置中指定要生成图标的整体风格和配色。同时也可以选择附加的 drawio 元素相关的知识,如在要绘制托管框架图时,勾选上 Azure 知识,这样提示词中就会自动附带 Azure 相关元素的使用说明了。

    画布增强

    更多的画布增强功能,现在还支持进行布局检查,避免非视觉 LLM 对连接线位置理解不佳导致的线与元素重叠 (视觉 LLM 直接以视觉方式查看画布在做了 )

    drawio 画布自定义

    支持了自定义显示主题 / 编辑器服务地址 / URL 参数等更多自定义功能

    WEB 部署优化

    支持了直接在 vercel 上部署:

    或者可以直接访问 https://drawio2go.vercel.app/ 试用。所有 LLM 的配置都是直接保存到浏览器端的 (但是请求由于 CORS 的原因只能走服务端,不能从网页直接请求)。

    欢迎各位佬友体验捉虫,感觉有意思或者未来可期的话顺手 star 一下吧


    📌 转载信息
    原作者:
    Menghuan1111
    转载时间:
    2026/1/1 16:13:49