2026年1月

近日,全球权威机构 IDC 发布的《IDC 中国分布式事务数据库市场追踪,2025H1》报告显示,2025 上半年,原生分布式数据库厂商 OceanBase 以 2810 万美元营收,居中国分布式事务数据库本地部署市场第一。这是继 2024 年下半年后,OceanBase 连续两次在该细分市场拔得头筹。

同时,在包含公有云的整体市场中,OceanBase 以 4060 万美元营收位列独立厂商第一、整体第四,持续领跑国产数据库阵营。

 

IDC 统计,2025 上半年,中国分布式事务数据库市场规模达 4.2 亿美元,同比增长 19.6%。其中,本地部署市场增速高达 24.9%,显著高于公有云部署模式,预计 2024-2029 年复合增长率将达 24.2%。分布式数据库正加速向金融、政务等核心系统渗透,在性能、稳定性与综合成本上比肩甚至超越国际产品。

 

IDC 同时认为,当前市场集中度持续提升,前五大厂商已占据 82.5%的市场份额。随着国家数据库测评名单的发布和政策深入推进,具备核心技术能力与成熟实践案例的厂商优势凸显。

 

据了解,OceanBase 是蚂蚁集团 100%自研的原生分布式数据库。IDC 在报告中指出,OceanBase 凭借原生分布式、原生多租户、HTAP、高级数据压缩等技术特性,成为分布式交易型数据库的代表厂商。其“单机分布式一体化”设计,可在同一产品体系下灵活支撑企业从初创到超大规模增长的全周期需求。

 

自 2020 年商业化以来,OceanBase 客户数突破 4000 家,连续 5 年年均增速超 100%,广泛应用于金融、政务、能源、通信、医疗等关键领域。面向 AI 时代,OceanBase 加速“Data xAI”融合,先后发布 4.4 一体化融合版本、AI 原生混合搜索数据库 seekdb 等产品,通过 AI 原生混合搜索、多模融合、TP/AP/AI 一体化等前沿能力,服务数十家头部企业智能化应用。

 

在金融领域,OceanBase 服务全部政策性银行、5/6 国有大行,覆盖超 100 家资产规模千亿级以上银行,支撑 190+核心系统、1000+关键业务,并成功落地汇丰、澳门大丰、老中银行、三井住友等国际金融机构。其中,老中银行在老挝上线基于 OceanBase 的新一代核心系统,性能提升 20 倍、批量处理缩至 30 分钟,成本仅为同类方案 20%,实现中国自研数据库海外银行核心系统的首单落地。

 

在政务与央国企领域,OceanBase 支撑全国约 1/3 省级人社系统、12123 交管平台、北上广深地铁票务系统及多家三甲医院 HIS 系统,并深度服务中国移动、中国联通、中国电信、国家电网、中国石化、中国航信、中国南方航空等大型央国企。

 

在海外支持方面,OceanBase 多云数据库 OB Cloud 已运行于阿里云、AWS、Azure 等七大主流云平台,支持“一套架构、全球运行”,服务 GCash、2C2P、PalmPay 等 50 余家海外客户。

去年,一部由徐峥主演的电影《逆行人生》,将外卖骑手在数字时代下的生存状态推至公众视野的中心。影片刻画了骑手们在车流中穿梭的日常,以一种犀利而写实的方式,揭开了平台算法背后那只看不见的手——它如何无声地主宰着骑手的收入、节奏甚至命运。

 

由此,一个曾经隐藏在订单推送与时限倒计时背后的算法和数据相关议题,逐渐发酵成为当时国内的热门话题。在海外,这一话题同样反复引发争议。

 

近日,一名自称外卖平台“内部举报人”的 Reddit 用户被证实为造假者,其编造的故事曾在全球社交平台引发巨大传播。

事件回溯

 

事件始于 Reddit 上发布的一篇“举报帖”。一名 ID 名为 Trowaway_whistleblow 的用户发帖,自称自己是一位即将离职的 Uber Eats 软件工程师,长期目睹公司通过算法系统系统性剥削外卖员与消费者。他在帖子中写道:“你们总是怀疑算法在暗中对付你们,但现实远比阴谋论更令人沮丧。”

 

该用户声称,自己在醉酒状态下,于图书馆使用公共 Wi-Fi 写下了这篇“长篇檄文”,详细指控公司如何利用法律漏洞,从司机报酬和消费者支出中“无声抽成”。

 

帖子详细描述了该公司如何操纵平台,损害顾客和外卖员的利益:例如,故意放慢普通订单的配送速度,人为地让优先订单看起来更快;以及收取所谓的“监管响应费”,并以此为由游说反对司机工会。

 

这篇帖子中最令人震惊的指控或许是,平台内部有一个从不对外公开的指标,用来评估骑手有多缺钱。该平台会根据司机接单的时间和频率计算他们的“绝望指数”,这也是举报人辞职的主要原因。该用户写道:

 

“如果一个司机通常晚上 10 点上线,毫不犹豫地接受所有 3 美元的垃圾订单,算法就会将他标记为‘极度渴望赚钱’。一旦被标记,系统就会故意停止向他推送高价订单。逻辑是:‘既然我们知道他渴望赚钱到愿意接 6 美元的单子,为什么还要付他 15 美元呢?’我们把高额小费留给‘兼职’司机,以此吸引他们并让他们的游戏体验更加有趣,而全职司机则被榨干最后一滴油水。”

 

这篇帖子最终获得了 8.6 万个赞,登上了 Reddit 首页,浏览量可能达到数百万。用户们向这位举报人赠送了超过 1000 枚 Reddit 金币,这些金币可以用来购买高级功能。该帖子在 X 网站上的截图浏览量超过 3600 万次

这篇帖子之所以具有高度传播力,并非偶然。在美国,外卖平台确实存在过被法律确认的不当行为。以 DoorDash 为例,该公司曾因挪用司机小费遭到起诉,最终在美国支付了 1675 万美元的和解金。这一真实案例,使公众更容易相信“平台算法系统性压榨劳动者”的叙事。

 

同时,在影视作品中,算法被具象化为一种无法逃脱的“系统命运”。在徐峥参与的相关题材电影中,外卖员被描绘为即便拼尽全力,也难以突破平台算法设定的收入上限。这类艺术表达虽非纪实,却强化了公众对“算法不可抗力”的直觉认知。

 

正是在这一现实与情绪背景下,这名 Reddit 用户的爆料被迅速视为“终于有人站出来说实话”。

 

但如今,该帖现已被发布人删除。

 

一场 AI 生成的骗局?

 

科技媒体 Platformer 的记者凯西·牛顿(Casey Newton)注意到了这篇帖子,并尝试对其真实性进行核实。

 

在取得联系后,Newton 与这名自称“举报人”的 Reddit 用户进行了约半小时的交流。

 

Newton 在报道中写道,对方与许多声称掌握内部信息的爆料者一样,最关心的问题是如何保持匿名。他表示愿意进一步分享所谓的内部材料,但同时强调,已有“其他大多数新闻机构”联系过他,并提出了他认为“风险过高”的身份核实要求,因此选择拒绝合作。

 

在交流过程中,Newton 注意到一个明显的异常:这名用户在即时通讯中的拼写和用词错误频繁出现,甚至将“information”(信息)拼写错误,而这些语言层面的失误,在其最初发布、广泛传播的 Reddit 长文中几乎不存在。

 

这一前后差异,成为 Newton 心中逐渐浮现的疑点之一。

 

Newton 向对方明确表示,自己会尽力保护其匿名性,但作为记者,仍需要对其身份进行基本核实。对此,这名用户提出,可以提供一张经过模糊处理、隐藏姓名的员工证照片作为证明,并询问“这样是否可以”。Newton 同意后,对方随即发送了一张照片。

 

这张图片看起来像是一张 Uber Eats 的员工证件,在形式上具备公司标识和员工信息布局,但其真实性仍有待进一步核验。正是从这一步开始,Newton 逐渐意识到,自己正在接触的,可能并非一名真正的内部人士,而是一场精心设计的伪装。

 

一张疑似 Uber Eats 员工证件的照片

 

此外,他还提供了一份长达 18 页的“内部文件”,称文件详细描述了公司如何利用人工智能系统,为每一位司机计算所谓的“绝望程度评分”,并据此动态调节派单、报酬和激励机制。

所谓的“内部 PDF 文件”截图

 

这些材料在形式上高度专业,包含大量技术细节与市场分析。Newton 后来在 Platformer 的文章中写道,在他多年职业生涯中,这类文件“看起来非常可信”,因为其制作成本极高,逻辑完整,很难让人相信只是为了戏弄记者。

 

“谁会花时间精心制作一份长达 18 页、关于市场动态的详细技术文件,仅仅为了骗人?”

 

Newton 写道,“谁又会费尽心思伪造证件?”

 

然而,在进一步核查过程中,Newton 逐步发现这些“证据”经不起验证。文件中的部分技术描述与 Uber Eats 实际业务逻辑存在明显不符,所谓的内部术语和流程也无法在任何可靠渠道得到印证。员工证件的格式与真实样式存在差异,其来源亦无法追溯。

 

最终,Newton 确认,这名所谓的“举报人”并非 Uber Eats 员工,其爆料内容完全是编造的故事。整套“内部材料”极有可能借助生成式人工智能工具完成——这也解释了为何文件在语言风格、结构完整度和技术细节上显得异常成熟,却缺乏真实组织内部文件应有的可核查痕迹

网友怎么看?

 

这起事件并未否认平台经济中真实存在的问题。相反,它凸显了一个更复杂的现实:当算法的不透明性已经成为普遍焦虑,当平台过往确实存在侵害劳动者权益的案例,虚假信息反而更容易披上“合理外衣”。

 

正如 Newton 在报道中所指出的那样,这次经历并非一次普通的谣言,而是一场具有技术时代特征的信任测试——它考验的不只是平台,也考验每一个信息传播者与接收者。

 

随着“Uber Eats 举报人”事件被媒体披露为造假,一部分网友并没有完全接受调查结论,相关讨论迅速在社交平台上分化。

 

在 Reddit 上,有用户对举办贴里面提到的内容深表赞同。他评论道:

 

“外卖平台他们会根据你的使用习惯来判断你对收入的渴望程度,知道你的底线,所以会给你安排你不愿意接的最糟糕的活儿。因此,越不急于赚钱的人反而能接到更好的送货任务。”

 

有用户指出,将事件简单归因为“人工智能造假”本身并不严谨。在他们看来,即便在生成式人工智能出现之前,互联网上就早已充斥着虚假信息,一个逻辑自洽、情绪饱满的长帖,并不需要依赖 AI 工具,普通人在短时间内同样可以完成。

有用户猜测,将所谓的“内部文件”定性为 AI 生成,可能只是平台方的危机公关策略之一,目的是削弱爆料内容的影响力,而非对事实本身作出独立、透明的澄清,该用户评论道:

 

“或许这是 Uber Eats 为了平息事态而采取的反举报策略。或许最初的帖子是真的,但他们这么做是为了制造足够的疑点,让我们最终都释怀。”

 

此外,还有声音对媒体调查的权威性持保留态度。一些网友表示,仅凭记者判断材料“疑似由人工智能生成”,并不足以比原始爆料更具说服力。他们指出,生成式人工智能本身也存在大量错误和不稳定性,因此仅以“AI 痕迹”为依据,仍难以完全证明图片或文件的真实来源。

 

“仅因为某个“记者”发现它是人工智能生成的,并不能比原帖更有说服力。我并非不尊重记者他们的工作,但人工智能经常出错,所以我们怎么知道这张图片真的是人工智能生成的呢?”

 

另一位网友也在质疑媒体的报道。他认为发帖者并不能确定是 AI,因为人们也经常会用 AI 来给自己想说的话润色,但润色不代表他说的话就是 AI 捏造的。

 

这类观点认为,围绕“是否由 AI 生成”的争论被过度放大,反而模糊了对内容本身真实性的判断。

 

这些分歧性的反应表明,在平台经济、算法治理与人工智能高度交织的语境下,即便面对被揭穿的虚假举报,公众对平台、媒体以及技术本身的信任裂痕依然存在,事件所引发的争议并未随着事实澄清而完全消散。

  

参考链接:

https://www.platformer.news/fake-uber-eats-whisleblower-hoax-debunked/

https://www.reddit.com/r/confession/comments/1q5gl9j/removed_by_moderator/

https://techcrunch.com/2026/01/06/a-viral-reddit-post-alleging-fraud-from-a-food-delivery-app-turned-out-to-be-ai-generated/

在  2025 年 9 月的云栖大会上,阿里巴巴集团 CEO 吴泳铭发表演讲认为实现 AGI 是个确定性事件,实现全面超越人类的 ASI 才是终局。

ASI 的概念起源,通常会追溯到统计学家 / 密码学家 I. J. Good 在 1965 年发表的文章: “Speculations Concerning the First Ultraintelligent Machine”,在性质上更接近学术随笔讨论。因此,排除所有面向资本市场的叙事后,如何准确理解 ASI ,某种程度上也决定了阿里云的去路和归处。

吴泳铭认为实现 ASI,需要满足两大核心条件:

  1. AI 能获取真实世界的全量原始数据;

  2. 实现 “Self-learning(自主学习)”,即 AI 能为自身模型搭建训练基础设施、优化数据流程与升级架构;

两个条件的“基础设施味”都很重,再结合阿里广为人知的 3800 亿投资计划,导向已经十分明显:在一段时间内,阿里云都会是企业在 AI 时代的“隐形”支撑者、赋能者和陪跑者。相比于平台注册数据、公有云 Token 调用数据……客户数据 + 基础设施投产进度,是阿里云业务发展更重要的 KPI。

据 IDC 2025 年对中国公有云基础设施市场的追踪报告:阿里云在多个行业市场份额位列第一,典型市场包括金融行业占比 43%、汽车行业占比 40%、游戏行业占比 41%。

阿里最新财报则提到,在 2026 财年第二财季,云智能集团累计收入 398.24 亿元,同比增长 34%,为历史最佳表现。但整个阿里巴巴经营利润为 53.65 亿元,同比下降 85%,主要归因于对即时零售、用户体验以及科技的投入,其中所谓科技投入,特指云 + AI  基础设施方面的支出。有信息指出,泰国、韩国、墨西哥等地新数据中心,都是阿里云在 2025 年开服。

从市场份额增长到利润下降,二者之间的差值,或许就是寻找 ASI 的“路费”。抛开资本市场不谈,普通人很难理解这份“路费”的价值与合理性,大家更乐于见到“Manus 式”的 C 端产品上岸故事,而不是一家云计算公司如何帮助成千上万家实体企业做 AI 提效。

这也使得 2025 年的阿里云极具“反差感”:一方面,它是中国云计算市场的领头羊,决计要做全球领先的人工智能服务商;另一方面,在最热闹的 AI 营销大战中,它又似乎不那么性感。

阿里云的“反差感”之一: AI 不能只靠“热闹”赚钱

从 2025 年初到 2025 年底,国内的 AI 热度实际是由有限的几个 C 端应用串联而成的,包括了:DeepSeek、元宝、千问、豆包、夸克、蚂蚁阿福等。而 AI 原生 App 的月活,在这些应用的影响下,量级也来到了数以亿计。剩下一部分公共注意力,则被具身智能包揽。

AI ToC 应用的火爆,加速了 AI 的落地。

由于 C 端火热,全民对 AI 的前景抱有期待,让企业内部“要不要上 AI”更容易达成共识。此外大量 C 端产品的出现,造成了技术价值外溢,间接推动提示词工程、Agent 工作流、评测方法、开源工具带入企业。

最后,20% 的头部 ToC 产品瓜分了互联网 80% 的流量,作为数字世界入口,它们把 AI 做成默认功能,倒逼企业被动升级对接与治理策略(尤其是权限、数据边界、知识库)。

应该说,过去一年, AI ToC 实在太热闹了,以至于在 AI 时代,市场教育经常是不需要的。

如果将这些 C 端产品的北极星指标定为“用户价值 x 增长效率 x 商业化质量”,前两者看似已经完成了,独独商业化质量成为了“拦路虎”。

北美 AI ToC 类工具,无论是 Coding 工具,还是搜索工具,一般都是付费订阅的,最低档通常为 20 美元 / 月。而国内大部分 C 端 AI 工具,通常是免费的,没有订阅收入。换句话说,“用户愿付费的核心场景”还没找到。当 C 端竞争主要集中在渠道和入口问题上,这种从“热闹”到“留存 / 付费”的落差,成为了 2025 AI ToC 最大的结构性矛盾。

AI 在 B 端的进展,某种程度上要比 C 端的进展更为顺利。至少在业务的核心评估模型上,不存在明显短板。AI ToB 领域以云模式、项目制 / 交付制为主,目标主要包括:

  1. Attach Rate(云挂载率,有多少项目最终绑定了云用量 / 云产品)

  2. Time-to-Usage(从验收到产生稳定用量的时间)

  3. Post-GoLive 90 天用量达标率(交付后 90 天,达到预期用量 / 调用量 / 活跃服务数的客户占比)

  4. 云侧 NRR(“某批上线客户”半年后 / 一年后是否扩张)

  5. 项目对云的“单位获客成本”

五大指标在 AI 的牵引下,都已经进入自增长轨道。

云计算的核心竞争标的是客群,这是阿里云的天然优势。

一方面,庞大且稳定的客群将云变成了复利生意,是将 AI 业务收入越做越厚的基础。另一方面,ToB 的关键在于需求驱动,数以百万计的客户每天反馈的问题和需求,本身就是 ToB 企业最大的护城河。有足够客群的企业,可以在工单中组装未来演进路线;没有足够客群的企业,只能靠猜和跟随。

在 2025 年 12 月底的一场小规模沟通会中,阿里云智能集团资深副总裁、公共云业务事业部总裁刘伟光表示,2025 年他拜访了 146 个客户,包括汽车主机厂、机器人、基础大模型公司、金融、手机、AI 硬件、零售行业、在线教育、物流、制造业、医疗制药、大型跨国企业、食品加工、漫剧短剧、畜牧业等,几乎覆盖了各行各业。

从拜访结果来看,企业引入 AI 改善业务流程和产品的决心,要比 C 端消费者购买一个 AI 语音助手的决心要大得多。更关键的是,企业使用 AI 具有强连续性的。

在重工业制造领域,诸如 AI 顾问、设备维修助手、智能客服、财务助手、工艺标准 AI 助手、试验在线助手这些新兴事物正在形成的过程中,价值空间巨大。

在农牧业,比如国内两家最大的龙头集团,已实现猪兽医领域大模型"猪小新"、实现猪场猪只数量识别、猪死淘鉴定、后备猪筛选、猪异常行为识别等业务场景,通过体貌图片等数据,实时获取猪群健康信息,交由 AI 系统能够在后台快速完成初步诊断。即便是新手员工,也能凭借平台系统辅助,像经验丰富的养殖专家一样快速判断猪群的健康状况,并及时处置指导,降低了对资深专家经验的依赖。

在线教育行业,习题问答、作业批改都已经是成熟场景,终端设备也从 ChatBot 过渡到学习机,甚至是智能教室这样的立体解决方案。

金融行业仍然进展最快的行业之一,在部分场景下,其技术产品的储备速度,已经不亚于国际同行。比如在车险中,从前高度依赖人工的车辆定损和理赔,今天也正尝试交由 AI 来完成。

整体来看,如果不考虑应用深度、改造程度,仅从采用率口径来看, AI 对各行业的渗透将是一个恐怖的数字。

以上共同铸就了阿里云在 2025 年叙事的第一个“反差感”:尽管诸如 Kimi 这般广为人知的模型是在阿里云上训练的,其核心定位仍然偏“幕后”和“服务”,是在推动企业把 AI 写进 KPI、写进工单、写进流程,最后写进预算。

而当 AI 开始从“有没有用过”走向“每天必须用”,衡量方式就会变化:从下载量、DAU、Token 吞吐量,走向成本结构与组织结构的重估。

阿里云的“反差感”之二:流量逻辑失效

无论是下载量、DAU,还是 Token 吞吐量,本质都是在复述流量逻辑,复述移动互联网时代的增长规则。

在 AI 时代,尤其是 ToB 领域,这显然不不合时宜。

尤其是 Token 的吞吐量,恐怕是 AI 时代集精准、模糊于一身的最矛盾指标。

一方面,Token 的吞吐量等同于模型用量;另一方面,所谓模型用量只是 MaaS 平台上的模型调用,仅为全量市场的九牛一毛,且非价值单位,不能代表模型价值。

实际上,IDC 报告里的“中国公有云调用率”,这个定语本身就存在限制:大量 AI 使用根本不是调用公有云 MaaS API ,因此不可见。

而不可见的部分至少包括:

  • 通过公共云租赁 GPU 部署模型(需要大规模部署特定领域模型的企业);

  • 采购 GPU 服务器进行开源大模型私有化部署,创建私有化推理平台内部使用(金融、制造、能源等对数据外流高度敏感行业);

  • 汽车、具身智能等端侧模型闭环(时延与隐私决定无法上云实时调用);

  • 模型蒸馏后的边缘推理(云上训练、端侧运行,消费不表现为 token);

  • 下载开源大模型在企业内部使用(诸如 AirBnb 的模式);

  • 开源衍生模型的长尾使用(下载、微调、再分发,统计口径天然缺失)。

如果只按 MaaS 平台上 Token 调用量去计量,开源生态里发生的微调、蒸馏与私域部署都会被系统性抹掉。仅 Qwen 系列模型,就已有 18 万+全球衍生模型和 全球 7 亿 + 的模型下载量——这部分‘消费’不以 Token 形式出现在公共统计数据里,却已经进入企业内部的实际生产环节。

概而言之,如果把全量的 AI token 比作一座冰山,MaaS 平台上可统计的部分只是冰山露出水面的一角而已。

我们必须重置对企业 AI 用量的认知。

来自阿里云的数据显示,截止到现在,在阿里云上调用 MaaS  API 的客户,与使用 GPU 的客户重合度竟然达到 70%,这说明中国第一批深度拥抱 AI 的客户在全方位的选择不同的方式使用 AI 技术。

所以,一批正在形成“智能预算”的企业。他们既买 Token,也买算力——他们不是在做选择题,而是在做场景分级:哪里需要公有云 Token,哪里必须结合自己数据进行后训练,哪里要端侧小模型,哪里值得自建“智能工厂”:

  • 轻量场景 用 API/MaaS:客服质检、内容生成、企业知识库问答、基础办公 Copilot、翻译审核等,强调易用、快接入、低门槛。

  • 中等复杂度场景 做后训练:把业务规则、私域知识、历史行为数据灌进模型里,用微调、RAG、强化学习把“能用”推到“稳定可用”。

  • 重资产场景 直接训 / 蒸馏 / 端侧部署:自动驾驶、具身智能、摄像头多模态理解、工业设备诊断等,强调时延、隐私、安全与闭环。

这也直接改变了对企业级 AI 用量的统计算法: “公有云用量 + 专有云用量 + 开源衍生模型用量”不等于真实用量,三者存在很大的重叠部分。

另外一个问题是,模型越先进,消耗的的高质量 Token 其实越少。所谓 Token ROI ,对于深度使用 AI 的企业而言,是核心经营概念。虽然 Token 的单价下降了,但是 Agentic AI 兴起后,一次调用产生的 Token 总数也被放大了。

因为 Token 单价会越来越便宜,所以刻意忽视企业在为更多低效 Token 而付费的事实,颇有点掩耳盗铃的味道。用“吞吐量”当成唯一指标,会把“高效智能模型”误判成“低活跃”,把“唠叨模型”误判成“高消费”。

这也是为什么阿里云不断把叙事从“Token 工厂”拉回“AI 超级工厂”——后者强调的是全链路供给能力,而不是单一化的 Token 吞吐。模型能力,是背后价值兑现的关键。

2025 年 4 月底,阿里发布了 Qwen3,成为国内首个“混合推理模型”,“快思考”与“慢思考”集成进同一个模型,对简单需求可使用低算力“秒回”,对复杂问题可多步骤“深度思考”。 AIME25 测评 81.5 分,刷新开源纪录;LiveCodeBench 评测超过 70 分,超过 Grok3; ArenaHard 测评 95.6 分超越 OpenAI-o1 及 DeepSeek-R1。

同时,  4 张 H20 即可部署 Qwen3 满血版,显存占用仅为性能相近模型的三分之一。开源版本丰富,包含 2 款 30B、235B 的 MoE 模型,以及 0.6B、1.7B、4B、8B、14B、32B 等 6 款稠密模型,每款模型均斩获同尺寸开源模型 SOTA(最佳性能)。

开源是阿里云在模型竞争力上最为关键的一步棋。这允许企业可以在不签大合同、不押单一供应商的前提下先跑通 POC,这对中国企业尤其重要。

AI 价值锚点在 AI 原生市场、中国企业级市场和全球化

毋庸置疑,AI 原生企业天然地拥抱 AI,深度使用 AI,它们是中国 AI 市场的“种子用户”。

在阿里云的观察里,除了 AI 原生企业,第一批深度拥抱 AI 的企业还往往具备以下共同特征:

  • 数据治理相对成熟:Agent 上限取决于模型与数据质量——这不是口号,而是工程现实。

  • 业务流程重且连续:用量曲线更像复利而非潮汐。

  • 对安全与合规敏感:这决定了“MaaS / 云上专有环境 VPC / 私有化部署 / 端侧闭环”会长期存在,市场不可能被一种形态吃掉。

这简直是对上云并能用好云的客户的精准侧写。

这意味着:阿里云如果要把“AI 超级工厂”的投入摊薄到足够低的边际成本,并把技术优势兑现为现金流,它必须走向更大的、付费更坚实的企业级市场。

这一轮中美 AI 竞争的胜负手,就在于谁能用 AI 提升改造各自的支柱产业,带来生产力的变革。

当前,中国 AI 的第一波市场聚焦在娱乐、陪聊等消费端场景;从美国 AI 市场发展看,SAP、Salesforce 等 SaaS 软件对 AI 大模型的调用量最大,其次是 AI 编程。

Open AI 和谷歌的报告也显示,ChatGPT 和 Gemini 的企业客户调用量远超 C 端个人用户调用量。

所以,“领头羊”阿里云想要做的是,让 AI 深入到各行各业,用 AI 提升生产效率。

与此同时,当中国的 AI 原生企业在海外遍地开花,当中国的第一、第二及第三产业客户纷纷出海,使得阿里云加速剑指全球化。

刘伟光表示, 2024–2025 ,中国企业的出海,不再只是把供应链优势搬出去,而是把 AI 能力当作产品溢价的一部分

  • 新能源车出海:没有智能化能力就很难维持差异化;

  • 家电、照明、厨具等传统硬件出海:正在被“自然语言对话 + 多模态理解”重新定义交互方式;

  • 机器人、安防、摄像头等品类出海:本质上都需要端云协同的模型能力。

对阿里云来说,这类客户天然会提出“海外部署”的硬需求:低时延、数据合规、跨区域运维、弹性供给,以及在海外可用的模型服务与训练推理能力。也因此,2025 年阿里云在泰国、韩国、墨西哥等地新建数据中心的动作,不只是“基建扩张”,更像是在给下一轮 AI 应用出海提前铺路。

当然,全球化竞争,激烈程度远超国内:

  • 模型能力只是门票:语言、coding、多模态缺一不可。

  • 工程化才决定可用性:稳定性、时延、SLA、合规、跨区域交付能力,决定企业是否敢把核心流程交给你。

  • 生态与接口决定渗透速度:当软件与工具链 MCP 化、API 化,云厂商能否把“可调用的能力”变成“可组合的系统”,决定了 Agent 落地的上限。

这也是为什么阿里云正在“把 3 万多个产品的 API 服务全面做 MCP 化开放”。海外更像一个“标准件市场”,一旦你能用标准件快速交付,就能更快形成规模。

阿里云的 2025 可以被理解为一场“前置换轨”:

  • 在国内,它用开源与超级工厂体系抓住最先动起来的 AI 企业,把 AI 从“试用”推向“连续使用”;

  • 在海外,它需要把这套能力转化为规模化商业闭环——不是为了讲更大的故事,而是为了让故事具备财务可持续性。

其核心在于:先把路修出来,再等车流出现。

“这十多年来,中国云计算市场各种概念曾层出不穷,价格战屡见不鲜,但阿里云始终在牌桌上。如果用更长的时间去穿越周期洞察未来,技术能力和技术布局的前瞻性永远是核心竞争力。”刘伟光说。

上学时,就为背单词头疼。后来工作了,也没有进一步增加词汇量的需求,所以英语一直保持着 3000 个单词的水平,聊胜于无。

最近,因为个人工作原因,订阅了一些英文邮件通讯,才深感专业词汇的不足。为了更好的阅读领域材料,我想针对性记忆一些领域常用的单词。

为了解决这个问题,我尝试了很多方法,但是发现一个问题:传统的背单词软件大部分都是为了考试而准备的,与我只想学习自己用得着的单词有所冲突。

经过多次尝试,通过 Mac 的「快捷指令」+「大模型」+「滴答清单」的组合,我终于摸索出了一套适合自己的个性化单词学习方案,分享给大家。

下面是快捷指令的分享链接,如果不想修改的话,直接输入你的 API Key 并设置快捷键之后就可以使用了。感兴趣的朋友可以继续阅读后文的思路说明。

下载链接

使用快捷指令的前提条件

上述快捷指令需要提供大模型的 API Key 和安装滴答清单。

  • 大模型:我推荐使用国产之光——DeepSeek,每百万 token 不到 3 元。只是背单词的话,估计一辈子也用不到 10 元钱,简直等于不要钱。直接在官网注册、申请就可以,具体流程不赘述。亦可自行更换为其他兼容 OpenAI API 的提供商。
  • 滴答清单:是我用的比较多的任务管理软件,功能强大、界面简洁,免费版本就能满足日常使用需求。很多任务管理工具只有简单的提醒,但滴答清单内置了 「艾宾浩斯记忆法」重复模式。在滴答清单中,你只需将单词任务设置为该模式,它就会根据科学的间隔(1 天、2 天、4 天、7 天、15 天……)自动弹出提醒。你不需要自己去规划复习进度,只需要在收到提醒时看一眼单词卡片即可。当然,如果你有其他软件同样支持快捷指令和艾宾浩斯记忆法,也可在后续指令中替换。

运行效果

整个流程分为五步:

1. 即时查词:阅读英文内容时,选中生词并按下指定的快捷键组合(默认为 Option-D)。

在浏览时,选中单词,按快捷键

2. AI 解析:系统会自动调用 DeepSeek 大模型,并在弹窗中展示该词的音标、中文含义和例句。

自动弹出自定义翻译和解释

3. 一键入库:点击「确定」后,单词及所有解析内容会自动保存至滴答清单的专用文件夹中。

加入清单成功提示

4. 重复模式:浏览完文章后,进入滴答清单对应的列表,将单词的「重复」模式改为艾宾浩斯记忆法。

重复记忆设置

5. 自动提醒:在查看滴答清单每日任务时,单词及其读音、解释就会根据设置自动出现。每天花上几分钟简单记忆,自然形成单词的长期记忆。

设计思路和制作过程

在完成申请大模型的 API Key 和创建单词清单之后,就可以进入快捷指令页面,点击「+」号,开始「新建快捷指令」。

Matrix 首页推荐 

Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。 

文章代表作者个人观点,作者所提供的内容及视角基于其个人的资料整理,并不构成少数派官方立场的旅行建议。少数派仅对标题和排版略作修改。


引子:我的年度目标又全部实现了,你呢?

2025 年过得很快。转眼间就是 2026 年了。我在 2025 年年初写下的、有关「新年计划」的文章,居然又被少数派推荐了一次。在过去的一年里,我并没有写完并发布「之后继续讨论」的文章。这件事就一直搁置到了现在。

值得我个人庆幸的是,我从没有把「写文章」作为 2025 年的目标,也从未把它优先放在这一年的计划里。偶尔有几次,我在制定短期计划的时候,以为自己有空,就把「写完某文章」顺手塞进去,作为一个优先级很低的项目。然后,在做完一些优先级更高的事之后,我发现自己用光了时间和精力,于是(第 N 次)搁置了这些低优先级项目。——也即,虽然没做,但是无所谓。

 

2025 年 1 月 1 日,我在自己全年的 Block Year Planner 上列出了这一年三个最重要的目标,以及相应的时间节点:

  • 通过 2025 年 5 月的马伽术 Expert 1 考试
  • 通过  JLPT N3(如果有可能,甚至 N2)的考试
  • 完成至少三个桌面游戏设计专案

还有一个没有写但是默认的目标,是顺利完成我在科隆体育大学的各项学业任务。

少数派可以印一个「水獭版」出来卖 ^_^

2025 年 12 月 31 日上午,我从墙上取下这张 Planner 的时候,上述目标的完成情况如下:

  • 马伽术 Expert 1 考试顺利通过;
  • JLPT N3 已通过,N2 成绩尚未公布;
  • 完成了四个桌面游戏专案:两个已出版,第三个完成众筹,第四个即将下厂生产;
  • 本年度内的所有考试全部通过,总平均分保持在 2.0(德国 5 分制)以内。

目标就是用来实现的。计划就是用来完成的。如果在制定年度目标和计划时就已经担忧「可能无法实现」,为什么还要花时间去做这些无用功?

你那些曾经想过但没有做的新年计划,也是无关紧要、做不到也没所谓的吗?或者,你是否有过一些自认为很高优先级的计划,但是在新年开始后不久就因故一再延期、一再停滞,直至被抛诸脑后,直到年终总结时又追悔莫及?如果后一种循环在你的 2025 年(或者之前)曾经发生,而你并不想在 2026 年(及以后)重蹈覆辙,本文或许会对你有些帮助。

出发点:别把想法太当回事

在制定计划前,我们要先考虑自己的目标是什么,以及我们为什么想要实现这些目标。根据自我决定理论,一个目标可能联系到我们的三个基本需求:自主、胜任和归属。相应地,我们的目标可能是掌握、结果或过程。实现一个目标的动机可能是更加内驱的,或者更加外部的。相关的概念和讨论,可以参照我的上一篇文章。

六十年前的理论家认为,只要有强大的环境因素和自身信念的影响,个体的行为就会发生改变。但事实果真如此吗?几年前,我的一位朋友向我请教如何减肥。我看到了他的身材,确认他体检中有异常指标,听到了他有关「健康很重要」的笃定信念,也了解了他的生活习惯。于是乎,我建议他「今年可以先从戒烟开始,少吸一点也好」。

他说,这个改不了。

我说,那先戒掉酒精和含糖饮料。

他说,这也没法改。

我说,那要不然先从不熬夜开始?

他说,这更改不了。

另一次,某位符合重度肥胖标准的朋友,在微信群里非常坚决地问我「如何做运动才能减肥」。我听说了他的运动量和饭量,替他稍微估算了一下热量平衡,建议他戒掉含糖饮料、改变饮食习惯,同时每天按我建议的强度运动 30 分钟。

他听完之后,回了我六个字:这么难,放弃了。

Health Belief Model by Rosenstock (1966)

是因为计划不够详细、不够合理、不够可行吗?诸如 SMART 之类的计划制定原则,大家应该耳熟能详。但即使制定了计划,也未必就能保证执行,更无法保证效果。多年前我在高校心理咨询中心任职,接诊过颇多自称「拖延症」、渴望学会「战拖」的来访者。有些来访者在咨询中会自主制定计划,在结束咨询前又重申了计划,但下一周来访时就会表示并未有效执行。在此情况下,来访者会以各种方式找借口,例如「总之就是没有动力做事情。」但这些借口本身并不重要。无论你驳倒多少借口,他们总会找出新的借口。又或者,他们可能会直接放弃咨询——但就是打死不执行自己的计划。

「结构化拖延」的关键在结构化,不在拖延!

我举这些例子是想说明,你可以就需求、目标类型和动机水平向自己提问。你也可能就此得出非常笃定的回答,抱持非常坚决的信念。但态度上的坚决和重视,不必然意味着你可以制定计划,甚至不意味着你能够开始行动。我们嘴上所说未必代表心中所想,心中此时所想未必等于彼时所想。行为的意图和行为本身之间,可能存在着一些看不见的鸿沟。你可以选择直面人性的弱点,勇敢地和这些鸿沟战斗(并继续失败)。或者,你也可以选择离它们远一点儿。

先计算代价,再思考收获

我无意讨论「如何制定个人年度计划」的技术细节。你可以在其他一些文章里读到。但我不认为你应该从这些细节开始。如果你此刻正在思考一件自己想做的事,或者一种自己想达到的状态,并犹豫要不要将它列为年度目标或列入年度计划,我建议你先问自己另一个问题:

为了做到这件事,或者达成这种状态,我愿意失去什么?

或者更直白一些:

我愿意为此付出多大的代价?

人的时间和精力是有限的。用游戏来做类比,你只有 100 个行动点。你在一件事上投入了行动点,就没有行动点去做另一些事。你可以在网上找到各种「经验帖」「行动指南」「计划模板」「跟练」甚至「陪跑服务」……所有这一切都可以提高你的效率,减少你的行动点浪费——但不会把你需要投入的行动点减少为零。你的年度目标越多、计划越宏大,需要的行动点总数也会更多。

Through the Ages: A New Story of Civilization Game Review – Meeple Mountain
有些行动可以增加你的行动点,但这些行动本身通常要消耗大量行动点

在校学生有必修课程。职场人有日常工作。除此之外,你也需要一定的行动点用于睡眠——例如,每天 7~8 小时,或者说总数 1/3 的行动点——否则你未来一段时间的行动点将会严重减少。吃喝拉撒当然也要占用行动点。如果在此之外你还想专注地做一些事、实现一些目标,就必须做出取舍。

除了行动点,游戏里的其他资源也会制约我们的行动选择,包括但不限于金钱。一些能帮助你节约行动点、提高效率的服务或信息是付费的。许多行为(包括考试)本身也是要花钱的。钱花在一些事上,就不能花在其他地方。你是否同样做出了取舍的觉悟?

收益高 50% 的行动,消耗的金钱也许是两倍、三倍

以我 2025 年的马伽术 Expert 1 考试为例。为了参与考试,我必须前往以色列参加国际马伽术联盟(IKMF)总部的集训。为了顺利通过考试,我要自己花时间和精力进行预备训练。为了有钱去以色列,我放弃了许多其他的享乐和社交机会。为了在学期中可以请假(且不挂科),我在出行前后的几周里额外赶工、完成了许多课业任务。所有这一切都是我实际付出的代价。如果什么事都不舍得放下,什么代价都不舍得付出,你准备从哪里、投入多少行动点和其他资源,用于那些你自以为「非常重要」的年度计划呢?

 

对代价的思考,是目标设定前期很重要的一项工作(Bird et al., 2024)。在现实层面上,这是一个很好的「确定优先级(Prioritization)」的问题。结合代价(或者说,目标达成的难度)以及潜在的获益两个维度,我们可以很好地回答「是否值得」的问题。如果实现一个目标收益极高,那么只要代价没高到无法接受,都可以考虑优先列入年度计划。反之,如果一个目标带来的收益不高,但代价却相当高,或许你就不该因为心血来潮把它丢进自己的「目标清单」。

在心理层面上,思考代价是一个很好的准备工作。愿意为某个目标付出高代价,可能代表了更加内部化的动机,也代表了更坚定的承诺。但这里的高代价不等于幻想中的「不惜一切代价」。事实上,如果你在思考某个目标时,内心突然冒出「不惜一切代价」的声音,我会建议你停下来,冷静地思考这个代价的上限。超出理性范围的代价,往往代表了不合理性的诉求或冲动——例如「宁可饿死,也要掉秤 20 斤」。如果这恰好是你的情况,你也许需要接受心理咨询,甚至去医院精神科就诊。最后这句话不是玩笑。

正因如此,我建议你在思考 2026 年的年度目标并制定计划之前,先想清楚自己有多少资源、愿意付出多少代价。

首要建议:把目标变成考试

当你意识到「想」和「做」之间存在鸿沟,并愿意付出一些代价之后,我们就可以谈谈「如何设定年度目标和计划」了。如果我只能就此提出一个建议,那这条建议一定是:

把每一项年度目标都变成一次「考试」。

我们从小到大经历了无数的考试。有些人可能听到「考试」两字就已经开始焦虑。但我这里提出的考试并非一种恐吓、打垮甚至羞辱应考者的手段,而是一个规模有限的、可量化的、可以做到的、切合实际的、有明确限期的检验——嗯,你可能已经发觉了,这不就是一个符合 SMART 原则的目标吗?

没错。每一次「通过考试」都是一个 SMART 的目标。每一个 SMART 的目标也都可以转化为一个「考试」。

几乎所有的「掌握型目标」都是可以变成考试的。例如,「学好英语」是一个很笼统的、一点都不 SMART 的目标。只要你稍微把它细化,最终总可以找到一个相关的考试与之挂钩:希望在职场上做到「基本的沟通交流」,可以考托业;想要达到一个较高的语言能力水平(例如 CEFR C1),可以是雅思或托福的高分;想要具备高水平的学术读写能力,可以选择 GRE 或 GMAT。……总有一款考试适合你。也即,如果你真的有个目标叫做「学好英语」,不如把它细化为「在某个具体的英语能力考试中,达到某个具体的分数水平」。

托福TOEFL & 雅思IELTS 考試我該選擇考哪ㄧ個? 有什麽不一樣呢? - 葛瑞特留遊學
如果连标准都不敢对齐,你的「学好」会不会永远是一句空话?

为什么一定是考试呢?掌握型目标的本质就是「自身能力水平达到某种标准,或者足以完成特定任务」。好的考试总是根据一个能力标准设计的,而且总是涉及特定的任务完成或问题解决。你当然可以自己构思一套具体的能力框架,并且为自己规划一些有待完成的任务——但既然已经有相关领域的专家做了这些事,何必再自己发明一遍轮子呢?直接付钱去报名一次考试就可以了。

何况有很多考试(或者模拟考试题)其实是不要钱的!

仍然以「学好英语」为例。很多嘴上说着要「学好英语」的人,其实是不知道自己的英语水平到底有多差(或者多「好」)的。此时最有效的检测手段莫过于一次考试。找一套完整的托福模拟题,花两小时做一遍,对照阅读和听力部分的标准答案,并让人工智能给你的口语和写作评分,我们就会对自己的水平有个直观的认识。在此基础上,想想自己平均每周愿意付出多少小时学英语,一年之后想要把能力提升到托福多少分对应的水平,并报名一次考试。这样一来,你就有了一个不得不学好英语的理由,一个具体的学好英语的计划——以及,一个可能用来展示(或丢人)的结果。

考试分数是量化的掌握型目标,也是结果型目标:你考了托福 80 分,别人考了 100 分,双方的结果好坏一目了然。能够量化的结果型目标本身也可以变成一种考试。另一些结果型目标很难量化,不能转化为考试分数。但我们至少可以罗列一些质性的标准,以「通过与否(Pass or Fail)」或者评价等级(Grading)的方式将它们变成给自己的考试。所有的过程型目标(是否做了某些行为)也可以照此处理。

Image
每一项 pass or fail 在输入权重之后,也可以转化为一个考试总分

以「想要运动健身」为例。运动心理学家 Simon J. Sebire 等人(2008)将与「锻炼」有关的目标划分为以下 5 类、20 种:

1. 社会归属(Social Affiliation)目标

  • 与他人产生有意义的互动
  • 与关心我的人分享运动体验
  • 结交一些好友
  • 与他人建立密切的情感纽带

2. 形象(Image)目标

  • 让体型整体得到改善
  • 提升外貌
  • 令自己变苗条、以便更具吸引力
  • 改变身体特定部位的视觉观感

3. 健康管理(Health Management)目标

  • 提高自身对疾病的抵抗力
  • 提升自身的活力水平
  • 增进整体健康程度
  • 增强耐力和体能

4.  社会认可(Social Recognition)目标

  • 让别人觉得我很好
  • 获取别人的尊重
  • 得到别人的积极评价
  • 令别人认可我是一个「运动者」

5. 技能发展(Skill Development)目标

  • 学习/体验新的运动项目
  • 学会并练习新的技术
  • 成为某个运动领域的高手
  • 提高整体的动作技能水平

列表中的大部分项目都是可以量化的,最典型的例子是「增强耐力或体能」和「增进整体健康」。无论你的目标是三大项的总重,跑步的配速,围度的增减,体脂率和体重的下降,或是体检生化指标落入常态范围……你总可以把它量化为一个类似考试分数的数值。

另一方面「与他人建立密切的情感纽带」「令别人认可我是一个运动者」虽然是结果型目标,但较难量化。「学习新的运动项目」「与他人产生有意义的互动」则是根本无法量化的过程型目标,例如。但即使是诸如此类的目标,我们仍然可以把它变成一种考试:

  • 我在 2026 年参与了某项具体的运动(有,还是没有?)
  • 我在参与这项活动的时候,与其他人产生了有意义的互动(从 1 分到 10 分,我的主观满意度可以打几分?)
  • 别人认可我是一个运动者(有大约百分之多少的人这样认为?)
  • 我和家人建立了密切的情感纽带(从 1 分到 10 分,我对我们的关系打几分?家人呢?)
  • ……

《如何学习》(How We Learn) 的作者 Benedict Carey 认为,考试可以很有效地促进学习、帮助成长。我对此深信不疑。作为马伽术教官,我们甚至认为,人生的每一次挑战都是考试,考试就是人生的一部分。有时候我们考过了,有时候没有。有时候考不过只会伤心,有时候考不过则会丧命。如果你对「考试」这个词感到有压力,把它换成游戏中的「目标(Objective)」也并无不可——毕竟,游戏中完不成目标,也是会遭到惩罚的。

How We Learn: The Surprising Truth About When, Where, and Why It Happens :  Carey, Benedict: Amazon.de: Books

从目标到计划:习惯的养成与持续

有了「考试」的目标,结合你愿意付出的代价,我们总是可以制定出一个具体的计划。所谓计划,无非就是每周多少次、每次多长时间、每个具体的时间里做什么。视具体目标和个人情况不同,我们的计划并无统一的模板。你可以少量多次,也可以多量少次。但绝大多数考试,只要不是考「背书」也没有「重点范围」或「机经」,几乎都是不可能通过短期突击考过的。同理,你的资源总量即使固定,频次和时间跨度的分配也不可能无限压缩。

正常智力的学生,从六级 500 分到托福考试 110+,可能需要 400~500 小时的总学习时间。你可以每天花两小时复习备考,以 6~7 个月完成总体学习计划。你也可以每天学 6 小时,在三个月后应考。但你无法连续 20 天不吃不喝不睡觉应考,也不可能通过 3 天、每天 16 小时练出足够好的口语。又例如,为了增肌,你可以进行为期三个月、每周三次、每次一小时的力量训练,但不能在三天里每天力训 12 小时。这意味着你必须在一段时间里规律、连贯地投入资源并执行某些特定的行为——或者说,养成并实践一系列的习惯。

Atomic Habits: An Easy & Proven Way to Build Good Habits & Break Bad Ones :  Clear, James: Amazon.de: Books

我在这里所说的习惯(habit)遵循 Laborde 等人(2020)的定义:一种习得的刺激-反应联结,引导个体在特定情境下自动化地执行特定行为。简而言之,我们在固定的情境下总是做某件事,不断重复,直至「不假思索」,就养成了一种习惯。一旦养成习惯,我们就不需要再主观思考或者推动自己去做一件事,从而节约了心智资源。另一方面,习惯是我们行动的「基线」,能帮助我们在压力和疲劳的状态下维持同样的行为。最简单、最大众化的例子就是晚上刷牙:无论情绪多糟糕、身体多疲惫,在大多数情况下,你总是会刷过牙才睡觉。

人类养成一个习惯到底需要多少天?这个问题并无统一定论。所谓「21 天」的说法最初来自 1950 年代一位名叫 Maxwell Maltz 的整形医师:他发现在整形手术后,患者至少需要 21 天才能习惯自己新的身体形象。显然,这个规律未必适合你的新年目标,以及对应的计划。根据心理学家 Lally 等人的一项研究(2010),行为达到「自动化」程度所需的时间范围是 18~254 天。如果你的目标与健康生活方式(包括运动)相关,根据行为转变的跨理论模型(TTM),从最初行动到养成初步的习惯约需 6 个月(Prochaska et al., 1992)。

《掌控习惯(Atomic Habits)》和《微习惯(Mini Habits)》等作品给我们一个重要的启示:在初入一个新领域、第一次做某件事的时候,切忌贪大求全,最好从养成「小到不可能失败」的习惯开始。列举上面这些研究和理论,也是为了强调同样的原则。如果某个年度目标是你之前生活方式的延续和发展,它当然可以更进阶,于是计划也可以更宏大。否则,年度目标最好定小,计划也要从简。

仍然以健康为例。如果你业余跑步多年,不时游泳,目标是在 2026 年首次完成铁人三项比赛,这就无可厚非。我一点也不会担心你的计划和执行。但如果你是运动小白,拿着年度体检有脂肪肝的报告,打算 2026 年完成一次全程马拉松,那我就要建议你调整目标、缩减计划,也许从每周跑两次三公里,年度完成一个半马开始。又或者,如果你打算增肌,想练力量,却从未有过规律的身体活动,或许办张卡、每周去两次健身房都可能太过艰难——也许要从每天花三分钟、完成 20 个波比跳起步。

从小的目标和计划开始,养成小的习惯,看似「成果」不彰,但在「过程」和「掌握」方面意义非凡:一旦在一个新领域养成行为习惯,你就可以在此基础上把它扩大、加深。如果你在 2026 年用了 12 个月养成「每天三分钟运动」的习惯,你的一只脚就跨入了上图中的「维持阶段」。在 2027 年,或许你就可以把它扩大为「每周 2~3 次,每次 30 分钟,中等以上强度运动」了。

站在「meta level(类似当代汉语中的「底层逻辑」)」的角度来说,你越是习惯「养成习惯」这件事,将来要执行新的计划和目标也就越容易。你身边总有一些人,年年叫嚣着「学一门新外语」,但从未超过三分钟热度。也有另一些人,每天只刷了五分钟多邻国,两三年之后至少达到了 A1(能简单喵两句)的水平。

——我的德语就是这么学的。

找到一些办法,设置一些提醒,引入一些奖励,把你想要养成的微习惯也变成一个多邻国。

小结:「做不到也没关系」的限度在哪

2025 年 7 月,我报名了 12 月的 JLPT N2 考试。按照计划,我应该每周平均用 6 小时学习日语。但从 2025 年 11 月初开始,我把自己的学习时间降低到了接近于零,而且在考前没做任何一套模拟题。也即,我其实是以准裸考的状态走进考场的。

为什么要这样调整计划呢?我们的秋季学期课业任务很重,而且我同时有好几个桌面游戏专案要赶工。更要命的是,在 10 月初和导师讨论之后,我发现毕业论文的准备工作也提前压了下来。随着任务量和工作负担超出预期,我的行动点也严重地不够用了。11 月初的某个周末,我生了一场重病,HRV 一度降到了个位数。我的身体在提醒我:再这样下去,咱就死给你看。

 

这正是我前面提到过的「通过代价权衡收益」。JLPT N2 的成绩对我有重要意义,但重要性相比其他几件事并不算高,而且绝对不紧急。这个目标暂时超出我的支付能力。为了节约行动点,我毫不犹豫地把它精简了。

这个例子或许过于极端,但有助于说明我们在何种情况下可以调整(甚至放弃)计划:如果目标和计划对资源的需求影响到了你的基本生存和健康,占用了你正常吃饭、睡觉的时间,令你完全绷紧、没有放松的余地,你就应该考虑降低目标、削减计划。在对「年度计划」动刀子的时候,你总是应该优先砍掉那些不紧急的、重要性较低的、收益较少的、占用资源相对较多(效率不高)的事项。

游戏中总有一些行动相对更加高效,另一些略显鸡肋

常规的 80-20 原则,在目标和计划领域依然适用。某一天没有做到某件计划中的事,不必过于懊恼——下一次照常做到、避免「连续两次或多次失败」就好。你可以按周或按月定期回顾、定期复盘,看看过去这一段时间里的总体完成率:如果达到了 80% 或更高,一切如常;如果只有 60%、70%,归纳可能的原因,思考如何应对;如果连续两个或多个阶段只做了 40~50%,甚至更少,认真想想「我是不是不愿意付出这么多代价」「我是不是应该调整目标和计划」。

如你所见,我并不喜欢「计划赶不上变化」这个说法——喜欢讲这句话的人,多半是用它作为借口的。为什么要强调行为-意图的鸿沟、主张从代价开始思考、建议从小习惯开始?一个重要的考量正是「预见到一些可能的变化,并为其留出余地」。上考场前一晚不睡觉,临开考前不撒尿,考砸了怪状态差,是非常无趣的。

你不需要做对所有的题目才能通过考试。你总是应该先做完那些有把握拿分的题,把偏题、怪题和刁钻的难题留到最后解决。玩游戏也是同理:简单的、紧急的、收益高的、主线的任务在前,不重要的支线任务留到最后,不做也没关系。

人生既是考试,也是游戏。哪怕有些考试没考过,有些任务没做完,只要为主线剧情支付过代价,也就足够了。抱着游戏的心态,在 2026 年的每一场考试中尽力拿分吧——给自己一个最好的交代。


References:

  • Laborde, S., Kauschke, D., Hosang, T. J., Javelle, F., & Mosley, E. (2020). Performance habits: A framework proposal. Frontiers in Psychology, 11, Article 1815. https://doi.org/10.3389/fpsyg.2020.01815
  • Lally, P., van Jaarsveld, C. H. M., Potts, H. W. W., & Wardle, J. (2010). How are habits formed: Modelling habit formation in the real world. European Journal of Social Psychology, 40(6), 998–1009. https://doi.org/10.1002/ejsp.674
  • Matthew D. Bird, Christian Swann & Patricia C. Jackman (2024) The what, why, and how of goal setting: A review of the goal-setting process in applied sport psychology practice, Journal of Applied Sport Psychology, 36:1, 75-97, DOI: 10.1080/10413200.2023.2185699
  • Sebire, S. J., Standage, M., & Vansteenkiste, M. (2008). Development and validation of the goal content for exercise questionnaire. Journal of sport & exercise psychology, 30(4), 353–377. https://doi.org/10.1123/jsep.30.4.353
  • Prochaska, J. O., DiClemente, C. C., & Norcross, J. C. (1992). In search of how people change: Applications to addictive behaviors. American Psychologist, 47(9), 1102–1114. https://doi.org/10.1037/0003-066X.47.9.1102

    据报道,OpenAI正准备在ChatGPT中测试广告功能

    作者:
    发布时间:
    08:30 PM

    多方报道表明,OpenAI正持续推进在ChatGPT中加入广告的计划,但该实验初期将仅限于内部员工。

    记者Alex Heath报道称,OpenAI应用部门负责人Fidji Simo近期在内部会议上向员工透露,公司正在内部版ChatGPT中酝酿广告植入方案。

    这意味着OpenAI将首先面向员工测试ChatGPT的广告功能,但尚不确定何时向公众用户开放。

    目前也不明确OpenAI是否会对付费订阅用户(例如Go、Plus和Pro套餐)隐藏广告。若需推测,我认为OpenAI不太可能在Plus和Pro套餐中展示广告,但鉴于Go套餐订阅费用较低(部分市场低于5美元甚至免费),未来可能会植入有限广告。

    据称ChatGPT广告将优先展示赞助内容

    假期期间,The Information曾报道OpenAI确实在考虑多种广告形式,包括在AI回答中优先呈现赞助内容。

    报道指出:"AI模型可能会优先展示赞助内容,以确保其出现在ChatGPT的回复中。据知情人士透露,近期的广告模型设计包括在ChatGPT主回答窗口侧边栏展示赞助信息。"

    此后OpenAI也确认公司正在探索"广告方案",但未透露更多细节。OpenAI发言人对The Information表示:"随着ChatGPT能力提升和使用范围扩大,我们正在寻找持续为所有人提供更智能服务的方式。为此,我们正在探索产品中广告的呈现形式。用户与ChatGPT已建立信任关系,任何方案都将以尊重这份信任为前提进行设计。"

    OpenAI拥有可用于投放个性化广告的用户数据,但这种方式真能奏效吗?Perplexity在广告领域尚未取得显著成效。

    首页 www.people.com.cn 似乎是没证书?

    这里 http://finance.people.com.cn/是有的,但也显示是不安全?自签的?

    公用名(CN)	default.chinanetcenter.com
    组织(O)	网宿科技股份有限公司厦门分公司
    组织单位(OU)	<不是证书的一部分>
    公用名(CN)	DigiCert Basic OV G2 TLS CN RSA4096 SHA256 2022 CA1
    组织(O)	DigiCert, Inc.
    组织单位(OU)	<不是证书的一部分>
    颁发日期	2025 年 11 月 3 日星期一 08:00:00
    到期日期	2026 年 11 月 17 日星期二 07:59:59
    证书	692ac821f10acfab5654d6fa167d31b70701951ffe7da8cdeb5a29de805c9cbd
    公钥	fa89e334653e647b8b30cf56ac16e8d5f446eaee50c60c9885c5c95366417806
    
    

    花费了好几天迭代优化,自用感觉可以了,给大家分享一下,送 50 个永久激活码。

    截图:

    官网:https://subflowai.nocmt.com/

    功能:

    • 支持通知栏/悬浮窗显示
    • 支持自定义语音识别服务
    • 支持自定义文本翻译服务
    • 支持自动保存字幕文件
    • 界面清爽无广告终身可用
    • 提供 ASR 后端服务二进制文件(一键启动)

    文档地址(包含软件下载):https://www.yuque.com/u5007695/za0zmx/kaecw73nq7pmgbpr?singleDoc# 《实时字幕翻译软件配置指南》 密码:hsyu

    兑换地址:https://redeem.ym.si/IUYUSL
    兑换状态:SubFlow AI 实时字幕兑换码( 50 个) 兑换状态

    [小红书文章链接] http://xhslink.com/o/9TgssCFrIsB
    [哔哩哔哩] https://b23.tv/8TScjKT

    欢迎点赞、评论、转发,谢谢。

    另外也推荐一下我做的跨平台同步剪贴板软件 --烽翎,都快饿死了~~ :(

    项目主页: https://001sms.dev

    从运营商朋友那里淘来的临期卡,正好适合拿来接码的场景。所有号码都是实体卡/eSIM ,没有 VoIP 号码,所以能过很多有 VoIP 限制的验证。站点 1 刀起充,用多少充多少。

    已经适配了 Google, Google Voice, Claude 等常见的接码场景。


    下面每个充值码都可以为账号充值$3

    4U4YJDDATSVMN33A

    EX7SXQ9BG6DBWC9M

    UPEMR6JNFJACGZKT

    Y57TR3UMDDTHAHR9

    9JUTEFR3KVQMXWU5

    SSQ7UHP3MPYEKBNY

    BBFW8QFYYBBRXJRQ

    ET48PCF322KAECD4

    X27EEA6P24B6AC2V

    H8A7YPABNBM9XJ56

    3RUQUV6UFQPSEU58

    NTNR4HYG28FG6PD2

    W3SJN278EXGC8KZX

    6BFS5TXSNZG6DD2G

    WXGZE6C9SEB7XT4C

    N4G3EPMNRA7EQDB5

    Y7YEG5BEVMZBM7JK

    JAGMDBBFQHBJ7V3Q

    CAN2RXE9S6TAWGX7

    UB733DV343PHUN35

    Repo 地址,欢迎 Fork,Star。
    我发现新的有意思的 prompt 的或者发现目前 prompt 有优化空间都会第一时间 push 上去

    特别推荐

    用于问答的增强 prompt
    使用方法:问问题的时候直接把 prompt 贴在原 prompt 结尾即可

    插件推荐

    这个 prompt 配合这个插件使用更方便

    PromptHelper - 跨平台 AI 助手油猴脚本,支持 ChatGPT/Claude/Gemini 等 8 大平台的模板管理

    Repo 简介

    一个用于收集和整理优质 Prompt 的个人仓库。这里汇集了我自己设计的以及从互联网各处发现的有趣、实用的提示词。


    目录结构

    prompts/
    ├── 实用工具/     # 日常实用场景的提示词(健康、学术、问答等)
    ├── 越狱破限/     # 用于绕过 AI 限制的各类越狱提示词
    ├── 角色扮演/     # 角色扮演、虚拟人格相关的提示词
    ├── 写作辅助/     # 翻译、内容创作、文生图等写作相关提示词
    ├── 元提示词/     # 用于生成或优化其他 Prompt 的元提示词
    └── NSFW/         # 成人内容生成相关提示词 

    📌 转载信息
    转载时间:
    2026/1/7 19:29:57

    https://linux.do/t/topic/1365022
    今天看到一个佬的 X 上信息流筛选折腾感觉思路还不错,但是佬说都是一个一个手动操作的,我觉得还是太麻烦了,自己也折腾发现 grok fast api 也是可以获取的,只是数量获取的少,但是没事,用 grok2api 多个账号并发速度也不慢!

    所以自己今天也折腾了一个全自动版,简单使用了一下感觉还行,所以直接拿出来给佬们用用

    grok 我是用 grok2api 逆向的 Grok 4 Fast,记得自己多备账号(我是从佬们分享的 grok 一堆账号所以可以随便造)

    具体使用过程就是根据佬提供的思路获取到关注的 csv,然后运行好项目有直接把 csv 上传后等待跑完就能直接看了,也实现了历史功能,能看之前的 csv 集合。

    其他的自己去试试,很简单的逻辑。
    开源链接:X Feed Digest(GitHub - ChineseLsh/x-feed-digest: Transform your X/Twitter following list into AI-curated daily digest)





    📌 转载信息
    转载时间:
    2026/1/7 19:29:14

    最近了解到了有 alphaXiv 这个论文交流平台,个人觉得上面每篇文章的点赞数还是挺有参考价值的,获赞多的文章往往有不错的亮点。

    如果能在 arXiv 搜索页展示 alphaXiv 的点赞数,阅览论文时咱就能一眼看到哪些文章可能更值得去读了。

    于是咱就写了这样一个简单的小脚本,可以在 arXiv 摘要页以及搜索页展示 alphaXiv 上的点赞数,并附带有跳转链接:

    希望能帮助到大家!


    📌 转载信息
    原作者:
    SomeBottle
    转载时间:
    2026/1/7 19:28:02

    配置内容大概内容如下

    Antigravity 好用的 rules 配置.docx

    用上之后,还是算调教的比较好,能够让 vibe coding 少走一些弯路吧,让 ai 不再瞎搞

    还有就是,可以让 gemini-3-pro 生成开发计划,然后让 claude 去写代码,
    搭配起来,干活不累

    antigravity 修改全局 rules 步骤如下

    1. 第一步:
    2. 第二步

    📌 转载信息
    转载时间:
    2026/1/7 19:27:53

    增加了一个检索功能,现在只要输入关键词,就会自动检索相应的视频(综合排序前 5 个,可自定义),并自动评估、总结。



    这样就可以知道可以深入看哪个视频了!

    这是 github 地址:tiandaren/video-quick-eval: AI 总结 B 站、youtube 视频,实现快速转写、评估、总结。

    小工具,希望佬们给个 star。

    做了一个视频总结的小工具,纯后端、轻量化、自动转写、评估、总结 - 开发调优 - LINUX DO


    📌 转载信息
    原作者:
    tiandaren
    转载时间:
    2026/1/7 19:27:29

    最初用 Adguard Home 部署,近期又接触了 Mosdns-x,又是一番折腾
    完整的 mosdns-x 配置在最底下,有配套的数据看板
    (需要 Mihomo 完整配置文件,其实写的一坨,想 “欣赏” 的可以留言 )

    Adguard Home DoH 服务与 mihomo 配置

    客户端说明:
    ns:默认使用 NextDNS 与谷歌 dns 作为上游
    m-cn:主要用于解析国内域名
    m-psn:国内外上游,主要用于 proxy-server-nameserver

    (m-psn,是因为之前用宝可梦,他家机场部分域名用国外 dns 获取不到结果,所以单独整了个 adgh 客户端用于 proxy-server-nameserver)

    pure:纯净 dns,未开启广告拦截,使用 NextDNS 与谷歌 dns 作为上游
    m-ad:为了方便看 adgh 的拦截日志,搞的客户端,上游同 ns(配置时使用 ns 就行)

    DoH 地址:

    两台 US 服务器部署:US2、US3

      - https://us2.tls.vlo.cc/alicia/m-ad
      - https://us2.tls.vlo.cc/alicia/ns
      - https://us2.tls.vlo.cc/alicia/m-cn
      - https://us2.tls.vlo.cc/alicia/m-psn
    
      - https://us3.tls.vlo.cc/alicia/m-ad
      - https://us3.tls.vlo.cc/alicia/m-psn
      - https://us3.tls.vlo.cc/alicia/m-cn
      - https://us3.tls.vlo.cc/alicia/ns
    

    mihomo 配套的配置模板,使用 redir-host 模式
    并不是最优配置,且这两个模块都引用了规则集:rule-set:,请替换为自己配置文件的规则集或者删除。

    嗅探模块
    # 流量嗅探 sniffer: enable: true force-dns-mapping: true parse-pure-ip: true override-destination: false sniff: HTTP: ports: [80, 8080-8880, 2052, 2082, 2086, 2095]
          override-destination: true TLS: ports: [443, 8443, 2053, 2083, 2087, 2096]
        QUIC: ports: [443, 8443, 2053, 2083, 2087, 2096]
      skip-domain: - "rule-set:DW_Private,qiufeng_domain,Advertising,Tracking,MX_FCM" skip-src-address: - "rule-set:DW_PrivateIP,Advertising_IP" - 169.254.10.100/32 - febf:ffff:ffff:ffff:ffff:ffff:ffff:ffff/128 skip-dst-address: - "rule-set:DW_PrivateIP,Advertising_IP" - 169.254.10.100/32 - febf:ffff:ffff:ffff:ffff:ffff:ffff:ffff/128 - "rule-set:LL_TgIP,Skk_TgIP" 
    hosts 与 dns 模块
    # hosts模块
    hosts:
      '*.alicia.moe': 127.0.0.1
      'alicia.moe': 127.0.0.1
      'us3.tls.vlo.cc': 38.246.246.231
      'us2.tls.vlo.cc': 154.37.208.14
      'tls-us-2.vlo.cc': 38.244.62.224
      'tls-us-1.vlo.cc': 154.37.208.14
      'cn-09.api.vlo.cc': 38.244.62.224
      'cn-05.api.vlo.cc': 154.37.208.14
    # dns模块
    dns:
      enable: true
      cache-algorithm: arc
      prefer-h3: false
      use-hosts: true
      use-system-hosts: false
      listen: 0.0.0.0:1053
      ipv6: false
      respect-rules: false
      enhanced-mode: redir-host
      fake-ip-range: 10.20.0.1/16
      default-nameserver:
        - quic://223.5.5.5
        - tls://1.12.12.12
      nameserver:
        - https://us3.tls.vlo.cc/alicia/ns
        - https://us2.tls.vlo.cc/alicia/ns
      nameserver-policy:
        "rule-set:mydns_domain,myblack_domain,qiufeng_domain,Advertising,Tracking":
          - https://us2.tls.vlo.cc/alicia/m-ad
          - https://us3.tls.vlo.cc/alicia/m-ad
        "rule-set:MX_SteamCN,DW_GamesCN,Skk_Direct,Skk_Domestic,DW_CN,LL_China":
          - https://us2.tls.vlo.cc/alicia/m-cn
          - https://us3.tls.vlo.cc/alicia/m-cn
      proxy-server-nameserver:
          - https://us2.tls.vlo.cc/alicia/m-psn
          - https://us3.tls.vlo.cc/alicia/m-psn
    



    mosdns-x DoH 服务以及 mihomo 配置

    直接在 mosdns-x 进行分流的。
    AI 搓出来的数据面板:https://api.520924.xyz

    DoH 地址:

    同样在两台 US 服务器部署

    - https://cn-05.api.vlo.cc/tls-cx
    - https://cn-09.api.vlo.cc/tls-cx
    

    mihomo 配置:同样使用 redir-hosts 模式

    嗅探模块
    # 流量嗅探 sniffer: enable: true force-dns-mapping: true parse-pure-ip: true override-destination: false sniff: HTTP: ports: [80, 8080-8880, 2052, 2082, 2086, 2095]
          override-destination: true TLS: ports: [443, 8443, 2053, 2083, 2087, 2096]
        QUIC: ports: [443, 8443, 2053, 2083, 2087, 2096]
      skip-domain: - "rule-set:DW_Private,qiufeng_domain,Advertising,Tracking,MX_FCM" skip-src-address: - "rule-set:DW_PrivateIP,Advertising_IP" - 169.254.10.100/32 - febf:ffff:ffff:ffff:ffff:ffff:ffff:ffff/128 skip-dst-address: - "rule-set:DW_PrivateIP,Advertising_IP" - 169.254.10.100/32 - febf:ffff:ffff:ffff:ffff:ffff:ffff:ffff/128 - "rule-set:LL_TgIP,Skk_TgIP" 
    hosts 与 dns 模块
    # hosts模块 hosts: '*.alicia.moe': 127.0.0.1 'alicia.moe': 127.0.0.1 'us3.tls.vlo.cc': 38.246.246.231 'us2.tls.vlo.cc': 154.37.208.14 'tls-us-2.vlo.cc': 38.244.62.224 'tls-us-1.vlo.cc': 154.37.208.14 'cn-09.api.vlo.cc': 38.244.62.224 'cn-05.api.vlo.cc': 154.37.208.14 # dns模块 dns: enable: true cache-algorithm: arc prefer-h3: false use-hosts: true use-system-hosts: false listen: 0.0.0.0:1053 ipv6: false respect-rules: false enhanced-mode: redir-host fake-ip-range: 10.20.0.1/16 default-nameserver: - quic://223.5.5.5 - tls://1.12.12.12 nameserver: - https://cn-05.api.vlo.cc/tls-cx - https://cn-09.api.vlo.cc/tls-cx proxy-server-nameserver: - https://us2.tls.vlo.cc/alicia/m-psn - https://us3.tls.vlo.cc/alicia/m-psn 

    折腾后记

    自我感觉,自建 Adguard Home DoH 如果是搭配代理软件使用,可以在代理软件分流。

    Adguard Home 可以配置不同客户端的上游,这让其在 mihomo 搭配使用时方便很多,毕竟直接在 Adguard Home 分流会很复杂且不易维护


    如果你也在使用 Adguard Home + Mihomo,也可以尝试这样操作

    MosDNS-X:

    配置很复杂… 搞这个纯属折腾(确实是很折腾),配置文件抄的 easymosdns 的,然后用 Gemini Pro 网页版又搓了好久的数据面板:https://api.520924.xyz/

    我的 mosdns-X 配置
    # EasyMosdns v3.5(Final Release)
    # https://apad.pro/easymosdns
    log:
        file: "./mosdns.log"
        level: error
    
    data_providers:
      - tag: miaoerwlist
        file: ./rules/miaoerwlist.txt
        auto_reload: true
      - tag: chinalist
        file: ./rules/china_domain_list.txt
        auto_reload: true
      - tag: cnlistA
        file: ./rules/cnlistA.txt
        auto_reload: true
    
    
      - tag: cdncn
        file: ./rules/cdn_domain_list.txt
        auto_reload: true
      - tag: cdnnocn
        file: ./rules/cdn_no_cn.txt
        auto_reload: true
    
      - tag: gfwlist
        file: ./rules/gfw_domain_list.txt
        auto_reload: true
      - tag: gfwlistA
        file: ./rules/gfwlistA.txt
        auto_reload: true
    
    
      - tag: chinaip
        file: ./rules/china_ip_list.txt
        auto_reload: true
      - tag: cniplistA
        file: ./rules/cniplistA.txt
        auto_reload: true
         
      - tag: gfwip
        file: ./rules/gfw_ip_list.txt
        auto_reload: true
    
      - tag: adlist
        file: ./rules/ad_domain_list.txt
        auto_reload: true
      - tag: miaoerblock
        file: ./rules/miaoerblock.txt
        auto_reload: true
      - tag: ads
        file: ./rules/ads.txt
        auto_reload: true
    
      - tag: ecscn
        file: ./ecs_cn_domain.txt
        auto_reload: true
      - tag: ecsnoncn
        file: ./ecs_noncn_domain.txt
        auto_reload: true
      - tag: hosts
        file: ./hosts.txt
        auto_reload: true
    
    plugins:
        # 数据统计插件
      - tag: "metrics_data"
        type: "metrics_collector"
    
        # 广告拦截统计
      - tag: "metrics_ad_blocked"   
        type: "metrics_collector"
    
        # 本地上游统计
      - tag: "metrics_local_up"     
        type: "metrics_collector"
    
        # 本地备用上游统计
      - tag: "metrics_localB_up"     
        type: "metrics_collector"
    
        # 远程上游统计
      - tag: "metrics_remote_up"    
        type: "metrics_collector"
    
        # 远程备用上游统计
      - tag: "metrics_remoteB_up"    
        type: "metrics_collector"
        # 限制 EDNS0 UDP 缓冲大小的插件
      - tag: udp_bufsize_limit
        type: bufsize
        args:
          size: 1232 # 限制为 512 字节,强制大包回落到 TCP
      # 缓存的插件
      # [lan|wan]
      - tag: cache_lan
        type: cache
        args:
          size: 65536
          compress_resp: true
          #redis: "redis://127.0.0.1:6379/0"
          lazy_cache_ttl: 86400
          cache_everything: true
          lazy_cache_reply_ttl: 1
      - tag: cache_wan
        type: cache
        args:
          size: 131072
          compress_resp: true
          #redis: "redis://127.0.0.1:6379/0"
          lazy_cache_ttl: 86400
          cache_everything: true
          lazy_cache_reply_ttl: 5
    
      # Hosts的插件
      - tag: hosts
        type: hosts
        args:
          hosts:
            - "provider:hosts"
    
      # 获取ECS的插件
      - tag: ecs_auto
        type: ecs
        args:
          auto: true
          force_overwrite: false
          
      # 指定ECS的插件
      # [local|global]
      - tag: ecs_local
        type: ecs
        args:
          auto: false
          ipv4: "101.6.6.0"
          ipv6: "2001:da8::"
          force_overwrite: false
      - tag: ecs_global
        type: ecs
        args:
          auto: false
          ipv4: "168.95.1.0"
          ipv6: "2001:b000:168::"
          force_overwrite: false
    
      # 匹配ECS的插件
      - tag: ecs_is_local
        type: query_matcher
        args:
          ecs: 
            - "101.6.6.0/24"
            - "2001:da8::/48"
      - tag: ecs_is_lan
        type: query_matcher
        args:
          ecs: 
            - "0.0.0.0/8"
            - "10.0.0.0/8"
            - "100.64.0.0/10"
            - "127.0.0.0/8"
            - "169.254.0.0/16"
            - "172.16.0.0/12"
            - "192.0.0.0/24"
            - "192.0.2.0/24"
            - "198.18.0.0/15"
            - "192.88.99.0/24"
            - "192.168.0.0/16"
            - "198.51.100.0/24"
            - "203.0.113.0/24"
            - "224.0.0.0/3"
            - "::1/128"
            - "fc00::/7"
            - "fe80::/10"
      - tag: ecs_is_cn
        type: query_matcher
        args:
          ecs: 
            - "provider:chinaip"
            - "provider:cniplistA"
    
    
      # 调整TTL的插件
      # [1m|5m|1h]
      - tag: ttl_1m
        type: ttl
        args:
          minimal_ttl: 60
          maximum_ttl: 3600
      - tag: ttl_5m
        type: ttl
        args:
          minimal_ttl: 300
          maximum_ttl: 86400
      - tag: ttl_1h
        type: ttl
        args:
          minimal_ttl: 3600
          maximum_ttl: 86400
    
      # 匹配TYPE12类型请求的插件
      - tag: qtype12
        type: query_matcher
        args:
          qtype: [12]
    
      # 匹配TYPE65类型请求的插件
      - tag: qtype65
        type: query_matcher
        args:
          qtype: [65]
    
      # 匹配TYPE255类型请求的插件
      - tag: qtype255
        type: query_matcher
        args:
          qtype: [255]
    
      # 匹配RCODE2的插件
      - tag: response_server_failed
        type: response_matcher
        args:
          rcode: [2]
    
      # 屏蔽请求的插件
      - tag: black_hole
        type: blackhole
        args:
          rcode: 0
          ipv4: "169.254.10.100"
          ipv6: "febf:ffff:ffff:ffff:ffff:ffff:ffff:ffff"
    
      # 匹配无效域名的插件
      - tag: query_is_non_domain
        type: query_matcher
        args:
          domain:
            - "keyword::"
    
      # 匹配本地域名的插件
      - tag: query_is_local_domain
        type: query_matcher
        args:
          domain:
            - "provider:chinalist"
            - "provider:cnlistA"
    
      # 匹配污染域名的插件
      - tag: query_is_non_local_domain
        type: query_matcher
        args:
          domain:
            - "provider:gfwlist"
            - "provider:gfwlistA"
    
      # 匹配CDN域名的插件
      - tag: query_is_cdn_cn_domain
        type: query_matcher
        args:
          domain:
            - "provider:cdncn"
      - tag: query_is_cdn_no_cn_domain
        type: query_matcher
        args:
          domain:
            - "provider:cdnnocn"
    
      # 匹配白名单域名的插件
      - tag: query_is_whitelist_domain
        type: query_matcher
        args:
          domain:
            - "provider:miaoerwlist"
    
      # 匹配广告域名的插件
      - tag: query_is_ad_domain
        type: query_matcher
        args:
          domain:
            - "provider:adlist"
            - "provider:miaoerblock"
            - "provider:ads"
    
      # 匹配强制本地解析域名的插件
      - tag: query_is_cn_domain
        type: query_matcher
        args:
          domain:
            - "provider:ecscn"
    
      # 匹配强制非本地解析域名的插件
      - tag: query_is_noncn_domain
        type: query_matcher
        args:
          domain:
            - "provider:ecsnoncn"
    
      # 匹配本地IP的插件
      - tag: response_has_local_ip
        type: response_matcher
        args:
          ip:
            - "provider:chinaip"
            - "provider:cniplistA"
    
      # 匹配污染IP的插件
      - tag: response_has_gfw_ip
        type: response_matcher
        args:
          ip:
            - "provider:gfwip"
    
      # 转发至本地服务器的插件
      - tag: forward_local
        type: fast_forward
        args:
          upstream:
            - addr: "h3://dns.alidns.com"
              dial_addr: "223.5.5.5"
            - addr: "tls://dot.pub"
              dial_addr: "1.12.12.21"
              bootstrap: "121.4.4.95"
              enable_pipeline: true
              max_conns: 3
    
      # 转发至远程服务器的插件
      - tag: forward_remote
        type: fast_forward
        args:
          upstream:
            - addr: "tls://8.8.8.8"
              enable_pipeline: true
              max_conns: 4
            - addr: "tls://dns.nextdns.io"
              bootstrap: "8.8.8.8"
              enable_pipeline: true
              max_conns: 4
    
      # 转发至分流服务器的插件
      - tag: forward_localReserve
        type: fast_forward
        args:
          upstream:
            - addr: "quic://dns.alidns.com"
              dial_addr: "223.6.6.6"
            - addr: "tls://dot.pub"
              dial_addr: "1.12.34.56"
              bootstrap: "121.4.4.95"
              enable_pipeline: true
              max_conns: 3
    
      - tag: forward_remoteReserve
        type: fast_forward
        args:
          upstream:
            - addr: "tls://8.8.4.4"
              enable_pipeline: true
              max_conns: 4
            - addr: "tls://dns.nextdns.io"
              bootstrap: "8.8.8.8"
              enable_pipeline: true
              max_conns: 4
    
      # 主要的运行逻辑插件
      # sequence 插件中调用的插件 tag 必须在 sequence 前定义
      # 否则 sequence 找不到对应插件
      - tag: main_sequence
        type: sequence
        args:
          exec:
            - metrics_data
            # 域名映射IP
            - hosts
    
            # 屏蔽TYPE65与无效类型请求
            - if: "[qtype65] || (query_is_non_domain)"
              exec:
                - _new_nxdomain_response
                - _return
    
            # 优化PRT与ANY类型请求
            - if: "[qtype12] || [qtype255]"
              exec:
                - _no_ecs
                - forward_local
                - ttl_1h
                - _return
    
            # 缓存ECS
            - ecs_auto
            - _edns0_filter_ecs_only
            - udp_bufsize_limit
            - if: ecs_is_lan
              exec:
                - cache_lan
                - _no_ecs
              else_exec:
                - cache_wan
    
            # 强制用本地服务器解析
            - if: query_is_cn_domain
              exec:
                - forward_local
                - ttl_5m
                - _return
    
            # 强制用非本地服务器解析
            - if: query_is_noncn_domain
              exec:
                # 优先返回ipv4结果
                - _prefer_ipv4
                - ecs_global
                - primary:
                    # 默认用分流服务器
                    - forward_remote
                  secondary:
                    # 超时用远程服务器
                    - forward_remoteReserve
                  fast_fallback: 2500
                  always_standby: false
                - ttl_5m
                - _return
    
            # 已知的白名单域名用本地服务器解析
            - if: query_is_whitelist_domain
              exec:
                # 默认用本地服务器
                - metrics_local_up
                - forward_local
                - ttl_1m
                # 预防已知的本地域名临时污染
                - if: response_has_gfw_ip
                  exec:
                    - metrics_remote_up
                    - ecs_local
                    - forward_remote
                - _return
    
    
            # 屏蔽广告域名
            - if: query_is_ad_domain
              exec:
                - metrics_ad_blocked
                - black_hole
                - ttl_1h
                - _return
    
            # 已知的本地域名或CDN域名用本地服务器解析
            - if: "(query_is_local_domain) || (query_is_cdn_cn_domain)"
              exec:
                # 默认用本地服务器
                - metrics_local_up
                - forward_local
                - ttl_1m
                # 预防已知的本地域名临时污染
                - if: response_has_gfw_ip
                  exec:
                    - metrics_remote_up
                    - ecs_local
                    - forward_remote
                - _return
            # 已知的非大陆CDN域名
            - if: query_is_cdn_no_cn_domain
              exec:
                # 优先返回ipv4结果
                - _prefer_ipv4
                - primary:
                    # 默认用分流服务器
                    - metrics_remote_up
                    - forward_remote
                  secondary:
                    # 超时用远程服务器
                    - metrics_remoteB_up
                    - forward_remoteReserve
                  fast_fallback: 2500
                  always_standby: false
                - ttl_5m
                - _return
            # 已知的污染域名用分流服务器或远程服务器解析
            - if: query_is_non_local_domain
              exec:
                # 优先返回ipv4结果
                - _prefer_ipv4
                - ecs_global
                - primary:
                    # 默认用分流服务器
                    - metrics_remote_up
                    - forward_remote
                  secondary:
                    # 超时用远程服务器
                    - metrics_remoteB_up
                    - forward_remoteReserve
                  fast_fallback: 2500
                  always_standby: false
                - ttl_5m
                - _return
    
            # 剩下的未知域名用IP分流
            # 优先返回ipv4结果
            - _prefer_ipv4
            - primary:
                # 默认用分流服务器
                - metrics_remote_up
                - ecs_local
                - forward_remote
                - if: "(ecs_is_cn) && (response_has_local_ip) || [response_server_failed]"
                  exec:
                    - metrics_localB_up
                    - forward_localReserve
                    - _return
              secondary:
                # 超时用本地分流器
                - metrics_remote_up
                - forward_remote
                - if: response_has_local_ip
                  exec:
                    - metrics_localB_up
                    - forward_localReserve
                    - _return
              fast_fallback: 2500
              always_standby: false
            - ttl_5m
    
    servers:
      - exec: main_sequence
        timeout: 10
        listeners:
          - protocol: http
            addr: "0.0.0.0:9053"
            url_path: "/tls-cx"
            get_user_ip_from_header: "X-Forwarded-For"
            kernel_tx: true
            kernel_rx: true
    
    api:
        http: "127.0.0.1:9080"
    
    

    如果需要 mosdns-x 面板文件的,https://api.520924.xyz/mosdns-x-webui.zip 可以下载,根据自己配置文件修改,或者扔给 Gemini 修改

    搭建的都是 US 服务器,应该都有 9929 线路,可以直连(域名不要搞得像机场域名那种二级域名格式,带 tls、us 这些,可能会被阻断域名)

    欢迎留言使用体验 我自己是用不出来 Adguard Home 与 Mosdns-x 搭建的在使用上的性能区别,总体还是 Adguard Home 方便


    📌 转载信息
    原作者:
    jiuyue
    转载时间:
    2026/1/7 19:27:00

    最近在开发 Flutter,由于是新项目,就想使用 Freezed 格式的实体类,但是试了试 vscode 中一些已有的扩展,都不太好用,就决定自己编写一个扩展来满足要求,在 claude 和 codex 的帮助下实现的目前需要的主要功能。目前仅支持 Freezed 格式的实体类,就开放出来,有喜欢的佬友可以试试。(已上架 vscode 扩展商城)



    注意如果需要使用 Freezed 格式的实体类,仅在 Flutter 项目中支持,在 Flutter 项目中任意文件夹点击右键,选择 JsonToDart (Freezed) 选项就会出现配置界面,同时需要在依赖文件里面配置如下的类似内容,版本不一定需要一致。

    dependencies: flutter: sdk: flutter freezed_annotation: ^3.1.0 json_annotation: ^4.9.0 # The following adds the Cupertino Icons font to your application. # Use with the CupertinoIcons class for iOS style icons. cupertino_icons: ^1.0.8 dev_dependencies: flutter_test: sdk: flutter flutter_lints: ^6.0.0 build_runner: ^2.10.4 freezed: ^3.2.4 json_serializable: ^6.11.3 

    点击生成后会自动生成如下的文件


    文件内容大概如下

    首次使用插件生成代码会自动生成如下文件
    用 AI 做了一个 vscode 的 JsonToDart 的扩展6
    内容预览如下,里面有几个基本类型的转换器。

    项目源码 github 地址:GitHub - wqjuser/GFDMFJFF


    📌 转载信息
    原作者:
    wqjplayer
    转载时间:
    2026/1/7 19:26:54

    前言

    有玩欧卡的佬友吗?哈哈,相信开欧卡的佬友都有一个共同的痛点

    游戏自带的电台全是国外的,想听个中文电台根本找不到!

    开着卡车跑长途,听不懂的语言实在是太无聊了。于是我花了点时间,撸了个小工具来解决这个问题


    这是什么?

    欧卡 2 中国电台 (ETS2 China Radio) 是一个开源的桌面应用,能让你在欧洲卡车模拟器 2 里收听 900+ 中国广播电台

    包括:

    • 中央人民广播电台(中国之声、经济之声、音乐之声等)

    • 全国各省市地方台(北京、上海、广东、江苏… 基本全覆盖)


    效果展示

    应用界面 - 900+ 电台任你选

    服务器启动 - 一键开启

    游戏内电台展示


    功能亮点

    • 900+ 电台 - 自动获取云听平台的全国广播电台

    • 实时流转换 - 将 m3u8 流转换为欧卡 2 可用的 MP3 格式

    • 内置播放器 - 安装前可试听,避免踩雷

    • 一键安装 - 自动生成游戏配置,无需手动折腾

    • 搜索筛选 - 按地区、名称快速查找电台

    • 开箱即用 - 内置 FFmpeg,无需额外安装依赖


    下载地址

    GitHub Releases: 点击跳转下载页面

    推荐下载:ETS2-China-Radio_x.x.x_x64-setup.exe(NSIS 安装包)

    Windows 10/11 64 位系统可用


    使用教程(超简单)

    
    启动应用 → 刷新数据 → 启动服务器 → 安装到欧卡2 → 进入游戏 → 享受中国电台 🎵
    
    

    详细步骤:

    1. 启动应用:双击运行安装好的程序

    2. 刷新数据:点击底部「 刷新数据」获取电台列表

    3. 启动服务器:点击「 启动服务器」( 玩游戏时保持后台运行)

    4. 安装到游戏:点击「 安装到欧卡 2」自动生成配置文件

    5. 开玩!:启动欧卡 2,在卡车里打开收音机即可看到中国电台


    注意事项

    • 玩游戏时必须保持本应用后台运行,否则电台无法播放

    • 首次安装后需要重启游戏才能看到电台列表

    • 收听电台需要联网


    技术栈(给感兴趣的佬)

    • 前端: Vue 3 + TypeScript + Pinia

    • 后端: Rust + Tauri 2

    • 流媒体: axum HTTP 服务器 + FFmpeg 转码

    完全开源,欢迎 PR 和 Star

    GitHub 仓库: https://github.com/hu19940121/ouka2-app


    写在最后

    工具还在持续优化中,如果你是欧卡 / 美卡玩家,欢迎体验!

    有任何问题或建议,欢迎在下面评论,或者到 GitHub 提 Issue。

    如果觉得有用,麻烦点个 Star 支持一下~



    📌 转载信息
    原作者:
    hu19940121
    转载时间:
    2026/1/7 19:25:59

    本贴不包含任何推广信息,仅限大家有齐鲁保的佬。
    领取方式:

    1. 进入齐鲁保公众号 -> 服务中心 ->26 版保单服务 -> 理赔申请 -> 互联网门诊申请
    2. 进入荷叶健康网页,登录后,填写身份信息
    3. 进入主页后点击一马当先进入领取页 -> 去购药 -> 继续开处方 -> 点击查看处方 -> 购买
      如果没有填写地址需要先填写地址
      应该是能领 2 次,但是系统目前好像有 BUG,只能领一次
      访问人数多,系统有点崩,大家耐心搞一下。

    📌 转载信息
    原作者:
    wangguodong
    转载时间:
    2026/1/7 19:23:29

    文献下载一时爽,打开阅读火葬场。
    天书难啃骨头硬,管家嚼碎再喂粮。

    想着稍后阅读的论文,最后却变成了永不阅读?
    长篇大论的学术论文,有翻译却也抓不住重点?

    我在读文献时经常被以下问题所困扰:

    • 痛点一:文章太多,读不过来。即便让 AI 辅助阅读,却还要一篇一篇的发给 AI,效率低下。
    • 痛点二:读完就忘,需要反复重新阅读。 辛辛苦苦读完一篇,两天后就忘了,想回忆又得从头看起,浪费时间。
    • 痛点三:文章太长,即使有翻译插件,也难以抓住重点,读下一页忘上一页。

    于是我写了一款 Zotero 插件 Zotero-AI-Butler,来彻底解决这些问题!

    一、 核心理念:拒绝手动,自动化接管

    Zotero-AI-Butler 的设计哲学很简单:您只负责思考,Zotero-AI-Butler 将为您的阅读扫清障碍!

    1.1 真正的 “无感” 阅读

    不同于市面上需要你 “主动投喂” 的 AI 工具,Butler 学会了自动巡视。

    只要你在设置中开启 “自动扫描”,当你把新下载的 PDF 拖进 Zotero 的那一刻,管家就已经在后台开工了。它会利用大模型将论文精读、揉碎、嚼烂后,整理成一份热腾腾、条理清晰的 Markdown 笔记塞进您的 Zotero 条目下。

    1.2 无损多模态阅读

    很多插件还在用传统的 OCR 提取文本,而 Butler 支持 Base64 多模态直读(需要大模型本身支持多模态,国外御三家大模型都支持多模态)。这意味着:

    • 复杂的数学公式不会乱码;
    • 精妙的实验数据图表不会被忽略;
    • 双栏排版不会读串行。

    1.3 沉浸式侧边栏

    Butler 内置了深度集成的侧边栏,支持 GitHub 和 红印 等多种 Markdown 主题渲染。右键侧边栏的 AI 管家图标可以进一步固定侧边栏窗口,切换论文也再也不会打断心流。

    • LaTeX 公式完美渲染:数学系、物理系同学的福音。
    • 临时追问:读到不懂的地方?直接在侧边栏选中文字发起追问,不仅能解惑,还能将对话保存到笔记中。

    1.4 一图胜千言 (One-Image Summary)

    借助 Nano Banana Pro 的图像生成能力,Butler 能自动为论文生成一张精美的学术海报。

    无论是组会汇报前的快速回顾,还是文献管理时的直观索引,这一张图,就能让你瞬间 Recall 起整篇文章的核心逻辑。

    二、 为什么选择 Zotero-AI-Butler?

    市面上的工具那么多,为什么要用这一款?

    1. 完全开源,隐私掌握在自己手中:代码公开透明,支持自定义 API(OpenAI, Gemini, Claude, 甚至本地模型)。
    2. 多轮总结机制:觉得一轮总结太浅?使用 “多轮总结” 模式,自定义提示词,让 AI 分别从研究背景、方法技术、实验结果多个维度进行多轮深度解析,最后汇总成文。
    3. 旧文献批量复活:对于那些积灰已久的存量文献,一键点击 “扫描未分析论文”,管家会帮你排好队,在后台默默把它们 “啃” 完。
    4. 成本极低:完美适配 Google Gemini 模型,配合 Gemini 反代可获取几乎用不完的免费额度。


    更详细介绍欢迎去 Github 进一步了解!

    项目名:zotero-AI-Butler

    开源地址:GitHub - steven-jianhao-li/zotero-AI-Butler: 【Zotero AI 管家】会调用大模型,自动精读论文库里的论文,总结为 Zotero 笔记。支持主流大模型平台!您只需像往常一样把文献丢进 Zotero, 管家会自动帮您精读论文,将文章揉碎了总结为笔记,让您 “十分钟完全了解” 这篇论文!

    项目 Wiki:Zotero AI Butler 使用文档

    视频配置教程:www.bilibili.com/video/BV1cYyQBZE4k

    您只负责思考,Zotero-AI-Butler 负责为您的阅读扫清障碍!


    如果这个项目有所帮助,欢迎在 GitHub 点个 Star,这是对我最大的鼓励!


    📌 转载信息
    转载时间:
    2026/1/7 19:22:18

    30、40、50 系显卡可以享受到此次更新。

    从图上看 Quen Image 启用原生 NVFP4 支持。可带来高达 4.6 倍的性能提升。

    同时还能够降低显存使用。

    FeatureFP4 (E2M1)MXFP4NVFP4
    Format
    Structure4 bits (1 sign, 2 exponent, 1 mantissa) plus software scaling factor4 bits (1 sign, 2 exponent, 1 mantissa) plus 1 shared power-of-two scale per 32 value block4 bits (1 sign, 2 exponent, 1 mantissa) plus 1 shared FP8 scale per 16 value block
    Accelerated Hardware ScalingNoYesYes
    MemoryUp to 4x less memory than FP16
    AccuracyRisk of noticeable accuracy drop compared to FP8Risk of noticeable accuracy drop compared to FP8Lower risk of noticeable accuracy drop particularly for larger models

    详细介绍可以看 NV 的博客,NV 在 CES2026 还开源了全球最大规模的数据集。


    📌 转载信息
    原作者:
    Tusk4125
    转载时间:
    2026/1/7 19:22:07