包含关键字 typecho 的文章


一、问题:模块扩展与注册

在 LLM 工程里,功能一旦开始往上叠,模块数量几乎是不可避免地往上涨。这时候,真正摆在你面前的,不是“还能不能加功能”,而是——这些模块到底怎么统一管理。问题通常会从两个方向同时冒出来:

  • 对内:框架内部的模块注册方式各不相同,前期还能忍,越往后越难维护、越难梳理
  • 对外:外部模块没法直接接进来,往往还得额外写注册代码、维护注册表,注册成本越来越高

这两类问题看起来不一样,本质却是同一件事:框架缺少一套合理的注册机制,无法让模块在体系内自然扩展。

如果不早点把这件事想清楚,模块加得越多,系统就越容易失控。


二、难点:统一且易扩展

真要动手设计一套注册机制时,难点往往很快就会浮现出来:

  • 很难用同一种方式去管理框架内部类型各不相同的模块,注册逻辑一多,就开始各走各的路
  • 新模块一接进来,老模块却被迫“感知”到变化,甚至影响原有用法
  • 注册成本始终降不下来:即便已经有了注册机制,仍然需要手写注册代码、维护注册表和扩展逻辑

这些问题叠加在一起,很容易把“扩展能力”变成系统长期演进中的负担。


三、LazyLLM 的注册机制

针对这些难点,LazyLLM 选择了一条更干脆的路:模块在定义时自动完成注册,不需要再做任何额外操作。

无论是类模块还是函数模块,底层都走同一套自动注册逻辑,所有模块统一纳入同一个命名空间进行管理。整体机制可以概括为两种模式:“继承即注册”和“注册即继承”。

  • 类模块:继承即注册

定义类时,只要继承对应的能力基类,就会在定义阶段自动注册到全局注册表中。

同时,类会继承基类的命名分组,该分组下的所有模块都会自动获得基类提供的能力。

  • 函数模块:注册即继承

定义函数时,只需使用 @xxx_register 装饰器,就会被自动包装为类对象,并根据注册类型,继承相应基类的能力。

通过这种方式,你不需要手写任何注册逻辑,也不需要手动维护注册表,就能把模块自然地接入框架。在这种注册机制下,模块之间只共享上级命名空间(例如 lazyllm.launcher ),注册新模块,本质上只是往命名空间里新增一个 key-value,不会影响其他模块的感知和使用。

模块完成自动注册后,统一通过 lazyllm.xxx.yyy 的形式访问,接口保持一致,使用方式不变,用户体验也始终统一


四、用户视角:如何使用注册机制

这一章将从用户视角出发,带你一步步了解 LazyLLM 的注册机制:从如何访问已经注册到框架中的模块,到如何基于现有机制扩展新的类模块和函数模块。通过这些具体用法,你会直观感受到什么是“ lazy 地注册”,以及 LazyLLM 注册机制在扩展性和使用体验上的优势。

4.1 访问已注册的模块

A. 访问方式

对于已经注册到框架中的模块,LazyLLM 提供了多种访问方式,让你在使用时既灵活又省心。

1️⃣基于属性的访问(dot access)

LazyLLM 支持使用属性访问代替字典索引,lazyllm.launchers.k8slauncher 和 lazyllm.launchers['k8slauncher'] 等价,这样可以保持访问形式的一致性。

2️⃣大小写不敏感的 key 匹配

访问模块时,key 对大小写不敏感。比如 lazyllm.launchers.k8s、lazyllm.launchers.K8s 和 lazyllm.launchers.K8S 在语义上完全一致,不再要求你精确记住注册时的大小写细节。需要注意的是,注册时使用的 key 仍然是机制内部的唯一标识,并不会因为访问方式不同而发生变化。

3️⃣允许省略能力后缀

对于某些类名以能力后缀结尾的类(比如前面提到的 lazyllm.launchers.k8slauncher),可以在访问时省略能力后缀,简写为 lazyllm.launchers.k8s,框架在查找时会自动补齐后缀,减少冗余输入。

4️⃣支持默认 key

可以显式地为某个注册分组设置默认 key,用来指定省略 key 时选择的实现类,示例如下。设置默认key只会影响访问时的 key 和解析结果,不会改变实际注册的 kv。

ld = LazyDict(name="ld", ALd=int, BLd=str)
ld.set_default("ALd")
ld.default      # -> int(示意)

5️⃣函数式调用默认实现

当某个能力分组只有一个实现,或者已经设置了 default key 后,可以直接把分组当作函数来调用。

例如 lazyllm.launchers(**kwargs),等价于调用该分组下的默认实现 lazyllm.launchers.k8s(**kwargs)(此处k8s仅为文档示例,并非框架中的真实默认实现)。

B. 目前支持的能力基类

除了 launchers 类型之外,LazyLLM 还支持多种能力类的继承,涵盖模型、调度器、调优、存储以及其他工具能力。

如图所示,你可以直接打印某个组名,快速查看该命名空间下当前已经注册的所有类及其子类结构。这在理解框架已有能力、或者确认某个模块是否已经被正确注册时,非常直观、也非常实用。

在能力组织上,LazyLLM 采用了两级能力体系

  • 一级能力:例如 online、launcher、deploy 等,用于描述能力的大类
  • 二级能力:目前主要存在于 online 分组下,例如 chat、embed 等,用于进一步细分具体能力形态

通过 dot access,可以自然地访问这些多级注册的类结构,例如从一级能力一路定位到具体实现类。

在此基础上,LazyLLM 为不同能力类型提供了对应的基类,用户在扩展新模块时,只需继承相应基类即可自动完成注册。

目前支持的基类包括:

C. 目前支持的注册函数

除了能力基类之外,LazyLLM 目前还提供三个装饰器函数,用来把函数模块注册为类对象并加入注册机制,具体描述如下:

4.2 扩展新的类

A. 继承规则

如果要构造自己的类并注册到 LazyLLM 框架中,只需要继承4.1章节中提到的能力基类,就能够实现自动继承和统一访问。为了完成这个继承过程,需要遵守以下规则:

  • 通过类名约定创建能力分组

如果你要定义一个能力分组的基类,类名需要满足 LazyLLM+<GroupName>+Base 的命名约定。一旦满足这个约定,框架内部就会自动新增一个 <GroupName> 能力分组,并且可以通过 lazyllm.<GroupName> 直接访问。

  • 显式跳过某个基类的注册

在注册能力基类时,可以通过设置 \_\_lazyllm\_registry\_disable\_\_ ,主动跳过该类的注册流程。这样,这个类不会被写入注册表,也无法通过 lazyllm.<GroupName> 访问,但完全不影响它被继承、复用或作为能力基类存在。

  • 解耦类名与访问key

除了依赖类名生成能力分组,还可以通过 \_\_lazyllm\_registry\_key\_\_ 显式指定注册 key。这样可以把“类叫什么”和“用户怎么访问”这两件事分开处理,同时不影响原有的继承关系。

下面的示例把这三条规则放在一起,展示了一个更真实的使用场景:

OnlineMultiModalBase 用来承载所有多模态相关的通用逻辑(例如 forward、_load\_images 等),但它本身并不希望成为一层可直接访问的能力分组,因此设置 \_\_lazyllm\_registry\_disable__=True,只作为抽象基类存在。

而 LazyLLMOnlineSTTModuleBase 在继承多模态基类通用能力的同时,需要作为独立的能力层级对外暴露,于是通过 \_\_lazyllm\_registry\_key\_\_ = LLMType.STT 指定注册 key。这样,它的所有子类都会被统一注册到 lazyllm.online.stt 命名空间下,并自动具备多模态基类提供的能力。

通过这种方式,你可以精确控制哪些类参与注册、注册到哪里、如何被访问,而继承关系和能力复用本身,始终保持清晰、干净。

B. 命名规则

在定义具体能力类时,除了完成继承之外,还需要遵守一套明确的命名约定,框架才能正确完成自动注册和解析。

  • 类名约定决定注册位置

具体能力类的类名需要满足 <Supplier> + <GroupName> 的命名规则。一旦满足该约定,类就会被自动注册到对应基类的命名空间下,并以类名作为注册 key。在实际访问时,可以直接使用 <Supplier> 作为 key,框架会在内部自动补齐 <GroupName> 后缀完成匹配。

  • 统一使用驼峰命名法

为了与 Python 生态保持一致,也为了统一开发者的认知和习惯,所有能力类的类名都应采用驼峰命名法(CamelCase)

通过这套命名规则,LazyLLM 可以在不引入额外配置的情况下,同时保证注册行为可预测、访问方式简洁,也让代码结构本身就“说明了一切”。

C. 代码示例

以下为能力类的定义样例,定义后可以通过 lazyllm.online.chat.qwen 或 lazyllm.online.chat.qwenchat 访问该类,访问方法和框架内置的模块完全相同,实现无感、无额外代码的统一注册。

4.3 扩展新的函数

A. 注册规则

如果要注册新的函数到框架里,需要执行以下两个步骤:

1️⃣创建新的能力分组

LazyLLM 里支持两种创建的方式:

a.定义类时继承 metaclass=LazyLLMRegisterMetaClass,该类的类名/显式设置的 registry key 就会被自动识别,并注册为新的能力分组;

b.使用 Register.new\_group('group\_name'),直接创建一个新的能力分组并注册到框架内。

2️⃣【可选】定义新的register对象

指定需要继承的能力基类,设置 rewrite 函数,用新的函数覆写基类的 rewrite 函数。比如,指定 rewrite 函数为 cmd,就可以使用 @register.cmd 对函数进行装饰,从而重写基类的 cmd 函数。

3️⃣根据能力选择注册器并注册到某个能力分组内

使用 @xxx\_register('group\_name') 装饰器把函数包装为类对象,并把函数名和函数体作为 key-value 对注册到 group\_name 能力分组下,这样就可以通过 lazyllm.group\_name.func_name 访问该函数。

B. 代码示例

如图所示,示例中首先构造了一个 register 实例,并指定 rewrite 函数为 apply 和 cmd 。随后,通过 component\_register.new\_group("testgroup") 创建了新的能力分组 testgroup。

  • 对于 myfunc:

使用 @component\_register 进行装饰,函数会被注册到 testgroup 命名空间下,继承 ComponentBase 类,默认覆写 apply 函数(未显式指定时,默认覆盖rewrite\_func[0]),并自动获得 launcher 提供的跨节点调度能力。

  • 对于 myfunc2:

由于使用了 @component_register.cmd,会显式覆写基类中的 cmd 函数,实现不同的执行逻辑。

在使用时,可以直接通过:lazyllm.testgroup.myfunc()(*args) 来调用函数;同时也支持在括号中传入指定的 launcher,从而决定函数的运行位置,例如本地执行(empty)或提交到 Slurm 集群等。


五、技术剖析:架构与源码细节

最后,我们来一起深入 LazyLLM 注册机制的底层技术,了解它是如何设计和实现的。

5.1 架构设计

LazyLLM 的注册系统由三层组成,自下而上分别为:

1️⃣LazyDict:

注册结果的访问层,负责解决“注册之后,用户如何访问和调用”的问题。

2️⃣LazyLLMRegisterMetaClass:

注册逻辑的核心控制层,负责决定“类在定义时是否被注册、注册到哪里、以什么形式暴露”。

3️⃣Register 装饰器:

函数到类的适配层,负责将“函数形式的能力”统一纳入基于类的注册体系。

这三层各司其职、相互配合:前两层共同完成类模块的自动注册;在此基础上,Register 装饰器进一步解决了函数模块的接入问题,让函数也能够享有与类一致的注册能力。

最终效果是:不论能力最初以类还是函数的形式存在,都可以通过同一套注册与访问机制被框架统一管理和使用。

5.2 访问层:LazyDict

A. 职责边界

LazyDict 是注册机制中直接面向使用者的访问层。所有通过注册机制生成的分组与实现,最终都会以 LazyDict 的形式对外暴露。它不参与注册决策,也不决定实现类的归属关系,职责仅限于:

  • 作为某个 Base 类对应的注册容器
  • 维护注册结果与访问行为之间的映射关系

在系统内部,LazyDict 的结构可抽象表示为:

LazyDict(
    impl_a -> ClassA,
    impl_b -> ClassB,
)

该对象随后被直接绑定到 lazyllm.<group>,作为该分组的统一访问入口。

B. 核心代码

以下为 LazyDict 的部分核心代码,可以看到 _match 函数中允许通过 default 匹配默认 key,并通过拼接 key 和 group name 实现省略能力后缀访问的能力,同时兼容多种调用方式并且对大小写不敏感。

5.3 核心控制层:LazyLLMRegisterMetaClass

A. 职责边界

LazyLLM 的类注册行为由统一的 metaclass 控制。所有参与注册的类,都会在定义阶段经过该元类的处理,从而决定其是否被纳入注册体系、归属到哪个能力分组,以及是否对外暴露访问入口。

在整体架构中,LazyLLMRegisterMetaClass 的职责是:

  • 解析类的继承结构以确定其对应的分组路径与访问入口
  • 将可注册的实现类组织到对应的能力分组中
  • 为后续的统一访问入口生成必要的注册信息

B. 核心代码

以下为 LazyLLMRegisterMetaClass 类的核心代码,处理逻辑主要分为三层,对应4.2章节中的继承规则:

1️⃣是否跳过注册

首先判断类是否定义了 \_\_lazyllm\_registry\_disable\_\_。如果该属性被设置为 True,当前类会被直接跳过注册流程:不会写入父类分组,也不会出现在访问入口中,但不影响该类被继承或作为能力基类复用。

2️⃣是否定义新的能力分组

接着判断类名是否符合 LazyLLM<xxx>Base 的命名规则。如果符合,框架会自动提取中间的 <xxx>,创建对应的能力分组,并绑定到 lazyllm.<group> 命名空间下。该基类的所有子类,都会被统一注册到同一个 LazyDict 中。

3️⃣是否进入已有分组并细分层级

最后判断类是否具有 \_lazy\_llm\_group 属性(即是否存在可注册的父类)。在此基础上,如果类中定义了 \_\_lazyllm\_registry\_key__,则会以该值作为新一层的 group name。同时,注册流程末尾还预留了一个后处理钩子,允许类在注册完成后执行自定义逻辑,用于补充通用行为。

5.4 适配层:Register

A. 职责边界

LazyLLM 的注册体系是以“类”为核心构建的,但在真实使用中,并不是所有能力都适合用类来表达。很多时候,一个能力本质上就是“一段可调用的逻辑”,用函数来写反而更自然。

为了不让这两种开发方式割裂开来,LazyLLM 提供了 Register 装饰器,专门用来把函数形式的能力统一纳入同一套基于类的注册机制中。

Register 装饰器的职责在于:

  • 为函数构造一个等价的、可注册的类表示
  • 使函数能力能够复用基于元类的注册流程
  • 保证函数与类在注册结果和访问方式上的一致性

B. 核心代码

下面给出的 Register 类是函数注册机制的核心实现。

其中,new_group 函数在前文已经提到,用于创建新的能力分组。它在内部做的事情其实很直接:基于 python 的 type() 动态建类机制,动态创建一个继承自 baseclass 的能力基类,并命名为 LazyLLM{name}Base。由于该类满足注册规则,name 这个能力分组也会随之自动注册到框架中。

真正的关键逻辑集中在 _wrap 函数中,整体流程可以拆解为几个步骤:

1️⃣标准化类名

首先对传入的类名进行规范化处理,去掉 LazyLLM 和 Base 等前后缀,得到统一的分组标识。

2️⃣定位能力基类

接着调用 \_get\_base\_cls\_from_registry,找到当前能力分组对应的基类,用于后续继承。

3️⃣确定覆写目标函数

根据传入的 rewrite_func 参数,判断当前注册对象需要覆写基类中的哪个函数(例如 apply 或 cmd )。

4️⃣动态生成注册类并完成绑定

最后,在 impl 函数中动态生成一个用于注册的“空壳类”,完成注册流程,并将当前函数绑定到指定的 rewrite_func 上。

通过这一适配层,LazyLLM 实现了“类与函数并行接入、统一管理”的注册模型。

前文提到的几种注册器,就是通过构造 Register 实例实现的:

component_register = lazyllm.Register(ComponentBase, ['apply', 'cmd'])
module_register = lazyllm.Register(ModuleRegistryBase, ['forward'])
fc_register = lazyllm.Register(ModuleTool, ['apply'], default_group='tool')

六、写在最后

最后,让我们来一起回顾一下 LazyLLM 的注册机制。

通过 LazyDict 与 LazyLLMRegisterMetaClass 的协同设计,无论注册对象最初是类还是函数,最终都会走同一套注册逻辑、进入同一个注册表,并统一纳入相同的命名空间进行管理。在注册的视角下,这个过程本质上只是向命名空间中新增一个新的 key–value 对——只要 key 不冲突,新增模块就不会影响任何已存在的模块,实现了完全独立、可叠加的扩展方式。

对使用者来说,所有模块的访问方式始终保持一致,大幅降低了理解和使用成本;

对开发者来说,注册一个自己的模块也变得非常轻量——不需要额外流程,不需要手动维护注册表,只要遵守约定,底层机制就会自动把事情处理好。

在后续的文章中,我们还会继续拆解 LazyLLM 里其他“lazy”的小设计。当系统规模真正开始扩展时,你会发现,这些看似不起眼的机制,往往才是最省时间、也最少踩坑的那一部分。


欢迎升级体验 LazyLLM 最新版本,请大家去github上点一个免费的star,支持一下~

LazyLLM项目仓库链接🔗:


更多技术内容,欢迎移步 gzh “LazyLLM" 讨论!

拒绝花哨,回归本质:19 款主流与小众浏览器硬核性能横评 (2026版)

如今的桌面浏览器市场,越来越像一个臃肿的“超级应用缝合怪”——网盘、AI 聊天、加密钱包、信息流推荐被强行塞进我们的地址栏旁。但我们不禁要问:作为一款网页浏览器,它最核心的“渲染网页”能力,现在究竟表现如何?

我认为,一个浏览器最基本的浏览功能做好了,才有资格去考虑做其他的功能。为了探寻这个答案,我在 macOS 环境下对全球范围内 19 款主流及区域性浏览器进行了一次严谨、纯粹的性能摸底。

🧪 评测标准与入围名单

本次评测彻底摒弃了所有附加功能的感性体验,只看两项硬指标:

  1. 核心渲染性能:采用业界最具权威的 Speedometer 3.0 跑分工具进行测试。它模拟了现代网页中复杂的 DOM 操作和前端框架运行,得分越高,网页响应越快。
  2. “臃肿度”指数:对比浏览器的初始安装包体积与安装后的实际磁盘占用。
注:因 macOS 系统限制,部分移动端或 Windows 独占浏览器(如三星 Internet、安卓自带、搜狗等)未列入本次测试。

🏎️ 第一部分:绝对性能之战 (Speedometer 3.0 跑分)

我们将 19 款完成测试的浏览器按性能得分从高到低进行了排列。结果不仅印证了行业霸主的实力,也揭开了许多套壳浏览器的遮羞布。

排名浏览器Speedometer 3.0 得分误差范围 (±)
1Google Chrome52.35.6
2Coc Coc (越南)50.74.6
3Vivaldi49.74.6
4Brave48.43.7
5Apple Safari48.24.6
6Naver Whale (韩国)47.94.0
7Opera46.94.5
8ARC44.73.5
9微信自带浏览器44.33.4
10Microsoft Edge43.13.5
11UC Browser41.53.7
12Yandex Browser41.02.2
13Quark 夸克40.83.4
14Maxthon 傲游40.32.9
15360 极速浏览器38.40.97
16Mozilla Firefox36.22.6
17DuckDuckGo34.92.2
18Zen32.51.9
19QQ Browser22.22.4

🔍 实在点的测评:

  1. Chrome 依然不可撼动:凭借 52.3 的高分 ,Chrome 证明了其霸主地位不仅靠预装,V8 引擎的底层优化依然是目前的行业天花板。
  2. 小众的逆袭:基于 Chromium 二次开发的 Coc CocVivaldi 跑出了接近甚至超越 Safari 的成绩。只要厂商把精力花在刀刃上,Chromium 内核的潜力极大。
  3. 老牌劲旅的没落与垫底的耻辱:作为开源社区骄傲的 Firefox 仅得 36.2 分 ,引擎性能明显掉队。而国内的 QQ浏览器 得分仅为 22.2 ,不仅全场垫底,甚至连微信内置的简易浏览器(44.3分) 都打不过,基础体验堪忧。

第二部分 📦 浏览器“臃肿度”真实数据公开

光跑得快不行,还得看为了这点速度,浏览器占用了我们多少存储资源。我们将这 19 款浏览器的初始安装包体积与安装后的实际磁盘占用进行了对比(按安装后体积降序排列):

排名浏览器安装包大小安装后实际占用简评与备注
1Microsoft Edge364 MB959.8 MB🏆 全场最臃肿,逼近 1GB。功能大杂烩的代价。
2ARC401 MB833.0 MB安装包全场最大,Swift 原生复杂 UI 极度消耗资源。
3Naver Whale335 MB720.5 MB韩国本土功能深度缝合。
4Quark 夸克306 MB709.3 MB披着浏览器外衣的网盘与 AI 应用,Mac 版出奇的大。
5Maxthon 傲游312 MB696.2 MB老牌浏览器,底座依然沉重。
6Brave224 MB692.5 MB内置了强力广告拦截与区块链组件。
7Google Chrome225 MB667.0 MB行业的“标准身材”。
8Coc Coc232 MB665.1 MB越南国民级,集成了强力下载功能但体积控制尚可。
9Vivaldi206 MB664.9 MB极度复杂的 UI 客制化与内置邮件,体积却与 Chrome 相当。
10Opera234 MB554.0 MB常规 Chromium 套壳体积。
11Zen187 MB519.6 MB相比 Arc 轻量了不少的精美 Firefox 分支。
12360 极速浏览器200 MB498.0 MB带着双核(IE+Blink)的历史包袱,体积控制在 500M 内。
13Mozilla Firefox138 MB477.6 MB开源独苗,依然保持着相对精简的身材。
14Yandex Browser166 MB440.1 MB俄罗斯霸主,功能丰富且体积控制优秀。
15UC Browser165 MB406.8 MB曾经的王者,体积相对克制。
16QQ Browser181 MB386.1 MB跑分垫底,但这小巧的体积说明它根本没装多少硬核渲染库。
17DuckDuckGo130 MB335.2 MB极致轻量,真正的隐私保护“保险箱”。
18Puffin61 MB124.6 MB主打云端渲染(强制收费),本地基本只剩个壳子。
-Apple SafariN/A未获取macOS 系统级预装,无独立安装包。

🤡 耻辱柱特写:Puffin 浏览器,一场“云端”骗局

在本次测试中,有一款浏览器我连跑分的机会都没给它,那就是号称“主打云端加速”、安装包仅 61MB 的 Puffin

作为一款标榜现代与安全的浏览器,Puffin 的产品逻辑可谓极其傲慢且反人类:

  1. 强制登录的牢笼:打开浏览器的第一步,你甚至看不到地址栏,迎接你的是一个强制注册/登录账号的拦截页面 。连网页都还没开始渲染,就先索要用户的个人隐私。
  2. 吃相难看的付费墙:当你耐着性子登录后,它直接弹出了一个“Account Details”页面,强制要求你购买 Puffin 365 的订阅服务才能正常使用 。

这已经脱离了“浏览器”的范畴。一个连基础免费浏览都做不到、必须花钱买“云端渲染”服务的软件,在如今性能过剩的桌面端显得极为滑稽可笑。强烈建议避雷。


📦 第二部分:“臃肿度”大赏 (体积极客局)

光跑得快不行,还得看为了这点速度,浏览器占用了多少系统资源。我们对比了这批浏览器的“体型”。

最臃肿的“巨无霸” TOP 3

Microsoft Edge (959.8 MB):全场唯一安装后逼近 1GB 的产品。它集成了过多的企业功能、AI 侧边栏和购物组件,导致体积极度膨胀,但跑分(43.1) 却仅排在中游。

  • ARC (833.0 MB):作为新锐浏览器,Arc 采用了复杂的 Swift 架构和全新 UI,是典型的“为了设计牺牲轻量”。
  • Naver Whale (720.5 MB) & Quark 夸克 (709.3 MB):这两者深度绑定了本土生态(韩国 Naver 服务与国内网盘生态),沉重的业务逻辑让它们的体积居高不下。
  • 相对精简的选手
  • DuckDuckGo (335.2 MB) 极其克制,符合其轻量隐私的定位。
  • 作为行业标杆的 Chrome(安装后 667 MB),在如今的同行衬托下,居然算得上是“标准身材”了。

🌐 第三部分:五大浏览器阵营全拆解

为了让你看清这些浏览器的真实面貌,我们跳出厂商的营销话术,将它们分为五个阵营进行扒皮式拆解:

1. 行业霸主与系统标杆

Google Chrome:毫无争议的首选。极速的渲染是以贪婪吞噬内存为代价换来的。它很强,但也因占据 70% 的份额而变得傲慢。

Apple Safari:Mac 用户的最优解(48.2分)。它在省电和能耗比上完爆所有对手,但对前沿 Web API 的支持总是慢半拍。

Microsoft Edge屠龙少年终成恶龙。曾经是个轻量的好产品,现在被微软塞入了海量私货(购物、游戏、信息流),沉重的包袱已严重拖累其基础渲染性能。

2. 极客、开源与隐私捍卫者

Brave:在底层直接拦截追踪器和广告,因为干掉了拖慢网页的垃圾脚本,跑分甚至超越了原生 Chrome(48.4分)。缺点是内置的加密货币(BAT)略显鸡肋。

Vivaldi:属于重度知识工作者的神器。即使堆砌了令人发指的复杂 UI 和内置邮件功能,底盘依然极稳(49.7分),证明了“功能多”不等于“渲染慢”。

Mozilla Firefox:全球唯一还在坚持独立引擎(Gecko)的主流独苗。令人心碎的是,其性能确实已被 V8 引擎拉开代差(36.2分)。用它,更多是为了对抗浏览器引擎垄断的信仰。

3. UI 形态的先锋试验田

Arc & Zen:它们试图打破“顶部地址栏+标签页”的陈旧交互,采用侧边栏逻辑和极简无边框设计。Arc 披着华丽的 Swift 外衣,而 Zen 是 Firefox 内核的套壳重塑(32.5分)。它们极具美感,但为此牺牲了相当一部分的基础运行效率。

4. 强悍的区域“地头蛇”

Coc Coc (越南) & Naver Whale (韩国):它们在各自国家市占率极高。特别是 Coc Coc,不仅加入了符合越南国情的“强力音视频嗅探下载”,跑分还杀到了全场第二(50.7分),其团队对底层优化的掌控力令人赞叹。

5. 中国特色的“生态捆绑器”与魔幻现实

这一阵营的共性在于:网页渲染往往只是它们顺带的功能,其真实目的是完成大厂的流量闭环。但在这其中,也诞生了全场最具戏剧性的反差。

  1. Quark 夸克:曾经主打无广告的极简浏览器,如今已彻底异化为“网盘+AI解题+短视频”的巨型缝合怪。709.3MB 的臃肿体积与 40.8 的平庸跑分 ,就是其团队将核心精力偏离网页渲染、本末倒置的沉重代价。
  2. 360 极速浏览器:由于国内大量陈旧的政务、银行系统仍死死绑定 IE,它的双核架构(Blink + Trident)成为了沉重的历史包袱。为了向下兼容,它的性能上限已被彻底锁死(38.4分)。360 极速浏览器安装的时候竟然要我的管理员权限,不理解。悄咪咪的讲一下,批评太狠,会不会攻击我电脑啊。
    image
  3. QQ浏览器全场的耻辱柱。它以 22.2 分的成绩断层垫底 。作为一款正儿八经的独立桌面浏览器,它的底层引擎维护已被彻底边缘化。它本质上就是一个推送腾讯新闻、引流腾讯全家桶的“桌面端毒瘤”,如何把你圈养在它的生态里,远比让你快速打开一个外部网页重要得多。
  4. 微信自带浏览器(内置 WebView)全场最大的反差与意外。令人眼前一亮的是,作为一个连独立入口都没有的内置组件,它的跑分竟然高达 44.3 分 。它不仅以碾压之势秒杀了自家主推的桌面端 QQ浏览器 ,甚至反超了微软精心打造的 Edge !

为什么会这样?因为微信的整个商业帝国(小程序、公众号文章、H5 小游戏)都重度依赖这个底层的网页渲染能力。如果微信的内置 WebView 卡顿,整个微信的生态闭环就会瞬间崩溃。因此,腾讯必须、也只能不遗余力地为微信配备最新、最优化的 Chromium/X5 渲染内核。
讽刺的现实:腾讯绝对有能力做一个跑分 44 分以上的优秀浏览器,但他们把这项技术用在了微信的内置组件上,而任由名义上的正牌主力“QQ浏览器”彻底摆烂。


🎯 总结与终极选择指南

当“浏览网页”本身就是浏览器的最高优先级时,我们的选择其实非常明确:

  1. 追求极致性能与全网兼容:别折腾了,装 Google Chrome
  2. Mac 用户且有续航焦虑:原生的 Safari 足以胜任 99% 的需求。
  3. 想要高度定制且不想牺牲速度:极客首选 Vivaldi 或内置去广告的 Brave
  4. 避坑警告:远离体积逼近 1GB 且越发臃肿的 Edge,抵制强制登录付费的 Puffin ,以及性能断层垫底、只在乎引流的 QQ浏览器 。(我会不会被公众号封杀啊😭)

浏览器本该是一个“打开世界的窗户”,而不是一个“把你锁在里面的房间”。连网页都渲染不快的浏览器,不配谈什么生态与未来。

附录一:测评图

image-20260227235128100

Chrome


image-20260227234734406

Edge


image-20260227234844607

Safari


image-20260227235429140

Firefox


image-20260227235620481

Opera


image-20260228000227349

Brave


image-20260228000831211

UC


Quark


image-20260228001355677

Yandex

image-20260228001636440

360


image-20260228001819188

QQ浏览器


image-20260228002037820

DuckDuckGo


image-20260228002244337

COC


image-20260228002405677

Naver Whale


image-20260228003942979

Vivaldi


image-20260228004137358

必须登录才能使用的 SB,还得花钱才能用

image-20260228004543032

Puffin


image-20260228004743948

Maxthon


image-20260228005007466

Arc


image-20260228005255982

Zen


image-20260228004640172

微信自带浏览器


附录二:安装包大小

image

附录三:安装后大小

image

现在 AI 发展这么快,大家早就不满足于“只会聊天”的机器人了。
AI 智能体(AI Agent)——这种能自己查资料、刷网页、自动干活的 AI,越来越多人想玩。

但一上手你就会发现,大部分 AI 智能体都特别不友好:

  • 只会命令行,敲半天代码都跑不起来
  • 环境配置一堆坑,新手直接劝退
  • 想改个参数,还要打开无数个配置文件

如果你也被这些问题烦透了,那今天介绍的这个工具,绝对是救星

它就是:
🦞 ClawX:专为普通人设计的 AI 智能体可视化桌面客户端

不用敲命令、不用配环境、不用写配置,
像装 QQ、微信一样,点点鼠标就能用上真正的 AI 智能体。

PixPin_2026-02-28_11-24-01.png


🦞 ClawX 到底是什么?

简单一句话:
ClawX 是一个桌面软件,让你用图形界面,轻松管理和运行 AI 智能体。

它跑在你自己电脑上,不用懂代码,就能让 AI 帮你:

  • 自动浏览网页
  • 实时查数据、监控信息
  • 设置定时任务
  • 自动把结果发到微信/飞书/Telegram/邮箱等

很多厉害的 AI 智能体(比如 OpenClaw)本身很强,但操作太极客,全靠命令行。
ClawX 就相当于给它装了一个“控制面板”,把复杂操作全部变成点鼠标。

你能得到什么?
✅ 不用再折腾命令行
✅ 不用手写一堆配置文件
✅ 像聊天软件一样和 AI 对话
✅ 可视化设置自动任务
✅ 像装 App 一样给 AI 加功能


🛠️ 安装 ClawX(超简单)

ClawX 支持三大系统:
Windows / macOS / Linux

安装步骤和普通软件一模一样:

  1. 去官网或 GitHub Releases 页面
  2. 下载对应你电脑的安装包(.exe / .dmg / AppImage)
  3. 双击安装,一路下一步

全程不用开终端、不用配环境变量、不用敲任何命令。


💡 第一次启动:跟着向导走就行

安装完打开 ClawX,会自动弹出设置向导,一步一步带你配置完。
全程就跟装个新软件一样自然,不想马上配也可以直接跳过,后面再改。

1. 选择语言与地区

PixPin_2026-02-28_11-24-42.png

2. 环境检查

缺少什么组件,软件会直接提示,跟着点安装就行,不用自己找。

PixPin_2026-02-28_11-25-06.png

3. 添加 AI 模型供应商

这里可以接国内大模型,我以智谱 AI举例:

  • URL:https://open.bigmodel.cn/api/paas/v4
  • 模型 ID:glm-4.6(也可以用最新版)
  • API Key:去智谱官网申请一个

⚠️ 小提醒:注意看下 token 消耗,别不小心用超了。

PixPin_2026-02-28_11-28-52.png

4. 连接消息渠道(以飞书为例)

想让 AI 自动发消息给你,可以绑定飞书、WhatsApp、Telegram、Slack 等。

以飞书为例:
官方参考:https://docs.openclaw.ai/zh-CN/channels/feishu

PixPin_2026-02-28_11-36-43.png

一定要加上这个权限:
contact:contact.base:readonly

PixPin_2026-02-28_11-38-25.png

5. 安装必要组件

最后一步,软件会自动检查并安装需要的依赖,点一下就好。

PixPin_2026-02-28_12-35-47.png


🧠 装好之后怎么用?

1. 和 AI 智能体聊天

主界面就是一个聊天窗口,跟微信一样:

  • 输入问题
  • AI 直接回答
  • 支持多轮对话、历史记录

而且支持 Markdown,代码、表格、清单都能正常显示。

PixPin_2026-02-28_13-00-18.png


2. 定时任务 & 全自动干活

以前 OpenClaw 要手写复杂的定时表达式,
在 ClawX 里,全部可视化点一点搞定。

你可以:
🕒 可视化创建定时任务
🚀 设置多久执行一次
📌 让 AI 7×24 小时自动跑

比如:
✔ 每天早上自动汇总新闻
✔ 每小时监控某个网页更新
✔ 自动抓数据发到你邮箱
✔ 晚上自动帮你查行情、查资讯

全程不用写一行代码。

PixPin_2026-02-28_14-04-33.png

PixPin_2026-02-28_14-04-52.png


3. 技能中心:像装 App 一样给 AI 加功能

ClawX 自带一个技能市场,就像手机的应用商店:

🔍 看有哪些技能
⚡️ 点一下就能安装
⚙️ 在界面里直接开启/关闭

不用命令、不用 npm、不用手动部署,
点一下,AI 就多一个新本领。

PixPin_2026-02-28_14-59-09.png


⚙️ 几个实用小技巧

想用好 ClawX,这几点建议很实用:

🧩 用稳定的 API 服务商
国内用户可以用国内大模型或稳定中转服务,更流畅。

💡 多个模型搭配用
主模型负责思考 + 小模型负责执行,自动任务效果更好、更省费用。

📊 定时任务别太频繁
频率太高容易花冤枉钱,太低又会错过信息,根据自己需求调整。


🚀 你能用 ClawX 做什么?

它不只是个玩具,而是能真正帮你省时间的工具。

🤖 私人 24 小时 AI 助理

✔ 聊天、问问题、写文案、润色邮件
✔ 整理笔记、安排日程
✔ 帮你梳理工作流程

相当于多了一个不用下班的数字员工


📈 自动监控小助手

✔ 自动盯股价、汇率、新闻
✔ 定时把结果发到飞书/Telegram/邮箱
✔ 夜里自动帮你刷网页更新

再也不用自己反复刷新页面。


💻 程序员的效率神器

✔ 帮你看代码、提优化建议
✔ 自动生成文档
✔ 触发自动化测试
✔ 辅助 CI/CD 流程

AI 不只是聊天,它还能动手帮你写代码、做开发


📌 最后说一句

ClawX 最厉害的地方,就是把 AI 智能体从“程序员专属玩具”,变成了普通人也能用的日常工具

它实现了一件事:
不是让 AI 自己会干活,而是让你轻松指挥 AI 干活。

不管是日常助手、自动监控、还是开发提效,
ClawX 都是一款免费、开源、值得一试的桌面 AI 工具。

现在下载 → 安装 → 点点鼠标,
你的电脑,马上就能变成一个真正的 AI 智能助理

如果说大多数行业大会还停留在“讲趋势、秀 PPT”的阶段,那么 ProveIt! 更像是一场反套路的工业技术现场。

2 月 16 日–21 日,TDengine 亮相在美国达拉斯举办的 ProveIt! 2026 活动,并以 Silver Sponsor 身份参与现场展示,与来自全球的工业软件厂商、系统集成商及制造业用户展开面对面交流。

ProveIt! 是近年来在北美工业数字化圈逐渐受到关注的实践型线下活动。与以主题演讲为主的传统行业大会不同,这类活动更强调真实互动与技术交流氛围,鼓励参与者围绕实际架构与落地经验展开讨论。现场不仅有技术展示,也有大量围绕系统互操作性、工业数据架构以及 AI 落地路径的深度交流。

在今年的活动中,来自制造、自动化、能源及工业软件领域的技术从业者齐聚一堂。围绕工业数据基础设施的讨论成为现场的核心议题之一,其中 Unified Namespace(UNS)理念、工业数据互联互通以及 AI 驱动的数据利用方式,都成为参会者关注的热点方向。随着工业系统逐步走向开放与融合,如何构建更具实时性与可扩展性的工业数据底座,正在成为越来越多企业思考的问题。

在此次活动中,TDengine 设立展位,面向与会者现场演示了平台在工业时序数据处理与 AI 分析方向的能力。值得一提的是,这也是 AI 原生的工业数据管理平台 TDengine IDMP 自发布后首次面向全球工业用户的集中线下展示。通过系统演示与互动交流,向参会者呈现了从时序数据底座到 AI 驱动分析的一体化能力,并重点展示了“无问智推”等智能能力,让工业数据从“被查询”走向“主动理解与呈现”。

与线上交流不同,线下技术活动提供了更直接的沟通场景。活动期间,多位在工业数字化领域具有影响力的技术领袖也来到 TDengine 展台交流,对工业数据管理平台在工业 AI 中的作用表现出浓厚兴趣。例如,长期关注工业数字化转型的行业专家 Jeff Winter 在现场体验了“无问智推”等能力,对基于大模型实现的实时分析与自动生成可视化表现出浓厚兴趣;而在工业 4.0 与 Unified Namespace 社区具有广泛影响力的 Walker Reynolds 也专程来到展位体验相关功能,并与团队就工业数据架构与 AI 融合展开深入交流。

尤其是在工业 AI 逐渐从概念走向落地的背景下,越来越多讨论开始聚焦一个核心问题:AI 能力之外,底层数据平台是否具备足够的实时性、稳定性与开放性。

从行业发展趋势来看,工业数字化正在进入新的阶段。早期企业更多关注单点系统建设,而当前越来越多组织开始重新审视数据基础设施本身。围绕实时数据处理、统一数据语义以及跨系统协同能力构建的新一代工业数据管理平台,如 TDengine IDMP,正在成为制造业技术演进的重要方向之一。ProveIt! 所倡导的开放交流环境,也为行业提供了一个更加贴近真实应用语境的沟通空间。

对于 TDengine 而言,此次达拉斯之行不仅是一次海外线下展示,也是一场面向全球工业技术生态的深度交流。通过与来自不同国家与行业背景的技术人员面对面沟通,进一步加深了对国际工业数字化需求的理解,也获得了大量来自一线实践的反馈。

未来,TDengine 也将继续围绕工业数据底座与 AI 融合方向推进技术演进,并在更多真实场景中推动工业数据价值的持续释放。

深夜炸场!文生图圈又被谷歌“炸”了一次。Nano Banana 2 突然上线,直接登顶榜首。

这次,Nano Banana 2 主打“极速体验”+“专业画质”。但真正拉开差距的是一个新能力—“实时联网”

简单来说,这不再是一个“只会画画”的模型。它背后接的是 Gemini 整套搜索能力,相当于给图像模型装上了一个能查资料的“大脑”

当模型可以边理解、边检索、边生成,画面就不只是“好看”,而是更贴合真实世界的信息结构。

比如,一句话生成的街景,细节多到能放大看招牌。远处的广告牌、路牌、橱窗陈列都像是真实拍摄。

再比如,让“劈柴哥”给你递烟,人物神态、肢体逻辑、环境光影都到位。如果不说,很难一眼断定是 AI 生成。

劈柴哥还亲自站台,Cue 了一下 “靠窗座位” 的玩法,只要一句话,无论是繁华都市夜景,还是荒野雪山木屋,你都能精准生成“窗口视角”的构图,每一帧都基于真实的地理和气象信息,清晰展现“实时联网”能力有多强大。

不过,“画得像”只是第一步。更重要的是,它打开了一个新方向“信息图生成”,这可就非常实用了。

前段时间有个很火的模型梗:

我想洗车。洗车场离我 50 米。我应该走过去还是开车过去?

不少顶尖模型翻了车,给出“步行更环保”的答案。问题在哪?它们只分析了“50 米”,却忽略了“洗车的目标”。

谷歌直接生成了一张图,对比“走路”和“开车”的逻辑链,给出正确结论,既展现了 Gemini 的强大思考能力,还展现了 Banana2 的一流绘图能力。网友表示“这是无声的炫耀”。

在不少网友看来,图像生成似乎又上了一个台阶,弥合了与真实世界之间的鸿沟。

不过也有网友对此表达了深刻担忧,当图像越来越难分真假,AI 造假会不会更泛滥?

对此,谷歌给出的方案是“溯源”。Nano Banana 2 生成的内容,会叠加 SynthID 水印,并结合 C2PA 内容凭证体系,方便平台识别来源。

目前文生图的追逐战进入焦灼阶段,在权威图像模型测评 Artificial Analysis 榜单中,可以看到,前三名里两个被 Nano Banana 系列包揽。其中,Nano Banana 2 位列第一,图像编辑能力第三,价格却只有第二名 OpenAI 的一半,堪称“性价比之王”。

不过从分数看,头部模型之间的差距其实非常小。行业已经进入贴身肉搏阶段。

谷歌上个月披露,Gemini 应用月活跃用户达到 6.5 亿。官方高管也承认,Nano Banana 的“病毒式传播”是增长的重要原因之一。

文生图的竞争,已经不只是比画面,而是比速度、比理解力、比生态整合。

网友玩嗨了,“实时联网”为文生图带来什么不同?

行或不行,上手再说。网友们从各种角度开始测评。

有人用来测试一张手镯图做视觉设计方案,结果令他震惊,直呼“设计已死”。

有人称这是世界上最好的图像模型,生成的图片细节可以以假乱真。

有人惊呼,连图片上每张卡片的文字都准确无误。

有人干脆用来生成碑文,又快又好,效果震撼。

有网友认为,这次 Nanana2 的可控性太强了,人物细节贴合想要的效果,而且十分逼真。

而且人物无论怎么变化,都不会变形。

整体的视觉效果也更“去 AI 味”。

做绘本更是手到擒来。

人们似乎都被 Banana2 折服了。

在众多测评中,大家还非常关心“实时联网”这一新功能的升级,能“实时联网”的图到底和过去的生成图有什么不同,强在哪里,又有多实用。

先来看官方案例。Banana 2 生成了一张颇具“手工风”的水循环示意图:棉花做云、纸片当山、玻璃碗装海水,质感细节到位。更关键的是,它不仅理解力在线,把蒸发、凝结、降水、汇集的完整链路讲清楚了,而且文字标注也全部准确,对应关系清晰,没有逻辑跳步。

还有网友拿它来制作食谱,效果同样惊艳:排版、分区、步骤结构都像专业设计稿。她直言,大家低估了 Nano Banana 2 的“可视化能力”,这将颠覆信息图表领域。

更详细的食谱图和科普图也被陆续晒出。

甚至拿来做医学解剖图,也相当能打,手绘草图秒变专业科普制图。

这种将抽象概念可视化的能力,正在释放文生图更大的想象空间。它不再只是“生成好看的图片”,而是开始承担知识组织与表达的角色。

  • 在教育里,抽象概念可以直接变成一张清晰的图,学生不用啃厚书,一眼就能看懂逻辑。

  • 在科研中,复杂的环境模型、气候机制能快速变成示意图,不同专业的人沟通更高效。

  • 在政策汇报、企业报告和数据分析场景里,冗长材料也能被压缩成重点明确的可视化内容,让人迅速抓住核心......

它打开的就不仅是设计效率,而是表达效率。,让复杂问题变得可被看见、被理解、被讨论。

谷歌产品负责人 Logan Kilpatrick 也表示,实时联网能力会催生大量新的应用场景。当模型不再只依赖训练数据,而是可以调用最新信息进行理解与生成,图像就不只是创作工具,而开始成为实时知识的表达界面。

Nano Banana 2 的全面升级

此次,Banana 2 除了“实时联网”这个大升级外,还把文生图多年来的几个老痛点,集中补了一轮,功能全面升级。

比如在文本渲染和翻译这块,Banana2 解决了一个 AI 图像的关键短板:画面很好看,写字就翻车。

这次 Nano Banana 2 明显是下了狠功夫。生成的文字清晰、拼写准确、排版自然,已经可以直接拿去做营销海报、邀请函、贺卡,甚至产品宣传图,不用再手动修字。

它还支持图中内容的翻译和本地化。你可以直接把一张图里的文字改成另一种语言,而画面风格、排版结构依然保持一致。这对做全球化传播的人来说,实用价值很高。

看官网案例中,无论是香水广告中的品牌标识,还是橱窗上的英文招牌,人身上的纹身,都几乎看不出明显 AI 痕迹。它不是“图里带点字”,而是“图文一体生成”。

另一个大升级是主体一致性大幅提升。在一个工作流里,最多可以保持:

  • 5 个角色的特征一致

  • 14 个对象的高保真度稳定输出

这意味着,比如你在做漫画、品牌角色设定、系列海报,人物的脸不会一张一个样,服装不会莫名变化,场景里的物件不会反复“变形”。

看官方案例中不同动物角色,无论动作、神态如何变化,都能保持一致。

即使转换视角,也依然保持稳定。

更有意思的是,它还可以自由换纹理、换材质,大胆“变色”。

比如一只“香蕉恐龙”。

松鼠饼干

水母跑车、拉面跑车。

做游戏页面时,也能快速切换不同视觉风格。

Nano Banana 2 这次还在分辨率和画幅上下了功夫。

从 512px 到 4K,多分辨率可选。值得注意的是,这次新增了 512px 档位,专门针对低延迟和高负载场景优化。如果你需要批量快速生成、反复迭代草图,这个分辨率就是效率档

画幅比例也更丰富,除了常规比例,还新增了 4:1、1:4、8:1、1:8...... 横幅广告、超长信息流卡片、竖屏长图,都可以原生生成,不需要再后期裁切。

可以生成超长画面。

Nano Banana 2 不再只是“创意玩具”,而更像一个可控的图像渲染引擎。对普通用户来说是更好用;对企业来说,是更可规模化。

而且在视觉效果上,画面质量也全面升级,趋向可用级别。

  • 光影更自然

  • 材质更丰富

  • 细节更锐利

目前,它已经在 Google 产品体系里完成替换。

  • Gemini 默认出图能力更新

  • AI Mode 和 Lens 覆盖 141 个新增国家和地区

  • 支持额外 8 种语言

  • 在 Google Ads 中成为广告生成建议能力

不过也有网友表示,使用完体验一般,要求换回 Pro 或一代版本。

感兴趣的读者,可以速速体验一下。

参考链接:

https://gemini.google/tw/overview/image-generation/?hl=zh-TW

https://blog.google/innovation-and-ai/technology/ai/nano-banana-2/

对于中小企业(SME)而言,直接照搬大型企业的“重资产、全定制”AI+MES模式通常是行不通的。高昂的实施成本、漫长的周期以及对专业IT人才的依赖,往往是中小企业的“拦路虎”。
在2026年的当下,AI+MES在中小企业的落地策略核心在于:“轻量化、场景化、SaaS化”。不求大而全,但求在关键痛点上“单点突破,快速见效”。
一、以下是针对中小企业的具體应用策略和路径:
核心策略:从“大系统”转向“微服务”
中小企业不需要一个涵盖所有功能的巨型MES,而是需要“乐高积木式”的模块化应用。
SaaS化部署(云端订阅):

优势:无需自建服务器机房,无需庞大的运维团队。按年/按月付费,初期投入可降低70%以上。
现状:2026年,国内已有大量成熟的垂直行业SaaS MES(如针对注塑、五金、电子组装的万界星空云MES),预置了行业最佳实践和基础AI模型,开箱即用。

“小快轻准”的切入点:

不要试图一次性打通全流程。先选择一个痛点最痛、数据最容易获取、回报最快的场景入手。

二、四大高性价比的AI应用场景
对于中小企业,以下四个场景的ROI(投资回报率)最高,实施难度相对较低:
A. AI智能排产(解决“插单乱、交期不准”)
痛点:老板或车间主任靠Excel或脑子排产,一旦客户插单、设备故障,整个计划打乱,延期交付频发。
AI应用:

利用云端AI算法,输入订单、工序、设备产能等基础数据。
效果:系统能在几分钟内生成最优排程,并模拟插单后的影响。
成本:许多SaaS MES已内置此模块,无需额外开发。

B. 移动端数据采集与防错(解决“数据滞后、记录造假”)
痛点:工人手工填表慢、易出错,管理层看不到实时进度。
AI应用:

手机/PAD扫码:工人通过手机扫码报工,系统自动记录时间、数量。
AI语音录入:针对不便操作的场景,工人通过语音汇报异常,AI自动转文字并分类归档。
防错机制:如果上道工序未完成或物料不对,系统自动锁定,禁止下一道工序扫码启动。C. 轻量级视觉质检(解决“招人难、漏检多”)

痛点:熟练质检员难招且贵,人工疲劳导致漏检。
AI应用:

低成本方案:不再需要昂贵的工业相机阵列。利用普通高清摄像头 + 边缘计算盒子(Edge Box),部署预训练的AI缺陷检测模型。
适用性:特别适合外观缺陷检测(如划痕、污渍、缺件)。中小企业可按需租赁这种“检测服务”,按检测数量付费。

D. 设备简易联网与预警(解决“意外停机”)
痛点:老旧设备多,无法联网,坏了才知道修。
AI应用:

外挂式传感器:无需改造设备内部,直接在电机、主轴上粘贴无线振动/温度传感器(成本仅几百元/个)。
云端分析:数据上传云端,AI分析异常趋势,提前微信/短信通知老板或维修工:“3号机主轴轴承可能在未来48小时内故障,请检查。”


三、实施路径建议:三步走
第一步:数字化补票(1-2个月)
目标:把纸质单据变成电子数据。
动作:上线轻量级SaaS MES,实现工单下发、扫码报工、库存管理在线化。
关键:不要追求100%自动化采集,先让人工录入变得简单(如扫码、拍照)。
第二步:数据治理与连接(2-3个月)
目标:让数据流动起来,打破孤岛。
动作:打通ERP(财务/采购)与MES的数据接口;对关键瓶颈设备进行IoT改造(加装传感器)。
关键:确保数据的准确性,“垃圾进,垃圾出”是AI的大忌。
第三步:AI赋能与优化(持续迭代)
目标:利用数据产生价值。
动作:开启SaaS平台自带的AI功能(如智能排产、质量分析报表);针对特定痛点引入外部AI插件。
关键:关注业务指标的变化(如交付周期缩短了多少?废品率降低了多少?),用数据证明价值。

四、AI+MES避坑指南
忌“贪大求全”:不要一开始就想做数字孪生、黑灯工厂。中小企业资源有限,必须聚焦。
忌“重硬轻软”:不要花大钱买新设备,而忽略了现有设备的数字化改造和数据价值的挖掘。
忌“忽视一线”:系统必须让一线工人觉得“好用、省事”,而不是增加了他们的工作量。界面要极简,操作要傻瓜化。
警惕“定制化陷阱”:尽量使用标准产品。过度的定制开发会导致系统升级困难、维护成本极高,甚至把SaaS做成传统的私有化项目。

五、成功案例(参考)
某小型五金加工厂(30人):

问题:订单杂、换模频繁,经常找不到模具,交期延误。
方案:引入云端MES + 二维码管理模具。
AI点:系统根据历史数据,自动推荐下次生产同类产品的最佳工艺参数。
结果:找模具时间从平均20分钟降至2分钟,订单准时交付率提升25%。

某电子组装厂(80人):

问题:人工质检漏检率高,客户投诉多。
方案:在包装线增加2个摄像头 + 边缘AI盒子。
AI点:训练识别“漏装螺丝”和“标签贴歪”两个缺陷。
结果:漏检率降低90%,每年节省2名质检员人力成本,半年收回投资。

总结
对于中小企业,AI+MES不是“奢侈品”,而是“生存工具”。
2026年的技术环境已经允许企业以极低的门槛(甚至几万元起步)享受到AI带来的红利。关键在于转变思维:从“我要上一个大系统”转变为“我要解决这个具体问题”,利用成熟的SaaS工具和模块化AI能力,以小步快跑的方式实现数字化转型。

2025年,开源软件供应链投毒威胁持续升级,全年识别到的投毒包总量突破59,000个,相较2024年增幅超过50%,日均新增投毒包逾200个

NPM仓库仍是投毒重灾区,占比超过87%;与此同时,攻击目标已从传统组件仓库向IDE插件、浏览器扩展、GitHub Action、AI工具链等新型生态加速蔓延。

从攻击行为来看,2025年呈现三大显著演变

一是攻击手法从"广撒网"转向"定向精准狩猎",攻击者对 AXA、Airbnb 等目标企业内部包名的深度定制化投毒,体现了投毒前的深入侦查分析;

二是以 Shai-Hulud 事件为代表的蠕虫式传播机制首次大规模出现,3 天内感染逾千个 NPM 包、波及 2 万余个 GitHub 仓库,彻底刷新了投毒事件的规模边界;

三是信息窃取的目标愈发集中于可直接变现的高价值凭据,包括加密钱包私钥、云服务凭据及 CI/CD 流水线 Token,Shai-Hulud 供应链攻击最终导致 Trust Wallet 逾 850 万美元加密资产被盗,充分揭示了投毒攻击的实际危害深度。

墨菲安全研究院通过对 2025 年全年投毒数据的系统梳理,深入分析六类主要攻击模式、重点行业分布与风险演变趋势,并结合企业实际面临的治理挑战,提出构建全流程自动化检测与阻断、强化研发终端安全管控、建立开源资产管理台账、引入外部投毒情报等系统性治理建议,整理出这份《2025年度软件供应链投毒风险研究报告》,并在今天正式发布,旨在为企业安全团队提供可操作的供应链安全治理参考。img_v3_02vb_b9a27244-6be8-4466-b23c-0a84669054eg.png

Cilium 1.19 已发布,标志着这款基于 eBPF 的网络与安全项目已走过十年发展历程。本次发布的版本未推出旗舰级功能,而是聚焦于安全加固、加密增强、网络策略行为优化,以及提升大规模 Kubernetes 集群的可扩展性。

Cilium 在 LinkedIn 上的帖子将 1.19 称为一个特别的版本,以此庆祝项目首次提交代码至今的十周年;十年间,已有 1000 多名开发者参与贡献,提交次数超过 2900 次。2025 年 Cilium 年度报告解释了 Cilium 如何悄然成为生产级 Kubernetes 环境中占主导地位的 CNI(容器网络接口)。调查显示,超过 60% 的部署直接使用了 Cilium,如果将 Azure CNI powered by Cilium 和 GKE Datapath V2 等托管服务计算在内,超过 75% 的部署依赖基于 Cilium 的数据平面。报告指出,这一市场地位源于深思熟虑的技术选型,而非平台默认设置。用户将性能、基于 eBPF 并通过 Hubble 实现的可观测性以及高级策略语义列为选用 Cilium 的主要原因,这与 1.19 版本重点强化的更严格加密模式、更安全的跨集群默认配置和更深度的流量追踪高度契合。报告还显示,项目贡献量已稳定在每年约 10000 个拉取请求,Cilium 现已成为 CNCF 中仅次于 Kubernetes 的第二大贡献项目。

报告的第二个主题是 Cilium 及其相关项目向新领域的扩展,尤其聚焦 AI 工作负载,以及跨 Kubernetes 与虚拟机的统一网络。微软、谷歌和 TikTok 等大型机构,均使用 Cilium 支撑其超大规模 AI 训练集群与纯 IPv6 数据中心部署,而来自 ESnet 和 Nutanix 等公司的案例研究则体现了跨异构环境下统一可观测性与策略管控的价值。报告还将 Tetragon 定位为一个新兴的运行时安全层,目前正在开发 Windows 支持、持久化执行以及基于 uprobe 和 USDT 的用户空间钩子点。这一方向与 1.19 版本中强化的加密能力、Hubble 优化后的丢包归因能力相互补充,将更多执行逻辑纳入专用安全平面。

1.19 版本为 IPsec 和 WireGuard 引入了严格模式。这一变化将加密从尽力而为的选项变为节点间的硬性要求。在严格模式下,未加密的节点间流量会被直接丢弃,满足了金融与公共部门等场景的内部合规策略要求,旨在消除对集群网络内隐式信任的依赖。项目摘要指出,这一变化主要面向“受监管或零信任环境”。LinkedIn 上的讨论认为,这让 Cilium 的数据平面行为更贴近安全团队对现代服务网格的预期。此前社区曾有长期争议,Reddit 上就有用户指出,早期 Cilium 架构在适配严格 mTLS 模型时,会迫使运维人员“破坏集群安全”,这表明项目正在直接回应早期的批评意见。

该版本还新增了 Ztunnel 的测试版集成。Ztunnel 能够在无需边车代理的情况下实现工作负载之间 TCP 连接的透明加密和认证。在 1.19 的发布说明中,维护者介绍了如何将命名空间注册到 Ztunnel,使工作负载无需修改应用即可获得双向认证,这再次让 Cilium 更接近服务网格的理想形态。官方决定默认禁用现有的双向认证功能,并引导需要 mTLS 的用户使用 Ztunnel 方案,这也暗示了对早期设计选择的重新思考。其他类似项目如 Istio 仍依赖基于边车的部署。Reddit 上的从业者评论指出,这种更轻量的方案即便仍处于测试阶段,也能降低每个 Pod 的开销与配置复杂度,具备很强的吸引力。

对于多集群环境,当网络策略未指定集群时,默认行为已发生变化。在 Cilium 1.19.0 中,这类选择器默认仅允许来自本地集群的流量,这降低了因策略配置不当在 Cluster Mesh 部署中意外跨集群暴露服务的风险。该版本还新增了多级 DNS 通配符匹配,以及策略拒绝连接时 Cilium 返回 ICMPv4 “目标不可达”响应的选项。这些功能让网络策略更具表达力,也更易于调试。Kafka 协议匹配字段,以及 ToRequires 和 FromRequires 策略字段已被弃用,移除使用频率较低的复杂逻辑,帮助运维人员聚焦于实际大规模部署的常用模式。

从运维角度来看,Multi Pool IPAM(多池 IP 地址管理)升级为稳定版后得到了积极反馈,尤其是来自使用大型或分段地址空间的用户。本版本中已说明,Multi Pool IPAM 可与 IPsec 和直接路由搭配使用,已具备大规模生产使用条件。此前在 Reddit 上反馈 Cilium 高级功能“需要大量工作才能配置并正常运行”的用户,如今拥有了更清晰的跨多地址池分配地址的方案,这在混合集群或多租户集群中至关重要。双栈集群中支持将 IPv6 作为隧道底层选项,以及对 IP 伪装更细粒度的控制,也常在相关讨论中被提及。这些改进扩展了 Cilium 可支持的网络拓扑范围,且无需依赖脆弱的临时变通方案。

Cilium 的可观测性组件 Hubble 也迎来了一系列改进,成为社区讨论中反复提及的最后一组变化。Hubble 现在支持通过 IP 选项追踪特定流的数据包,并可在命令行中按加密状态过滤流量;同时还能通过具体触发丢包的网络策略对丢包事件进行标记。这些改进解决了长期以来的痛点:基于 eBPF 的数据平面在故障期间难以理解与排查。

Cilium 1.19.1 现已可用,更多详情请访问 Cilium 网站

原文链接:

https://www.infoq.com/news/2026/02/cilium-119/

整理 | 华卫

 

今日,特朗普在 Truth Social 发文称,在 Anthropic 与美国国防部公开争执后,已下令联邦机构停止使用 Claude 在内的所有 Anthropic 产品。他为仍在使用相关产品的部门留出了六个月过渡期,但明确表示,Anthropic 将不再被接纳为联邦承包商。

 

“我们不需要它,不想要它,也绝不会再与他们做生意。”特朗普在帖文中写道。此外,特朗普还威胁要对 Anthropic 采取更严厉的打击,尽管并未说明具体措施。“Anthropic 最好识相点,在过渡期内配合工作,否则我将动用总统的全部权力迫使他们服从,并随之追究重大民事与刑事责任。”特朗普表示。随后,白宫也在 X 上转发了帖文图片。

 

值得注意的是,特朗普并未提及此前威胁过的、将 Anthropic 列为供应链风险的计划。不过,紧接着美国国防部长 Pete Hegseth 就在另一条推文中火上浇油,声称“在获得一份价值高达 2 亿美元、用于为国家安全开发 AI 原型系统的合同后,Anthropic 上演了一堂傲慢与背叛的示范课。”除了这番指责,白宫正准备实质上将 Anthropic 列入黑名单。这是美国政府的一项重大升级举措,可能会威胁到这家 AI 初创公司与其他美国公司开展业务的方式。

 

同时,Hegseth 写道,“根据全面停止使用 Anthropic 技术的指令,我指示战争部将 Anthropic 列为国家安全供应链风险。即日起,任何与美军有业务往来的承包商、供应商或合作伙伴,均不得与 Anthropic 开展任何商业活动。”据悉,美国国防部计划在未来六个月内逐步停用 Anthropic 的 AI 技术。

 

而在几分钟前 OpenAI 首席执行官 Sam Altman 发的一条帖子后,事情彻底“反转”。网友们纷纷评价,“太不可思议了...”

“Claude 不完美,我们不能昧着良心”

据外媒报道,白宫与 Anthropic 的争端核心在于:Anthropic 拒绝让其 AI 模型用于大规模国内监控或全自动武器,Hegseth 认为这一限制过于严苛。

 

但 Anthropic 首席执行官 Dario Amodei 认为,设置安全防护措施是必要的,因为 Claude 并非完美无缺,不足以驱动完全自主的武器,而且强大的 AI 模型可能会引发严重的隐私问题。他表示,公司理解军事决策由白宫做出,并且从未试图“以临时方式”限制其技术的使用。“然而,在少数情况下,我们认为 AI 可能会破坏而非捍卫民主价值观,有些用途也完全超出了当今技术能够安全可靠地完成的任务范围。”

 

昨日,Amodei 在公开声明中重申立场,拒绝在这两点上妥协:不将 AI 用于完全自主武器以及不进行大规模国内监控。“我们非常希望继续为国防部及作战人员提供服务,但必须保留我们提出的两项保障措施。如果国防部选择停用 Anthropic,我们将配合平稳过渡至其他服务商,避免对军方现行规划、行动及其他关键任务造成干扰。”Amodei 当时表示。

 

“如果我们坚持这些安全保障措施,他们就威胁要将我们从其系统中剔除;他们还威胁要将我们列为‘供应链风险,这个标签原本用于美国的对手,此前从未用在美国公司身上,并援引《国防生产法》强迫我们取消这些保障措施。”此外,Amodei 还在博客文章中写道,“这些威胁并不会改变我们的立场:我们不能昧着良心答应他们的要求。”

 

对此,Anthropic 对齐团队负责人 Jan Leike 发推文调侃道:“美国政府刚刚宣布,他们正在为他们的‘checks notes’大规模国内监控项目寻找新供应商。”

 

而这可能会带来严重的财务后果。美国创新基金会高级研究员 Dean W. Ball 指出,“如果 Hegseth 如愿以偿,英伟达、亚马逊、谷歌都将不得不从 Anthropic 撤资。这简直是企图对一家企业实施‘谋杀’。我绝不可能向任何投资者推荐投资美国 AI;我也绝不可能建议在美国创办 AI 公司。”

Altman 带头,OpenAI 员工公开声援对家

然而,白宫试图将 Anthropic 塑造成“数字时代的弃儿”的做法,反而在 AI 圈提升了该公司的声誉。去年 7 月,Anthropic、OpenAI 与谷歌均获得了上限为 2 亿美元的美国国防部合同,OpenAI 允许军方在非机密场景中使用该公司的模型,而 Anthropic 是第一家将模型接入机密网络任务流程的 AI 实验室。

 

OpenAI 公开表态支持 Anthropic 的决定。昨日,OpenAI 首席执行官 Sam Altman 向员工发内部备忘录称,他希望该公司“努力帮助缓和”竞争对手 Anthropic 和国防部之间的矛盾。他同样设有此类“红线”,任何与 OpenAI 相关的国防合同也将拒绝用于非法或不适合云端部署的用途,例如进行大规模国内监控与开发自主攻击性武器。Altman 表示,他相信这些限制可以通过技术要求来管理,如要求模型部署在云端。

 

就连 2023 年 11 月曾与 Altman 公开决裂、随后自立 AI 公司的 OpenAI 联合创始人 Ilya Sutskever 也在 X 平台发声:“Anthropic 没有退让,这非常好;OpenAI 也采取了相似立场,这意义重大。未来这类挑战会更加严峻,相关负责人能否挺身而出、激烈的竞争对手能否放下分歧,将至关重要。很高兴今天看到这一幕。”

 

与此同时,已有近 500 名谷歌员工和另外 80 名 OpenAI 员工签署公开信支持 Anthropic。信中写道:“白宫正在与 Google 和 OpenAI 谈判,试图让它们同意 Anthropic 拒绝的条件。他们试图利用‘对方会妥协’的恐惧来分化各家公司。这种策略只有在我们彼此都不知道对方立场时才会奏效。”

 

美国参议员 Elizabeth Warren 也质问道:“特朗普政府惩罚 Anthropic,难道是因为它拒绝协助大规模监控美国社区或制造杀人机器人吗?美国人民有权知道特朗普政府官员在白宫谋划着什么。”

 

“我不确定这件事会走向何方。”Altman 在昨日接受外媒采访时称, “尽管我与 Anthropic 存在诸多分歧,但我大体上信任这家公司,我认为他们确实重视安全,我也一直很高兴他们在支持我们的作战人员。”Altman 表示,他将尝试让 OpenAI 与美国国防部谈判达成一项协议,在符合公司原则的前提下在机密环境中部署 AI 模型。他称公司会建立技术安全保障机制,并派驻人员确保一切正常运行。

 

并且,Altman 当时称,OpenAI 近几日已就此话题召开会议。“对我而言,重要的是做正确的事,而不是做看似强硬却虚伪的简单选择。但我意识到,从短期来看,这可能对我们不利,而且其中有很多细微差别和背景因素。”

 

而就在几分钟前,Altman 在 X 上火速宣布:与美国战争部达成协议,将模型部署在其机密网络中。他强调,其最重要的两项安全原则是:禁止在国内进行大规模监控,以及人对武力的使用负有责任,包括对自主武器系统的使用。不同于对待 Anthropic 的态度,战争部认同 OpenAI 的这些原则,并在法律和政策中予以体现,OpenAI 也将其纳入了协议。

 

Altman 声称,“在所有互动中,战争部都展现出对安全的充分尊重,并渴望与我们合作,以期取得最佳成果。”同时,他表示,“我们将部署功能性部署环境(FDE)来辅助模型运行,为了确保模型的安全,我们将仅在云网络上部署。我们要求战争部向所有人工智能公司提供相同的条款,我们认为所有公司都应该愿意接受这些条款。我们强烈希望事态能够缓和,避免诉诸法律和政府行动,并达成合理的协议。”

 

参考链接:

https://techcrunch.com/2026/02/27/pentagon-moves-to-designate-anthropic-as-a-supply-chain-risk/

https://www.pcmag.com/news/trump-slams-anthropic-as-leftwing-nut-jobs-for-refusing-pentagons-ai-demands

https://www.wsj.com/tech/ai/openais-sam-altman-calls-for-de-escalation-in-anthropic-showdown-with-hegseth-03ecbac8?mod=hp_lead_pos1

问题描述

img_v3_02vb_cf959689-43f1-48e1-a4f4-b28cd14bbfeg.jpg

Python Environment Tools (PET) failed after 3 restart attempts. Please reload the window or check the output channel for details. To debug, run "Python Environments: Run Python Environment Tool (PET) in Terminal" from the Command Palette.

img_v3_02vb_519aedda-1e7a-4684-b0f4-1f6ea3265a8g.jpg

2026-02-28T13:57:16.665+08:00 [info] Conda not found, turning off conda features. [Error: Request 'configure' timed out after 30000ms
    at Timeout.<anonymous> (/Users/ponponon/.trae/extensions/ms-python.vscode-python-envs-1.20.1-universal/dist/extension.js:2:534062)
    at listOnTimeout (node:internal/timers:588:17)
    at process.processTimers (node:internal/timers:523:7)]
2026-02-28T13:57:20.672+08:00 [info] [pet] Starting Python Locator /Users/ponponon/.trae/extensions/ms-python.python-2026.2.0-universal/python-env-tools/bin/pet server
2026-02-28T13:57:20.672+08:00 [info] [pet] Python Environment Tools restarted successfully
2026-02-28T13:57:20.674+08:00 [info] [pet] configure: Sending configuration update: {"workspaceDirectories":["/Users/ponponon/Desktop/code/me/github/nanobot"],"environmentDirectories":["/Users/ponponon/Desktop/code/me/github/nanobot/**/.venv"],"pipenvExecutable":"pipenv","poetryExecutable":"poetry","cacheDirectory":"/Users/ponponon/Library/Application Support/Trae/User/globalStorage/ms-python.vscode-python-envs/pythonLocator"}
2026-02-28T13:57:20.674+08:00 [error] [pet] Process error: 发生了系统错误 (spawn /Users/ponponon/.trae/extensions/ms-python.python-2026.2.0-universal/python-env-tools/bin/pet ENOENT)
2026-02-28T13:57:50.674+08:00 [warning] [pet] Configure request timed out, killing hung process for restart
2026-02-28T13:57:50.675+08:00 [error] [pet] configure: Configuration error Request 'configure' timed out after 30000ms
2026-02-28T13:57:50.675+08:00 [warning] [pet] Request timed out, killing hung process for restart
2026-02-28T13:57:50.675+08:00 [error] [pet] Error refreshing Request 'configure' timed out after 30000ms
2026-02-28T13:57:50.675+08:00 [info] Pyenv not found, turning off pyenv features. [Error: Request 'configure' timed out after 30000ms
    at Timeout.<anonymous> (/Users/ponponon/.trae/extensions/ms-python.vscode-python-envs-1.20.1-universal/dist/extension.js:2:534062)
    at listOnTimeout (node:internal/timers:588:17)
    at process.processTimers (node:internal/timers:523:7)]
2026-02-28T13:57:50.676+08:00 [info] [interpreterSelection] Applying initial environment selection for 1 workspace folder(s)
2026-02-28T13:57:50.677+08:00 [error] [interpreterSelection] Failed to set environment for /Users/ponponon/Desktop/code/me/github/nanobot: Error: Python Environment Tools (PET) failed after 3 restart attempts. Please reload the window or check the output channel for details. To debug, run "Python Environments: Run Python Environment Tool (PET) in Terminal" from the Command Palette.
2026-02-28T13:57:50.678+08:00 [info] [interpreterSelection] global: none (source: autoDiscovery)
2026-02-28T14:04:26.436+08:00 [info] Refreshing poetry environments

遇到就需要 reload windows 才能,但是 reload 没正常几分钟后又会崩溃

解决方案

img_v3_02vb_6096ba36-8682-446f-bd2c-2e6959bc468g.jpg

把这个插件的版本从 1.20.1 降级到 1.16.0 就好了

sobbing

据新浪科技报道,多方消息证实,2026 年中国手机行业将迎来全面涨价潮。新品涨幅最低可达 1000 元以上,OPPO、一加、vivo、iQOO、小米、荣耀等主流品牌均计划上调新老机型售价。

目前国内主流手机品牌均已完成涨价方案的敲定,部分品牌已向线下经销商、线上渠道商下发了调价通知。

市场调研机构 IDC 也预测,今年手机涨幅将突破 30%,同比涨价 300-1000 元,大存储版本甚至贵 2000 元,新一轮涨价潮即将来袭。

演讲者: 晨曦 | Dataworks 高级技术专家

导读:
数字化转型浪潮中,企业正面临三大关键挑战:出海全球化需要开源架构实现多云部署;降本增效要求数据湖技术减少拷贝、提升引擎性能;融合 AI 驱动内部提效及业务创新。

面对上述挑战,阿里云 DataWorks 推出开源湖仓智能平台,通过多模态数据统一治理、AI全链路血缘追踪和一体化开发能力,实现从数据入湖到模型推理的端到端提效。借助湖仓迁移中心自动化上云方案与ChatBI智能交互等创新功能,显著降低企业迁移成本与AI使用门槛,助力全球业务"一次开发、多地部署",加速数字化转型与全球化落地。

本次分享包括三个方面:

  • 企业在 Data+Al 领域面对的挑战
  • Dataworks 的架构设计与实践
  • 即刻上云方案介绍

企业在 Data+AI 领域面对的挑战

1. 企业业务在发生深刻变革

  • 企业出海:构建统一、松耦合的多云架构
    从制造业、电商、短视频到 web3,均呈现出规模化出海态势。这一趋势对企业技术架构提出明确要求:“一套架构、全球部署”,以避免对单一云厂商的深度依赖,而开源技术凭借其松耦合特性和跨云兼容性,成为支撑这一战略的理想选择,有效降低了架构迁移与运维的复杂性。
  • 提效降本:从 T+1 到实时,构建统一数据湖
    与此同时,降本增效已成为企业核心诉求。企业通过数据湖技术消除冗余数据拷贝、提升引擎执行效率以节约计算资源(如 CPU 利用率优化)及人力维护成本,进而缩短任务处理周期。在此背景下,DataWorks 结合 Serverless Spark 通过智能化调度与高性能计算能力,助力企业实现降本增效。
  • 拥抱 AI:AI 驱动开发提效与产品创新
    尤为关键的是,AI 已经成为生产力工具和创新引擎,企业拥抱AI技术已经成为必选项。一方面用于内部提效,通过 AI 辅助开发(如代码生成、任务编排),将传统开发周期从一天缩短至半天,提升研发效率;另一方面驱动企业创新 AI 应用、大模型服务及行业场景解决方案以赋能客户。DataWorks 正在集成 AI 能力,构建智能化数据平台。

2. Data + AI 一体化架构成为重点关注

8c48b6512657476892e894220f5bcc81.png
随着企业数字化转型深入,Data + AI 一体化成为技术架构的核心方向。传统数据湖主要管理结构化与半结构化数据(如 Parquet、JSON),如今正向全模态统一治理演进,将图片、音频、视频等非结构化文件纳入湖仓体系,实现“一湖多源”统一存储与管理。同时,计算引擎从单一大数据工具扩展至支持 AI 场景 Spark、Ray 等分布式框架,推动开发平台向一站式、智能化发展。

  • 数据湖范围扩展:从结构化到全模态统一管理
    现代数据湖不再局限于结构化数据,而是通过 Data Lake Formation 架构整合 Paimon、Iceberg 等格式表,并支持原始文件(如图像、音视频)直接入湖。借助 Lance、File 等格式支持,企业可对全类型数据进行统一元数据管理、权限控制与生命周期治理,为 AI 模型训练提供高质量、可追溯的数据资产。
  • 计算引擎多元化:Spark 与 Ray 共同支撑 AI 开发
    在 AI 场景中,Apache Spark 凭借其强大的批处理能力与 Python 生态兼容性,广泛用于大模型训练前的数据清洗、特征工程与推理任务。而 Ray 因其低延迟、高并发特性,被 OpenAI 等头部机构用于分布式训练与强化学习。两者共同构成 Data + AI 的核心计算底座,支持从数据准备到模型推理的全流程高效执行。
  • 开发治理一体化:构建一站式 Data + AI 平台
    企业亟需统一平台实现数据与 AI 全流程协同。基于 DataWorks 的一站式开发治理平台,集成 Spark、Flink、Ray 等引擎,支持 Notebook、Copilot 智能辅助开发,覆盖数据安全、数据管理、数据开发、数据集成等环节。该平台不仅提升研发效率,还填补了 AI 领域在版本管理、模型追踪、合规审计等方面的治理空白,助力企业构建可持续发展的智能数据体系。

DataWorks 的架构设计与实践

1. 阿里巴巴生态体系

6806db04831e4d36a8603fc44ed54eb6.png
作为阿里云历史积淀深厚的一站式数据开发治理平台,DataWorks 已深度集成于阿里巴巴集团99%以上的业务单元,成为支撑全域数据资产的核心基础设施。DataWorks 不仅集成了大数据引擎(如 Spark、Flink),还纳入了 AI 引擎(如 Ray),支持从数据处理到大模型训练推理的全流程。

  • 统一计算底座:多引擎高效协同
    DataWorks 支持多引擎统一调度,涵盖批流处理、分布式训练等多种场景。通过标准化接口与作业编排,打破数据与AI处理之间的隔阂,实现“一次开发、多引擎运行”。这使得用户能够灵活调用不同引擎完成任务,提升资源利用率和开发效率。
  • 模块化功能层:覆盖全生命周期的数据治理
    DataWorks 提供了全面的数据开发与治理能力,包括可视化开发、数据同步、质量监控、安全合规等。这些模块共同构建了数据接入、加工、建模到服务化的闭环流程,确保数据在流转过程中可管、可控、可追溯,满足企业的数据治理需求。
  • 上层应用支撑:推动业务创新与发展
    基于 DataWorks 构建的数据资产与服务能力,为阿里巴巴旗下各业务线提供了强大的数据支持。无论是交易类APP还是健康旅游等服务,都能从中受益,加速业务决策过程并优化用户体验。最终,DataWorks 助力企业在数字化转型道路上取得成功。

2、DataWorks 产品优势

c4e255f58a774ceea9c3583efc14e0c2.png
2025 年,DataWorks 的核心优势聚焦两大方向:一是 AI + 大数据深度融合,通过集成 Spark、Ray 等 AI 友好引擎与 Copilot 智能开发能力,支持从数据准备、特征工程到大模型推理的端到端 pipeline;二是湖仓一体架构升级,全面兼容 Paimon、Iceberg、Delta Lake 等开放湖格式,实现结构化与非结构化数据统一存储、统一元数据管理与统一治理,构建高性能、低成本、可扩展的新一代数据基础设施。

3、面向开源湖仓Data+AI一体化平台架构

3921d7f8574e4cf18c5da2b52e99e7bc.png
在2025云栖大会上,DataWorks 发布多项重磅能力,全面升级为面向开源湖仓的智能数据开发治理平台。依托 Data Lake Formation(DLF) 与统一元数据服务,实现结构化、半结构化及非结构化数据的统一管理。新增多模态数据管理、ChatBI、Data+AI 开发 Notebook 等模块,结合 Serverless Spark 引擎优化,大幅提升开发效率与资源利用率。

  •   多模态数据管理:构建统一湖仓数据资产
    DataWorks 支持在 DLF 或用户自建湖上进行多模态数据统一治理,覆盖 PDF、图像、音视频等非结构化数据。通过 Paimon、Iceberg、Hudi 等开放格式支持,实现全类型数据的元数据注册、权限控制与生命周期管理,为 AI 模型训练提供高质量、可追溯的数据底座。
  •   Data+AI 开发:融合 Notebook 与智能工具链
    推出 Data+AI 开发 Notebook,集成 Spark、Ray、Hive 等引擎,支持 Python/SQL 混合编程,实现从数据处理到模型推理的一站式开发。结合 Copilot Agent 模式,提供任务自动执行、代码生成、作业调试等智能辅助功能,显著降低 AI 开发门槛。
  •   ChatBI 与智能交互:自然语言驱动数据分析
    全新发布 ChatBI 模块,用户可通过自然语言提问完成数据探索与分析。系统基于语义理解与 SQL 生成能力,自动调用底层引擎执行查询,并以可视化图表返回结果,实现“所问即所得”的智能分析体验,提升业务人员数据使用效率。
  •   底层支撑:统一调度与 Serverless 弹性计算
    平台依托 统一调度执行引擎 与 统一元数据服务,实现跨引擎作业协同与数据血缘追踪。重点推出 Serverless Spark,支持按需弹性伸缩、自动扩缩容,大幅降低运维成本。底层兼容 OSS、OSS-HDFS 及多种数据格式(ORC、Parquet),构建高性能、低成本的湖仓计算底座。

4、多模态数据管理

179d8e6c716e4f89a858304dd66bca38.png
DataWorks 面向 AI 与大数据融合场景,推出多模态数据管理能力,实现结构化、半结构化与非结构化数据的统一治理。通过 DLF Catalog 和 Lance 格式支持,构建全模态数据资产目录,提供语义化智能搜索、统一数据集挂载与权限管控,助力企业高效管理海量多模态数据。

  •   统一元数据:构建多模态数据资产目录
    DataWorks 支持将 DLF、OSS、NAS 等多源数据注册为统一数据集,并基于 Lance 格式实现元数据标准化。系统自动解析图像、视频等非结构化数据内容,生成可理解的标签与描述信息,支持版本管理与血缘追踪,构建企业级多模态数据资产地图。
  •   统一搜索:支持语义化智能检索
    平台提供 非结构化资产智能搜索 能力,用户可通过自然语言或关键词(如“黄色小汽车”“人行横道异常”)进行语义化查询。系统结合视觉识别与文本分析模型,实现对图像内容、视频帧、OCR 文本的深度理解,加速自动驾驶、安防等场景下的数据探索效率。
  •   统一使用:即查即用的数据集能力
    DataWorks 推出 数据集(Dataset) 概念,支持在 Python、Shell、Notebook 等环境中一键挂载数据集,无需手动配置 HDFS、OSS 客户端。底层自动完成数据读取与格式解析,支持 EMR Serverless Spark、MaxCompute、PAI DLC 等引擎无缝接入,实现“即查即用”的开发体验。
  •   统一管理:适配原有权限治理体系
    所有多模态数据均纳入统一元数据服务,继承企业现有权限管理体系。无论是大数据工程师还是 AI 开发者,均可在统一平台中进行数据访问控制、团队协作与审计追踪,确保数据安全合规,提升跨团队协同效率。

5、多模态数据血缘管理

image.png
在大数据领域,数据血缘早已成为治理与溯源的核心能力。然而,在 AI 工程化实践中,从原始数据到最终推理结果的全链路血缘追踪长期处于空白状态——模型训练依赖哪些数据?某次推理异常是否源于早期数据污染?这些问题缺乏系统性答案。DataWorks 率先推出 AI 全链路血缘追踪能力,填补行业空白。该能力覆盖完整 AI 生命周期:从数据集导入、通过 Spark 或 Ray 进行清洗与特征工程,到预训练、微调(SFT)、模型注册,再到部署与在线推理服务,每一步的数据流动与任务依赖均被自动捕获并可视化。基于统一元数据服务和调度引擎,系统可精准关联数据版本、代码任务、模型快照与服务接口,实现“一图看尽 AI 血缘”。这不仅提升了模型可解释性与调试效率,更满足金融、自动驾驶等高合规场景对 AI 审计与责任追溯的严苛要求,真正让 AI 开发变得透明、可信、可管。

6、Data + AI 一体化开发

4547199bcac5447f9370a2e122a3cca5.png
DataWorks 在 Notebook 中全面升级 Data+AI 一体化开发能力,支持 Python Cell 与 SQL Cell 双模式交互,结合智能代码补全、可视化分析与 AI Copilot 辅助,显著提升数据探索与模型开发效率。通过 Serverless Spark 引擎与多任务类型支持,实现从数据处理到 AI 训练推理的端到端协同。

  •   交互式开发:支持多 Cell 类型与智能提示
    DataWorks Notebook 支持 Spark SQL 与 Spark Python 双模式 Cell,用户可灵活切换进行数据探查与复杂计算。系统内置智能代码提示(IntelliSense)与自动补全功能,降低开发门槛。同时提供实时数据可视化图表(如柱状图、折线图),助力快速洞察数据特征。
  •   资源调度:弹性 CPU/GPU 资源按需使用
    平台支持 CPU/GPU 资源按需分配,用户可在 Notebook 中动态申请计算资源,用于训练或推理任务。支持周期调度与事件触发式调度,无缝集成至 AI Pipeline 流程中,实现资源高效复用与成本优化。
  •   环境自由定制:云原生执行与灵活扩展
    支持自定义镜像与挂载 OSS/NAS 存储,用户可预置 PyTorch、TensorFlow 等 AI 框架及私有库,实现“开箱即用”。系统提供标准镜像仓库与快速制作工具,支持一键部署定制化 Python 环境,满足复杂 AI 场景需求。
  •   丰富任务类型:覆盖全生命周期 AI 工作流

支持 60+ 种任务类型,涵盖批处理、流式计算、AI 训练、推理、模型评估等。用户可通过 Notebook 直接提交训练任务至 PAI 或 MaxCompute,实现从数据处理到模型部署的全流程闭环,构建完整的 MLOps 链路。
image.png

DataWorks 在 Data+AI 一体化开发中,突破传统 IDE 限制,推出 对话式 AI 开发模式 和 一次开发、多 region 部署 能力。通过集成 Qwen Code Agent 的 Copilot 功能,用户可自然语言提问完成数据查找、代码生成与任务编排;同时支持一键打包发布至全球 20+ 区域,满足企业出海与多云部署需求。

  •   智能化开发:AI 自动生成分析逻辑与执行代码
    DataWorks Copilot 支持用户以自然语言描述分析需求(如“找出近30天销售额最高的商品”),系统自动解析语义,生成 SQL 或 Python 脚本,并推荐可视化图表。集成 Qwen Code Agent 后,可理解复杂业务逻辑,输出结构化代码与执行步骤,实现从“人工编码”到“智能生成”的跃迁。
  •   AI 加持:全新推出 AI 搜索与 Copilot Agent 模式
    平台上线 AI 搜索 功能,用户可通过问答方式快速定位数据资产与血缘路径。同时推出 Copilot Agent 模式,支持多轮对话、上下文理解与任务拆解,可自动调用 DataWorks 内部工具完成数据清洗、建模、调度等操作,实现从“辅助”到“自主执行”的升级。
  •   一次开发 & 多 region 部署:支持全球化应用交付
    结合 DataWorks 的统一部署能力,用户可在本地完成开发后,一键导出发布包,快速部署至国内及海外 20+ 地域。支持跨区域数据同步与权限继承,满足企业出海场景下“一次开发、多地部署”的需求,提升全球化业务响应速度。

DataWorks 推出 ChatBI 能力,让业务分析师无需编写 SQL 或 Python,仅通过自然语言提问(如“上月销售额最高的区域是哪里?”),即可自动解析意图、生成查询逻辑并执行相应的python 或者 SQL任务。系统基于阿里云千问大模型,结合智能可视化引擎,自动生成图表与洞察,大幅降低数据分析门槛,让 Excel 用户也能轻松完成数据探索与决策支持。

7、DataWorks高效的数据集成

7b62e5597e4f4e1daf575011dcb7e43c.png

DataWorks 数据集成作为核心入湖工具,凭借丰富异构数据源支持、离线/实时全覆盖及极致性能优化,助力企业高效构建统一数据湖。系统日同步数据量超 10+PB,覆盖集团 130+ BU 与全球 20+ 公共云 Region,实现从传统数据库到 AI embedding 的全场景数据接入。

  •   功能特性:支持多源异构与复杂网络环境
    DataWorks 数据集成支持 MySQL、PostgreSQL、MongoDB、Oracle 等主流数据库,以及 Kafka、SFTP、OSS 等多种数据源,满足结构化与半结构化数据入湖需求。同时提供复杂网络打通方案(如专线、VPC 对接),支持跨云、跨地域安全传输,保障企业级数据迁移稳定性。
  •   性能成本:极致优化与弹性扩容
    平台采用全托管架构,提供高可用保障与自动故障恢复能力。通过智能调度与资源池共享,实现极致性能优化,单任务吞吐可达 TB 级。结合 Serverless 弹性扩缩容机制,按需分配计算资源,显著降低运维成本与空闲资源浪费。
  •   AI 融合:支持 Embedding 与实时入湖
    除传统数据同步外,DataWorks 支持 AI 场景下的 Embedding 向量化数据入湖,可将大模型生成的向量特征直接写入 Iceberg/Paimon 表,为后续向量检索与推荐系统提供高质量输入。同时支持 Flink 实时流式入湖,实现从 T+1 到近实时的数据流转。

8、DataWorks整库同步解决方案

image.png

面对企业普遍存在的分库分表架构(如上百个库、数百张表),传统 Spark 或 Flink 任务开发复杂、调试困难。DataWorks 推出 整库同步解决方案,通过白屏化操作实现一键式结构迁移、全量初始化与增量同步,显著降低技术门槛,助力用户快速完成大规模数据入湖。

  •   结构迁移:自动建模目标端表结构
    系统支持从 MySQL、PostgreSQL、Kafka 等源端自动获取表结构信息,智能映射至 Paimon、Iceberg、Hudi 等湖仓格式,并自动生成建表语句与执行脚本。用户无需编写代码,即可在目标端一键创建与源端一致的 300+ 张表,实现元数据快速同步。
  •   全量同步:一次性完成海量数据迁移
    在结构迁移完成后,平台自动启动全量同步任务,将源端所有表数据批量写入目标湖仓。支持并行处理多表、自动分区与压缩优化,提升吞吐效率。系统提供进度监控与失败重试机制,确保数据一致性与任务稳定性。
  •   增量同步:持续追加实时变更数据
    全量同步完成后,系统自动对齐启动点位(Checkpoint),开启基于 Binlog 或 Kafka 消息流的增量同步任务,实现实时数据追加。支持动态扩缩容与资源调度,适应业务高峰期负载变化,保障低延迟、高可用的数据同步链路。

9、数据入湖架构方案

871495d6b6254de2bd7a0fc5d96fb0fc.png

DataWorks 数据集成在实时同步场景下,通过 并发度提升 与 单线程性能优化 双轮驱动,显著超越纯开源方案。系统基于 Flink CDC 架构,支持 MySQL、PostgreSQL 等数据库实例级变更捕获,结合分布式并行处理与高效序列化库,实现 PB 级数据的高吞吐、低延迟入湖。

  •   分布式并行处理:提升任务并发能力
    针对复杂同步任务,DataWorks 将单个实例的 CDC 流拆分为多个子任务,并通过 Pk Shuffle 机制实现数据分发,支持多表、多库并行处理。例如,MySQL 实例下的多个 DB 可独立调度,提升整体并发度,降低端到端延迟,满足高负载业务场景需求。
  •   高效序列化与反序列化:加速数据流转
    在事件解析与传输过程中,系统引入自研高性能序列化库,减少 JSON 解析开销,提升数据编码/解码效率。同时优化 Transformer 算子链路,降低中间数据拷贝与内存消耗,显著缩短每条记录的处理时间。
  •   全链路性能调优:实现成本下降 50%
    通过上述优化,DataWorks 实现了从源端到目标湖(Paimon/Iceberg/Hudi)的端到端性能提升。某客户案例显示,采用 DataWorks 实现 MySQL & Loghub 全增量实时同步至 Paimon 表后,资源消耗下降约 50%,运维成本显著降低,验证了其在大规模生产环境中的优越性。

即刻上云方案介绍

1、湖仓迁移中心

image.png

为解决传统数据搬迁“黑盒操作、人工比对、流程复杂”等痛点,DataWorks 推出 湖仓迁移中心,提供全链路可视化、自动化迁移方案。目前已服务超 100 家客户,实现从本地或异构平台到阿里云湖仓的高效、可控迁移,显著降低上云门槛与运维成本。

  • 全元素覆盖:支持多类型数据资产迁移
    迁移中心支持常用数据库、数据仓库、对象存储、计算引擎及 OLAP 引擎等全栈数据源。通过统一接口与元数据映射,实现跨系统、跨架构的数据资产完整迁移,满足企业多样化上云需求。
  • 一站式迁移:自动完成全流程任务编排
    平台支持基于源端结构自动生成迁移作业,涵盖全量同步、增量同步、数据转换、表映射等环节。用户无需手动编写脚本,仅需配置目标端即可启动迁移流程,大幅减少人工干预,提升迁移效率与一致性。
  • 全景可视化:实时监控迁移状态与数据质量
    提供双模态迁移进度视图,支持可视化展示数据量、任务状态、延迟指标与数据一致性校验结果。用户可动态查看各节点运行情况,及时发现并处理异常,确保迁移过程透明可控。
  • 精细化管控:支持分批、分级、按需迁移
    支持按库、按表、按分区进行精细化迁移控制,结合资源调度策略实现动态扩缩容。通过对比分析与差量校验,最小化迁移窗口期,减少业务影响,助力客户以最低成本完成平滑上云。

2、湖仓迁移中心

DataWorks 湖仓迁移中心提供全流程、白屏化的大数据与 AI 平台迁移方案,涵盖 集群盘点、数据迁移、作业迁移、双跑校验、割接运维 五大阶段。通过自动化工具链与智能评估模型,帮助客户高效完成从本地或异构云到阿里云的平滑迁移,降低风险、节省成本。

  • 集群盘点:自动采集资源并生成优化方案
    系统通过 Agent自动盘点线下资源,或者是其他云上面的资源的集群配置、存储容量、计算资源使用情况等元信息,结合阿里云性能基准模型进行资源评估与成本预估。自动生成上云架构建议与资源规划方案,支持一键生成迁移计划,提升决策效率。
  • 数据迁移:全量+增量同步与元数据一致性保障
    平台支持全量数据迁移与增量同步,基于 Flink CDC 实现低延迟实时入湖。同时自动完成 DDL 转换、表结构映射与元数据同步,并内置数据校验机制,确保数据完整性与一致性,满足企业级合规要求。
  • 作业迁移:主流调度引擎自动转换与血缘对齐
    支持 DolphinScheduler、Airflow 等主流调度系统的 Workflow 自动识别与转换,将原生任务脚本迁移至 DataWorks 作业体系。系统自动执行代码转换、依赖关系重建与血缘对比,确保任务逻辑准确无误,避免人工迁移带来的配置错误。
  • 双跑校验:分层验证确保业务平稳过渡
    在正式割接前,系统支持“双跑”模式,即源端与目标端并行运行相同任务,实时比对输出结果与执行状态。通过分层业务域校验,覆盖批处理、流式计算、AI 训练等场景,全面验证数据准确性与系统稳定性。
  • 割接运维:安全切换与持续运营支持
    完成双跑验证后,系统提供可视化割接操作界面,支持按业务模块逐步切换。迁移完成后,自动接入 DataWorks 运维体系,实现统一监控、告警与治理,助力客户快速进入云上稳定运营阶段。

开发者朋友们大家好:

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术

1、Nano Banana 2 上线:高画质与高速生成首次兼得

今天,Google 正式推出新一代图像生成模型 Nano Banana 2(Gemini 3.1 Flash Image),主打在高速生成的基础上进一步提升画质、理解力与主体一致性,定位为 Nano Banana Pro 的轻量替代方案,面向更广泛用户开放使用

Nano Banana 2 延续 Gemini 系列的真实世界知识库,并结合网页搜索实时信息,使模型在空间理解、比例关系、光影处理与中文文本渲染方面表现更自然。

  • 可在单次生成中保持最多 5 个角色面部不变、14 个物体外观一致,适用于漫画连载与分镜制作等复杂场景
  • 覆盖从 512px 到 4K 的输出,画质相比前代更锐利、光影更自然,可直接用于营销素材或视觉设计
  • 采用与 Gemini Flash 相同的高效架构,强调「接近实时」的高速生成体验,适合快速迭代与多轮修改
  • 成本方面,普通用户每日可在 Gemini 应用与 Google 搜索中免费生成 100 张图片,Pro 用户额度提升至 1000 张;API 价格较上一代 Pro 模型腰斩,生成一张 4K 图像成本约为 0.15 美元;
  • 在内容可信度上,Google 升级 SynthID 数字水印与 C2PA 内容凭证,增强 AI 内容溯源能力。

( @APPSO)

2、千万 ARR、12 个月 13 倍增长,Fish Audio 全面发力端到端情感语音与全双工模型

近日,Alphaist Partners 对 AI 语音平台 Fish Audio 的联合创始人进行了专访。这家起源于开源社区的初创企业,在过去 12 个月内实现了 13 倍的增长,年度经常性收入(ARR)达到千万美元,月活跃用户突破 100 万,目前已成为全球流量第二大的 AI 语音平台。

区别于头部竞品 ElevenLabs 侧重企业级配音的市场定位,Fish Audio 将核心受众锁定在播客、游戏开发者等专业内容创作者(Prosumer)以及 AI 陪伴类应用。其核心商业与技术壁垒主要体现在以下几个方面:

  • 百万级 UGC 生态:平台积累了 110 万个公共语音模型,创作者可从被调用的模型中获取 30% 的收益分成。这一生态不仅促进了 C 端用户的转化,也构成了极难复制的数据资产。
  • 端到端模型架构:其 S1 模型是首个支持自然语言情感控制的 TTS 模型。团队坚信端到端架构的潜力,即将发布的 S2 模型更是在数据清洗管线(保留吵架、争论等带有丰富情感的多说话人重叠数据)与强化学习(RLHF)上进行了深度重构。
  • 自研底层管线:为实现对语音副语言(如笑声、停顿)的精准控制,团队完全自研了情绪标注 ASR 模型、声音分离模型等核心工具。

在商业化路径上,Fish Audio 展现了典型的产品驱动增长(PLG)模式:依靠开源核心模型在开发者群体中建立信任,再通过创作者工具 Fish Studio 积累口碑,最终促成了占总收入 40% 的 B 端企业级 API 订阅。

团队方面,Fish Audio 汇聚了前 Meta 增长负责人与前英伟达算法研究员等核心成员。公司在人才招募上倾向于从开源社区挖掘具有创业者特质的「超级个体」,并通过充裕的计算资源与合理的股权激励,打造了一支极具自驱力的年轻技术团队。未来,Fish Audio 计划推出全双工模型,并向多模态内容创作平台演进。

( @Founder Park)

02 有亮点的产品

1、随时随地与 AI 偶像「通电话」:Soulja Boy 专属语音克隆热线展现交互新玩法

近日,说唱歌手 Soulja Boy 与初创公司 Bland AI 合作推出了一款可实时互动的 AI 语音克隆热线。拨通该号码后,系统会以近乎完美的逼真声音迎接来电者,并自信地夸耀自己是首位「用 AI 实现声音自动化」的说唱歌手,这也巧妙呼应了其早年热门单曲《Kiss Me Thru The Phone》。

Bland AI 专门为企业开发对话式电话智能体,这意味着 Soulja Boy 的声音现可被用于自动化客服与日程安排。实际测试显示,该 AI 语调与本人高度一致,在热情探讨技术创新与创造力的同时,会不断将话题引导回商业合作选项上,整体互动体验令人印象深刻。

这一项目凸显了语音克隆技术向主流娱乐产业的加速渗透。 当前演艺界正以不同方式应对该趋势:

  • 部分艺人选择与 ElevenLabs 等公司合作,开放其 AI 声音的使用权限;
  • 马修·麦康纳(Matthew McConaughey)等演员则尝试通过为声音和口头禅注册商标来抢占先机。

对 Bland AI 而言,此次明星合作不仅展示了其取代传统呼叫中心的潜力,更放大了技术的娱乐价值。AI 热线进一步延伸了粉丝互动的边界,让大众能在社交平台之外与偶像的「声音」进行无限时的沉浸式对话。 从近期一段 Soulja Boy 与 AI 声音即兴说唱的视频来看,AI 或将成为其未来的重要搭档。

( @TechRadar、@usebland\@X)

2、阿里千问 AI 眼镜将在 MWC 2026 发布,3 月 2 日开启预约

继 AI 购物春节爆火后,阿里巴巴旗下个人 AI 助手「千问」正式进军 AI 硬件领域,今年将面向全球市场推出多款不同形态的 AI 硬件产品。千问将在西班牙巴塞罗那举行的 2026 年世界移动通信大会(MWC)上发布首款同名 AI 眼镜,并于 3 月 2 日开启线上线下全渠道预约

据悉,阿里正在将千问打造软硬一体、跨多种终端形态的 AI 助手。跳出手机的千问将能够捕获更多物理世界的信息,在复杂生活场景中理解用户意图,让 AI 解锁更多的可能性。千问 App 点外卖、打车等能力,也将无缝连接到千问 AI 眼镜等终端设备。

据阿里内部人士透露,除 AI 眼镜之外,千问还会在年内陆续发布AI 指环、AI 耳机等产品,并面向全球市场发售。

据 IT 之家此前报道,阿里巴巴去年 12 月已成立千问 C 端事业群,由阿里巴巴集团副总裁吴嘉负责。千问 C 端事业群的首要目标是将千问打造成为一款超级 App,成为 AI 时代用户的第一入口。未来,还将进一步把千问打造成无处不在的 AI 助手,覆盖眼镜、PC、汽车等场景

(@IT 之家)

3、汉堡王在员工耳机中部署 AI 系统,可检测员工是否说了「请」「谢谢」

据外媒 The Verge 今晚报道,汉堡王推出了一款名为 Patty 的 AI 助手,并将其部署在员工耳机中,帮助员工处理日常运营。这款语音助手属于 BK Assistant 平台的一部分,不仅能协助制作餐品,还可以分析员工与顾客交流时的友好程度

汉堡王首席数字官 Thibault Roux 表示,公司通过分析加盟商和顾客反馈,训练 AI 识别体现服务态度的关键用语,例如 「欢迎来到汉堡王」「请」和「谢谢」,门店经理可以通过该系统了解门店服务表现。据悉,这一系统主要用于员工培训,公司目前正提升 AI 识别对话语气的能力。

Patty 由 OpenAI 技术支持,是 BK Assistant 平台的核心语音接口。该平台整合免下车点餐、厨房设备和库存数据,员工可以直接询问餐品制作标准或设备清洁流程等操作问题

该系统还与云端销售系统连接,当设备故障或商品缺货时会自动通知管理人员,并在约 15 分钟内同步更新库存状态,确保门店点餐系统、免下车点餐和数字菜单保持一致。

汉堡王计划在 2026 年底前,将 BK Assistant 平台推广至美国所有门店。目前,Patty 正在 500 家门店进行测试。

(@IT 之家)

03 有态度的观点

1、黄仁勋:AI 助手不会取代软件行业

英伟达 CEO 黄仁勋近日接受 CNBC 采访时,再次回应外界关于 AI 将冲击软件行业的担忧。

他强调,市场对这一问题的理解出现「判断失误」,AI 助手不仅不会取代软件工具,反而会进一步提升软件行业的效率。

他指出,AI 助手将成为「工具的使用者」,而不是替代者。无论是 Cadence、Synopsys、ServiceNow 还是 SAP,这些工具存在的根本原因不会改变,AI 将在这些工具之上进一步提升生产力。

我们需要工具来完成具体工作,并以我们能够理解的方式把信息反馈给我们。

这一表态出现在英伟达发布强劲财报之后。

2026 财年第四财季,英伟达营收达到 681.27 亿美元,同比增长 73%,高于市场预期。在财报电话会上,黄仁勋强调,智能体 AI 的拐点已经到来,全球企业正在加大算力投入。

在这个 AI 的新世界里,算力即收入。

( @APPSO)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

哪些企业最适合部署OV SSL证书?

OV SSL证书的核心特点在于,证书颁发机构(CA)不仅验证域名的所有权,还会严格审核申请企业的组织真实性(如营业执照、工商信息等)。这使得OV证书能够向用户直观展示企业身份,具备比DV证书更高的信任级别。以下几类企业尤其适合:

  1. 电商与零售企业:这类网站通常涉及用户注册、在线支付和敏感个人信息(如地址、电话)。部署OV证书不仅能加密数据传输,防止信息泄露,还能通过地址栏的企业信息打消顾客下单时的安全疑虑,提升转化率。
  2. 集团型企业与连锁品牌:大型企业通常拥有复杂的子域名体系(如分站、分公司站点)。选择OV通配符SSL证书,可以一张证书覆盖所有同级子域名,极大降低采购和运维成本,同时统一品牌形象,彰显企业的正规性。
  3. 互联网服务与科技企业:SaaS服务商、云平台或API接口提供商,对数据交互的机密性和完整性要求极高。OV证书的高强度加密算法(如RSA或ECC)能有效保障客户数据在传输过程中的安全,符合行业合规性要求。
  4. 教育、政务及公共服务机构:对于展示公信力至关重要的政府网站、高校教育平台,使用OV证书是对公众负责的表现。它向访问者证明该网站由合法的组织机构运营,能有效防止钓鱼网站的仿冒。

如何通过JoySSL申请OV SSL证书?

OV SSL证书申请入口

第一步:注册账号并选择证书
访问JoySSL官方网站,注册一个新账号。注册时,建议填写完整的公司信息以便后续验证。值得一提的是,JoySSL针对新用户和特定活动常有优惠政策,注册时务必填写邀请码 230970 以便获取最新的证书配置建议或优惠资格。

第二步:提交证书申请
登录后,在产品列表中找到“企业型OV SSL证书”或根据您的域名数量选择“OV通配符证书”。点击“申请”,系统会引导您生成CSR(证书签名请求)并提交企业信息。

第三步:准备并提交企业认证材料
这是OV证书申请的核心环节。您需要按照JoySSL客服或后台提示,准备并提交以下材料的清晰扫描件或照片:

  • 企业营业执照副本(加盖公章)。
  • 权威联系方式:CA机构通常会通过第三方数据库核实企业电话,并拨打该电话进行验证,以确认申请的真实性。

第四步:验证域名所有权
在企业身份审核通过后,您仍需验证域名的控制权。常见的验证方式是通过DNS解析:在域名管理后台添加一个指定的TXT记录或CNAME记录。JoySSL平台会实时监测解析状态,验证通过后即进入发证流程。

第五步:下载与部署证书
通常在企业认证和域名验证均完成后,CA机构会在1-3个工作日内签发证书。届时,您可以在JoySSL后台下载证书文件(适用于Nginx、Apache、IIS等多种服务器环境)。JoySSL通常会提供详细的配置指南,即使是不熟悉运维的人员也能参考完成部署。

总结

对于任何以经营为目的、需要在线收集用户信息或进行交易的企业而言,从基础的DV证书升级到OV SSL证书,是构建品牌信任、满足合规要求的关键一步。选择JoySSL这样的专业服务商,不仅能简化复杂的申请流程,还能获得及时的技术支持,让网站安全防护更加省心高效。

做长期接单开发这么久,第一次遇到这么 “丝滑” 的单子, 昨天中午接单,今天早上项目取消,300 定金全额留下,连一行代码都还没来得及提交。
昨天中午,微信里一位 “躺列” 好友突然找我,要做一套元宵扫码猜灯谜 + 轮盘抽奖的工具,核心要求很明确:公司会议上使用,支持至少 1000 人同时在线参与,流程是扫码进入→登记信息→猜灯谜→抽奖→中奖记录查询,主要是时间紧,节前一天要上线。
简单评估了下,报了 700,对方二话没说付了 300 定金,沟通完规则和核心逻辑,我立马开始搭架构、设计页面。
结果下午临下班,对方发来消息:“先别搞了,等信儿,领导可能有变化。”
今早一睁眼,收到最终通知:“项目不做了,定金不用退了。”
做接单这么久,早就习惯了项目的变数,但这种 “白捡” 定金的情况还是第一次。
当然也不是完全没干活:
项目整体架构我已经梳理清楚,前端用 React,后端 Node.js,存储用 SQLite,我自己有公网服务器,10M 带宽完全扛得住 1000 人同时在线。
还借助 AI 工具把前期工作都搭好了:用豆包出了关键页面设计稿,用 Cursor 完成了初步代码实现,用 Kimi 整理好了 100 道灯谜选择题,整套方案直接就能上线。
结果项目没了,钱留下了,属实是开年意外之财了 😂
BQACAgUAAyEGAASHRsPbAAERUixpom-7RKlIHd61CeqnZU0DqUS2uAACbRsAAgdJGFXOq82QJkbwPjoE.jpg
BQACAgUAAyEGAASHRsPbAAERUi1ponAFI-NGkh8jiGelY62AjwxCfQACdRsAAgdJGFVF29hJUxdBfjoE.jpg
BQACAgUAAyEGAASHRsPbAAERUi9ponCG3CE4ILhTuMWMIJDJDycMhwACeBsAAgdJGFUFW1g6cSocbjoE.jpg
BQACAgUAAyEGAASHRsPbAAERUjFponCopMcmGsCDdpH2ODZPsaM5IwACexsAAgdJGFV-lG0-l5Cl6ToE.jpg
BQACAgUAAyEGAASHRsPbAAERUjZponDNKUczLoaSZaBmh_7CGJdvTwACgBsAAgdJGFVrmYl806D4ijoE.jpg
BQACAgUAAyEGAASHRsPbAAERUjhponDmi0oWG4V2EX0hiWnWv6AQUQACghsAAgdJGFUca-VVKgfX3joE.jpg

原文地址:https://mp.weixin.qq.com/s/hsu9Yd-BmT459kZ50FibCA

"这是我用过最无定语强大的AI工具,但高额成本让很多朋友望而却步。"

如果你正在使用 OpenClaw,一定深有体会:这个 Agent 框架强大到让人惊叹,但每次看到账单时的心跳加速也是真实的。😰

好消息是:完全可以在不牺牲性能的前提下,将成本降到原来的 1/10 甚至更低! 今天这篇指南,将用四种实战方法,带你实现"Token自由"。

💡 先搞懂:钱到底花哪儿了?

在讲省钱方法前,我们必须先理解Token的消耗逻辑

每次你跟 OpenClaw 对话,发过去的可不只是你的问题,而是一个完整的工作包,包含:

组成部分说明
1️⃣ 系统提示词给 AI 的"员工手册"
2️⃣ Workspace 文件agent.md、user tools、memory 等配置文件
3️⃣ 对话历史越聊越长,雪球效应 📈
4️⃣ 工具输出抓取的网络内容、日志等
5️⃣ 你的问题这才是你真正想问的

为什么贵? 打个比方:你招聘了一个超级员工,但每次跟他说话,都要先把公司章程、岗位 SOP、员工手册全念一遍,然后再提需求。能不贵吗?😅

省钱的本质就一句话:让每轮输入变短、变干净、变得更可控。

方法一:🗂️ QMD —— 知识管理的"精准打击"

问题:传统知识库 = Token 黑洞

以前我们把笔记资料像"填鸭"一样整篇塞给大模型,导致输入 Token 爆炸。一篇长文档轻松吃掉几千 Token,问几个问题就破产了。💸

解决方案:本地索引 + 语义检索

QMD(Queryable Markdown Database)是 Shopify 联合创始人兼 CEO Tobias Lütke (Tobi) 开发的本地语义搜索引擎。<span style="color: rgb(143,149,158); background-color: inherit">它</span>的核心逻辑是:

"不再读全库,只读最相关的那几段。"

<span style="color: rgb(143,149,158); background-color: inherit">核心价值</span><span style="color: rgb(143,149,158); background-color: inherit">:</span>

  • <span style="color: rgb(143,149,158); background-color: inherit">不要把整个文件塞给 AI,而是先用本地搜索找到最相关的片段(通常只有 2-3 句话),再把这些精准内容传给 AI</span>
  • <span style="color: rgb(143,149,158); background-color: inherit">解决传统记忆系统把整个 MEMORY.md 文件直接塞进上下文导致的"上下文爆炸"问题</span>

技术原理:

  • 基于 TypeScript + Bun 开发,使用 node-llama-cpp 运行本地模型
  • 三层混合检索:BM25 全文搜索 + 向量语义搜索 + LLM 重排序
  • 所有模型在本地运行(GGUF 格式),完全离线

工作原理(两步走):

第一步:Update 索引刷新 🔍

  • 自动检测哪些文件新增、修改、删除了
  • 更新分段路径和元数据(相当于更新目录)

第二步:向量更新与投射 🎯

  • 只把新增/变化的片段生成向量
  • 投射到本地向量数据库
  • 提问时计算向量相似度,提取最相关的片段

关键优势:索引建立和检索都在本地完成,不消耗云端 Token!把"读所有文件"的成本转化为"本地计算"成本。💪

<span style="color: rgb(143,149,158); background-color: inherit">实际效果</span><span style="color: rgb(143,149,158); background-color: inherit">:</span>

  • <span style="color: rgb(143,149,158); background-color: inherit">📊 Token 削减:60-97%(平均 95% 以上)</span>
  • <span style="color: rgb(143,149,158); background-color: inherit">⚡ 响应速度提升:5-50 倍</span>
  • <span style="color: rgb(143,149,158); background-color: inherit">💰 成本降低:90-99%</span>
  • <span style="color: rgb(143,149,158); background-color: inherit">🎯 精准度:93%(纯语义搜索仅 59%)</span>

安装指南(超简单)

(1)安装Bun(Windows环境最好选Linux Shell安装,将OpenClaw、Bun、Qmd都安装在这个环境下)

Bun 是一款集 JavaScript/TypeScript 运行时、打包工具、测试工具和包管理器于一体的高性能工具,旨在替代 Node.js、Webpack、Jest 和 npm/yarn/pnpm 等工具,大幅提升开发和运行效率。

# 在PowerShell中执行以下命令(以管理员身份运行更佳)
powershell -c "irm bun.sh/install.ps1 | iex"
# 检查Bun版本,确认安装成功 
bun --version

(2)用bun安装qmd

# 1. 安装 QMD
bun install -g @tobilu/qmd

# 2. 配置 openclaw.json
{
  "memory": {
    "type": "qmd",
    "indexPath": "./qmd_index"
  }
}

# 3. 重启网关,完成!

💰 预算控制三件套

openclaw.jsonlimit 字段下,有三个精准控制阀:

参数作用建议值
maximum_results最多注入几段3-5 段
maximum_item_chars每段允许多长500-1000 字符
maximum_injected_chars每轮总注入上限2000-3000 字符

效果对比

  • ❌ 传统方式:上传 10 篇长文 ≈ 15,000 Token/轮
  • ✅ QMD 方式:只传 3 个相关片段 ≈ 800 Token/轮
  • 节省率:95%+ 🎉

关于QMD的安装配置请参考:https://2048ai.net/698a7f140a2f6a37c590f45b.html

方法二:❤️ 心跳本地化 —— 别让"监工"变成"吞金兽"

什么是心跳(Heartbeat)?

心跳是 OpenClaw 的定时唤醒机制。简单说,就是按你设置的频率(比如每 30 分钟)把 Agent 叫醒一次,让它:

  1. 读取 heartbeat.md 清单(我的文件路径为"C:\Users\seed\.openclaw\workspace\HEARTBEAT.md")
  2. 检查是否需要维护、提醒或执行任务

3) 没事就输出"OK",有事就去干活

典型应用场景

  • 🎯 长期任务监工:防止 AI 做一步就"歇菜",定期刺激它继续推进
  • 定时提醒:日程管理、截止日期预警
  • 🔄 状态维护:检查系统健康、同步数据等

为什么心跳是隐形杀手?

每次心跳都是完整的 Agent 回合,输入包含:

  • 系统提示词
  • Workspace 文件(尤其是 memory.md 和 agent.md,可能很大!)
  • 对话历史
  • 心跳清单和提示词

算笔账

  • 心跳频率:30 分钟/次
  • 每月心跳次数:1,440 次
  • 每次输入 3,000 Token(保守估计)
  • 每月仅心跳就消耗:432 万 Token 😱

输出可能只有"OK"两个字,但输入却是长篇大论——这买卖太亏了!

解决方案:本地小模型跑心跳

核心原则:心跳只用来"触发",不执行复杂任务。这种"低智商"任务完全可以用本地小模型搞定!

操作步骤:

1. 安装 Ollama(本地大模型运行环境)

# macOS/Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows 去官网下载安装包

2. 选择适合的本地模型(根据电脑配置)

电脑内存推荐模型特点
8GBQwen 2.5 3B轻量快速
16GBQwen 2.5 7B性价比之王
32GB+Qwen 2.5 14B更稳定智能
# 下载模型(示例)
ollama pull qwen2.5:7b

3. 配置 OpenClaw 使用本地模型跑心跳

openclaw.json 中:

{
  "heartbeat": {
    "model": "ollama://qwen2.5:7b",
    "interval": 1800,
    "tasks": ["check_status", "send_reminders"]
  }
}

成本对比

  • ❌ 云端 GPT-4 跑心跳:$0.03/次 × 1,440 次 = **$43.2/月**
  • ✅ 本地 Qwen 7B:电费几乎可以忽略 ≈ $0/月
  • 节省率:100%(当然,电脑得开着 😄)

方法三:💳 能用订阅就别走 API —— 厂商政策的"漏洞"

残酷的现实:API 用量 = 账单刺客

很多厂商对 OpenClaw 的使用有限制:

  • Anthropic (Claude):严禁订阅用于 OpenClaw
  • Google (Gemini):同样禁止
  • OpenAI:因为收购了 OpenClaw,目前仍然开放 🎉

真实案例

我用 MiniMax API 一天花 $30,如果换成 Anthropic 最新的 Claude 3.5 Opus,同样的用量要 **$500/天**!一个月就是 $15,000,够买辆车了。🚗💨

订阅 vs API 的成本差异

使用方式GPT-4oClaude 3.5 Sonnet适合场景
API 用量$0.005/1K Token$0.003/1K Token企业级稳定需求
订阅制$20/月 无限量$20/月 有额度限制个人/小团队日常使用

关键洞察:如果你不是追求极致稳定的企业用户,订阅制的性价比碾压 API

这里插入一个小小的广告,国内用户可以考虑使用AlayaNeW的托管模式的OpenClaw,也是一种订阅方式,性价比杠杠的,首月45元,后续110元/月:https://www.alayanew.com/product/openClaw

方法四:🔍 成本体检 —— 让 OpenClaw 给自己"开刀"

这是最定制化但也最有效的方法:让 OpenClaw 生成一份成本体检报告,找出隐藏的 Token 浪费。

如何生成体检报告?

直接问你的 OpenClaw:

"请给我生成一份成本分析报告,列出消耗 Token 最多的 Top 10 任务,用百分比展示。找出不合理的地方,告诉我哪些任务可以优化。"

常见"不合理"发现

根据经验,新手使用 OpenClaw 时,通常有这些成本陷阱

问题类型典型案例优化方案
轻任务重上下文查个天气却携带了 5000 字的对话历史清空无关历史,使用新会话
轮询代替事件每 10 分钟检查一次邮件,而不是收到邮件时触发改成 Webhook 事件驱动
过度使用大模型简单格式化任务也用 GPT-4换 GPT-3.5 或本地模型
Memory 膨胀memory.md 累积到 10 万字从不清理定期归档,使用 QMD
工具输出冗余抓取网页时保留全部 HTML 而非正文配置内容提取规则

优化双维度

流程维度

  • 轮询任务 → 事件触发(If A Then B)
  • 长上下文 → QMD 精准检索
  • 重复任务 → 缓存结果

模型维度

  • 复杂推理 → GPT-4/Claude 3.5
  • 日常任务 → GPT-3.5/本地模型
  • 心跳触发 → 本地小模型(Qwen/Llama)

实战对话示例

:分析下我最近一周的成本消耗。

OpenClaw:📊 成本体检报告

  • Top 1:心跳检查(35%)→ 建议改用本地模型
  • Top 2:网页抓取后的全文分析(28%)→ 建议用 QMD 只传摘要
  • Top 3:每日新闻总结(20%)→ 建议换 GPT-3.5
  • Top 4:代码审查(15%)→ 保持现状
  • 异常发现:有个任务每 5 分钟轮询一次 API,建议改为 Webhook

:帮我把心跳改成用本地 Qwen 7B 运行。

OpenClaw:✅ 已更新配置,预计每月节省 $40+

🎯 总结:四招实现 Token 自由

方法核心操作节省幅度难度
1. QMD本地索引 + 语义检索90-95% 知识库 Token⭐⭐
2. 心跳本地化本地小模型跑定时任务100% 心跳成本⭐⭐⭐
3. 订阅优先用订阅代替 API80-90% 基础成本
4. 成本体检让 AI 自我分析优化20-50% 隐藏浪费⭐⭐

组合使用效果最佳

假设原来每月花费 $200

  • QMD 节省 $60(知识库部分)
  • 心跳本地化节省 $40
  • 订阅制节省 $80
  • 体检优化节省 $20
  • 新账单:$10-20/月 🎊

🚀 立即行动清单

今天就能做的

  • [ ] 检查 openclaw.json,确认是否在用 API 还是订阅
  • [ ] 安装 QMD,把知识库从"填鸭"改成"精准投喂"
  • [ ] 让 OpenClaw 生成你的第一份成本体检报告

本周完成的

  • [ ] 安装 Ollama,下载 Qwen 7B 模型
  • [ ] 把心跳任务迁移到本地模型
  • [ ] 清理膨胀的 memory.md 和对话历史

最后想说:OpenClaw 的强大值得被更多人体验,不应该被成本门槛阻挡。希望这篇指南能帮你卸下"Token焦虑",真正释放 AI Agent 的潜力。

如果你成功降低了成本,或者有其他省钱妙招,欢迎在评论区分享!👇

觉得有用?别忘了点赞、收藏、转发给还在被账单困扰的朋友~

保持关注,我们下期再见! 👋✨

本文由mdnice多平台发布

当你的Go服务上线后,你肯会遇到这些问题:

  • CPU超过90%甚至100%
  • 内存突然飙升
  • 某个接口偶尔变慢
  • 某段代码特别耗时

pprof就是Go官方为你准备的扫描仪,用来帮你看清程序内部发生了什么。

文末有源码下载链接

1、pprof是什么

pprof是Go内置的性能分析工具,支持以下分析:

2、如何使用pprof(Web方式)

最常用:用于Web服务(Gin/标准http)

package main

import (
"log"
"net/http"
    _ "net/http/pprof"
)

func main() {
//开启pprof的方式
        go func() {
        log.Println(http.ListenAndServe(":6060", nil))
    }()

    http.ListenAndServe(":8080", nil)
}

启动服务后,访问以下地址:

web汇总如图

图片

3、单独在代码中采集 CPU Profile和内存

3.1 主要用于命令行工具

f, _ := os.Create("cpu.prof")
pprof.StartCPUProfile(f)
time.Sleep(30 * time.Second)
pprof.StopCPUProfile()

3.2 内存

f, _ := os.Create("mem.prof")
pprof.WriteHeapProfile(f)

4、如何查看pprof文件

4.1 命令行查看

go tool pprof cpu.prof

4.2 打开web页面查看

go
8081

会自动弹出web界面

图片

图片

5、查看火焰图

火焰图的核心规则是:越宽的块=越多的CPU时间/内存占用;越高的块=调用链更深

6、举个实例

package main

import (
"log"
"math"
"net/http"
    _ "net/http/pprof"
)

// 这个函数消耗大量的CPU计算
func slow() {
for i := 0; i < 1e7; i++ {
        math.Sqrt(float64(i))
    }
}
func main() {
//开启pprof的方式
go func() {
        log.Println(http.ListenAndServe(":6060", nil))
    }()

    http.HandleFunc("/test", func(w http.ResponseWriter, r *http.Request) {
        slow()
        w.Write([]byte("done"))
    })
    http.ListenAndServe(":8080", nil)
}

启动服务,然后不断地访问测试地址,同时收集cpu的pprof信息

//收集cpu信息
curl http://localhost:6060/debug/pprof/profile?seconds=20 -o cpu.prof
//查看火焰图
go tool pprof -http=:8081 cpu.prof

启动火焰图后,我们看见确实math.Sqrt占用了大量的CPU资源。这就是你要优化的地方。

图片

7、内存泄漏定位示例

var data [][]byte

func leak() {
    b := make([]byte, 10<<20) // 10MB
    data = append(data, b)    // 不断增长
}

采集内存

curl
6060
20

打开火焰图

go
8082

在图上我们看见main.leak占用内存最多。

图片

8、Go性能优化的基本思路

CPU优化方向

  • 减少不必要的计算
  • 热点函数重写
  • 使用更高效的数据结构
  • 较少锁竞争
  • 避免gotoutine大量创建销毁

内存优化方向

  • 减少临时对象分配,使用对象复用池 sync.Pool
  • 减少逃逸到堆,减少返回指针、减少使用局部变量
  • 检查是否存在内存泄漏
  • 缓存热点数据

并发优化方向

  • 尽量减少共享内存
  • 任务拆分避免过度
  • 避免无约束的goroutine,用worker pool

9、安全

生产环境不要暴露pprof,可用内网防火墙或者白名单可以访问,其他的均禁止。

10、源码地址

https://pan.baidu.com/s/1B6pgLWfSgMngVeFfSTcPdg?pwd=jc1s 

性能优化和人生一样,不是拼命就能更快,而是找到真正拖慢你的瓶颈,持续迭代,人生和程序都会跑的更快更稳。


如果您喜欢这篇文章,请点赞、推荐+分享给更多朋友,万分感谢!