包含关键字 typecho 的文章

Cohesity NetBackup 11.1 for Linux & Windows - 领先的企业备份和恢复解决方案

Comprehensive enterprise data protection

请访问原文链接:https://sysin.org/blog/netbackup-11/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


Cohesity NetBackup:全面的企业数据保护

NetBackup

备份和恢复软件解决方案领导者

Veritas (now part of Cohesity) 荣膺 2024 Gartner® “企业备份和恢复软件解决方案” 魔力象限的领导者,第 19 次获此殊荣。

详见:Gartner Magic Quadrant for Enterprise Backup and Recovery Solutions 2024

备份和恢复市场中供应商有大大小小数百个之多,我们认为,Gartner 报告再次彰显了 Veritas 在全球高端中型市场和大型企业环境具有较高影响力。

Veritas 深受企业信赖,管理的数据超过任何其他数据保护类公司。

我们的数据保护范围包括:

  • 80,000+ 家企业客户
  • 95% 的财富 100 强企业
  • 全球十大商业银行巨头、领先的金融数据服务公司以及通信公司

Veritas 长久以来,一直致力于帮助全球企业在重重挑战面前全方位保护数据并维持业务照常运营,从而备受业界认可。

了解 NetBackup 11.1 的最新创新成果

发布最新版本的 NetBackup 11。

随着由 AI 和量子计算提供支持的新威胁不断出现,Cohesity NetBackup 将继续提供智能网络弹性、高级自动化以及扩展的控制和灵活性,所有这些都可以增强保护,同时降低成本和资源需求。

NetBackup

以下是 NetBackup 11.1 版本中新增的功能和改进:

  • Cohesity 术语更改
    与 NetBackup 集成的 Cohesity 术语进行了更新。
  • 包含 RESTful API 接口
    NetBackup 11.1 中包含了新的 REST API 功能,可用于程序化访问和自动化管理。
  • 支持为 Nutanix AHV 创建即时访问虚拟机(Instant Access VM)功能
    使备份虚拟机更快恢复为可访问状态。
  • 支持 Kernel-based Virtual Machine (KVM)
    提供对基于 KVM 的虚拟化环境的原生支持。
  • 对象更改跟踪(Object Change Tracking)用于云对象存储保护
    优化对云对象存储备份时的数据变更检测,提高效率。
  • 扩展对 HPE GreenLake 块存储阵列的复制支持
    在 HPE GreenLake 环境中提供更高级的数据复制支持。
  • NetBackup Snapshot Manager for Data Center 现在支持云存储阵列
    为云存储平台提供更好的快照管理能力。
  • 增强对 PaaS 数据库的支持
    改进对平台即服务数据库(如托管数据库服务)的备份与恢复支持。
  • 支持 NextGen Malware Scanner 工具
    在备份过程中新增对下一代恶意软件扫描工具兼容性。
  • Web UI 中恶意软件扫描操作的实时更新
    管理界面显示更实时的恶意软件扫描状态更新。
  • 在检测感染时可以中止恶意软件扫描
    如果扫描过程中发现恶意软件,可立即停止扫描以加快响应。
  • 支持单个提供程序插件中的多账户(Multi-Account support)
    同一插件中可配置多个云账户。
  • 云规模增强和部署更新
    改进对大规模云环境的支持和部署体验。
  • 支持云密钥管理服务(Cloud Key Management Service)
    用于加密密钥的云服务集成支持。
  • 支持网络访问控制功能
    增强对网络安全策略的集成。
  • 引入 Freeze 模式(冻结模式)
    用于在某些操作中保持系统状态的一致性。
  • 支持跨 virtualization 平台的跨-Hypervisor 恢复(如从 VMware 恢复到 Nutanix)
    允许在不同虚拟化平台之间进行恢复操作。
  • 支持 PostgreSQL Backups 的 pgBackRest
    通过 pgBackRest 提供对 PostgreSQL 的备份支持。
  • 支持 Percona XtraBackup 工具
    为 MySQL 及其衍生版本的备份提供支持。
  • 在 Cohesity 与 NetBackup Web UI 中支持 Microsoft SharePoint 恢复
    提供 SharePoint 数据的恢复选项。
  • 增强 WebSocket 服务器凭据安全性(使用 JWT 认证)
    提高 Web UI 与后端服务之间通信的安全性。
  • Web UI 报告增强功能
    增加更多图形化和可定制的报告。
  • Web UI 中的 Vault 管理增强
    改进 Vault(安全存储库)管理功能。
  • 支持存储单元组总览视图
    允许用户在界面中看到存储单元分组的信息总览。
  • 对存储服务器凭据进行增强支持
    改进了凭据在不同存储服务器之间的一致性和管理方法。

下载地址

Cohesity NetBackup 11 for Linux x64 & Windows x64

官方文件列表:

File nameDescriptionVersionPlatformSize
Get_host_lock_utility.zipUtility to retrieve the host lock string required to generate a license key11.0.00None4.36 KB
itanalytics_datacollector_linux_11700.isoNetBackup IT Analytics 11.7 Data Collector Installer for Linux11.7.00Linux587.72 MB
itanalytics_datacollector_win_11700.isoNetBackup IT Analytics 11.7 Data Collector Installer for Windows11.7.00Windows734.74 MB
itanalytics_dbinstaller_193000-01_SE2_EE_RH9_oracle_patchset_v1.zipRH9 Oracle Installer patch set11.7.00Linux1.76 GB
itanalytics_dbinstaller_shared-service_linux_11700.isoNetBackup IT Analytics 11.7 DB Installer11.7.00Linux11.81 MB
itanalytics_dbinstaller_shared-service_win_11700.isoNetBackup IT Analytics 11.7 DB Installer11.7.00Windows3.78 MB
itanalytics_installer_11700_linux.isoNetBackup IT Analytics 11.7 Portal Installer for Linux11.7.00Linux3.98 GB
itanalytics_installer_11700_win.isoNetBackup IT Analytics 11.7 Portal Installer for Windows11.7.00Windows3.74 GB
itanalytics_upgrader_11700_linux.isoNetBackup IT Analytics 11.7 Portal Upgrader for Linux11.7.00Linux3.93 GB
itanalytics_upgrader_11700_win.isoNetBackup IT Analytics 11.7 Portal Upgrader for Windows11.7.00Windows3.88 GB
NBAntiMalwareClient_2.5b.zipNetBackup Malware Scanner 2.5b2.5bCross-Platform60.94 MB
NBNextGenMalwareScanner_1.0.zipNetBackup NextGenMalware Scanner 1.01.0Cross-Platform23.14 MB
NetBackup_11.1_CLIENTS1.tar.gzNetBackup 11.1 Non-Linux Based UNIX NetBackup Clients11.1Cross-Platform1.47 GB
NetBackup_11.1_CLIENTS2.tar.gzNetBackup 11.1 Linux Based Clients11.1Cross-Platform3.72 GB
NetBackup_11.1_FR.isoNetBackup 11.1 French Language Pack11.1Cross-Platform230.27 MB
NetBackup_11.1_JA.isoNetBackup 11.1 Japanese Language Pack11.1Cross-Platform241.50 MB
NetBackup_11.1_LinuxR_x86_64.tar.gzNetBackup 11.1 for Linux RedHat11.1Linux2.78 GB
NetBackup_11.1_LinuxS_x86_64.tar.gzNetBackup 11.1 for Linux SUSE11.1Linux2.14 GB
NetBackup_11.1_Win.zipNetBackup 11.1 for Windows11.1Windows2.53 GB
NetBackup_11.1_ZH.isoNetBackup 11.1 Chinese Language Pack11.1Cross-Platform220.72 MB
NetBackup_SnapshotManager_11.1.0.0-1049.tar.gzNetBackup 11.1 Snapshot Manager11.1Cross-Platform2.29 GB
netbackup-dedupe-direct-for-oracle.linuxR_x86_11.1.tar.gzNetBackup 11.1 Oracle Direct Plugin for RedHat Linux11.1Linux17.37 MB
netbackupkops-11.1-0016.tar.gzNetBackup 11.1 Operator for Kubernetes Workloads11.1Cross-Platform187.98 MB
veritasnetbackup-datamover-11.1-0073.tar.gzNetBackup 11.1 DataMover for Kubernetes Workloads11.1Cross-Platform750.81 MB
VRTSflex-msdp-21.1-0048.x86_64.rpmNetBackup WORM 11.1 storage server for Flex11.1Cross-Platform792.27 MB
VRTSflex-netbackup-11.1-0073.x86_64.rpmNetBackup 11.1 application for Flex11.1Cross-Platform3.75 GB
VRTSk8s-netbackup-11.1-0073-manifest.jsonNetBackup 11.1 Powered by Cloud Scale Technology - Manifest11.1Cross-Platform12.47 KB
VRTSk8s-netbackup-11.1-0073.tarNetBackup 11.1 Powered by Cloud Scale Technology11.1Cross-Platform11.11 GB
vxupdate_nb_11.1_redhat_x64.sjaVxUpdate 11.1 for RedHat Linux11.1Linux1.49 GB
vxupdate_nb_11.1_suse_x64.sjaVxUpdate 11.1 for SUSE Linux11.1Linux864.73 MB
vxupdate_nb_11.1_windows_x64.sjaVxUpdate 11.1 for Windows11.1Windows2.01 GB
vxupdate_nbclient_11.1_aix_rs6000.sjaVxUpdate 11.1 for AIX11.1Unix774.12 MB
vxupdate_nbclient_11.1_debian_x64.sjaVxUpdate 11.1 for Debian11.1Linux1.13 GB
vxupdate_nbclient_11.1_redhat_ppc64le.sjaVxUpdate 11.1 for PowerPC RedHat Linux11.1Linux211.33 MB
vxupdate_nbclient_11.1_redhat_zseries.sjaVxUpdate 11.1 for zSeries RedHat Linux11.1Linux369.42 MB
vxupdate_nbclient_11.1_solaris_sparc.sjaVxUpdate 11.1 for Solaris Sparc11.1Unix404.64 MB
vxupdate_nbclient_11.1_solaris_x64.sjaVxUpdate 11.1 for Solaris X8611.1Unix375.39 MB
vxupdate_nbclient_11.1_suse_ppc64le.sjaVxUpdate 11.1 for PowerPC SUSE Linux11.1Linux170.59 MB
vxupdate_nbclient_11.1_suse_zseries.sjaVxUpdate 11.1 for zSeries SUSE Linux11.1Linux334.22 MB

相关产品:

Comprehensive enterprise data protection

请访问原文链接:https://sysin.org/blog/netbackup-11/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


Cohesity NetBackup:全面的企业数据保护

NetBackup

备份和恢复软件解决方案领导者

Veritas (now part of Cohesity) 荣膺 2024 Gartner® “企业备份和恢复软件解决方案” 魔力象限的领导者,第 19 次获此殊荣。

详见:Gartner Magic Quadrant for Enterprise Backup and Recovery Solutions 2024

备份和恢复市场中供应商有大大小小数百个之多,我们认为,Gartner 报告再次彰显了 Veritas 在全球高端中型市场和大型企业环境具有较高影响力。

Veritas 深受企业信赖,管理的数据超过任何其他数据保护类公司。

我们的数据保护范围包括:

  • 80,000+ 家企业客户
  • 95% 的财富 100 强企业
  • 全球十大商业银行巨头、领先的金融数据服务公司以及通信公司

Veritas 长久以来,一直致力于帮助全球企业在重重挑战面前全方位保护数据并维持业务照常运营,从而备受业界认可。

了解 NetBackup 11.1 的最新创新成果

发布最新版本的 NetBackup 11。

随着由 AI 和量子计算提供支持的新威胁不断出现,Cohesity NetBackup 将继续提供智能网络弹性、高级自动化以及扩展的控制和灵活性,所有这些都可以增强保护,同时降低成本和资源需求。

NetBackup

以下是 NetBackup 11.1 版本中新增的功能和改进:

  • Cohesity 术语更改
    与 NetBackup 集成的 Cohesity 术语进行了更新。
  • 包含 RESTful API 接口
    NetBackup 11.1 中包含了新的 REST API 功能,可用于程序化访问和自动化管理。
  • 支持为 Nutanix AHV 创建即时访问虚拟机(Instant Access VM)功能
    使备份虚拟机更快恢复为可访问状态。
  • 支持 Kernel-based Virtual Machine (KVM)
    提供对基于 KVM 的虚拟化环境的原生支持。
  • 对象更改跟踪(Object Change Tracking)用于云对象存储保护
    优化对云对象存储备份时的数据变更检测,提高效率。
  • 扩展对 HPE GreenLake 块存储阵列的复制支持
    在 HPE GreenLake 环境中提供更高级的数据复制支持。
  • NetBackup Snapshot Manager for Data Center 现在支持云存储阵列
    为云存储平台提供更好的快照管理能力。
  • 增强对 PaaS 数据库的支持
    改进对平台即服务数据库(如托管数据库服务)的备份与恢复支持。
  • 支持 NextGen Malware Scanner 工具
    在备份过程中新增对下一代恶意软件扫描工具兼容性。
  • Web UI 中恶意软件扫描操作的实时更新
    管理界面显示更实时的恶意软件扫描状态更新。
  • 在检测感染时可以中止恶意软件扫描
    如果扫描过程中发现恶意软件,可立即停止扫描以加快响应。
  • 支持单个提供程序插件中的多账户(Multi-Account support)
    同一插件中可配置多个云账户。
  • 云规模增强和部署更新
    改进对大规模云环境的支持和部署体验。
  • 支持云密钥管理服务(Cloud Key Management Service)
    用于加密密钥的云服务集成支持。
  • 支持网络访问控制功能
    增强对网络安全策略的集成。
  • 引入 Freeze 模式(冻结模式)
    用于在某些操作中保持系统状态的一致性。
  • 支持跨 virtualization 平台的跨-Hypervisor 恢复(如从 VMware 恢复到 Nutanix)
    允许在不同虚拟化平台之间进行恢复操作。
  • 支持 PostgreSQL Backups 的 pgBackRest
    通过 pgBackRest 提供对 PostgreSQL 的备份支持。
  • 支持 Percona XtraBackup 工具
    为 MySQL 及其衍生版本的备份提供支持。
  • 在 Cohesity 与 NetBackup Web UI 中支持 Microsoft SharePoint 恢复
    提供 SharePoint 数据的恢复选项。
  • 增强 WebSocket 服务器凭据安全性(使用 JWT 认证)
    提高 Web UI 与后端服务之间通信的安全性。
  • Web UI 报告增强功能
    增加更多图形化和可定制的报告。
  • Web UI 中的 Vault 管理增强
    改进 Vault(安全存储库)管理功能。
  • 支持存储单元组总览视图
    允许用户在界面中看到存储单元分组的信息总览。
  • 对存储服务器凭据进行增强支持
    改进了凭据在不同存储服务器之间的一致性和管理方法。

下载地址

Cohesity NetBackup 11 for Linux x64 & Windows x64

官方文件列表:

File nameDescriptionVersionPlatformSize
Get_host_lock_utility.zipUtility to retrieve the host lock string required to generate a license key11.0.00None4.36 KB
itanalytics_datacollector_linux_11700.isoNetBackup IT Analytics 11.7 Data Collector Installer for Linux11.7.00Linux587.72 MB
itanalytics_datacollector_win_11700.isoNetBackup IT Analytics 11.7 Data Collector Installer for Windows11.7.00Windows734.74 MB
itanalytics_dbinstaller_193000-01_SE2_EE_RH9_oracle_patchset_v1.zipRH9 Oracle Installer patch set11.7.00Linux1.76 GB
itanalytics_dbinstaller_shared-service_linux_11700.isoNetBackup IT Analytics 11.7 DB Installer11.7.00Linux11.81 MB
itanalytics_dbinstaller_shared-service_win_11700.isoNetBackup IT Analytics 11.7 DB Installer11.7.00Windows3.78 MB
itanalytics_installer_11700_linux.isoNetBackup IT Analytics 11.7 Portal Installer for Linux11.7.00Linux3.98 GB
itanalytics_installer_11700_win.isoNetBackup IT Analytics 11.7 Portal Installer for Windows11.7.00Windows3.74 GB
itanalytics_upgrader_11700_linux.isoNetBackup IT Analytics 11.7 Portal Upgrader for Linux11.7.00Linux3.93 GB
itanalytics_upgrader_11700_win.isoNetBackup IT Analytics 11.7 Portal Upgrader for Windows11.7.00Windows3.88 GB
NBAntiMalwareClient_2.5b.zipNetBackup Malware Scanner 2.5b2.5bCross-Platform60.94 MB
NBNextGenMalwareScanner_1.0.zipNetBackup NextGenMalware Scanner 1.01.0Cross-Platform23.14 MB
NetBackup_11.1_CLIENTS1.tar.gzNetBackup 11.1 Non-Linux Based UNIX NetBackup Clients11.1Cross-Platform1.47 GB
NetBackup_11.1_CLIENTS2.tar.gzNetBackup 11.1 Linux Based Clients11.1Cross-Platform3.72 GB
NetBackup_11.1_FR.isoNetBackup 11.1 French Language Pack11.1Cross-Platform230.27 MB
NetBackup_11.1_JA.isoNetBackup 11.1 Japanese Language Pack11.1Cross-Platform241.50 MB
NetBackup_11.1_LinuxR_x86_64.tar.gzNetBackup 11.1 for Linux RedHat11.1Linux2.78 GB
NetBackup_11.1_LinuxS_x86_64.tar.gzNetBackup 11.1 for Linux SUSE11.1Linux2.14 GB
NetBackup_11.1_Win.zipNetBackup 11.1 for Windows11.1Windows2.53 GB
NetBackup_11.1_ZH.isoNetBackup 11.1 Chinese Language Pack11.1Cross-Platform220.72 MB
NetBackup_SnapshotManager_11.1.0.0-1049.tar.gzNetBackup 11.1 Snapshot Manager11.1Cross-Platform2.29 GB
netbackup-dedupe-direct-for-oracle.linuxR_x86_11.1.tar.gzNetBackup 11.1 Oracle Direct Plugin for RedHat Linux11.1Linux17.37 MB
netbackupkops-11.1-0016.tar.gzNetBackup 11.1 Operator for Kubernetes Workloads11.1Cross-Platform187.98 MB
veritasnetbackup-datamover-11.1-0073.tar.gzNetBackup 11.1 DataMover for Kubernetes Workloads11.1Cross-Platform750.81 MB
VRTSflex-msdp-21.1-0048.x86_64.rpmNetBackup WORM 11.1 storage server for Flex11.1Cross-Platform792.27 MB
VRTSflex-netbackup-11.1-0073.x86_64.rpmNetBackup 11.1 application for Flex11.1Cross-Platform3.75 GB
VRTSk8s-netbackup-11.1-0073-manifest.jsonNetBackup 11.1 Powered by Cloud Scale Technology - Manifest11.1Cross-Platform12.47 KB
VRTSk8s-netbackup-11.1-0073.tarNetBackup 11.1 Powered by Cloud Scale Technology11.1Cross-Platform11.11 GB
vxupdate_nb_11.1_redhat_x64.sjaVxUpdate 11.1 for RedHat Linux11.1Linux1.49 GB
vxupdate_nb_11.1_suse_x64.sjaVxUpdate 11.1 for SUSE Linux11.1Linux864.73 MB
vxupdate_nb_11.1_windows_x64.sjaVxUpdate 11.1 for Windows11.1Windows2.01 GB
vxupdate_nbclient_11.1_aix_rs6000.sjaVxUpdate 11.1 for AIX11.1Unix774.12 MB
vxupdate_nbclient_11.1_debian_x64.sjaVxUpdate 11.1 for Debian11.1Linux1.13 GB
vxupdate_nbclient_11.1_redhat_ppc64le.sjaVxUpdate 11.1 for PowerPC RedHat Linux11.1Linux211.33 MB
vxupdate_nbclient_11.1_redhat_zseries.sjaVxUpdate 11.1 for zSeries RedHat Linux11.1Linux369.42 MB
vxupdate_nbclient_11.1_solaris_sparc.sjaVxUpdate 11.1 for Solaris Sparc11.1Unix404.64 MB
vxupdate_nbclient_11.1_solaris_x64.sjaVxUpdate 11.1 for Solaris X8611.1Unix375.39 MB
vxupdate_nbclient_11.1_suse_ppc64le.sjaVxUpdate 11.1 for PowerPC SUSE Linux11.1Linux170.59 MB
vxupdate_nbclient_11.1_suse_zseries.sjaVxUpdate 11.1 for zSeries SUSE Linux11.1Linux334.22 MB

相关产品:

原文地址 https://feinterview.poetries.top/blog/claude-figma-mcp-minmax

本文详细介绍如何通过 Claude Code + MinMax + Figma MCP 的组合方案,实现设计稿到代码的高精度自动还原。

安装 Figma MCP

首先在终端中执行以下命令安装 Figma MCP:

claude mcp add --scope user --transport http figma https://mcp.figma.com/mcp

安装完成后,使用 claude mcp list 查看已安装的 MCP 列表:

授权 Figma 账户

MCP 安装成功后,需要在 Claude Code 界面中完成 Figma 账户的授权操作。点击授权按钮后会跳转到 Figma 官网的 OAuth 页面,登录并确认授权即可。

授权成功后,MCP 即可正常连接并读取你的 Figma 文件:

配置 MinMax 模型(可选)

如果你希望降低 API 调用成本,可以在 Claude Code 中配置 MinMax 作为模型供应商。使用 claude switch 命令调出模型切换面板,添加新的供应商:

详细配置步骤可参考 MinMax 官方文档

使用 Figma MCP 还原设计稿

接下来演示如何使用 Figma MCP 从设计稿自动生成代码。

选择目标设计稿

本示例使用的是 Figma Community 上的一个咖啡馆落地页设计稿:

打开设计稿后,点击【Open in Figma】进入画布页面:

获取设计元素链接

在 Figma 画布中选择你想要复刻的 Layer 层或 Frame,点击右键选择【Copy link to selection】获取元素链接:

调用 Claude Code 生成代码

切换到 Claude Code 界面,输入以下提示词即可自动还原设计稿:

请使用Figma MCP,在 @test.html 页面还原落地页设计:https://www.figma.com/design/zZQZmhP0lSw4OeCsBvuzFG/Bean-Scene-Coffee--Community-?node-id=1-4&t=2TnBNPKQMGuHxi8w-4
注意:提示词中的 @test.html 指定了输出文件名,Figma 链接包含了文件 ID 和节点 ID 信息,MCP 会据此解析设计元素属性并生成对应代码。

MCP 会自动读取设计稿的颜色、字体、间距等属性,并生成对应的 HTML 和 CSS 代码:

验证还原效果

代码生成完成后,打开生成的 test.html 文件查看效果:还原度还是很高的

参考资料

我的版本:vesa 版本, 有时候会上下调整高度。

现在的问题是屏幕上方出现了一个横纹(在上方 menu 内底部),颜色还不固定,看起来是面板的问题,也不是一直白色 ,也不是一直黑色。 跟着桌面的其他内容有变化。
买了不到 3 年 没有 apple care ,找天才吧和苹果电话客服,收集详细屏幕图片,最终无法免费解决。 维修需要 7800 多。

纯正常使用 无任何磕碰。

给 vesa 版本或者所有版本的建议是:是否考虑需要一个 apple care 。

PS:用苹果从 iphone4 2010 年,开始,从来没买过任何 apple care ,之前积累 20 多个设备从没出现问题。
除了官方有明确的召回计划的不算在内。比如:2014 款 mbp 涂层脱落,2019 款蝶式键盘问题。其他未与 apple 天才吧有过交互

数字孪生为水利水电行业提供了底层平台级建设能力,有效推动水库现代化管理的升级改造,以前沿的技术驱动为优化水资源调配、建设高质量水网注入了智慧动能。

实时云渲染技术通过云端强大渲染与数据协同能力,将海量IOT数据、三维可视化与水电水厂各个管理环境的数据打通,助力水利水电行业从“分散孤岛”走向“一屏统览”的新管理阶段。

01 数字孪生在水利水电发展中的优势与瓶颈

与传统水利水电管理模式相比,数字孪生技术为水利水电行业智能化转型提供了精准、高效、协同的核心支撑:

  • 支持全生命周期数字化映射,实现实时感知
  • 强化水资源 “预报、预警、预演、预案” 四预能力
  • 实现设备状态监测与预测性维护、智能运维降本增效,延长工程寿命
  • 构建统一智慧调度平台,支撑跨流域、跨层级协同调度


数字孪生是水利水电智能化、现代化的核心方向,但需在标准统一、数据融合、机理模型、算力优化等层面有待突破:

  1. 多源异构数据( BIM 、GIS、监测、水文等)碎片化、标准不统一,相关数据安全级别要求高,融合及保密难度大。
  2. 受限于硬件设备要求,以数据驱动为主,引擎输出可视化场景精度深度不够,模型精度与机理融合不足。
  3. 系统建设、硬件部署、流域级大规模仿真对算力与存储要求严苛,对使用人员要求高,不利于应用在实际生产环境。
  4. 系统集成难度大,新老数据、三维可视化场景兼容要求高,不便于统一调度和平台级分发管理。

实时云渲染技术为水利水电数字孪生建设提供了创新统一、自主可控的技术路线,以及开箱即用的产品级解决方案。

02 实时云渲染助力水利水电“一屏统览全要素、一网调度全过程”

「Paraverse平行云」作为国际领先的实时云渲染技术先行者,核心产品实时云渲染平台LarkXR,正是为解决水利水电数字孪生现有瓶颈和实际痛点而生。

1. 实时云渲染LarkXR核心技术优势

LarkXR是一套基于GPU云化、图形容器、音视频实时编解码、网络传输优化等核心技术的通用型实时云渲染解决方案,将复杂计算和图形渲染部署在云端服务器,将超低时延的交互视频流推送到各类2D/3D/XR终端上,使高精度大规模、海量水文数据的水利水电三维场景流畅的运行、使用及传播,轻松与业务系统实现无缝对接,支持IOT数据、巡检数据、仿真系统等一站式汇总:

  • 广泛的引擎兼容性快速实现B/S架构: 完美兼容UE、 Unity等主流引擎开发的3D /2D/WebGL应用。开发者无需修改应用程序源码、无需集成特定插件,即可实现水利枢纽工程三维场景应用一键上云,极大降低了迁移成本和门槛。
  • 资源实时监控,无缝对接业务系统:  LarkXR是国内首个产品化实时云渲染PaaS平台,具有完整的前后台管理功能,可以实时监控程序、服务器、用户、终端等各类数据信息,同时也支持数据、图像、音视频乃至语音语义等多种数据的同步传输,可轻松与现有的三维可视化业务管理系统无缝嵌入,实现真正的业务云化。
  • 卓越的国产化与性能支持: 全面支持软硬件国产信创环境,并能提供最高120FPS、8K分辨率的高清视频流直推,满足水利工程建设、水库防汛调度、水电能源等战略行业的发展需求,符合国家网络安全等级保护要求,从底层架构上规避了数据泄露与被攻击风险;同时具备数据备份机制,确保核心数据可管、可控、可追溯。
  • 强大的定制化能力:LarkXR提供百余种二次开发接口和深度定制功能,方便与各省市地区现代化水库管理矩阵对接融合,如库区全景、坝体监测、实时水位等关键信息一览无余,允许设计院、水利水电勘测机构等根据自身业务需求进行深度定制,打造专属的云渲染解决方案。
  • 大集群高 并发 弹性扩容:LarkXR基于第三代GPU池化技术,拥有多项专利、软著等知识产权,自主可控。从产品架构上支持 单机多 显卡 +一卡多并发+多卡大集群 的高可用架构,单卡支持10路以上并发上线,只要有剩余算力就可以继续支持分配。

2.符合水利水电工程数字孪生轻量化、平台型发展趋势

「Paraverse平行云」实时云渲染产品LarkXR打造了行业内首个产品化PaaS平台,服务全球数万名开发者、数千家政企机构及高校,结合AI大模型云渲染能力,符合国家产业政策提到的“数字孪生流域 + 水网 + 工程” 三位一体建设要求,促进数字孪生工程与数字孪生流域、数字孪生水网互联互通与信息共享。

基于LarkXR搭建的水利水电实时云渲染可视化平台,可在防洪减灾、水资源水网调配、工程全 生命周期管理 和水生态全域感知等方向上发挥巨大作用。通过构建 “一屏统览全要素、一网调度全过程” 水利水电智慧大脑的统一在线服务平台,解决多终端使用的局限性,提升运维效能。

  1. 三维场景与设备资源: 实现对水利工程、水电设备、人员检修等运行状态的自动、实时、全面透彻的感知。
  2. 平台运维与用户协同: 从关键指标数据分散、系统孤立的架构迈向开放、整合、协同的智慧水利水电平台级信息化架构,采用云渲染平台统一管理的架构模式,方便一线工作人员随时随地、多端协同、即时反馈的生产管理协同方式。
  3. 工程建设与安全管理: 云渲染云推流网页方式,可以轻松集成水利工程建筑BIM生命周期管理模型,将试验室分析管控数据、工程BIM模型、施工进度管理、视频采集监控等流程拟合在一个生产流,轻松与已有业务系统对接,提供多角色分级访问的安全管理机制。支持业主单位、用户个人随时随地联网交互实操,真正将精美的三维可视化场景运用于实际生产环境。
  4. 多数据元融合:支持IOT数据、GIS数据、水动力模型数据、视频监控/融合数据,以及巡检、测量等各类实时数据的二三维联合驱动,实现水流态势的动态、流畅可视化,为研判预警提供清晰简洁的决策支持。

03 水利水电数字孪生云渲染案例

水利部某甲级勘测设计科研单位的水资源配置一期工程中,平行云提供了实时云渲染平台接入融合能力,支持:AI高清视频融合,赋能拌合站“数据采集—实时分析—预警处置”全链条闭环管控模式,以及劳务管理系统等核心业务流接入,构建起“实时监测、智能预警、精准管控”的现代化建管体系,符合深化数字孪生基础支撑能力的总体要求。

针对大数据量水电设备三维模型在低端配置机器上浏览卡顿、交互延迟的问题,业主参考主流解决方案,采用平行云LarkXR实时云渲染平台,将GIS、BIM、监测、水文等数据和三维模型渲染放在服务层,以超低时延视频流的方式推送到前端设备,交互无卡顿、使用流畅,保证三维效果的同时大大提升了业务人员使用的体验。


「Paraverse平行云」实时云渲染产品LarkXR,正成为水利水电数字孪生规模化落地的核心加速器,打造全新云渲染技术的智慧平台,将数字孪生技术从防汛调度、水资源配这样的“大事”上渗透到日常运维的各个环节中,使“一屏统览、多端访问”水利水电智慧大脑平台激发深层活力,打破时空限制与数据壁垒,让异地协同、跨域应用成为常态,为水利水电数字化转型筑牢技术底座。

官网:
yiwang.zimuji.com

主要功能

首创实时字幕翻译软件, 彻底解决语言不通问题, 爽看任意语言直播

  • 支持系统内录, 麦克风录制翻译
  • 延时极低, 只差一句话, 大概 2 秒(和机器性能也有关)
  • 支持几十种语言
  • 独创嵌入式桌面字幕小窗, 可拖至任意地方, 大大提升体验
  • 支持任务保存, 后续重听,检查, 重新转写
  • 支持自定义翻译器
  • 支持自定义字幕样式
  • 支持任务配置, 方便随时切换配置
  • 支持各种显卡加速(Nvidia, AMD 等都支持)

img

img

img

有兴趣的可留下邮箱,可 base64, 我会依次发送 2 个月 的注册码, 人肉发送, 正常
24 小时内发送, 如果没看到, 可以提醒我

或加我微信: aizimuji, 私信我要也行, 可拉群讨论

暂时还没空写文档, 有使用问题直接留言, 或加我微信讨论

引言:AIGC 视频时代的内容安全挑战

随着 Sora、Runway、Pika 等生成式视频模型的发展,视频内容生产的门槛正在快速降低。

生成式模型能够在短时间内生成高质量视频内容,这为创作者带来了新的可能性,同时也给平台内容治理体系带来了新的挑战。

在短视频平台、UGC 内容平台以及视频编辑工具中,视频在传播过程中通常会经历多次处理流程,例如:

  • 平台水印叠加

  • 视频压缩与转码

  • 二次编辑

  • 跨平台传播

在这种复杂链路中,传统的视频修复与内容识别技术逐渐暴露出局限。特别是在 复杂纹理背景与动态场景 中,传统 Inpainting 方法往往难以恢复真实纹理结构。

与此同时,生成式 AI 模型正在改变视频后处理技术的实现路径:

视频修复技术正在从 像素级修补(Pixel Restoration) 演进为 生成式重构(Generative Reconstruction)

一、传统视频修复技术的局限

传统视频去水印主要依赖 图像修补(Inpainting) 算法。

常见方法包括:

  • PatchMatch

  • Telea Inpainting

  • Navier-Stokes Inpainting

这些算法的核心思想是利用周围像素推断缺失区域。

以下示例代码展示了传统 Inpainting 的基本流程:

import cv2import numpy as npdef inpaint_frame(frame: np.ndarray, mask: np.ndarray) -> np.ndarray:    """    frame : RGB video frame    mask  : watermark mask (0/255)    """    # convert to BGR for OpenCV    frame_bgr = cv2.cvtColor(frame, cv2.COLOR_RGB2BGR)    # classical inpainting    repaired = cv2.inpaint(        frame_bgr,        mask,        inpaintRadius=3,        flags=cv2.INPAINT_TELEA    )    # convert back to RGB    repaired_rgb = cv2.cvtColor(repaired, cv2.COLOR_BGR2RGB)    return repaired_rgb
复制代码

这种方法在简单背景下效果良好,但在复杂纹理场景中容易产生纹理平滑(Texture Smoothing)

图 1:传统 Inpainting 在复杂纹理场景下的修复问题

在复杂纹理背景中,传统算法往往无法恢复真实纹理结构。

二、生成式修复技术的出现

近年来,生成式 AI 模型逐渐被用于视频修复任务。

主要技术路线包括:

  • GAN-based Inpainting

  • Diffusion-based Reconstruction

  • Transformer-based Video Restoration

其中扩散模型(Diffusion Models)在纹理生成能力上表现突出。

扩散模型通过逐步去噪生成图像,其基本过程可以表示为:

import torchdef diffusion_denoise(model, x_t, steps):    """    x_t : noisy latent    steps : diffusion steps    """    for t in reversed(range(steps)):        noise_pred = model(x_t, t)        x_t = x_t - noise_pred    return x_t
复制代码

在训练阶段,模型学习真实图像分布,因此在修复阶段能够生成新的纹理结构,而不是简单的像素插值。

图 2:生成式修复与传统修复的效果对比

相比传统方法:

生成式修复具有两个优势:

  • 能生成新的纹理结构

  • 能保持视觉一致性

在复杂视频场景中(例如动态背景或生成式视频素材),这种差异会更加明显。  

针对生成视频与复杂背景水印场景,我们进行了多组实验对比。相关实验示例可参考: 视频去水印实验示例(Sora 场景)。该页面主要用于展示扩散模型在复杂视频场景中的纹理重构表现,用于验证生成式修复策略在真实视频任务中的可行性。

三、视频修复系统的工程架构

在实际业务场景中,例如:

  • 短视频平台

  • 视频编辑工具

  • 内容审核系统

视频修复通常需要处理大规模视频任务

因此系统架构设计尤为关键。

图 3:AI 视频修复系统架构

典型系统架构包括以下组件:

  • 视频解析模块

  • 水印检测模块

  • AI 修复模块

  • GPU 推理服务

  • 分布式任务队列

  • 对象存储系统

在生产环境中,视频修复任务通常通过异步队列 + GPU worker的方式处理。

以下示例代码展示了一个简化的任务队列结构。

from dataclasses import dataclassfrom typing import Optionalimport uuid@dataclassclass VideoTask:    task_id: str    video_url: str    model: str    window: int = 24    stride: int = 12    callback_url: Optional[str] = Nonedef create_task(video_url: str) -> VideoTask:    return VideoTask(        task_id=str(uuid.uuid4()),        video_url=video_url,        model="diffusion_inpaint_v1"    )
复制代码

通过任务队列,系统可以实现异步视频处理与自动扩展 GPU worker

四、时序一致性问题与滑动窗口策略

在视频修复过程中,一个重要问题是时间一致性(Temporal Consistency)

如果逐帧独立处理视频帧,往往会出现闪烁(Flicker)

为了解决这一问题,通常采用滑动窗口推理(Sliding Window Inference)

from typing import List, Tupledef sliding_windows(n_frames: int, window: int, stride: int) -> List[Tuple[int, int]]:    ranges = []    i = 0    while i < n_frames:        j = min(i + window, n_frames)        ranges.append((i, j))        if j == n_frames:            break        i += stride    return ranges
复制代码

这种策略通过重叠窗口推理视频帧,从而减少时序不一致问题。

五、GPU 推理服务设计

在生成式视频修复任务中,推理成本通常由 GPU 侧承担。与离线批处理不同,平台侧更关注三个指标:吞吐(QPS)、尾延迟(P95/P99) 与 单位成本($/min)。因此,我们将模型推理以“服务”的形式独立出来,并围绕“可扩展、可观测、可降级”的目标进行设计。

从系统边界来看,推理服务并不直接处理完整视频文件,而是接收经过解码与分片后的帧窗口(frame window)与对应的mask/ROI 信息。这样做有两个直接收益:其一是避免大文件传输与重复解码造成的资源浪费;其二是便于在窗口级别做批处理与重试,从而提升 GPU 利用率并降低尾延迟波动。

图 4展示了推理服务内部的关键组件:入口路由负责限流与参数校验;批处理聚合器将短时间内到达的多个窗口请求合并为 micro-batch;GPU 执行器负责 FP16/TensorRT 等推理路径;显存保护模块在 OOM 风险下触发降级策略(如减小 batch、缩小窗口或回退到低分辨率);结果写回模块将推理输出写入对象存储并触发回调。围绕这些关键路径,系统需要暴露核心指标(QPS、P95、GPU 利用率、OOM 次数、重试率),以便持续调参和容量规划。

5.1 推理服务接口:以“窗口”为最小处理单元

from pydantic import BaseModelfrom typing import List, Optionalclass InferReq(BaseModel):    task_id: str    window_id: str    frames_b64: List[str]              # encoded frames of a window    mask_b64: Optional[List[str]] = None    fp16: bool = True    model: str = "diffusion_inpaint_v1"class InferResp(BaseModel):    task_id: str    window_id: str    out_frames_b64: List[str]    latency_ms: int
复制代码

这类“窗口级接口”让系统能够以统一方式处理不同长度的视频:视频层面通过滑动窗口切分,推理层面只关注窗口内的计算与一致性约束。

5.2 Micro-batching:提升 GPU 利用率并稳定尾延迟

import timefrom typing import List, Anydef micro_batch(buffer: List[Any], max_bs: int = 4, max_wait_ms: int = 20):    """Aggregate requests for a short time window to form micro-batch."""    t0 = time.time()    batch = []    while len(batch) < max_bs:        if buffer:            batch.append(buffer.pop(0))        if (time.time() - t0) * 1000 >= max_wait_ms:            break        time.sleep(0.001)    return batch
复制代码

Micro-batching 的关键在于“等多久”和“攒多少”。等待时间过长会拉高 P95;batch 太小会导致 GPU 利用率低。实际生产中通常需要结合压测结果,在不同 GPU(T4/A10/A100)上设置不同的 batch 与等待窗口,并通过监控指标动态调整。

六、系统性能评估:压测数据与 QPS 对比

在视频修复系统的实际部署过程中,模型效果只是其中一个维度,系统性能同样是关键指标。

对于视频平台而言,系统需要在保证画质质量的同时满足可接受的延迟与吞吐能力

因此在生产环境中,我们对系统进行了多轮压力测试,以评估不同 GPU 配置下的推理性能。

测试环境配置如下:

在测试中,每个视频平均长度为5 秒(约 120 帧)

1. GPU 推理性能对比

不同 GPU 在推理任务中的表现存在明显差异。

从测试结果可以看到:

  • A100 在吞吐能力上具有明显优势

  • A10 在成本与性能之间取得较好平衡

  • T4 更适合中低并发场景

在实际生产环境中,我们通常采用A10 GPU 作为主力推理节点

2. Sliding Window 对系统性能的影响

在视频修复任务中,为避免时间闪烁问题,系统采用Sliding Window 推理策略

不同窗口大小会对系统性能产生影响。

测试结果表明:

  • 较大的窗口可以提升视频一致性

  • 但会增加 GPU 推理计算量

在实际工程中,我们通常采用:

Window = 24,Stride = 12

以平衡视觉效果与系统吞吐能力。

3. GPU Batch 推理优化

在初始版本中,系统采用逐任务推理模式。

随着并发量增加,我们引入了Batch 推理策略

以下示例代码展示了批处理推理的核心逻辑:

def batch_infer(model, frames_batch):    """    frames_batch: List[Tensor]    """    import torch    batch_tensor = torch.stack(frames_batch).cuda()    with torch.no_grad():        output = model(batch_tensor)    return output.cpu()
复制代码

通过批处理推理,系统 GPU 利用率显著提升。

在 A10 GPU 上:

  • 单帧推理 QPS:约9

  • Batch=4 推理 QPS:约14

GPU 利用率从55% 提升至 80% 以上

4. 系统整体吞吐能力

在完整系统架构(任务队列 + GPU Worker)下,我们进行了整体压测。

测试配置:

  • GPU Worker 数量:4

  • GPU:A10

  • 任务队列:Redis Stream

  • 视频长度:5 秒

最终系统表现如下:

可以看到:

系统吞吐能力基本随 GPU Worker 数量线性增长。

这种架构使系统能够通过水平扩展 GPU Worker来应对高并发视频处理任务。

5 性能优化总结

通过多轮测试,我们总结出以下优化策略:

1️⃣ 使用FP16 推理提升 GPU 吞吐能力

2️⃣ 采用Sliding Window 推理保证视频时序一致性

3️⃣ 通过Batch 推理提高 GPU 利用率

4️⃣ 使用任务队列 + Worker 架构实现水平扩展

这些策略能够在保证视频质量的同时,将系统性能提升到生产可用水平。

七、工程优化与成本控制

扩散模型虽然效果优秀,但计算成本较高。

在实际工程中通常需要进行以下优化:

模型推理优化

  • FP16 推理

  • TensorRT 加速

  • Torch Compile

GPU 资源优化

  • Batch 推理

  • 多实例 GPU

  • 自动扩缩容

任务调度优化

  • 优先级队列

  • GPU 资源隔离

  • 异步任务处理

这些策略可以显著降低视频处理成本。

八、未来趋势:生成式 AI 与内容安全

随着生成式视频技术的发展,视频内容安全体系也在不断演进。

未来可能出现以下趋势:

AI 水印技术

例如:

  • Stable Signature

  • Deep Watermark

这些水印可以嵌入模型生成过程。

内容溯源体系

通过以下技术实现视频来源追踪:

  • 数字指纹

  • 区块链溯源

  • 内容认证协议

实时视频检测

随着端侧 AI 算力提升,实时视频检测将成为可能。

结语

视频内容安全正处在新的技术转折点。

随着生成式模型的发展,视频修复技术正在从像素级修补逐渐演进为生成式重构

在实际工程实践中,如何在保证视觉质量的同时控制计算成本,并构建可扩展的视频处理系统,将成为未来视频工程领域的重要研究方向。

导读:在数据平台不断演进的今天,调度系统早已不只是“定时跑任务”的工具,而是承载复杂依赖与稳定性的核心中枢。《深入理解 Apache DolphinScheduler:从调度原理到 DataOps 实战》 系列专栏,尝试从真实工程场景出发,拆解调度背后的关键设计。本文作为第四篇,将聚焦 Apache DolphinScheduler 的状态机机制,带你看清调度系统如何在充满不确定性的环境中,依然保持有序与可靠。

在所有调度系统的核心机制中,真正决定“是否可靠”的,从来都不是 UI、线程池或分布式框架,而是状态机。只要系统需要跨节点执行、允许失败、支持重试、支持人工干预并在异常后自动恢复,它就必须围绕状态流转来设计。深入理解这一点,才能真正理解调度系统的复杂性。

在 Apache DolphinScheduler 中,TaskInstance 与 WorkflowInstance 并不是简单的执行对象,而是两个嵌套的状态机。调度系统的运行,本质上不是“执行任务”,而是“推动状态向前演进”。

为什么调度系统必须依赖状态机

调度系统与普通程序最大的区别在于,它的执行过程具有长生命周期与不确定性。一个任务可能运行数小时,中间可能经历 Worker 宕机、Master 切换、网络抖动、数据库短暂不可用,甚至人工终止或暂停。若系统只依赖内存中的执行上下文,一旦进程崩溃,所有信息都会丢失。

因此,调度系统必须将“当前进展”外化为持久化状态。数据库中的状态字段,才是真正的执行依据。Master 重启后不会“记住”正在执行什么,但它可以重新扫描数据库,根据状态判断哪些任务需要重新调度、哪些已经结束、哪些需要容错恢复。

这就是状态机思想:执行逻辑不依赖内存,而依赖可持久化的状态流转。

TaskInstance 状态流转模型

在 DolphinScheduler 中,TaskExecutionStatus 的设计并不是简单的成功或失败。一个任务从创建到结束,通常会经历如下过程:

public enum TaskExecutionStatus {
    SUBMITTED_SUCCESS,
    DISPATCH,
    RUNNING,
    SUCCESS,
    FAILURE,
    NEED_FAULT_TOLERANCE,
    KILL,
    KILL_SUCCESS,
    PAUSE,
    STOP,
    WAITING_THREAD,
    DELAY_EXECUTION
}

一个最基本的成功路径是:

SUBMITTED_SUCCESS → DISPATCH → RUNNING → SUCCESS

但这只是理想路径。在分布式环境中,更常见的是包含容错分支的路径。例如,当 Worker 丢失或执行异常时:

RUNNING → NEED_FAULT_TOLERANCE → SUBMITTED_SUCCESS → DISPATCH → RUNNING

这条路径意味着任务进入容错状态后被重新提交,而不是简单标记为失败。状态本身定义了系统下一步该做什么。

在 Master 侧,调度逻辑本质是状态驱动的:

public void submitTask(TaskInstance taskInstance) {
    if (taskInstance.getState() == TaskExecutionStatus.SUBMITTED_SUCCESS) {
        dispatchToWorker(taskInstance);
        taskInstance.setState(TaskExecutionStatus.DISPATCH);
        updateTaskState(taskInstance);
    }
}

Worker 执行任务时,同样通过状态变更来表达进度:

public void executeTask(TaskInstance taskInstance) {
    taskInstance.setState(TaskExecutionStatus.RUNNING);
    updateTaskState(taskInstance);

    try {
        runTaskLogic(taskInstance);
        taskInstance.setState(TaskExecutionStatus.SUCCESS);
    } catch (Exception e) {
        taskInstance.setState(TaskExecutionStatus.FAILURE);
    }

    updateTaskState(taskInstance);
}

关键点不在于执行逻辑本身,而在于每一次状态变更都必须持久化。数据库中的状态,是整个系统的唯一事实来源。

WorkflowInstance:聚合状态机

如果说 TaskInstance 是原子状态机,那么 WorkflowInstance 是聚合状态机。Workflow 的状态并不是独立存在的,它本质上是所有子任务状态的函数。

一个 Workflow 在运行过程中,Master 会不断扫描当前 DAG,寻找依赖满足的任务并提交执行。与此同时,它也会根据任务状态更新自身状态:

private void updateWorkflowStatus() {
    if (allTasksSuccess()) {
        workflowInstance.setState(SUCCESS);
    } else if (anyTaskFailureWithoutRetry()) {
        workflowInstance.setState(FAILURE);
    }
}

这里的核心思想是:Workflow 不主动“执行”,它只是根据 Task 状态的变化进行状态推进。状态变化才是驱动调度循环的真正事件源。

DolphinScheduler 状态机的工作原理

从整体架构看,DolphinScheduler 的状态机运行机制可以抽象为三层协作:数据库、Master、Worker。

数据库负责持久化所有 WorkflowInstance 和 TaskInstance 的状态字段;Worker 负责执行具体任务并汇报状态;Master 则作为状态推进器,根据数据库中的状态变化做出下一步决策。

当 Master 启动时,它不会依赖内存快照,而是执行类似如下的恢复逻辑:

public void recover() {
    List<WorkflowInstance> runningWorkflows = workflowDao.findRunning();
    for (WorkflowInstance wf : runningWorkflows) {
        rebuildWorkflowContext(wf);
        scheduleWorkflow(wf);
    }
}

对于处于 RUNNING 但长时间无心跳的任务,Master 会进行超时检测:

if (taskInstance.getState() == RUNNING && timeout(taskInstance)) {
    taskInstance.setState(NEED_FAULT_TOLERANCE);
    updateTaskState(taskInstance);
}

之后,状态重新进入可调度阶段。也就是说,Master 本身并不保存复杂执行逻辑,它只是在不断读取状态、判断条件、推进状态。

这是一种 “数据库驱动调度” 的模式。系统的健壮性来源于状态可重建,而不是节点稳定。

为什么“任务卡住”通常不是 Bug

在生产环境中,“任务卡住”是最常见的抱怨之一。但如果从状态机角度观察,所谓“卡住”,往往是系统在做保守决策。

例如,一个任务处于 RUNNING 状态,但 Worker 已失联。此时系统面临选择:立即判定失败并重试,还是等待更长时间确认节点是否恢复?如果过早回滚,可能导致重复执行;如果等待较久,则看起来像“卡住”。

这是可靠性与实时性的权衡。状态机设计往往倾向于避免副作用,因此宁可延迟判断,也不轻易回滚。

另一个常见场景是状态更新失败。任务已经执行完成,但数据库写入异常,状态仍停留在 RUNNING。此时系统必须通过幂等逻辑与恢复扫描机制来保证最终一致,而不是依赖瞬时内存结果。

因此,很多“异常”其实是分布式一致性策略的外在表现。

状态机如何保障可靠性

状态机设计为调度系统带来四个核心能力:幂等性、可恢复性、最终一致性与可观测性

幂等性通过状态检查实现,任何已完成任务不会重复执行。可恢复性通过 NEED_FAULT_TOLERANCE 等中间状态实现,使任务可以在异常后重新进入调度循环。最终一致性依赖于 Master 重启后的状态扫描机制,使系统在节点故障后仍能收敛到正确状态。可观测性则来源于清晰的状态语义,使问题定位成为可能。

调度系统真正的难点,不在于如何提交任务,而在于如何在各种失败场景下维持状态的正确演进。状态机设计一旦出现漏洞,就会导致重复执行、丢失执行、状态紊乱或死锁。

结语

在 Apache DolphinScheduler 中,可靠性并不是某个模块的特性,而是整个系统围绕状态机展开的结果。TaskInstance 是最小状态单元,WorkflowInstance 是聚合状态机,Master 是状态推进器,而数据库是状态的最终真相。

调度系统的灵魂,从来不是执行器,而是状态流转。真正困难的,不是让任务跑起来,而是在任何异常场景下,仍然能保证状态不乱、逻辑可恢复、结果可收敛。

当我们理解这一点,就会明白:调度系统之所以难,是因为可靠性本身就是一门关于状态机的工程艺术

站在2026年的时间节点,中国CRM市场正经历重大转型。随着AI Agent(智能体)技术的成熟应用、中国企业出海浪潮的深化以及信创国产化的全面落地,大中型企业对CRM的需求已从“业务数据记录工具”转向“智能化业务平台”。
本文结合Gartner、IDC等权威机构的最新数据与趋势,提炼出2026年CRM选型的核心逻辑,并以连续多年领跑中国本土市场的纷享销客为例,深度剖析大中型企业如何通过CRM实现营销服全链路的数字化重构。

一、2026年CRM市场新变局与选型挑战

1.市场风向:从“数字化”到“智能化与全球化”

根据IDC 2025年12月发布的《2025年上半年中国CRM SaaS 市场跟踪报告》显示,中国CRM市场规模预计在2026年突破380亿元人民币。与五年前相比,市场呈现出三大显著特征:
· AI 优先: 2026年是AI Agent在企业软件大中规模落地的元年。Gartner预测,到2026年底,超过40%的企业将在销售和客服流程中部署自主智能体。企业不再满足于“BI报表”,而是需要AI主动提供决策建议。
· 行业化与深耕: 厂商从“通用型”转向“垂直化”,在制造业、高科技、快消和现代服务业等细分领域的解决方案成为增长核心。· 双向合规与出海: 随着中国企业全球化步伐加快,CRM系统不仅要满足国内的信创要求,还必须符合欧盟GDPR、美国CCPA等国际数据隐私法规。
· 从“工具”到“平台”: 企业更倾向于采购具备低代码能力、能与 ERP/供应链系统深度集成的平台化 CRM。

2.大中型企业的“选型焦虑”

对于营收规模在10亿至百亿级的大中型企业而言,2026年的选型面临着更加复杂的挑战:
· 业务复杂度高: 标准SaaS无法满足复杂的组织架构(多事业部、多地结算)和多变的业务流程。
· 数据孤岛严重: ERP、PLM、OA与CRM的割裂导致数据无法流转,不仅是IT问题,更是业务卡点。
· 定制化陷阱: 过去依赖大量代码开发的定制化项目,维护成本高企,难以适应业务的快速迭代。

二、大中型企业CRM核心要素与实践标杆深度剖析

针对上述挑战,我们总结了大中型企业CRM选型的核心要素。本章将结合纷享销客(IDC报告中国产CRM市场份额第一)的实际能力,对每个维度进行拆解分析。

要素一:AI智能化成熟度

【选型标准】 2026年的CRM“智能”是标配。选型重点考察AI是否从“辅助工具”进化为“业务引擎”。企业需要关注AI Agent(智能体)的落地能力,以及AI在营销、销售、服务全链路中的预测与生成能力。
【解决方案:纷享销客ShareAI】 纷享销客自研ShareAI平台,将智能深度嵌入业务全链路,实现从工具到引擎的质变:
· 营销智能化(精准触达): AI SDR Agent化身超级售前,自主完成线索清洗与初步接待,将被动记录转为主动获客;配合AI创意助手自动生成SEO内容与个性化推广物料,赋能全员营销,大幅提升获客效率。
· 销售智能化(智慧赢单): 销售的“随身军师”。AI赢单助手深度洞察客情,基于金牌方法论推荐最佳行动建议;结合AI客户互动(多模态语料分析)与自动销售报告,规避风险并解放双手,让销售专注打单。
· 服务智能化(高效响应): AI客服智能体提供724小时多模态自主服务,智能创建工单;现场服务助手精准推荐备件与解决方案,提升首次修复率并自动沉淀案例,驱动服务成本降低与体验升级。

【标杆范例:某医疗器材企业以ShareAI大幅提效】
· 痛点: 产品知识壁垒高致新人上手慢,线索转化低,售后服务依赖人工经验,响应速度难满足医院时效要求。
· 解法: 部署ShareAI全链路智能化。营销端自动清洗线索;销售端实时检索知识库辅助对练;服务端智能诊断与自动派单。
· 成效: 获客成本降低,销售新人培养周期缩短50%,售后故障诊断与响应速度实现质变,完成从人力驱动到AI驱动的转型。

要素二:理解并具备行业深度

【选型标准】 通用型CRM已成过去式。大企业选型必须考察厂商是否懂行业,产品是否预置了行业最佳实践,以降低二次开发成本。
【解决方案:纷享销客行业化矩阵】 纷享销客坚持“行业化+产品化”战略,在多个垂直领域构建了深厚的Know-how。

【标杆范例】
· 高科技行业以神州数码为例:
o 痛点:多系统并存导致数据严重割裂;自研平台维护成本高且移动端适配难,无法实时联动外部生态。
o 解法:引入纷享销客打破孤岛,确立统一主数据规范;依托PaaS构建共性服务,实现业务在线化与敏捷迭代。
o 成效:建立BI驾驶舱实现全局经营实时监控;通过精准画像提升伙伴甄选效率;数据赋能业务创新,成功孵化金服云产品。
· 制造业以大族激光为例:
o 痛点: 业务扩张导致营销服系统割裂与数据孤岛,流程不规范使得全球服务体验难以统一,经营决策缺乏实时数据支撑。
o 解法:依托PaaS打通L2C全流程闭环,建立客户360度视图;通过商机与售后服务数字化,构建营销服一体化的全链路管理体系。
o 成效:依托PaaS打通L2C全流程闭环,建立客户360度视图;通过商机与售后服务数字化,构建营销服一体化的全链路管理体系。
· 快消农牧(食品饮料/农资):
o 痛点: 渠道层级复杂且销售模式多元,传统系统难以支撑万名一线人员的高并发业务,导致数据滞后,无法实现全渠道精细化管理。
o 解法: 构建“1+N+M+b”全链路数字化架构,利用PaaS低代码能力快速适配SFA、DMS及“一物一码”等场景,灵活满足各区域差异化管理需求。
o 成效: 实现终端动销数据分钟级回流与商品物流精准追溯;达成“控货、控价、控费”一体化,为千亿级业务提供实时数据决策支撑。

要素三:PaaS平台的高生产力

【选型标准】 面对大企业复杂的组织架构和多变流程,PaaS平台必须具备“即想即得”的能力。选型关键在于:是否支持复杂的对象关系?是否具备高生产力的逻辑编排能力?集成能力是否成熟?
【解决方案:纷享销客高生产力PaaS】 作为支撑神州数码、东方雨虹等巨头的底座,纷享销客PaaS展现了极强的适配性:
· 元数据驱动: 支持高度复杂的自定义对象和关联关系,企业可像搭积木一样构建业务模块。
· 逻辑编排与BPM: 针对大企业复杂的定价、返利及审批流程,提供可视化配置引擎,无需大量代码即可实现复杂逻辑。
· 异构集成(iPaaS): 预置了与SAP、Oracle、金蝶、用友等主流ERP的接口,实现主数据与单据的双向实时同步,打破数据孤岛。

【标杆范例:PaaS赋能东方雨虹复杂业务平台】
· 痛点: 不同层级管理者难以直接获取核心关注信息,且在项目不同阶段,各级人员对信息的关注点差异巨大,难以在单一界面中兼顾“信息共享”与“数据安全”。
· 解法: 利用PaaS平台搭建“集团-区域-业务员”三级分级数据看板,支持宏观到明细的穿透式下钻查询;同时按“成功、失败、跟进中”三大阶段设置独立场景与专属字段模板,确保不同管理层级能快速找到对应场景的关键信息。
· 成效: 实现了“项目管控可视化、穿透式”,管理层无需层层索要即可查看项目详情;在平衡信息共享与数据安全的同时,显著提升了决策效率。

要素四:国产化替代与信创安全

【选型标准】
国产替代已超越单纯的软件更换,成为企业数字化体验的升级。选型需重点考察厂商是否具备“平滑迁移”能力、信创安全资质以及全球化支撑能力。84.7%的CIO将“产品能力”视为核心指标。
【解决方案:纷享销客国产替代实践】
纷享销客已助力100+大中型企业成功替换Salesforce,实现“从替代到超越”:
· 体验升级(更懂中国业务): 解决国外软件操作繁琐、移动端体验差等水土不服问题,提供符合国人习惯的原生移动体验,适配国内复杂产业链。
· 5步迁移法(业务无感切换): 独创“咨询-蓝图-实施-数据迁移-上线支持”方法论,配合成熟ETL工具与沙盒环境,确保数据完整安全,降低替换风险。
· 双向合规(信创+全球化): 对内全面适配国产化软硬件生态与等保三级认证;对外具备多语言/多币种能力及海外数据中心,符合GDPR标准,护航企业出海。

【标杆范例:一舟股份平滑过渡国产CRM国产化】
· 痛点: 原Salesforce系统成本高、操作体验差且频发宕机;伴随渠道下沉战略,项目呈几何级增长,旧系统难以解决撞单与精细化管理难题。
· 解法: 引入纷享销客构建“线索-商机-报备-出货”全链路闭环;利用PaaS强大扩展性重构模糊搜索与数据核验机制,清洗旧数据,提升项目管理效率。
· 成效: 实现业务平滑迁移与成本大幅降低;消除系统不稳定隐患,有效支撑了从“省代”到“地市下沉”的市场战略变革。

要素五:全球化与合规服务

【选型标准】 随着中国企业出海,CRM必须具备全球化支撑能力。硬指标包括:多语言/多币种/多时区支持、海外节点部署以及GDPR等国际合规认证。
【解决方案:纷享销客出海护航】 针对出海企业,纷享销客构建了完善的全球化体系:
· 基础设施: 在法兰克福(欧洲)、新加坡(东南亚)等地部署数据中心,确保访问速度与数据驻留合规。
· 功能适配: 支持英、日、法、德、西等多语言切换,界面字段可按当地习惯配置。
· 安全合规: 严格遵循GDPR和PIPL,拥有ISO27001、ISO27701及等保三级认证。

【标杆范例:构建牛信云出海CRM平台】
· 痛点: 业务辐射全球185个国家,多国员工面临语言障碍与操作习惯差异;传统管理模式下,海外客户转化路径不透明,资源易因人员变动流失。
· 解法: 基于纷享销客构建“全球统一+独立部署”的CRM系统。重点针对语言、页面UI及操控习惯进行深度适配,符合海外员工使用偏好;打造“CRM+服务中台”,贯通从获客到售后的全流程。
· 成效: 实现了全球客户资源的企业化集中管理与过程可视化,消除了海外团队的“系统排斥”;有效支撑了全球业务的统一指挥与高效协同。

三、选型避坑与实施建议

在明确了选型对象后,大中型企业在落地过程中还需注意以下“隐形陷阱”:
1、切忌“贪大求全”: CRM实施应遵循“整体规划,分步上线”原则。建议先从痛点(如销售漏斗或渠道订货)切入,快速见到成效,再逐步扩展。
2、警惕“重技术,轻运营”: CRM是一把手工程,更是全员工程。选型时不仅要看功能,更要看厂商的CSM(客户成功)体系。纷享销客强调全生命周期服务,提供长期运营支持,这点至关重要。
3、关注隐性成本: 除了授权费,还要计算实施、集成及运维成本。高生产力的PaaS平台能显著降低后期二次开发成本,这是选型时容易被忽视的经济账。

结语

2026年的大中型企业CRM选型,本质上是一次对企业核心业务能力的数字化重构。
纷享销客凭借其智能型CRM的新定位、强大的PaaS底座、深厚的行业Know-how以及前瞻的全球化布局,为中国企业提供了一个极具参考价值的范本。对于正处于转型关键期的企业决策者而言,选择一款像纷享销客这样既能“顶天”(承接战略、AI赋能)又能“立地”(连接业务、PaaS落地)的系统,将是赢在未来的关键一步。

整体概况

单声道音量调整

PCM / MP3 / WAV 音频可视化播放器(点击访问)

功能概述

  • 支持 PCM / MP3 / WAV 的解析与可视化播放
  • 进度点击/拖拽定位、整体音量与分声道音量调节
  • 显示当前/总时长与基础音频信息

核心操作

  • 播放/暂停:左侧“播放/暂停”按钮
  • 定位播放:在波形下方时间轴区域点击或按下并拖动
  • 分声道音量:可视化区域悬浮层中逐声道滑块(0–3)

可配置项

  • 采样率、位深、声道数、起始时间、时长
  • 采样格式(int/float)、字节序(LE/BE)
  • LFE 低频混合(启用后按设定声道数混合输出)

文件与解析

  • 支持扩展名:.mp3 / .wav/.wave / .pcm
  • MP3 / WAV 自动解析元数据并转为 PCM

搞了个自动签到功能,用的是 github actions,需要有 github 账号就行

一开始想推送消息到企微的,但是因为域名是 github 的,ip 也不是固定的,无法添加白名单,企微对第三方域名和 ip 有安全性校验

公司也有在用飞书,选择推送飞书了

飞书签到效果

github 项目地址: https://github.com/Superbrain1/personal-forum.git

github actions 配置

过去,伪造一张现场照片有着极高的技术门槛。而现在,用主流的AI工具,任何人都能在几分钟内生成一张带定位水印、时间的"现场照片",并能以假乱真。

AI技术的提升,也让大家对“有图有真相”的信任感逐渐降低:消费者扫码看到检测报告时,可能怀疑"这是商家自己做的吗";管理层核查巡检工作时,会担心"照片是现场拍的,还是从相册里翻出来的旧图?";面对监管审计或法律纠纷时,对方会质疑:“数据存储在你们自己的系统里,想改就能改,凭什么让人相信?”

这些问题的核心在于:当争议发生时,如何让原本不信任你的第三方(法院、监管、客户),确认这条记录是真实发生过、且从未动过的。

日常记录与“可信存证”的区别

理解存证的价值,需要先区分两个概念:

·日常记录:解决的是“有没有”的问题,目的可以是收集数据、追溯责任、掌握状态等等。市面上主流的表单工具,都能满足这类管理需要。

·可信存证:解决的是“能不能信”的问题。它不需要企业自证清白,而是由客观、中立的第三方技术来证明数据的真实性。

就像银行转账记录一样:转账信息本身是记录,而加盖银行公章、不可伪造的流水单才是“证据”。可信存证,就是给你的每一条数据加盖了一个不可伪造的“电子公章”。

草料如何保障二维码数据的“可信度”

要让数据变得可信,必须解决两个核心问题:一是数据是否真实,二是事后无篡改。草料二维码通过以下两步,建立完整的信任链条:

第一步:从源头确保数据真实,全链路记录

存证的前提是数据不能是“编造”出来的。草料二维码通过多项技术手段,从源头降低造假的可能。

1、二维码内容锁定,防篡改

二维码内容对外发布后可设置“锁定”,修改必须管理员授权,所有变更都会强制记录(像文档的历史版本),支持全生命周期溯源与版本对比。当有人质疑"内容有没有被改过",可直接调出版本记录核验。

2、现场记录,防作假

通过表单收集到的记录数据,草料从源头保证真实性:

·强制现场实时拍摄:禁止员工从相册中选取历史图片,员工只能在现场实时拍摄,从源头杜绝"提前备图";

·照片加防作假水印:上传的照片,自动添加水印(包括记录人、上传时间、定位、二维码、哈希值等),水印来源于设备与服务器,人工无法伪造;

·时间防篡改:记录提交时间由服务器端自动生成,客户无法修改,防止事后补录。

3、所有操作留痕,形成“事件账本”

草料二维码通过企业认证 + 操作者实名管理 + 操作日志,将每一个二维码上的所有操作:内容发布、内容变更、表单提交、照片上传,按时间顺序记录成一本“事件账本”。谁操作、什么时间操作、做了什么,一目了然,无法抵赖。

第二步:用区块链技术上锁,让数据永远无法篡改

即使数据是真实产生的,仍有人会疑虑:数据存在草料二维码的云服务器上,平台或企业自己改了数据怎么办?

为了打消这个质疑,草料二维码引入了区块链技术。早在2020年8月,草料便接入了蚂蚁集团的可信数据服务平台(最早一批法院认可的区块链存证平台),将每个二维码内容、表单记录、现场照片以及内容变更记录,实时生成对哈希值存入区块链。

1、为什么区块链能保证数据不被篡改

区块链的核心特性是:数据一旦写入,任何人都无法修改或删除。它就像一个公共保险箱,保险箱的钥匙由多方保管,每次开箱记录都会广播给所有人。即使有人想改文件,也会留下永久痕迹,且法律认可这份证据。

而存入区块链的哈希值,可以理解为是一段内容的"专属身份证号":同一份内容,哈希值都是唯一的,如果里面的内容变动了,哪怕只是一个标点符号,生成的哈希值也会彻底改变。因此,只需对比链上记录的哈希值与当前数据是否一致,就能立刻判断数据有没有被动过。

这套机制不依赖任何一方的信用背书,只靠数学算法和公开透明的区块链规则。所以包括草料二维码平台自身,也无法在链上修改已写入的记录。

2、法律认可,电子数据可被直接采信

草料提供了存证证书下载功能,在需要出具正式法律材料时,企业可直接下载由杭州互联网公证处开具《电子数据存证证书》,在诉讼中作为直接证据使用,无需额外鉴定,大幅降低举证的成本与难度。

根据《最高人民法院关于互联网法院审理案件若干问题的规定》第十一条:“当事人通过区块链等证据收集、固定和防篡改技术手段,以及通过取证存证平台等,能够证明证据真实性的,互联网法院应当确认。”

目前已有大量判例印证,经过区块链存证的电子数据在诉讼中具备极高的法律效力。

·案例1:包商银行股份有限公司与北京全景视觉网络科技股份有限公司侵害作品信息网络传播权纠纷二审民事判决书

·案例2:宁波太平鸟时尚服饰股份有限公司与李康财侵害商标权纠纷一审民事判决书

哪些场景更需要可信存证?

任何需要"留痕备查""合规举证"的场景,都能从可信存证中获益。以下是最常见的几类:

1、设备巡检与维保

传统纸质记录易丢失、难核验、篡改风险高。将每次巡检的记录实时上链,形成不可篡改的完整记录链。无论是日常监管审计还是万一发生事故后的责任追溯,每一条数据都能独立核验,从根本上消除“记录失真”带来的合规风险。

2、产品防伪与溯源

检测报告、溯源信息等二维码内容添加可信存证,消费者扫码即可验证报告的真实性,无法伪造或替换。对品牌而言,这不只是防伪手段,更是建立消费者长期信任的基础设施。

3、合同与协议存证

用于施工安全协议、劳动合同等场景,将合同条款、手写签名与签署记录同步上链,一旦存证,任何一方均无法单方面否认或修改协议内容。纠纷发生时,链上记录可直接作为司法证据使用,大幅提升纠纷处理效率。

如何开启可信存证功能

免费版用户即可使用可信存证功能,对表单记录和子码内容进行存证上链,无使用门槛。

旗舰版起支持自定义存证主体,可定制专属证书,出具的凭证更具公信力,适合对外合规或涉及法律举证的正式场景。

1、表单记录添加可信存证

在【表单设计】页面中可以开启可信存证功能,提交的每条表单记录都会被自动上链存档,生成唯一编号-存证哈希,记录存证时间戳。

2、二维码内容添加可信存证

通过批量模板生成的子码支持在开启可信存证功能。

在批量模板详情页-“模板设置”,开启子码内容存证功能,可设置是否将可信存证展示在扫码页上。

在这次调研活动里,我们收到了百余份反馈。样本不大,却像一束手电筒光,照到了 GUI Agent 落地时最容易绊倒人的地方。

过去一年,GUI Agent 从“能看懂屏幕”走到了“能点、能填、能跑流程”。我们在春节前做的这次调研,本质上想回答一个更现实的问题:大家到底有没有把 GUI Agent 用起来?如果没用起来,卡在什么地方?
很多人对 GUI Agent 的第一印象都很好。点点点就能把活干了,看上去像给电脑装了个“会动的手”。可一旦进入真实场景,大家立刻变得务实起来,提问的口径也统一了:成功率靠不靠谱,卡在验证码怎么办,跑一次要等多久,出了问题能不能复盘定位。
这次调研像一次小型体检,测出来的指标很一致:期待值很高,耐心很短。谁能把稳定性、可控性、可复现、可治理这几件事做扎实,谁就更容易拿到生产环境的入场券。

受访者画像:技术人群为主,行业集中在 AI 与硬件/制造

从行业看,本次样本更偏向技术驱动型行业,其中 AI 人工智能占 27.2%,物联网/智能硬件/智能生活占 9.8%,制造/贸易/零售占 9.8%。互联网医疗/健康、通信/电子、云计算/大数据等紧随其后。
图片
行业分布说明本次调研对 “具备工程化落地意愿/能力” 的人群覆盖更充分,因此对于 Lybic 这类基础设施产品来说,结论更接近真实使用场景,而非概念性偏好。
从职位看,研发与技术管理岗位占多数:前端工程师 8.7%,后端工程师 7.6%,测试工程师 6.5%,技术管理(总监/经理/主管)8.7%。
图片
这与Lybic在内容与产品交付上的关注点也不谋而合,需要同时覆盖两类人:一类追求 “能快速跑起来” 的工程实践者;另一类更关注 “可控、安全、可审计” 的管理与业务协同人群。

GUI Agent 落地阶段:从“尝鲜”到“持续使用”,卡在稳定性与可控性

受访者对 GUI Agent 的整体体验阶段呈现“中间厚、两头薄”的典型早期市场特征:已经在用(27.2%)+ 用过但没继续(30.4%)合计 57.6%,说明用户不是不认可方向,而是“跑不稳/跑不起/跑不久”。
图片
云沙箱逐渐成为主流承载方式,但用户对“效率与成本”的权衡很现实云沙箱并非小众:当前已经把云沙箱作为“主要执行环境”的占 25.0%,在特定任务/阶段使用的占 44.6%,两者合计 69.6%。同时,仍有 23.9%处于“没用过但愿意尝试”的观望阶段。
图片
这组数据说明:“愿意上云”的心智已经建立,但是否愿意长期付费/规模化跑,可能取决于排队启动、稳定性与可观测能力是否能抵消算力成本与工程沟通成本。
而在 GUI Agent 部署/运行位置这一多选题中,单一选择占比最高的选择是“服务器或云主机”(27.2%),但多位置混合部署的多选情况也很常见(31.5%)。在最终的综合结果中,服务器或云主机选项一骑绝尘领先(50.0%),本地电脑直接跑的用户也不在少数(37.0%)。反而使用闲置主机或沙盒环境的用户低于我们的预期,分别占比19.6%和15.2%。
图片
这意味着对于GUI Agent来说,也许不能只做“云端跑得快”,还需要在产品叙事与能力上强调:同一套 Agent,能够在云/本地/混合环境中保持一致的可复现性与可观测性,否则用户会在环境差异中不断“复现失败”。

关键痛点:成功率、稳定性与登录障碍,决定了“能不能把任务跑完”

在“GUI Agent 遇到的最大痛点”中,提及率最高的几类问题都指向任务要么跑不完,要么跑不稳,真正“可交付”的闭环还差一口气。
最典型的四类高频痛点是:

  • 成功率低,重复跑不稳定容易
  • 卡在登录/验证码/弹窗
  • 成本高,Token或算力消耗大
  • 速度慢,等待时间长
    不过很有趣的是,对于最近爆火的 OpenClaw 来说,所谓的 GUI Agent 的 Token 消耗,可以说是小巫见大巫了。这里其实更重要的是性价比问题,对于目标是真正能够落地解决问题的 AI 工具来说,如何高成功率、高性价比、高效的完成目标,才是重中之重。
    图片
    当然关于“希望 Lybic 接下来优先支持什么能力”、“除 Lybic 外还用过哪些相关产品”、自由交流等等反馈,我们也都悉数接收到了,并且会吸收融合进我们后续的产品规划与思考当中。其实归根结底,相应的结论与“痛点/待优化点”等结果高度一致:用户要的是一条可复用的工程路径,启动快、跑得稳、出问题能复盘、数据与权限可控、规格可扩展。这恰好也是基础设施产品的核心竞争轴。
    这同样也是 Lybic 想做的事情。我们提供了云端沙盒环境和纯视觉操作引擎,无需API或系统改造,即开即用。
  • 云端沙盒环境(电脑/手机/浏览器等):秒级创建虚拟电脑/手机沙盒(Windows/Linux/Android)/浏览器等,并将其封装为标准MCP或SDK,一站式解决智能体GUI/图形界面交互、资源托管及高并发执行等基础设施供应问题。
  • 深度集成Grounding推理框架:为开发者提供高精度的GUI视觉理解能力,使智能体不仅能“操作”界面元素,更能真正“看懂”屏幕内容及其动态变化(如识别特定图标、读取弹窗信息),从而实现对复杂GUI环境的智能感知与自主决策。
    最后附上参与调研的朋友们对于 GUI Agent 能力的一些美好愿景,在此与道路上共同探索并前行的公司/团队/极客们共勉。
    图片

本文由体验技术团队Kagol原创。

一个月前,有用户建议 TinyVue 出几个 Skills,方便 AI 编程。

1.png

必须安排上!

目前 TinyVue 组件库和 TinyRobot AI 对话组件均已支持 Agent Skills,你可以在支持 Skills 的 IDE(比如 VSCode、Cursor、Trae 等) 上配置和使用。

1 演示视频

先看下使用效果(以 Trae 为例)。

TinyVue Skills:让 AI 使用 TinyVue 组件生成前端页面:https://www.bilibili.com/video/BV1d6PNzNENw/

以 Trae 为例,给大家介绍如何安装和配置 TinyVue Skills。

2 安装 TinyVue Skills

在命令行终端中执行以下命令:

npx skills add opentiny/agent-skills -g --skill tiny-vue-skill --agent trae

2.png

安装方式选择 Symlink (Recommended)

安装成功!

3.png

查看 Skills 是否安装成功:

npx skills list -g

4.png

3 开启 TinyVue Skills

打开 Trae 的设置页面,在左侧的【规则和技能】菜单中找到【技能】,开启【tiny-vue-skill】这个技能即可。

5.png

4 在 AI 对话框中使用 TinyVue Skills

在 Trae 中打开 AI 侧栏,输入以下内容:

使用TinyVue组件创建一个登录组件,并集成到App.vue中

AI 会去调用 tiny-vue-skill 技能,根据其中的 SKILL.md 中的描述,去查看对应的组件 API/Demo 文档,然后使用适当的 TinyVue 组件搭建你需要的页面。

这样比 AI 去海量互联网信息中寻找 TinyVue 的用法要准确得多,而且消耗更少的 Token,也不容易产生幻觉。

6.png

如果你正在使用 TinyVue 组件库,强烈推荐你配置上 tiny-vue-skill,让 AI 辅助编码,效率更高!

如果你用的是 VSCode Copilot、Cursor 等其他 IDE也没关系,安装 TinyVue Skills 遵循类似的步骤,只需要把命令中的 --agent 修改成对应的 IDE 即可,以下是对应表格。

比如在 Cursor 中安装 tiny-vue-skill:

npx skills add opentiny/agent-skills -g --skill tiny-vue-skill --agent cursor
Agent--agent项目内路径全局路径
Ampamp.agents/skills/~/.config/agents/skills/
Antigravityantigravity.agent/skills/~/.gemini/antigravity/skills/
Claude Codeclaude-code.claude/skills/~/.claude/skills/
Clawdbotclawdbotskills/~/.clawdbot/skills/
Codexcodex.codex/skills/~/.codex/skills/
Cursorcursor.cursor/skills/~/.cursor/skills/
Droiddroid.factory/skills/~/.factory/skills/
Gemini CLIgemini-cli.gemini/skills/~/.gemini/skills/
GitHub Copilotgithub-copilot.github/skills/~/.copilot/skills/
Goosegoose.goose/skills/~/.config/goose/skills/
Kilo Codekilo.kilocode/skills/~/.kilocode/skills/
Kiro CLIkiro-cli.kiro/skills/~/.kiro/skills/
OpenCodeopencode.opencode/skills/~/.config/opencode/skills/
Roo Coderoo.roo/skills/~/.roo/skills/
Traetrae.trae/skills/~/.trae/skills/
Windsurfwindsurf.windsurf/skills/~/.codeium/windsurf/skills/

关于OpenTiny

欢迎加入 OpenTiny 开源社区。添加微信小助手:opentiny-official 一起参与交流前端技术~
OpenTiny 官网:opentiny.design
OpenTiny 代码仓库:github.com/opentiny
TinyVue skill源码:https://github.com/opentiny/agent-skills (欢迎 Star ⭐)

欢迎进入代码仓库 Star🌟TinyVue、TinyEngine、TinyPro、TinyNG、TinyCLI、TinyEditor 如果你也想要共建,可以进入代码仓库,找到 good first issue标签,一起参与开源贡献~

VMware Aria Operations for Networks 6.14.2 - 网络和应用监控工具

请访问原文链接:https://sysin.org/blog/vmware-aria-operations-for-networks/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


VMware Aria Operations for Networks

(以前称为 vRealize Network Insight)

通过监控、发现和分析,构建一个经过优化、高度可用且安全的、跨云网络基础架构。

VMware Aria

新增功能

VMware Aria Operations for Networks 6.14.2 | 24 February 2026 | Build 25197548

VMware Aria Operations for Networks 6.14.2 是一个维护版本,包含若干改进和缺陷修复。

已解决的问题

无法备份 InfraSettings:在 VMware Aria Operations for Networks 中无法备份 InfraSettings。备份状态一直停留在 IN_PROGRESS 状态。

VMware Aria Operations for Networks 6.14 | 09 October 2024 | Build 1725688792

工作负载迁移规划

您现在可以根据多种范围条件为工作负载创建迁移计划蓝图,并通过 VMware HCX 执行这些工作负载的迁移。创建迁移计划的过程包括:

  • 使用全面的搜索和筛选功能,识别目标工作负载(迁移范围);
  • 增强 VM 属性,并基于这些属性进行搜索和筛选,以选择目标工作负载;
  • 利用更深入的网络洞察(如流量、吞吐量等)对迁移范围进行精细调整;
  • 使用类似的搜索、筛选和网络分析方式创建迁移波次和迁移组;
  • 最后,将迁移波次导出为 CSV 文件,并在 VMware HCX 中运行该迁移计划蓝图。

NSX 评估仪表板改进

您现在可以通过可视化方式了解数据中心网络在采用 VMware NSX 后的样貌。新的“Top Talkers”和“网络性能”小组件中新增的延迟和往返时延(RTT)可视化图,帮助您更有说服力地提出采用 VMware NSX 的理由。

支持通过 CSV 上传的基于流量的应用发现

您现在可以查看自动发现的基于流量的应用与您上传的 CSV 文件中应用定义之间的 VM 成员差异。您可以继续保存通过流量发现的应用,同时找出在流量发现过程中新增或移除的 VM,并查看被移除的原因。

JDK 升级至新版本

JDK 现已升级至 Java 17。

新增支持的 Ubuntu 版本

VMware Aria Operations for Networks 现已支持 Ubuntu 22.04 操作系统。

适用的 VMware 软件下载

建议在以下版本的 VMware 软件中运行(Linux OVF 无需本站定制版可以正常运行,macOS 虚拟化如果不是 Mac 必须使用定制版才能运行,Windows OVF 需要定制版才能启用完整功能):

下载地址

VMware Aria Operations for Networks 6.14.2, 2026-02-25

  • 请访问:https://sysin.org/blog/vmware-aria-operations-for-networks/
  • VMware Aria Operations for Networks Platform ova file
    File size: 7.68 GB
    Name: VMware-Aria-Operations-for-Networks-6.14.2.25197548-platform.ova
    OVA file for the VMware Aria Operations for Networks Appliance. Use the VMware vSphere Client to import this .ova file to your setup.
  • VMware Aria Operations for Networks Collector ova file
    File size: 3.97 GB
    Name: VMware-Aria-Operations-for-Networks-6.14.2.25197548-collector.ova
    OVA file for the VMware Aria Operations for Networks Appliance. Use the VMware vSphere Client to import this .ova file to your setup
  • VMware Aria Operations for Networks - Offline Upgrade Bundle
    File size: 7.62 GB
    Name: VMware-Aria-Operations-for-Networks.6.14.2.25197548.upgrade.bundle

历史版本:

更多:VMware Aria Suite 8.18 下载汇总 - 云管理解决方案

在互联网行业,每天海量请求里混着自动化程序、恶意流量和各类试探。IP风控虽老,2026年仍是企业安全第一关,只是玩法早变了。今天聊技术落地,不吹概念。

一、IP风控进化:从静态规则到多维画像

早年IP风控靠硬规则:

  • 频率限制:1分钟超100次拉黑。
  • 黑白名单:恶名IP直接封。
  • 地域一刀切:高风险地区禁访问。

2026年这套已不够用。恶意攻击者手握住宅代理、秒拨IP,模拟真人。现代IP风控是多维“侦探”:

  1. 查户口:IP属机房(AWS、GCP)还是家庭宽带?运营商是移动还是小ISP?
  2. 看行为:访问路径像人吗?关联多少账号?是否被标记?
  3. 验环境:浏览器指纹(Canvas)与IP地理位置匹配?是否使用匿名通道?数据中心IP默认分低。

案例:某银行系统发现IP 3分钟登录接口500次,关联12账号,触发二次验证,确认撞库攻击,避免七位数损失。

二、五大高频场景

场景1:金融交易——抓异地登录

物理不可能:北京4G瞬间切美国机房IP。防法:交叉验证基站定位+设备指纹。境外IP+国内常用设备→限制金额或人脸识别。
数据:2025年某支付平台拦截异常交易12万+起,涉额8亿+。

场景2:电商与营销——反羊毛党

恶意用户用代理IP池批量注册、薅优惠券、爬价格。防法:联动设备指纹,识别“数据中心IP+固定UA+无鼠标轨迹”自动化工具。大促可结合动态代理做反向限制。
建议:避免复用公共IP池,选支持智能分池的服务商(如IP数据云的住宅代理方案)。

场景3:广告反作弊——识别机器刷量

广告费一半被机器人点?防法:流量清洗,过滤云服务商IP、僵尸网络。凌晨流量爆发,或IP变但点击轨迹重合,即作弊。
行业数据:2025年某平台用IP风控后无效点击降67%,广告主成本降42%。

场景4:内容分发与版权保护——防盗链

独播剧被海外代理绕过地域限制批量爬取。防法:CDN节点+IP信誉库,对机房IP返回403或限速。趋势用Geofeed数据,比第三方库准。

场景5:企业内网安全——防渗透

外部用匿名通道跳板扫描内网,或员工IP与境外恶意IP通信。防法:网络流量分析(NTA),监控出口IP,对接威胁情报。如国网部署虚拟服务节点诱捕自动封禁。

三、工程落地实操

1. 技术选型:在线API vs 离线库

维度在线API本地离线库
实时性高,识最新代理低,依赖更新
速度慢(100-300ms)快(毫秒级)
成本按调用计费一次性或年费
场景登录、支付二次校验高并发第一道过滤
参考IP数据云、IPnews等IP2Location、IP数据云

工程代码

import os
import requests

def query_ip_risk(ip):
    api_key = os.getenv("IPDATACLOUD_API_KEY")
    if not api_key:
        raise Exception("请设置环境变量 IPDATACLOUD_API_KEY")
    
    resp = requests.get(
        "https://api.ipdatacloud.com/v2/query",
        params={"key": api_key, "ip": ip},
        timeout=3
    )
    return resp.json().get("risk_level")  # 替换为实际返回的字段名

# 使用示例
if __name__ == "__main__":
    risk = query_ip_risk("8.8.8.8")
print(f"风险等级: {risk}")

2. 数据维度:别只盯IP

  • 设备指纹:IP可换,Canvas指纹难伪造。
  • 行为序列:操作路径是否符合概率?跳步可能是脚本。
  • 威胁情报:接入微步、AlienVault等,识别C2、矿池IP。

3. 服务商选择(2025-2026)

  • 高并发/大促:选支持动态轮换、隧道代理的厂商(如国内多家服务商)。
  • 金融合规:需企业级白名单、审计日志,IP池纯净且通过ISO 27001。
  • 出海社媒:关注移动IP池、静态住宅IP,支持本地支付。
  • 免费方案:IP数据云20000次免费查询,或IPnews。

4. 避坑

  • IP池质量:避开高复用共享IP,要求污染度测试。
  • 反检测能力:是否支持WebRTC泄露防护、时区同步?
  • 合规:2026年《网络安全法》+GDPR严查,确认IP来源合法。

四、未来:AI赋能主动防御

规则引擎不够,AI上位:

  • 实时行为分析:LSTM预测异常行为。
  • 关联网络挖掘:GNN找出隐藏团伙。
  • 自适应策略:大促自动调高阈值。
  • 主动溯源:挖掘真实控制端,即使用家宽代理也能识别。

结语

IP风控仍是企业安全底线。它需要工程落地、多源数据、持续跟踪。把“IP+设备+行为”防护墙垒实,才能稳住地盘。下次拦截恶意请求,记得这位“哨兵”虽看不见,但管用。

这篇文章为大家介绍如何在 OpenClaw 中加载 seekdb Agent Skills,让它能够随时基于 seekdb 官方文档回答开发者有关 seekdb 部署、向量搜索、混合搜索、集成方式等常见问题。

什么是 OpenClaw ?

OpenClaw 实在太火了,其实可以不介绍。但为了保证内容的完整性,还是象征性地介绍下~

OpenClaw 是一款运行在你自己设备上的个人 AI 助手。它在你已有的沟通渠道上与你对话(如 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、WebChat 等),也支持通过本地 TUI 或 Web 界面直接聊天。

特点概览:

  • 本地优先:数据与对话由你掌控,可完全在本地或自建环境中运行。
  • 多渠道:同一助手可接入多种即时通讯与开发工具。
  • 可扩展:通过 Skill(技能) 为助手注入领域知识或工具能力。

什么是 seekdb ?

seekdb 是 OceanBase 推出的 AI 原生数据库,可以运行在各种设备上。

它将关系型数据、向量、全文、JSON、GIS 等多种数据类型统一在单一引擎中,支持通过一条 SQL 完成向量搜索 + 全文搜索 + 关系查询的混合操作。

特点概览:

  • AI 原生:内置 embedding 生成、重排序、LLM 推理能力,数据库内完成 RAG 工作流。
  • 混合搜索:向量搜索 + 全文搜索 + 关系查询,一条 SQL 搞定所有。
  • 轻量易部署:最低 1 核 CPU + 2GB 内存即可运行,支持嵌入式、Docker、RPM 多种部署方式。
  • MySQL 兼容:兼容 MySQL 语法与生态,支持完整 ACID 事务,学习成本低。
  • 开源免费:Apache 2.0 许可,代码开源在 GitHub。

什么是 seekdb Agent Skill

seekdb Agent Skill 是一组与 seekdb 向量数据库相关的 Agent 技能,用于增强 AI 助手在 seekdb 场景下的能力。本 Skill 包由 seekdb 生态插件 提供,支持多种 AI 工具(如 OpenClaw、Claude Code、Cursor、Codex 等)。

当前主要包含三类技能:

  1. seekdb-docs(文档技能)

    • 内置 seekdb 官方文档知识库,支持基于内容的语义检索。
    • 涵盖快速入门、开发指南(向量搜索、混合搜索、AI 函数等)、SDK/API 参考、多模型数据、集成与部署运维、实践教程等。
    • 助手在回答「如何部署 seekdb」「如何使用向量搜索」等问题时,会优先查阅远程文档,失败时回退到本地文档。
  2. importing-to-seekdb(导入技能)

    • 将 CSV/Excel 导入 seekdb,支持可选列向量化(如 all-MiniLM-L6-v2),便于后续语义搜索。
    • 支持预览、批量导入与集合管理。
  3. querying-from-seekdb(查询技能)

    • 对 seekdb 进行标量/混合搜索,支持元数据过滤与 RRF 排序,并可导出为 CSV/Excel。

本文以 OpenClaw + seekdb 文档技能 为例,介绍如何安装、加载技能并通过自然语言向助手提问(如「how to deploy seekdb」等),助手会基于该 Skill 检索文档并给出解答。


安装 OpenClaw

小编的 OpenClaw 是让 Qwen Code 直接替我安装的。

Qwen Code 是 Claude Code 的平替产品 ,默认的 Qwen3-Coder 模型免费额度是每日 2000 次请求,正常使用场景都够用,顺带在这里一起推荐给大家。

环境要求:Node.js ≥ 22

  1. 一键安装脚本
curl -fsSL https://openclaw.ai/install.sh | bash
  1. 先选择 QuickStart,后面有需要可以再手动配置

  1. 选择一个 provider,在下一步输入 API Key,并选择一个模型

  1. 目前用不到,可以先跳过

  1. 选择不配置 skill,后面再配置。这里显示的几个配置信息很重要:
  • openclaw.json:OpenClaw 的配置文件,所有的配置都写入了这个文件,可以手动编辑这个 JSON 文件来修改配置
  • Workspace 路径:~/.openclaw/workspace,OpenClaw 的默认操作目录,后面的 skill 也要放到这个文件夹下
  • sessions:是与会话持久化有关的目录,OpenClaw 的会话在关闭终端时不会结束,当你再次打开终端时会继续上次的会话,除非输入「/new」,才会开启一个新会话

  1. Hooks 是 OpenClaw 在执行特定操作(如启动、开启新会话)时运行的指令,可以在每个上面敲击空格多选,进行开启

  1. 这里选择使用 TUI,也可以使用 http://127.0.0.1:18789?token=... 打开 Web UI

  1. 输入「what skills do you have?」,可以看到这里并没有 seekdb 相关的 skill。输入「/exit」,先退出。

更多细节见官方:快速入门、安装说明。

通过 pip 安装 seekdb Agent Skill

seekdb Agent Skill 以 Python 包形式发布在 PyPI,通过 pip 安装后,运行交互式安装器将技能安装到 OpenClaw 的工作区。

  1. 安装 Python 包

注意:Ubuntu 等系统可能无法直接运行下面的命令,如果有报错,请先创建虚拟环境

pip install seekdb-agent-skills
  1. 运行交互式安装器
seekdb-agent-skills
  1. 在安装器中操作

  • 选择工具:在列表中选择 OpenClaw
  • 确认安装路径:安装器会将技能安装到 ~/.openclaw/workspace/skills,确认即可。
  • 选择技能:默认勾选了 seekdb(文档技能),可以直接点击 Enter 键确认。
  • 用方向键与 Space 多选,Enter 确认,安装器会把对应技能目录复制到 OpenClaw 工作区。

安装完成后,如果在 Web 页面需要点击「New session」,如果在 TUI 需要输入「/new」,以便加载新技能(OpenClaw 会扫描 ~/.openclaw/workspace/skills 下的技能)。

  1. 确认技能是否已安装,有多种确认方式

命令行中确认:

openclaw skills

预期输出如下:

Web UI 确认:

点击 SKills 选项卡,输入 seekdb 进行查询

通过 ClawHub 安装 seekdb Agent Skill

除 pip 外,你也可以通过 ClawHub 安装 seekdb Agent Skill。

两种安装方式的区别在于: ClawHub 不支持下载大量文件,在 ClawHub 上的 seekdb Agent Skill 仅提供远程模式(从 GitHub 拉取文档),不包含本地文档,使用前需能访问 GitHub;而通过 PyPI 安装的版本则同时支持本地模式远程模式,可在无网络或 GitHub 不可用时回退到本地文档。

  1. 安装 clawhub
npm install -g clawhub
  1. 安装 seekdb-docs 技能
clawhub install seekdb-docs

安装完成后,验证技能是否已安装的方式与 pip 相同:可在命令行执行 openclaw skills 查看技能列表,或在 Web UI 中点击 Skills 选项卡、输入 seekdb 进行查询。

开始对话

说明:这里 OpenClaw 的实际表现,会和模型的选择有较大的关系。

1. 查看下当前都有什么技能

输入「what skills do you have?」,显示了 seekdb-docs 的技能

2. 再打开 TUI

因为 OpenClaw 的 Web UI 页面和 TUI 指向的是同一个会话,这个问题我们打开 TUI

输入下面的命令:

openclaw tui

我们并没有输入任何问题,打开 TUI,就把在 Web UI 上问的问题带进来了

3. 询问如何部署 seekdb

输入「how to deploy seekdb?」,它正确回答了 seekdb 的部署方式。

你还可以继续追问,例如:

  1. 「how to use vector search in seekdb?」
  2. 「seekdb 支持哪些 AI 框架集成?」
  3. 「如何在 seekdb 中实现混合搜索?」等等。

只要问题与 seekdb 文档相关,OpenClaw 都会优先使用这套 Skills 来进行解答和执行相关的任务。

相关资料

智能客服新体验:访答如何改变企业服务

从传统客服到智能助手的转变

记得去年冬天,我拜访了一家小型科技公司。他们的客服部门只有两名员工,却要处理来自官网、邮件和电话的各种咨询。每当有新功能上线,客服人员就需要花费大量时间学习,然后才能回答用户的问题。这种模式不仅效率低下,还常常因为信息更新不及时导致回答错误。

直到他们发现了访答,情况才彻底改变。

什么是真正的智能客服

访答并不是简单的聊天机器人。它基于深度优化的中文RAG技术,能够真正理解用户的问题意图。与传统客服系统相比,访答最大的优势在于它能够深度学习并解析官网的全部内容,构建专属知识库。

想象一下,当用户询问某个产品功能时,访答不是从预设的回答库中机械地挑选答案,而是基于官网的实际内容给出精准回复。这种基于真实内容的问答方式,让回答更加准确、可信。

技术背后的温暖

很多人担心智能客服会让人机交互变得冰冷。但访答的设计哲学恰恰相反。它支持多模态内容识别,不仅能理解文字,还能识别图片、图文混排等内容。当用户询问产品外观时,访答可以关联展示产品图片;当用户咨询活动详情时,它能直接调取官网的活动海报。

这种全方位的理解能力,让对话变得更加自然、生动。用户感受到的不再是机械的问答,而是真正有帮助的服务体验。

简单却不简单

最让我惊讶的是访答的部署 simplicity。企业只需要将一段代码嵌入网站,无需技术团队介入,5分钟内就能上线专属的智能客服。这种零开发成本的接入方式,让中小型企业也能享受到顶级的智能客服服务。

但简单并不代表功能简陋。访答提供了完整的后台管理功能,网站内容更新后,知识库可以一键同步更新。这种设计既保证了服务的时效性,又大大减轻了企业的维护负担。

信任的建立

在数字化时代,建立用户信任至关重要。访答的溯源参考导航功能,让每个回答都有据可查。当访答回答问题时,会自动提供对应的官网参考链接,用户可以直接跳转到原文页面验证。

这种透明化的服务方式,不仅增强了回答的可信度,还引导用户深度浏览官网,提高了网站的留存率。从商业角度看,这无形中创造了更多的转化机会。

未来的服务模式

随着人工智能技术的不断发展,智能客服正在重新定义企业的服务边界。访答代表的不仅是一种技术解决方案,更是一种服务理念的革新。它让企业能够以更低的成本提供更高质量的服务,让用户在任何时间都能获得及时、准确的帮助。

在这个快节奏的时代,访答为企业与用户之间架起了一座永不关闭的沟通桥梁。或许不久的将来,这种智能、贴心、高效的服务模式,将成为每个企业的标准配置。

毕竟,最好的服务,就是当用户需要时,永远有人在。

在金融科技(FinTech)应用的开发中,行情数据的实时下发一直是考验前端渲染与后端架构协同能力的核心模块。无论是对内提供支持,还是对外输出服务,数据的流畅性都是第一用户体验。

系统需求定义与业务场景
无论是开发一款小型的行情监控Dashboard、一个微信小程序报价板,还是构建一套复杂的服务器端策略回测引擎,第一步永远是解决数据的持续、稳定输入问题。尤其是在港股这样交投活跃、受外围市场影响大的市场,开发者需要将行情数据无缝、低延迟地嵌入到核心业务逻辑流中。

传统方案的工程劣势与技术债
如果仅依靠前端JavaScript定时刷新页面,或后端使用BeautifulSoup/Cheerio暴力解析HTML标签,系统很快就会遇到性能瓶颈。这种方案在架构设计上是极不优雅的,它不仅浪费了大量的计算和网络资源(无用的HTML冗余数据),而且目标网站的解析规则一旦变更,整个数据拉取服务就会瞬间停摆,维护成本极高,属于典型的“高技术债”做法。

基于标准API的数据流转与重构
作为金融IT从业者,业界的最佳实践是直接调用标准化的金融数据网关。在技术选型时,集成AllTick API这种支持多协议(HTTP/WebSocket)的行情网关,可以大幅降低研发周期。通过API,剥离了视图层,数据以纯净的JSON格式返回,直接进入业务系统的反序列化流程,清晰且高效。

获取历史及实时K线序列的REST化请求示例如下(Python演示):

import requests

TOKEN = "your_api_token_here"

url = (
    "https://quote.alltick.co/quote-stock-b-api/kline"
    f"?token={TOKEN}"
    "&query={\"data\":{\"code\":\"00005.HK\",\"kline_type\":1,"
    "\"kline_timestamp_end\":0,\"query_kline_num\":1,\"adjust_type\":0}}"
)

resp = requests.get(url)
print("实时行情数据JSON流:", resp.json())

对于深度分析模块或订单簿重建(Order Book Reconstruction),系统需要高频订阅Tick级别的逐笔数据。

import requests

TOKEN = "your_api_token_here"
tick_url = (
    "https://quote.alltick.io/quote-stock-b-api/tick"
    f"?token={TOKEN}"
    "&query={\"data\":{\"code\":\"00005.HK\"}}"
)

r = requests.get(tick_url)
print("Tick 成交明细序列化:", r.json())

架构设计考量与性能调优
在实际的微服务架构中,我们需要对数据获取方式进行严格的场景解耦。对于定时触发的批处理任务(如日终结算、特征生成、历史K线补全),REST API的按需拉取(Pull)最为稳妥;而对于毫秒级响应的告警系统或实盘交易模块,则应采用WebSocket保持长连接监听(Push)。同时,Token鉴权隔离、全局的限流器(Rate Limiter)配置、以及优雅的断线重连逻辑(Heartbeat监测),是保障整个行情微服务健壮性,防止雪崩效应的关键。

一、背景简介

近年来,搜索/推荐/广告系统在粗排(Pre-ranking)与精排(Ranking)阶段的模型训练中,呈现出一个明确的趋势:从单目标优化转向多目标建模 + 多目标融合。模型目标多、融合公式复杂,给工程维护、算法迭代效率都带来了挑战。

为了明文化直白展示公式全景、方便决策调参方向,直接配公式、线上自动算(既支持精排预估目标融合、也支持业务条件boost)。我们设计并落地了加乘树调参框架。从1.0优化至3.0,我们提供了:一个调参框架(Java版、同时引擎基建同学落地了C++版)能支持不同算法环节“公式即配即用”,一个打通AB实验的一站式产品化平台,支持一站式“辅助配置->调试->开实验->变更管控”。

带来收益:无论是粗排还是精排,“训多目标、融公式” 已成为工业界标准范式。在得物社区搜索、推荐的模型迭代实践中,我们也确实走“模型多目标训练 + 融合公式调参”范式,2025在社区推荐、社区搜索落地了几十次LR(社区推荐内外流精排、粗排,社区搜索精排)、近百次加乘树推全。

二、即配即用:算法爆发的催化剂,工程稳定的绊脚石?

在算法领域,“即配即用”的工程框架多次成为推动算法快速迭代甚至“爆发式增长”的关键基础设施。面对粗、精排“多目标建模 + 多目标融合”这一建模范式,社区算法和工程提出了如下基建目标:

即配即用提人效: 实时调整配置、线上就能自动生效数学逻辑,使算法工程师从过去几天才能完成一次调参,转变为一天内可进行多次迭代,从而将精力集中在模型和融合公式本身。

全量配置+增量配置范式: 实验只配要改的几行,降低配错风险。全量配置不动,形成天然降级能力。

DSL可解释性强: 粗、精排的融合公式配置量大,数学变换复杂,容易配错。我们提供的DSL让算法同学直接写数学公式/逻辑表达式。明文公式形成策略全景,方便算法同学决策调参方向。

编译校验与降级体系筑牢稳定性防线: 即配即用+数学公式DSL的需求,给工程稳定性带来极大挑战。我们采用“编译语法校验 + 自动用全量配置降级 + 手动切换编译/解释模式”三位一体保障稳定性。

三、可信赖底座:让复杂公式配置既灵活又可靠

全量配置+增量配置范式

传统的KV、JSON 或 YAML等配置格式在面对上百行数学公式时已显乏力:一方面配置体量大、人工修改易出错且缺乏容错机制;另一方面可读性差,难以维护和审查。

我们采用“全量配置+增量配置”的设计,天然解决了使用门槛&自动降级问题:

  • 只配增量,让使用更轻松、出错更可控: 全量配置锁定为只读,确保基线稳定;算法同学只需声明需要新增或修改的增量配置(upsert)。系统在运行时将增量动态合并到全量配置中,生成最终生效的实验配置——既简化了操作;又避免了误改全局参数的风险。
  • 增量可试,基线兜底: 增量配置有误,自动回退至基线,形成天然降级机制。

给一个社区搜索主搜精排的样例:

DSL接近数学公式/逻辑表达式明文

社区搜索、社区推荐的精排融合公式,服务了“多目标融合+业务boost调权”,语义包含:数学变换、逻辑判断、自定义UDF。当算法写下一串sin(log(max(UDF(x), y))),框架能否接住?框架必须托底,正确校验与执行,杜绝“配错即崩”。

从加乘树1.0到3.0,公式解析统一选用 ANTLR。相比手搓“逆波兰表达式”或“Flex & Bison”,它基于AST校验更可靠,且Java开发门槛低。实际加乘树的配置结构里,公式按KV配置(Key 为结果名,Value 为表达式),支持跨行引用——前序公式的输出可作为后序公式的输入,形成可串联的计算链,直至得出最终结果。

  • 公式链转DAG: 在加乘树3.0中,有相互依赖关系的多行公式,被框架解析成DAG。每个item都通过这套DAG计算融合分,1个item可能有多个融合分、每棵DAG的根结点对应1个融合分。
  • AST驱动逐行校验: 每行公式都依托编译原理,校验&解析为抽象语法树(AST)。结构化的AST可支撑后续可靠计算。
  • 加乘树3.0把DAG和AST直接翻译成代码: 框架将公式链直接翻译成可执行代码,用字节码技术加载到JVM中。每个item直接计算即可。

编译校验与降级体系筑牢稳定性防线

即配即用给算法同学迭代提效带来便利,同时给工程维稳带来挑战。尤其加乘树面临的配置是可自由组合、千变万化的数学公式时,绝对不能出现“配错即崩”的情况。我们做了如下一整套安全设计:

  • 编译原理强校验: 如何应对无限组合的公式配置?加乘树选择了编译原理强校验,用了ANTLR框架,把公式校验&解析成严谨的可访问结构(AST)。
  • DAG强校验公式链: 加乘树3.0初始化阶段自动解析公式链间的依赖关系,一边将公式链解析成DAG、一边强校验。能通过校验、最终编排成DAG的公式,才会进入实际计算;不能通过校验的危险配置(漏配公式、公式配错)都会在初始化阶段就被拦截,不会进入实际计算。
  • 自动降级范式: 加乘树设计了一套自动降级范式,方便“前置拦截错误、事中有效托底、后置发出告警”。一旦有错误的实验开流量,加乘树初始化阶段就会校验出错误,当次请求忽略AB实验配置、直接用全量配置计算,并及时发出“实验配置有误”的告警。
  • 串行重算托底: 如果有“编译原理校验”、“DAG校验”没有校验出的意外怎么办?如果框架仅仅是高峰期计算超时失败了怎么办?加乘树最后一层安全托底是“用全量配置串行重算”。无论如何保证线上效果。

四、核心攻坚:加乘树3.0升级编译执行

加乘树2.0在社区搜索落地后,“每次请求3000个item、线程并发拆的多”的情况,暴露出加乘树耗CPU、耗线程的弱点。C++版加乘树替换了计算引擎,没有采用antlr visitor解释执行数学运算的方式,而是用exprtk框架、收获了更高的性能。

受C++版加乘树的启发,我们计划替换Java版加乘树的计算引擎,降CPU消耗、降执行平响。加乘树3.0变成“直接将配置翻译成代码,字节码加载,直接计算”的编译执行形态。

极致性能:配置直译硬代码,零中间损耗 + 最优 JIT

Antlr翻译&Javassist加载,直接“公式翻译成可执行代码”: 包括多行公式的依赖关系、数学计算&UDF调用,直接拉平成硬代码。硬代码执行效率最高,没有map缓存、递归调用栈等损耗。

多行公式传递中间结果,map换POJO: 每个item维护自己的缓存map,高并发put/resize,造成明显的CPU消耗、youngGC压力。本次会初始化时决策缓存POJO,避免resize、且读写更高效。

核心Javassist管理类借鉴Dubbo写法: Dubbo的ClassGenerator写法,对内存管理考虑比较完善。本次借鉴ClassGenerator,把动态生成代码收入唯一管理单例类。

性能收益

晚高峰模块平响、CPU火焰图消耗和内存分配火焰图消耗均显著降低。

典型踩坑

字节码加载不容忍语法糖:

动态生成的字节码必须严格遵循JVM 范,平时习惯手写的Java法糖是不容忍的。例如,Float a = (float) b; 在源码中合法,但若b是Double类型,该语句涉及拆箱 + 窄化转换 + 装箱,而字节码层面需显式插入doubleValue() → (float) cast → Float.valueOf() 等指令。若直接按表面类型生成字节码,将触发VerifyError。

OOM在多处需要关注:

Javassist使用不当容易OOM:Javassist 在生成和操作字节码时(如通过 CtClass),因为其缓存机制,需要开发者主动管理资源释放。每次parse字节码的CtClass要及时释放,否则高频生成字节码容易触发OOM。这一点上,加乘树参照了Dubbo的ClassGenerator写法,创建、销毁内聚在同一个类里,即用即释放。

动态生成ClassLoader/Class/Instance要能GC:Instance能GC,ClassLoader/Class能GC吗?答案是能,只有从ClassLoader -> Class -> Instance全链路都GC Root不可达了,这一串才能GC。所以用Spring的ClassLoader这类常驻ClassLoader加载动态生成类是不行的,必须用即用即弃的自定义ClassLoader,并注意全链路的强引用问题。


我们实际验证了动态生成的类确实能被GC掉。

多重护航:防止非法Java字节码引发线上问题

ASM + Javassist双重检验: 翻译生成的代码,经Javassist生成字节码后,除Javassist .toClass()的自检验,我们还让字节码过了ASM的字节码静态校验(会运行类似JVM的类型推断验证,确保每条指令执行前后,局部变量表和操作数栈的状态是类型安全的)。

沙箱加载: 我们将加乘树管理平台封装成了一个沙箱,算法同学调试公式点击“校验”,平台会用同一套SDK模拟线上全套加载流程:“AST强校验 -> DAG强校验 -> 真实翻译代码 -> Javassist & ASM 双校验 -> 反射调用构造器创建实例”,一整套无误后才往线上推配置。

线上异步加载,任何问题自动降级: “可执行代码(执行器)初始化”读写分离,新配置上线是异步刷新,刷新错误只会造成线上流量过来找不到执行器,自动降级走全量配置(并发出告警),不影响效果。

可回退解释执行: 加乘树2.0、1.0的解释执行能力十分稳定、只是性能略差,3.0可以一键回退解释执行。

加乘树管理平台:一站式配置、调试与实验平台

面向算法同学: 做了一套一站式“辅助配置->校验->实时调试->开实验->变更管控”的使用体验,告别繁琐配置、体感更丝滑。

面向系统稳定: 加乘树管理平台把自己封装成了一个沙箱,如上一个模块所述,一切风险都拦截在沙箱爆炸。

五、稳扎稳打:从1.0到3.0的演进

加乘树1.0: 支持配公式、框架直接算公式,支持UDF,解释执行。加乘树2.0: 少量性能优化,抽象成SDK。加乘树3.0: 升级为编译执行,外观简化为只需要配公式、框架自动解析DAG。

加乘树1.0和2.0都是用的解释执行,antlr visitor遍历AST做“数学/逻辑/if判断”运算。加乘树3.0升级成了编译执行,多行公式解析DAG、每行公式用antlr解析AST时,直接翻译成Java执行代码,用字节码技术把执行代码加载进JVM直接执行。同时加乘树3.0也支持降级至解释执行。

加乘树1.0

解决:落地即配即用公式,解决手搓硬代码迭代效率低、代码腐化导致生效逻辑不清晰的问题。缺陷:费线程&CPU。

加乘树1.0于2025年1月在社区推荐外流精排落地,配法(使用外观)、降级机制是后续迭代不变的:

  • 配法:1): “全量配置+叠实验改动”的配置机制 2)配置总共分 consts(输入物料)、paramBranch(条件分支替换参数)、formulas(公式)、root(融合结果字段名)。
  • 降级机制:1): 初始化阶段就检测公式配错、漏配公式等,一旦检出就自动降级走全量配置、并发出告警 2)少量运行时才能发现的问题,串行重算、降级算全量配置。

当时是从手搓硬代码做公式融合,无DIFF迁移过来,解决了如下2个迭代痛点:

  • 迭代效率: 除调参是可配,调公式形态、调生效条件等都需要开发&上线。
  • 逻辑黑盒: boost、融合公式迭代复杂之后,生效逻辑变得黑盒,不容易分析调参方向。

加乘树1.0的实现要点

纯item维度(请求维度的公式也会每个item重复计算)。consts->paramBranch->formulas串行计算。antlr解析单行公式成AST,框架递归解析树依赖,antlr visitor解释执行。

为什么用antlr

DSL语法校验: 我们需要一种配置设计,能尽可能简洁地表征模型融合公式(支持逻辑判断/复杂数学变换/UDF)——接近Java语法&数学公式的DSL(当时有对标字节的配置外观)。我们需要准确校验DSL配置正确、并正确解析DSL配置——在antlr、手搓逆波兰表达式、flex&bison里,选了用antlr校验、解析DSL(用AST校验原理可靠,Java上手难度低)。

antlr visitor解释执行: 依靠AST解析计算是一种可靠的计算逻辑。我们需要稳定靠谱的计算引擎,因为算法同学大规模使用后、会出现大量千变万化的公式组合——依靠AST解析计算是一种可靠的计算逻辑。

类SIMD设计使性能可接受: antlr解析AST非常耗时,必须一次parse多次复用,不能在item维度重复parse。一般用antlr visitor做线上实时计算,性能是不可接受的。我们采用了一种类SIMD的代码写法,使落地性能可接受——类SIMD的设计,一次antlr visitor算一批item。最终落地的性能、没有因为antlr visitor拖过多后腿,性能比旧版硬代码融合公式还要好。


antlr语法定义文件

visitor如何通过访问AST计算1行公式

加乘树2.0

解决:抽象成SDK;执行计划自动识别请求维度公式、便于序融合等逻辑写UDF。缺陷:受限于解释执行,仍然比较耗线程。

加乘树2.0于2025年9月在社区搜索落地。优化点如下:

  • 使用体验: 配置json结构简化,只需要配递归的一组公式即可(砍掉了consts、paramBranch)。if()的配法简化:旧版编译器设计的简单,将 “logic表达式”与“math表达式”分别放在2个编译器里,使用者不允许if里嵌套函数,加乘树2.0合并了编译器,if()里可以嵌套函数。支持“隐式item正排”。

  • 性能: 框架自动识别Req维度的公式,全局只计算1次。执行计划加缓存,砍掉“每次请求都重新build执行计划”,平响降低。
  • 横向扩展: Java版加乘树抽象为SDK,方便扩场景直接引用。

加乘树3.0

解决:升级为编译执行,性能大幅提升。

加乘树3.0于2026年1月在社区搜索落地。之前“核心攻坚”模块有提到,高并发&计算量大的情况下,暴露出加乘树耗CPU、耗线程的弱点(类SIMD设计虽然能让性能可接受,但毕竟antlr visitor计算方式需要升级)。

加乘树3.0替换了执行引擎。我们观察火焰图发现“按公式逻辑直接裸写的java代码”性能最高效,但是迭代效率最低。加乘树为了即配即用公式,性能却打了折扣。为了平衡“即配即用”的迭代效率问题和“性能”,我们“将配置公式直接翻译成可执行代码,用字节码技术加载到JVM中直接计算”,这让加乘树从解释执行升级为编译执行。

六、还能更好

多语言 & 模块化: 加乘树有Java版,同时有C++版,是引擎同学创新实现的另一个高性能版本。支持多种业务场景及模块(如粗排、精排),可灵活接入 Java 业务引擎或 C++ 高性能引擎。欢迎其他场景和模块接入。

稳定性 & 产品化: 重点打磨“加乘树管理平台沙箱拦截 -> 线上容错降级 -> 失败监控告警发现 -> 解释执行托底” 的有效性,定期演练降级、验证算法效果。增强“加乘树管理平台”DIFF能力,扩展展示“调试DAG”、“可DIFF动态生成的代码”,打通实时debug平台,可以“DAG展开看计算的中间结果”。


多层公式组成DAG(打磨中)

配置生成的可执行代码做DIFF(建设中)

打通模型调用自动化: 在加乘树这里打通精排模型调用,对精排模型的调用也高度抽象,一配即用、一配即可加入公式融合。

往期回顾

1.深入剖析Spark UI界面:参数与界面详解|得物技术

2.Sentinel Java客户端限流原理解析|得物技术

3.社区推荐重排技术:双阶段框架的实践与演进|得物技术

4.Flink ClickHouse Sink:生产级高可用写入方案|得物技术

5.服务拆分之旅:测试过程全揭秘|得物技术

文 /啊俊 风林 益嘉

关注得物技术,每周更新技术干货

要是觉得文章对你有帮助的话,欢迎评论转发点赞~

未经得物技术许可严禁转载,否则依法追究法律责任。

千问 3.5 开源四连发,马斯克点赞:智能密度令人印象深刻
在这个刚刚过去的春节,阿里巴巴在 AI 领域打出了一套令人眼花缭乱的“组合拳”。

首先是品牌上的“大一统”。3 月 2 日,阿里正式宣布,将旗下大模型的 B 端品牌与 C 端应用全面统一命名为“千问(Qwen)”。原有的“通义千问”成为历史,“千问大模型”和“千问 APP”将分别扛起阿里在底层基座与 C 端旗舰应用上的大旗。

紧接着,在 3 月 3 日晚,阿里再度抛出重磅炸弹:开源了千问 3.5(Qwen 3.5)系列的四款小尺寸模型(0.8B、2B、4B、9B)。

这套“用极小参数实现极大性能”的技术打法,不仅引爆了国内 AI 开发者社区,甚至引来了硅谷科技狂人马斯克(Elon Musk)的亲自下场。他在社交媒体上转发并点赞了阿里千问模型,留下了一句极高评价:“智能密度令人印象深刻(Impressive intelligence density)。”

一、 剑指端侧与 IoT:千问 3.5 的“小模型战略”

这次开源的四款 Qwen 3.5 新模型,虽然尺寸小,但全部具备原生多模态能力,其应用场景非常明确,直指当前 AI 落地的最后十公里:

  • 0.8B 和 2B 模型:极致轻量化。推理速度极快,专为手机、平板、IoT 边缘设备等资源极度受限的场景设计,能够满足低延时的实时交互需求。
  • 4B 模型:性能与能耗的完美平衡。它非常适合作为手机端或 PC 端的轻量级 Agent(智能体)的“核心大脑”,在不需要联网云端算力的情况下,也能完成复杂的规划和执行。
  • 9B 模型:性价比之王。官方表示其性能足以媲美拥有 1200 亿参数的开源模型(GPT-OSS-120B)。它适合部署在显存资源受限的服务器端,提供极高的通用智力水平。
【笔者观点:大模型正在疯狂“减肥”,端侧 AI 迎来爆发前夜】
如果说 2024 年大家还在拼谁的参数大(动辄千亿、万亿),那么到了 2026 年,顶级大厂的比拼已经完全转向了“智能密度”——即如何用最少的参数、最小的内存、最低的功耗,跑出最聪明的效果。
阿里的这波操作极其敏锐。未来,不可能所有的 AI 请求都发往云端(成本太高且存在隐私风险),真正的 AI 革命一定发生在端侧(手机、汽车、家电)。千问 3.5 这几款小模型,实际上是在为未来的“万物皆 AI”提前修筑基础设施。

二、 技术底座:混合注意力与高稀疏 MoE 架构

马斯克口中的“智能密度”,并非凭空而来,其背后是阿里在模型架构上的底层创新。

据官方透露,千问 3.5 模型采用了混合注意力机制,并深度结合了高稀疏的 MoE(混合专家)架构。更关键的是,它是在更大规模的“文本+视觉”混合 Token 上进行训练的。

这种架构的精妙之处在于:它能够在大幅降低模型“总参数量”和“激活参数量”的同时,实现能力的跨级提升。

实际上,这并不是千问 3.5 第一次展现这种“跨级打怪”的能力。在除夕夜,阿里开源了 3.5 系列的首款模型 Qwen3.5-397-A17B(参数不到 4000 亿),其性能直接超越了上一代万亿参数的 Qwen3-Max 模型;随后在 2 月 25 日开源的 35B 等中等规模模型,更是直接将部署门槛拉低到了普通消费级显卡级别。

【笔者观点:MoE 架构红利被中国大厂彻底吃透】
从春节前 DeepSeek 靠 MoE 架构震撼全球,到如今阿里千问 3.5 频频上演“以小博大”,我们可以清晰地看到:中国大厂在 MoE 架构的工程化落地和训练效率上,已经走在了世界最前列。
用更小的激活参数,换取比肩 GPT-4 甚至更强的性能,这不仅解决了中国企业面临的“算力紧缺”问题,更在商业化层面上,将大模型的推理成本打到了“白菜价”(例如 Qwen3.5-Flash 每百万 Token 输入仅需 0.2 元),这将极大地加速 AI 应用的商业化繁荣。

三、 结语:开源生态的“全面战争”

截至目前,千问 3.5 家族已经开源了 8 款模型,而整个千问家族迄今为止已经开源了超过 400 款大模型。

这不仅是一场涵盖了语言、编程、数学、语音、视觉理解、图像生成等“全模态”的开源盛宴,更是一套从 0.5B 到万亿级参数的“全尺寸”产品矩阵。

对于全球的开发者和企业而言,无论你面临的是手机端的极限优化,还是云端的复杂推理,几乎都能在千问的“开源超市”里找到最适合的那一款。

【笔者总结:重塑品牌,再战全球大航海时代】
将 B 端和 C 端品牌统一为“千问”,看似只是一次名字的变更,实则是阿里在 AI 战略上的一次“收拳与出击”。去掉了略显学术的“通义”二字,品牌更加聚焦、更具 C 端穿透力。

面对海外 Llama 的步步紧逼和国内 DeepSeek 等新贵的强势崛起,阿里选择用“全尺寸、全模态的开源矩阵”来构建自己的技术护城河。马斯克的点赞只是一段插曲,真正能够证明“智能密度”价值的,将是未来几个月内,基于这些小模型在千行百业中生长出来的无数创新应用。


👇 欢迎关注我的公众号

在 AI 爆发的深水区,我们一起探索真正能穿越周期的技术价值。
微信搜索 【睿见新世界】 或扫描下方二维码,获取每周硬核技术推文:

微信图片_20260301232734_225_35.jpg

欢迎关注【睿见新世界】!

3 月 4 日凌晨,千问核心负责人林俊旸突然在 X 发文称要将卸任:me stepping down. bye my beloved qwen.(我卸任了。再见了,我亲爱的千问。)

 

根据晚点报道,3 月 3 日下午,林俊旸已正式向阿里提出辞职。有 Qwen 同事得知他将离职的消息后难掩情绪,“伤心地哭了”。公开资料显示,林俊旸,93 年人,阿里巴巴最年轻 P10 级技术专家,本科与硕士均毕业于北京大学。本科阶段,他就读于计算机科学专业,系统接受了算法与编程训练,打下扎实的技术基础。随后在硕士阶段,他转入北京大学外国语学院,攻读语言学及应用语言学方向。

 

2019 年毕业后,林俊旸加入阿里巴巴达摩院,担任高级算法工程师,正式开启职业生涯。

 

2020 年,随着 OpenAI 发布 GPT-3 并引发全球关注,阿里巴巴迅速启动内部大模型研发的“赛马机制”,同时推进两条技术路线:一条是以文本为核心的 AliceMind 项目,另一条是侧重多模态融合能力的 M6 项目。凭借“语言学 + 技术”的复合背景,林俊旸被分配到周靖人领导的智能计算实验室,成为 M6 模型团队的重要开发者之一。

 

2022 年,阿里巴巴开始整合内部 AI 资源。在这一轮技术路线竞争中,AliceMind 团队逐渐退出核心方向,M6 路线被确立为集团通用大模型的基础技术。凭借在模型架构设计和工程化落地方面的突出表现,林俊旸在团队中迅速成长,从核心开发者晋升为项目主管。

 

在这一阶段,他主导研发了多个关键项目,包括通用统一多模态预训练模型 OFA(One-For-All,一体化多模态预训练框架),以及中文视觉—文本匹配模型 Chinese CLIP。这些技术成果显著提升了阿里在多模态预训练领域的能力,也为后续大模型产品奠定了重要技术基础。

 

2022 年底,阿里巴巴对 AI 组织结构进行调整,将达摩院的语言、视觉等相关团队整体并入阿里云,并成立通义实验室。林俊旸被任命为通义千问系列大模型的技术负责人,全面负责核心模型研发与技术战略规划,成为阿里大模型体系中的关键人物之一。

 

据报道,在他的推动下,阿里推出 Qwen3 系列开源模型。林俊旸此前在社交平台上写道,团队为此花费近一年时间,攻克了三项核心难题:“让强化学习框架能稳定支撑长时序推理,平衡跨领域数据分布以避免模型偏科,并强化多语言能力以服务全球开发者。

 

2025 年 10 月 8 日,林俊旸在社交媒体上发布动态称,已在 Qwen 团队内部亲自组建机器人与具身智能小组,显示出团队在大模型之外,开始向具身智能与机器人方向拓展。林俊旸宣布离开后,外界猜测其下一步动向或将继续围绕大模型与具身智能展开。

 

除此之外,外界传闻阿里云 CEO 正在对 Qwen 采取更直接的管理与监督,同时公司引入了一位新的负责人,可能来自 Gemini 团队,并将其安排在现有 Qwen 领导层之上,这也被认为是近期出现一系列离职潮的原因之一。

 

因此,有网友猜测,如果这些消息属实,那么未来更先进的 Qwen 模型可能会逐渐转向闭源,认为阿里可能正在尝试复制 Google Cloud 与 Gemini 的商业模式。

根据 36 氪报道,在林俊旸提出离职后,阿里高层召开会议,围绕团队调整、战略方向等关键议题,包括阿里巴巴董事长兼 CEO 吴泳铭,阿里巴巴首席人才官蒋芳、阿里云 CTO 周靖人做出多个回应。对于此次调整,阿里高层给出的核心定性是:Qwen 没有收缩,这是一次团队扩张,无关任何政治斗争,反而需要投入更多资源。有传言称周浩将直接领导林俊旸及其相关团队,但据了解,包括周浩的接任职位,汇报线,尚在讨论中。

 

会上,阿里高层强调多次,千问基础模型是集团当前最重要的事情,大模型的竞争不仅仅是 Qwen 团队的事,而是整个阿里集团的事。无论是基础模型研发,还是底层 infra 建设,都将在集团层面统筹推进,“一定要超越”。

阿里云 CTO 周靖人则回应了包括招聘名额、算力短缺等尖锐问题:为何外部客户(如大模型创业公司)购买阿里云算力用得顺畅,内部团队反而在算力、招聘名额上捉襟见肘?他表示,团队处于“资源紧张状态”,内外差异有很多历史原因,未来正在做整体规划,但没有进一步展开说明。

昨天下午 2 点左右,林俊旸再度发布朋友圈,表示“qwen 的兄弟们,按照原来安排继续干,没问题的”。林俊旸并未明确是否回归,而阿里会上也并未讨论。

“一个时代的结束”

 

林俊旸的离职也引起了业内广泛关注。

 

Hyperbolic labs 联合创始人 Yuchen Jin 发推直接称这是“一个时代的结束”。“Qwen 失去了它的技术负责人。当我们和林俊旸以及他的团队一起,在 Hyperbolic 上发布 Qwen 3 Next 的 API 端点时,北京时间早上六点,他们依然还在线忙碌。感谢你为推动开源 AI 向前发展所做的一切。祝你一切顺利。”

 

社区也很认可他的工作,网友 Aabid Hameed 表示,“很难夸大林俊旸为开源社区所做的一切。

在其他人逐渐收紧开源时,他和 Qwen 团队却通宵达旦地工作,只为证明:开放权重的模型同样可以与那些投入上千亿美元的实验室保持竞争速度。那次在 Hyperbolic 上北京时间早上六点发布的上线事件,就是最典型的例子。”

甚至有网友称,“Qwen 回不到过去了”。在林俊旸评论区一度被“Qwen is nothing without its people”刷屏。还有网友评论道,“阿里跌回 80 不是梦,幸好没买他家股票。”

 

此前参与过 Gemini 3 的感知能力研发、目前在 xAI 任职研究员 Yao Fu 发推称,“林俊旸是我在整个 AI / 大语言模型发展史中见过最杰出的领导者之一。他是一位传奇研究者,对整个世界和人类社会都做出了重要贡献。在他的领导下,Qwen 成为最优秀的开源模型之一,并推动了整个科技行业的进步。很难想象这一切真的能够实现。”

 

田渊栋也发推称,“听到这个消息真令人难过!向 Qwen 团队致敬!”

 

 

前阿里云副总裁贾扬清也在社交媒体上写道:

 

关于 Qwen 与 林俊旸相关消息,我有几点个人看法:

1. 首先要为 Qwen 的开源努力以及林俊旸的巨大贡献点赞。开源能够把最好的技术与最好的初衷带到全球社区。Qwen 一直是这种开源精神的真实践行者之一。

2. 对公司来说,在开源与商业之间找到平衡确实非常困难。我们见过成功案例,比如 Databricks 和 Redis Labs;但也见过警示案例,比如 RethinkDB,这是一款深受开发者喜爱的开源数据库,尽管技术出色,却在 2016 年关闭。开源理想与商业优先级之间是否存在摩擦?这只能是猜测,但如果完全没有摩擦,那反而才是例外。

3. 我们正在进入一个“人和影响力”比以往任何时候都更重要的时代。构建一个能够让别人共同参与的使命,本身就和执行这个使命同样重要。能够凝聚社区的技术领导者极其稀缺。无论这些领导者未来走向哪里,社区往往追随的是使命,而不仅仅是公司的标志。

4. 在这些被看见的名字之外,其实还有无数默默无闻的贡献者。当年在阿里巴巴工作时,我认识过很多优秀工程师,他们在外界几乎没有名气,但对项目却至关重要。除了聚光灯下的领军人物,也应该感谢那些打下技术基础的人。

5. 在信息传播极其迅速的时代,平台的重要性被进一步放大。我们也看到 Google 曾经经历过一些挫折后仍能恢复,其中很大一部分原因在于其世界级的基础设施,以及背后的团队。

6. 对企业而言,保持创新能力并留住创新人才并不是“可选项”,而是“生存问题”。关于人才,有一句老话现在比任何时候都更真实:

CFO:如果我们投入资源培养员工,但他们离开了怎么办?

CEO:那如果我们不培养,而他们留下来怎么办?

声明:以上观点完全基于公开信息,仅代表个人看法。我对阿里巴巴始终心怀尊重与感激。正是在那里,我学会了如何既做技术管理者,也做业务负责人,并最终有信心创立自己的公司。

 

在评论区,面对网友对他阿里任职期间表现质疑,贾扬清表示,“我曾把一个长期难以产生收入的 AI 与数据部门,带成了阿里云增长最快的业务单元。同时,我还负责运营系统 AI 实验室,该实验室为早期模型训练提供 AI 基础设施支持,包括 M6 和 AliceMind 等项目,这些工作最终也为 Qwen 的诞生奠定了基础。不过,无论如何,真正的功劳属于那些才华横溢的研究人员。我很高兴自己曾有机会为他们提供支持。”