2026年2月

中国信通院2025年报告将“时空智能”定义为以统一高精度时空基准为核心,融合多源数据与AI算法,实现从物理世界的 “描述解释”“预测决策” 升级的关键能力。

时空数据具有高维、动态和海量等特性,传统二维GIS地图难以承载其全部信息价值,决策者需要的是能融合、回溯和推演的“时空立方体”。

实时云渲染技术正成为将抽象的“时空立方体”转化为直观、沉浸、可操作三维场景的终极呈现层,是时空智能落地应用的可视化桥梁。

时空智能的内涵:微秒级、毫米级的精准感知与预测

时空智能的先进性,体现在其超越传统地理信息的精度与维度。

  1. 精度跃升:从米到毫米。 传统GPS定位精度在米级,而结合北斗地基增强、视觉SLAM等技术,时空智能可以实现室内外厘米到毫米级的实时定位。这意味着,在数字孪生工厂中,可以精准追踪AGV小车的每一个轮子;在工地中,可以监测大型吊臂毫米级的形变。
  2. 维度拓展:从静态到动态推演。 时空智能不仅描述“某物在某时某地”,更能预测“某物将在何时去往何地”。时空大模型可以基于历史轨迹数据,预测未来一段时间内城市交通流的变化、人群的聚集态势,甚至是地质灾害点的形变趋势。
  3. 融合广度:从单一数据到多源交响。 它要求将卫星影像(空间)、历史档案(时间)、IoT传感器读数(状态)、社交媒体(事件)等完全不同质的数据,在统一的时空基准下进行关联、校准与融合分析。

复杂计算的海量数据,经过建模、三维引擎渲染生成可执行程序后,变身为一个个独立的可视化文件。如何将这些依托高算力高配置的程序文件,转变为即点即用、快速分发、数据通传的实际业务场景,需要实时云渲染技术来实现高效运转的展示方式。

实时云渲染:承载并呈现高精度时空数据的“动态画布”

实时云渲染在时空智能中的角色,是将后台复杂的计算、分析、预测结果,实时“绘制”在一张动态的、可交互的三维数字画布上。

  1. 实现了时空数据的“实体化”与“情境化”。 在平行云LarkXR构建的平台上,一段货车的历史轨迹不再是一条单调的线,而是可以还原成一辆三维货车模型,在三维道路模型中重播放映,并沿途叠加显示当时的车速、载重、油耗等传感器数据,各类IOT数据叠加三维场景,实时反馈在一张图/一个场景中,极大的降低了决策者对模型数据的观测要求。
  2. 支持海量动态目标的同屏实时呈现。 一个城市的数字孪生交通系统,可能需要同时显示数万辆车的实时位置。LarkXR实时云渲染平台赋予了三维场景云化展示、自由分发传播的便捷能力。管理者不再需要在固定时间、固定设备、固定业务系统中安装下载,或者是极其缓慢的加载缓冲,而是仅需一个URL链接即可宏观观察全城车流,也可以瞬间下钻到某个拥堵路口,查看每一辆车的实时视角。
  3. 赋能了时空数据的“穿梭”与“推演”。云渲染后的页面上用户可以使用任意终端随时访问,拖动时间轴,秒级回溯过去24小时特定区域的人流变化;也可以开启预启动模式,观看基于AI模型推演出的未来1小时交通态势发展。这种在时间维度上的自由导航,是理解时空规律、验证预测模型的有力工具。平行云与AIRLOOK、商汤科技在实景三维与AI大模型融合的案例,正是这一能力的体现。

基于LarkXR构建“云边协同”的时空智能数字孪生应用

考虑到时空智能应用对实时性和计算量的不同要求,基于LarkXR的“云边协同”架构成为理想选择。

  1. 去中心化:处理宏观、非实时、高计算量的任务。 例如,全市范围的交通大数据挖掘分析、基于多年遥感影像的城市扩张模拟、大规模时空预测模型的训练与推理。这些任务在传统模式下需要强大的CPU和GPU算力,并分散在各个高配物理设备上。LarkXR实时云渲染平台既可以完成数据中心化热备,同时也支持渲染节点去中心化,即依托地理边缘云节点架构优势,整合公有云、私有化部署等各类GPU算力资源。实时云渲染后的交互视频流(如预测出的拥堵区域三维可视化场景)再通过LarkXR流化推送到指挥中心大屏,支持最高8K分辨率。
  2. 边缘云/端:处理局部、高实时、低延迟的交互。 例如,在智慧港口,龙门吊的毫米级防撞监控需要极低的延迟。可以在港口本地部署LarkXR边缘渲染节点,处理本地摄像头的视频与传感器数据,与港口BIM模型进行实时融合渲染,将结果直接推送到中控室和司机终端,实现端到端低于50毫秒的预警响应。
  3. LarkXR自带PaaS平台管理功能,统一管控与灵活调度。 平台可以统一管理分布在中心云和各个边缘节点的渲染资源,根据应用负载和网络状况,智能调度渲染任务。

场景落地:智慧交通、地灾监测与文化遗产保护

基于实时云渲染的时空智能平台,正在多个领域催生革新性应用。

  1. 智慧交通的“全景作战地图”。 交管部门可以基于该平台,将路网状态、信号灯配时、警车位置、事故报警、施工占道信息、甚至互联网导航公司的拥堵数据,全部融合在一张实景三维地图上。指挥员可以立体化掌握全局,点击一个事故点,系统自动关联周边监控视频和可用警力,实现精准、快速的扁平化指挥。
  2. 地质灾害的“生命体”监测。 对于滑坡、沉降等灾害点,平台将InSAR卫星形变数据、地面GNSS监测站数据、雨量计数据、地质模型进行融合可视化。AI模型基于多源时空数据预测风险等级,并在三维地形上以动态扩展的红色区域示意风险蔓延趋势,为避险转移提供直观的决策依据。
  3. 文化遗产的“四维数字档案”。 对于古建筑、考古遗址,平台可以整合不同历史年代的测绘数据、修复记录、影像资料,构建一个在时间轴上可滑动的四维数字孪生体。研究者可以“穿越”到不同年代观察其变迁,管理者可以模拟不同保护措施(如加盖雨棚)对微环境的影响,所有可视化终端均可以作为展示平台,并肩负向公众开放传播的使命,实现科学的预防性保护。

实时云渲染技术,让时空智能从实验室里的算法和服务器里的数据库,变成了决策者手中可以旋转、缩放、剖切、穿越的“水晶球”。它消融了数据与认知之间的最后一道屏障,让基于时空的精准描述、深刻解释和科学预测,真正赋能于各行各业的智能决策。平行云LarkXR实时云渲染平台,正是打磨这颗“水晶球”,让时空智慧清晰映现的关键力量。

本文已发布于官网:https://www.pingxingyun.com/

在当今的数据驱动时代,不同系统间的数据交换与集成已成为常态。Excel作为常见的报表和数据存储格式,XML作为一种跨平台的数据交换标准,它们之间的相互转换是Java开发者经常面临的实际需求。无论是将Excel数据导出为XML进行API调用,还是将接收到的XML数据导入Excel进行可视化分析,都需要一套高效可靠的解决方案。本文将深入探讨如何利用强大的Spire.XLS for Java库,在Java环境中轻松实现Excel到XML以及XML到Excel的灵活转换,帮助你提升数据处理效率。

Spire.XLS for Java 库简介与安装

Spire.XLS for Java是一个功能丰富的Excel操作库,它允许开发者在Java应用程序中创建、读取、编辑、转换和打印Excel文件,无需依赖Microsoft Office。其特点是API直观、性能高效,并且支持多种Excel文件格式(如XLS、XLSX、CSV等)与XML、PDF、HTML等格式的转换。

要开始使用Spire.XLS for Java,你需要在项目构建文件中添加相应的依赖。

Maven 依赖:

将下列代码添加到 pom.xml 文件中,以导入 JAR 文件

<repositories>
    <repository>
        <id>com.e-iceblue</id>
        <name>e-iceblue</name>
        <url>https://repo.e-iceblue.cn/repository/maven-public/</url>
    </repository>
</repositories>
<dependencies>
    <dependency>
        <groupId>e-iceblue</groupId>
        <artifactId>spire.xls</artifactId>
        <version>16.1.3</version>
    </dependency>
</dependencies>

在 Java 中将 Excel 转换为 XML

将Excel数据转换为XML在数据集成、Web服务交互或自定义数据存储方面非常常见。Spire.XLS支持将整个工作簿或指定工作表的数据导出为XML格式。该库提供了灵活的选项来控制XML的输出结构。

以下示例展示了如何将一个Excel工作簿转换为XML文件:

import com.spire.xls.*;

public class ExcelToXML {
    public static void main(String[] args) {
        //创建Workbook类的对象
        Workbook wb = new Workbook();

        //加载Excel文档
        wb.loadFromFile("input.xlsx");

        //保存为XML文件
        wb.saveAsXml("ToXML.xml");
    }
}
  • 首先创建一个Workbook对象,然后使用loadFromFile()加载示例的Excel文件。
  • wb.saveAsXml()方法将刚在加载的Excel文件保存为XML格式。

在 Java 中将 XML 转换为 Excel

反向转换,即将XML数据导入到Excel中,同样是常见的需求,尤其是在处理来自Web服务或配置文件的数据时。Spire.XLS能够解析XML数据并将其填充到Excel工作表中。

以下代码展示了如何将一个XML文件转换为Excel文件:

import com.spire.xls.*;

public class XmlToExcel {
    public static void main(String[] args) {
        //创建Workbook类的对象
        Workbook wb = new Workbook();

        //加载XML文档
        wb.loadFromXml("sample.xml");

        //转为xlsx格式的Excel
        wb.saveToFile("toExcel.xlsx",FileFormat.Version2013);
    }
}
  • 首先创建一个Workbook对象,然后使用loadFromXml加载XML文件。
  • 调用saveToFile()将XML文件保存为Excel工作簿。

注意: 上述XML转Excel示例中的XML解析部分是基于一个简单、扁平化的XML结构。对于复杂的、嵌套的XML结构,你需要更复杂的解析逻辑来映射到Excel的行和列。

结语

通过本文的介绍和代码示例,我们详细探讨了如何在Java环境中,利用Spire.XLS for Java库实现Excel与XML文件的双向转换。无论是将Excel数据高效导出为XML,还是将XML数据灵活导入到Excel中进行处理,Spire.XLS都提供了直观且功能强大的API支持。掌握这些转换技巧,将极大地增强你在数据处理、系统集成和报表自动化方面的能力。希望本文能为你提供有价值的参考,助你在实际项目中更加游刃有余地处理各种文件转换需求。

前面的章节(社区专栏《SQL调优》)我们已经写了很多篇幅关于 MySQL 执行计划的解读,今天我们来继续延伸介绍执行计划的链路跟踪功能,也就是 MySQL 的 Optimizer Trace

在这之前,先来回顾下 EXPLAIN 的结果:

mysql:ytt>explain select * from t1 a left join y1 b on a.id = b.id where a.r1<100 order by a.r2 desc;
+----+-------------+-------+------------+--------+---------------+---------+---------+----------+--------+----------+-----------------------------+
| id | select_type | table | partitions | type   | possible_keys | key     | key_len | ref      | rows   | filtered | Extra                       |
+----+-------------+-------+------------+--------+---------------+---------+---------+----------+--------+----------+-----------------------------+
|  1 | SIMPLE      | a     | NULL       | ALL    | idx_r1        | NULL    | NULL    | NULL     | 998222 |    50.00 | Using where; Using filesort |
|  1 | SIMPLE      | b     | NULL       | eq_ref | PRIMARY       | PRIMARY | 4       | ytt.a.id |      1 |   100.00 | NULL                        |
+----+-------------+-------+------------+--------+---------------+---------+---------+----------+--------+----------+-----------------------------+
2 rows in set, 1 warning (0.00 sec)

EXPLAIN 展示出来的核心数据有:

  1. 表关联顺序
  2. 优化器筛选过的索引
  3. 实际使用的索引
  4. 每张表依据统计信息的扫描行数
  5. Extra 额外数据提示
  6. 两种执行计划(explain format=tree / explain format=json)展示出来的额外成本数据

如果想快速对于 SQL 进行优化,基于以上的结果完全可以满足。但是想深入了解 MySQL 优化器为什么选择这样的执行计划,基于以上的结果就无法满足。

举例说明:

  • 我想知道对于表 a 来讲,为什么有索引 idx_r1,但是实际却没有使用,而走的全表扫?
  • 两张表关联,为什么选择的顺序是表 a 驱动表 b,而不是表 b 驱动表 a
  • 为什么字段 r2 有索引,但是依然要走排序?

带着这些疑问,我们来介绍 MySQL 的 Optimizer Trace 功能。

1. 什么是 Optimizer Trace?

简单来讲,Optimizer Trace 是一个 SQL 执行计划的链路跟踪器,跟踪 SQL 的解析、优化、执行等过程,并且把结果记录到 MySQL 元数据表(information_schema.optimizer_trace),之后可以对这张表分析得到很多个执行计划的“为什么?”!

2. 如何使用 Optimizer Trace?

要使用 Optimizer Trace 功能,首先得打开控制开关。谨记:这个功能非常耗费资源,默认关闭的,可以通过调整以下变量开启:

mysql:ytt>show variables like 'optimizer_trace%';
+------------------------------+----------------------------------------------------------------------------+
| Variable_name                | Value                                                                      |
+------------------------------+----------------------------------------------------------------------------+
| optimizer_trace              | enabled=off,one_line=off                                                   |
| optimizer_trace_features     | greedy_search=on,range_optimizer=on,dynamic_range=on,repeated_subselect=on |
| optimizer_trace_limit        | 1                                                                          |
| optimizer_trace_max_mem_size | 1048576                                                                    |
| optimizer_trace_offset       | -1                                                                         |
+------------------------------+----------------------------------------------------------------------------+
5 rows in set (0.00 sec)

以上几个参数详细解释下:

  • optimizer_traceenabled=on/off 启用/禁用 Optmizer Trace 功能;one_line=on/off 启用/禁用 json 格式化存储,一般不需改动。
  • optimizer_trace_limit/optimizer_trace_offset:这两个参数和 LIMIT 子句一样,用来最终展示 Trace 的 SQL 条数。展示的条数越多,对内存消耗越大,默认展示最近的一条记录。比如设置 optimizer_trace_limit 为 10,optimizer_trace_offset 为 -10,就可以最多展示 10 条 Trace 记录。
  • optimizer_trace_max_mem_size:用来存储 Trace 结果的最大内存。
  • optimizer_trace_features:用来启动/禁用相关 Trace 特性开关。
  • end_markers_in_json:启用/禁用 注释功能。开启这个,Trace 结果可读性更强。
  • Optimizer Trace 可以跟踪的语句有:

    • SELECT、TABLE、VALUES、WITH、INSERT、REPLACE、UPDATE、DELETE
    • EXPLAIN
    • SET(排除设置 Optimizer Trace 相关参数)
    • DO
    • 存储函数内部、触发器内部等的 DECLARE、CASE、IF、RETURN 语句
    • CALL
在数据库里,语句调优一般说的是 SELECT 语句,所以大部分场景跟踪的也只有 SELECT 语句。

元数据表字段解析

mysql:ytt>desc information_schema.optimizer_trace;
+-----------------------------------+----------------+------+-----+---------+-------+
| Field                             | Type           | Null | Key | Default | Extra |
+-----------------------------------+----------------+------+-----+---------+-------+
| QUERY                             | varchar(65535) | NO   |     |         |       |
| TRACE                             | varchar(65535) | NO   |     |         |       |
| MISSING_BYTES_BEYOND_MAX_MEM_SIZE | int            | NO   |     |         |       |
| INSUFFICIENT_PRIVILEGES           | tinyint(1)     | NO   |     |         |       |
+-----------------------------------+----------------+------+-----+---------+-------+
4 rows in set (0.00 sec)
  • QUERYTRACE 的 SQL 语句原文
  • TRACE:SQL 语句的 TRACE 结果,JSON 格式存储(由变量 end_markers_in_json 来控制)
  • MISSING_BYTES_BEYOND_MAX_MEM_SIZETRACE 结果超过变量 optimizer_trace_max_mem_size 设置的值后,截断的大小(BYTE)
  • INSUFFICIENT_PRIVILEGES:对存储过程、存储函数等包含有 SQL SECURITY DEFINER 的用户是否有对应的权限,有权限为 0,无权限为 1,并且 TRACE 字段为空。

Optimizer Trace 开启步骤

mysql:ytt>set optimizer_trace='enabled=on';
Query OK, 0 rows affected (0.00 sec)

mysql:ytt>set optimizer_trace_limit=10;
Query OK, 0 rows affected (0.00 sec)

mysql:ytt>set optimizer_trace_offset=-10;
Query OK, 0 rows affected (0.00 sec)

mysql:ytt>set end_markers_in_json=on;
Query OK, 0 rows affected (0.00 sec)

这里要注意的是,修改任何一个 Optimizer Trace 相关参数,元数据表 information_schema 表都会被清空。

mysql:ytt>select count(*) from information_schema.optimizer_trace;
+----------+
| count(*) |
+----------+
|       10 |
+----------+
1 row in set (0.00 sec)

mysql:ytt>set optimizer_trace_offset=-2;
Query OK, 0 rows affected (0.00 sec)

mysql:ytt>select count(*) from information_schema.optimizer_trace;
+----------+
| count(*) |
+----------+
|        0 |
+----------+
1 row in set (0.00 sec)

3. Optimizer Trace 的结果

我们用一个最简单的例子来看看 Optimizer Trace 的大致结构:do 语句非常简单,只用来验证是否语法正确,不出结果。

mysql:ytt>do 1+1;
Query OK, 0 rows affected (0.00 sec)

下面是 Optimizer Trace 结果:

mysql:ytt>select query,trace from information_schema.optimizer_trace\G
*************************** 1. row ***************************
query: do 1+1
trace: {
  "steps": [
    {
      "join_preparation": {
        "select#": 1,
        "steps": [
          {
            "expanded_query": "/* select#1 */ select (1 + 1) AS `1+1`"
          }
        ]
      }
    },
    {
      "join_optimization": {
        "select#": 1,
        "steps": [
        ]
      }
    },
    {
      "join_execution": {
        "select#": 1,
        "steps": [
        ]
      }
    }
  ]
}
1 row in set (0.00 sec)

可以看到,Optimizer Trace 结果是一个 JSON 串,keystepsvalue 是一个数组,数组有三个 key,分别为:

  • join_preparation 准备阶段:这里会做一些 SQL 改写,关键字识别等等,可以看到 expanded_query 对应的值即为 SQL 语句被改写后的内部 SQL。
  • join_optimization 优化阶段:具体 SQL 优化,包括一些可能的逻辑优化,一些根据表统计信息预估的物理优化等等。
  • join_execution 最终执行阶段:最终 SQL 采用的执行计划等等。

本篇是Optimizer Trace的开端,由于内容太多,我特地拆分为几篇来写,欢迎继续订阅。

640 (84).webp

随着国家“中小企业数字化转型城市试点”和“人工智能+”战略的深入推进,工业全要素智能化已成为推动制造业转型升级的核心方向。在这一背景下,工业大数据平台作为连接海量数据、整合智能应用的关键载体,正在为企业的生产、管理、决策提供全新的赋能路径。工业大数据平台不仅仅是数据的存储与处理工具,更是通过融合工业机理与人工智能技术,构建起一套高效、智能、安全的数字化生态系统,助力企业在复杂多变的市场中提升竞争力,实现可持续发展。
工业大数据平台的核心价值在于其对数据全生命周期的管理能力。从数据采集到存储、治理、分析再到应用,平台通过高度集成的技术架构,解决了传统制造业面临的痛点。例如,许多企业在生产过程中缺乏对多源异构数据的有效整合,导致数据孤岛现象严重,无法形成统一的数据视角。工业大数据平台通过对接多种数据源和协议,实现了数据的统一接入与管理,为后续分析奠定基础。更重要的是,平台能够将原始数据转化为可落地的业务洞察,例如通过工艺参数优化、质量缺陷溯源等功能,直接驱动生产效率的提升和成本的降低。可以说,工业大数据平台是制造业数字化转型中不可或缺的战略支撑。
然而,工业大数据平台的建设并非易事,它涉及技术、管理、生态等多个维度的协同创新。首先,平台需要具备强大的数据处理能力,以应对海量、异构、实时性的工业数据。其次,数据治理和安全机制必须完善,以确保数据在共享与使用过程中不被滥用或泄露。此外,平台还需要结合行业特性,提供差异化的应用场景,例如在汽车制造领域,平台可以帮助企业实现生产线的智能监控与预测性维护,而在能源行业,则能辅助企业进行用电趋势分析和设备健康管理。
在这一领域,广域铭岛凭借其深厚的工业知识积累和创新的解决方案,成为行业的标杆之一。通过其自主研发的Geega OS工业操作系统和工业AI应用平台,不仅为制造企业提供数据集成、治理和分析服务,还通过工厂大脑等工具,将AI能力深度嵌入生产环节。例如,其在汽车产业链上的实践,帮助中小企业实现了质量缺陷的AI视觉检测和生产工艺的智能寻优,显著提升了生产效率和产品合格率。此外,还积极参与国家工业互联网大数据中心的建设,推动数据资产化和行业智能体的研发,为制造业的智能化升级提供了强有力的支撑。
国内还有许多企业在工业大数据领域取得了显著成果。例如某工业互联科技有限公司通过构建工业软件生态平台,为政府、企业与组织提供数字化转型服务,特别关注中小企业在安全生产和智能制造方面的痛点。其打造的“五位一体”管理平台,涵盖了重大危险源监测预警、可燃有毒气体检测报警等功能,为化工企业的安全运营提供了保障。此外某航天平台也在工业数据汇聚、共享和应用方面发挥了重要作用,通过开放的云服务框架和工业大数据引擎,推动了数据驱动的制造模式创新。
这些案例充分证明了工业大数据平台在提升资源利用效率、优化生产流程和增强企业竞争力方面的巨大潜力。

VMware NSX 4.2.3.3 发布,新增功能概览

VMware NSX 4.2.3.3 - 网络安全虚拟化平台

构建具有网络连接和安全性的云智能网络,跨多种云环境支持一致的策略、运维和自动化。

请访问原文链接:https://sysin.org/blog/vmware-nsx-4/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


网络虚拟化平台

VMware NSX

使用 VMware NSX,通过单一窗口像管理单个实体一样管理整个网络。

VMware NSX 提供了一个敏捷式软件定义基础架构,用来构建云原生应用程序环境

​VMware NSX 4.2.3.3 | 27 JAN 2026 | Build 25171318

新增功能

VMware NSX 4.2.3.3 是一个更新版本,包含错误修复以及以下新功能。

  • 在裸金属 Edge 节点上支持 NVIDIA Mellanox ConnectX-6 Lx SmartNIC(CX6 LX)。
  • Edge 传输节点的重新部署工作流会在启动重新部署之前,先校验用户提供的 vCenter 配置(例如 vCenter、计算资源和数据存储 ID)。如果检测到 vCenter 配置不正确,重新部署将停止并抛出错误。
  • 在之前的版本中,由证书过期触发的告警并未清晰指示如何替换证书 (sysin),通常需要使用 CARR 脚本进行手动干预。从本版本开始,告警会引导用户前往相关的 UI 页面进行证书替换,无需再使用 CARR 脚本,使证书过期后的恢复更加简便。

有关本版本中已修复问题的列表,请参见下方“已解决的问题”。

已解决的问题

已修复问题 3585470:当 SCX Pod 崩溃、频繁重启或重新启动时,IDPS 告警“Security Services Health Degraded”未能稳定生成。

由于告警未生成,用户在 IDPS 安全服务降级时不会收到通知。

已修复问题 3604716:当 IDPS 服务(Turbo 模式)在低数据包速率(低于 1K PPS)下处理流量时,数据包会产生额外延迟。

在低流量条件下,由于每个数据包遇到额外延迟,应用响应时间可能会增加。

已修复问题 3504290:NSX Manager 节点在“start_manager”步骤升级失败。

由于 CORFU_NONCONFIG 服务器启动失败,NSX Manager 节点升级失败。在升级的“start_manager”步骤中,配置 Corfu 服务器启动时遇到竞争条件,导致 CORFU_NONCONFIG 服务器异常 (sysin),并持续将 CORFU_NONCONFIG 状态报告为“DEGRADED”。

已修复问题 3542426:在 NSX Federation 环境中,某些罕见情况下,备用全局管理器与主全局管理器的同步状态显示为 UNAVAILABLE。

在罕见场景(例如网络抖动、领导节点切换或服务重启)下,主备全局管理器之间的同步实际上是成功的,但 active_standby_sync_statuses 显示为“UNAVAILABLE”。该问题仅影响状态显示,不影响实际功能。

已修复问题 3569783:在重新配置分布式负载均衡器(DLB)或分布式防火墙(DFW)后,部分 DLB 连接未命中预期的 DFW 规则。

重新配置 DLB 或 DFW 后,某些 DLB 连接可能不再命中之前的 DFW 规则,而是命中默认 DFW 规则。如果默认 DFW 规则的动作为丢弃,则可能导致数据包被丢弃。

已修复问题 3582922:由于来宾操作系统发送的异常 IGMPv3 数据包,ESX 主机会发生紫屏(PSOD)。

来自来宾操作系统的异常 IGMPv3 数据包在 McastFilterProcessIGMPv3Report() 中由于分组信息过大而导致 PSOD。

已修复问题 3590050:在新部署的 ESX 主机上,NSX 安装有时会失败。

当尝试在新加入的 ESX 主机上安装 NSX 时,用于将 ESX 主机加入 NSX Manager 集群的 CLI 命令可能失败,并返回错误 “curl_wrapper: (7) No APH UUID found in CheckTrusted RPC response”。

已修复问题 3617765:当规则更新使连接的当前规则失效时,Edge 上的数据路径 fastpath 线程会进入无限循环 (sysin),导致 CPU 使用率飙升至 100%。

通过 Edge 的流量会受到影响。

已修复问题 3616400:在高流量场景下,网关防火墙 NSGroup 中频繁更新 IP 地址可能会触发 Edge 节点上的 datapath 守护进程产生 core dump。

当 datapath 守护进程因 core dump 重启时,通过 Edge 的流量会受到影响。

已修复问题 3518994:Distributed Firewall(DFW)API 在 /api/v1/infra/domains/default/security-policies/default-layer3-section/statistics 中返回错误的统计信息。

DFW 规则的字段(packet_count、byte_count、session_count、hit_count)显示了错误的统计值。

已修复问题 3614734:在频繁配置变更的情况下,竞争条件可能导致 Edge 上的 datapath 守护进程产生 core dump。

当使用已删除的安全组进行规则匹配时会触发 core dump,datapath 进程随后重启,从而影响流量。

已修复问题 3635224:新 Edge 安装、重新部署和扩容操作失败。

由于 Edge OVF 的签名证书已于 2026 年 1 月 3 日过期,导致 OVF 证书无法验证 (sysin),新 Edge 安装、重新部署和扩容操作失败。该问题适用于通过 NSX Manager UI、NSX API、vCenter、OVF Tool 或 SDDC Manager 进行的操作。

升级到 NSX 4.2.3.3 可解决此问题。

已修复问题 3630051:在记录高流量事件时,NSX IDPS 事件日志有时缺少空白字符,影响签名映射和威胁分析。

监控团队会间歇性地收到签名名称格式异常的事件数据,从而导致 IDPS 签名映射和威胁分析出现混乱和错误。

已修复问题 3605372:在极少数情况下,超时后删除 FQDN 域条目可能导致 ESXi 主机发生 PSOD。

主机发生 PSOD 后,其上运行的虚拟机会失去网络连接。

已修复问题 3519821:在日语界面中查看 Distributed Firewall(DFW)策略规则列表时 (sysin),规则数量显示为“{{totalRuleCount}} / {{viewedRuleCount}}”,而非实际数值。

当 NSX UI 切换为日语并进入 Distributed Firewall 策略页面查看或创建防火墙规则时,滚动规则列表,网格底部的分页/计数指示器未能将占位符替换为实际的数值。

已修复问题 3625943:将 NSX Manager 从 3.2.x 升级到 4.2.x 后,Tier-1 网关上的 DHCP 服务器因 IP 池重叠错误而处于失败状态。

在 NSX Manager UI 中,一些段仍处于 “IN-PROGRESS” 状态,所连接的 Tier-1 网关处于 “FAILED” 状态。该问题的影响仅限于 DHCP 配置更改,DHCP 服务器和 datapath 功能不受影响。

已修复问题 3516646:在 NSX Federation 中,使用 AR 通道的数据库操作出现问题。

在 NSX Federation 环境中,罕见的竞争条件可能导致 NSX 中的数据库操作出现问题,尤其是 Async-Replicator(AR)通道所使用的操作。由于 AR 通道用于全局管理器(GM)与本地管理器(LM)之间的通信,可能导致 GM 与 LM 之间的配置同步失败。

已修复问题 3619313:IpAddressAllocation 在更新完成后仍保持为 IN_PROGRESS 状态。

UI 中即使对象已完成更新,IpAddressAllocation 仍显示为 IN_PROGRESS。该问题仅为显示问题,不影响功能。

已修复问题 3626240:当 Edge 与 ESXi 主机共享同一 VLAN 用于 TEP 流量时,Edge 隧道会中断。

当跨不同主机时,Edge 隧道无法建立;当位于同一主机上时,隧道可以建立。

已修复问题 3626202:“Compute Manager Lost Connectivity” 告警未提供足够的解决指导。

在之前的版本中,该告警要求用户打开外部 KB 文档并执行多步骤操作来解决问题。

本版本增强了告警说明,通过直接引导用户前往 系统 → Fabric → Compute Managers 页面来解决问题,无需再查阅 KB 文档 (sysin),从而提升了易用性。

已修复问题 3618724:DHCP 中继在 VPC 子网中无法按预期工作。

当用户配置带有外部 DHCP 中继配置文件的 VPC(例如指向 192.168.110.10 的 “DHCP-Server”),并创建访问模式为 “Public” 的 VPC 子网时,该子网会被自动配置为 NSX 管理的 DHCP 服务器(例如 30.30.30.50),而不是使用 VPC 级别的 DHCP 中继配置。因此,连接到该 VPC 段的虚拟机会从 NSX DHCP 服务器而非预期的外部 DHCP 服务器(192.168.110.10)获取 IP 地址。

已修复问题 3607928:在启用 ENS 的环境中,当 vNIC 端口被停用时,主机会发生紫屏(PSOD)。

在端口停用过程中,ENS 在端口分离前存在一个宽限期,在此期间 datapath 线程仍可能运行。如果在所有 datapath 线程运行完成之前宽限期结束,则会触发 PSOD。

本版本针对导致该问题的变量提供了补充修复,并包含一些增强改进。

已修复问题 3605756:在大规模部署环境中收集支持包时,ESXi 主机会发生紫屏(PSOD)。

ESXi 内核模块维护了一个内部表,用于存储主机上所有逻辑交换机和路由域中的 VTEP 联合信息,以优化 datapath 处理并提升内存使用效率。在逻辑交换机和路由域中存在超过 2048 个唯一 VTEP 的大规模环境中,执行收集支持包的命令会导致缓冲区溢出,从而引发 PSOD。

已修复问题 3601750:在重新部署 Edge 节点或集群后,Tier-1 未向 Tier-0 通告服务接口路由。

该问题适用于从 NSX-V 迁移到 NSX-T 3.2.0 或更高版本的环境,且仅影响服务端口。服务端口配置中的一个参数(管理状态)在迁移和重新部署后未被设置,NSX Manager 将其视为关闭状态,从而停止通告服务接口路由。这会导致预期通过 Tier-0/VRF 的 Tier-1 服务接口网络流量失败。

已修复问题 3603918/3601174:在配置 RSPAN Destination 时,ESXi 主机会发生紫屏(PSOD)。

在 RSPAN 过程中,会为数据结构分配内存。由于缺陷,该内存未能及时释放,最终导致内存耗尽。后续的内存分配失败会进入循环,从而导致主机 PSOD。

已修复问题 3583257:NSX Manager 节点上多个服务处于错误状态。

在基础设施高负载的罕见情况下,运行在 NSX Manager 节点上的模块可能因 org.bouncycastle.crypto.fips.FipsOperationError 异常而进入错误状态。该异常表示 BouncyCastle 的 FIPS 认证加密模块(BCFIPS)由于底层操作系统提供的熵不足(随机数不够随机),未能通过连续自检,从而初始化失败。NSX Manager 上运行的模块均为 FIPS 合规,并依赖 BCFIPS 来维持该合规性。

已修复问题 3580790:当 NSX Manager 上的 /tmp 目录已满时,备份操作失败但未指明失败原因。

备份失败时,错误信息未明确指出失败是由于 /tmp 磁盘空间已满导致的。

已修复问题 3574090:升级后,NSX Manager 节点与所有传输节点及其他管理器节点失去管理连接 (sysin)。

在升级过程中,如果在部署时启用了软件完整性检查功能,NSX Manager 节点的管理 IP 地址在重启后无法保持。

已修复问题 3567393:裸金属 Edge 的数据平面转发受影响,datapath 配置处于错误状态,且 Edge datapath 的 CLI 无法使用。

在罕见情况下,当将配置从基于 bond 的单 VTEP 更改为基于独立 pNIC 的多 VTEP 时,裸金属 Edge 节点可能出现 datapath 影响。在配置变更过程中,两个系统进程相互等待并永久阻塞,导致两个进程冻结。

已修复问题 3546893:计划任务备份未执行。

由于计划备份未运行,客户只能执行手动备份。

已修复问题 3534050:在存储故障后,Edge datapath 服务无法启动。

由于 Tx 或 Rx 环大小无效,Edge datapath 服务启动失败,导致数据平面转发完全中断。

已修复问题 3529732:NSX Manager 的 syslog 未记录 NSX 用户成功登录事件。

日志中仅记录实际操作,而未记录相对被动的登录行为。

已修复问题 3514331:在主机上使用 Broadcom 网卡承载 Geneve 流量时,当带有错误 L4 校验和的数据包通过 Tier-0 上行链路进入 Edge VM,会被错误地更新内部 L4 校验和并通过 Geneve 转发至南向的工作负载虚拟机。

客户无法通过 HTTPS 下载文件。

已修复问题 3486896:在 NSX Manager 中导航至升级页面会出现错误 “Reboot less upgrade cannot be disabled for vSphere Lifecycle Managed cluster”,且升级 API 返回 “Internal server error”。

如果将无重启升级配置设置为 false,且主机集群启用了 vLCM,则在主机计划验证阶段同步计划会失败,导致所有升级 API 失败,升级无法完成。

通过此修复,如果当前无重启配置被设置为 false,则会为启用了 vLCM 的组重置该配置。

下载地址

想要开始学习和研究?

请访问:https://sysin.org/blog/vmware-nsx-4/


相关产品:

更多:VMware 产品下载汇总

一、概述总结
智慧学堂闯关小程序是一款专为学生群体打造的在线学习工具,以趣味闯关游戏为核心形式,将刷题练习与学习视频深度结合,为用户带来沉浸式、互动性极强的学习体验。该小程序支持微信公众号部署,通过微擎系统在线交付,源码经过加密处理,保障官方正品品质。用户可通过观看学习视频积累知识后参与闯关刷题,成功通关后能直观查看任务完成度、闯关进度、排名、获取星星数、学习时长、答题量及正确率等核心数据,有效激发学习动力。

二、功能介绍
(一)核心学习功能
闯关答题体系:设置闯关大关卡与小关卡层级结构,支持按章节添加关卡,用户需依次完成关卡挑战,可重玩已闯关卡,提升学习熟练度。

学习视频联动:关卡可绑定指定视频课程(如UI设计基础视频教程),用户可先观看视频积累知识点,再参与对应关卡答题,实现学练结合。

精准知识点匹配:支持选择具体学科知识点,涵盖小学语文等多学科,可设置2级、3级细分知识点,确保答题内容针对性强。

单元测试模式:支持将关卡设为单元测试,无需绑定新知识点,自动调用前期知识点题库生成题目,方便阶段性检测学习效果。

(二)数据统计与反馈功能
多维数据展示:实时呈现闯关进度(如8/20)、任务完成度排名、满星通关关卡数、学习时长(如0/60m)、答题量、正确率(如36.7%)等核心数据,让用户清晰掌握学习情况。

答题结果解析:闯关结束后可查看详细答题结果,包括答对答错题目分布、正确答案及个人作答情况,支持查看解析,帮助用户查漏补缺。

全站统计分析:提供作答次数、正确率、易错项等全站数据统计,为用户优化学习重点提供数据支撑。

(三)后台管理功能
闯关管理:支持添加闯关题库、设置题库标签,可自定义关卡名称、描述、顺序,配置关卡所需钻石数(用于跳过章节),灵活控制关卡是否上架。

订单管理:完善的订单管理体系,方便运营者跟踪产品使用相关订单信息。

权限与配置:支持设置操作员权限,系统可自动生成关卡数、星星(积分)总数,支持多标签分隔配置,满足多角色协作管理需求。

(四)特色功能
积分激励机制:闯关成功可获取星星(积分),通过积分累计激发用户持续学习的积极性。

灵活跳过机制:部分章节可花费指定钻石跳过,满足用户多样化学习节奏需求。

多场景适配:题库涵盖教育学、心理学、教育心理学、小学语文等多学科,支持教师招聘、中小幼等不同学习场景使用。

三、适用场景与行业价值
(一)适用场景
教育培训机构:可作为课后练习工具,配合线下课程设置闯关题库,帮助学员巩固知识点,提升学习效果。

学校教学辅助:教师可利用小程序布置课后作业、单元测试,通过闯关形式激发学生学习兴趣,减轻教学管理压力。

备考人群自学:针对教师招聘等备考场景,提供细分学科题库,用户可通过闯关刷题系统梳理知识点,提升应试能力。

课外兴趣学习:适用于中小学生课外知识拓展,通过趣味闯关培养自主学习习惯。

(二)行业价值
对学习者:打破传统刷题的枯燥感,以游戏化形式提升学习兴趣,通过多维数据反馈明确学习短板,实现高效针对性学习;灵活的学习模式适配不同学习节奏,支持随时随地碎片化学习。

对教育机构/学校:降低教学管理成本,通过后台系统实现题库、关卡的快速配置与管理,实时掌握学员学习数据,便于优化教学方案;提升教学服务质量,增强学员粘性与满意度。

对行业发展:推动教育数字化、趣味化转型,将游戏化思维与教育场景深度融合,为在线教育行业提供创新的产品形态与运营思路。

四、问答环节
问:智慧学堂闯关小程序支持哪些部署环境?

答:支持PHP5.5、PHP5.6、PHP7.1、PHP7.2、PHP7.3多种环境部署,适用微信公众号使用。

问:小程序的闯关形式具体是怎样的?

答:采用大关卡+小关卡的层级结构,用户可先观看绑定的学习视频,再参与对应知识点的闯关刷题,通关后可查看任务完成度、进度排名、星星积分等数据,支持重玩已闯关卡。

问:后台能否自定义题库和关卡?

答:可以,后台支持添加闯关题库、设置题库标签,可自定义关卡名称、描述、顺序、所需钻石数等,还能选择绑定视频课程和具体知识点,支持设置单元测试关卡。

问:小程序的积分机制是怎样的?

答:用户闯关成功后可获取星星(积分),星星总数由系统自动生成,通过积分激励用户持续参与闯关学习。

问:单元测试关卡与普通关卡有何区别?

答:测验关卡无需绑定知识点,系统会自动使用前面章节的知识点题库生成题目,适合用于阶段性知识检测。

问:小程序的题库涵盖哪些学科和场景?

答:题库涵盖教育学、心理学、教育心理学、小学语文等多学科,适用于教师招聘、中小幼等不同学习场景,支持多等级知识点细分。

摘要:
2025 OceanBase 年度发布会金融专场,盛京银行信息科技部数据库负责人王克东分享了该行引入 OceanBase 的数据库升级实践。盛京银行依托 OceanBase 的技术能力,重点借助其 HTAP 能力,完成了从传统集中式架构到统一数据平台的全栈升级,在混合负载场景下批处理能力提升 80%,同时大幅降低了软硬件投入成本。

11 月 18 日,2025 OceanBase 年度发布会在北京举行。在金融专场,盛京银行信息科技部数据库负责人王克东进行专题分享,介绍盛京银行在数据库升级过程中引入 OceanBase 后的应用实践。

他表示,近年来,盛京银行依托 OceanBase 各项能力,尤其是 HTAP 能力,完成从传统集中式架构到统一数据平台的全栈升级。在这一过程中,盛京银行最大的惊喜来自 OceanBase 的 HTAP 能力,混合负载场景下批处理能力提升 80%,软硬件投入成本得到大幅降低。

以下为演讲实录。

大家好,我是盛京银行信息科技部数据库负责人王克东,今天很荣幸在这里分享盛京银行在数据库升级过程中的一些经验。

盛京银行总部位于辽宁省沈阳市,前身为沈阳市商业银行。2007 年 2 月,经中国银监会批准更名为盛京银行。盛京银行目前已在沈阳、北京、上海、天津、长春、大连等城市设立了 18 家分行,拥有 3 家专营机构和 2 家子公司,是东北地区规模最大的城商行。

这几年来,我们依托 OceanBase 数据库各项能力,尤其是 HTAP 能力,完成从传统集中式架构到统一数据平台的全栈升级。今天的分享,我将着重介绍盛京银行在数据库选型过程中的一些思考和经验、实际改造案例、在 OceanBase 数据库上的架构实践以及我个人对盛京银行未来数据库建设的一些展望和思考。

选型之路:为何选择分布式数据库?

在数据库选型上,我们面临的第一个问题是:选择集中式数据库还是分布式数据库?

随着互联网金融的快速发展,我们发现许多线下业务正在加速向线上转移,这也意味着未来数据库将承担更大的压力。因此,我们首要确定的方向就是选择分布式数据库,以应对日益增长的业务需求。

下一个问题随之而来:选哪一个分布式数据库产品?我们主要从四个方面进行综合考量。

首先,在核心技术自主研发的大背景下,我们倾向于选择原生的分布式数据库;第二,要有丰富的案例沉淀,有大量成功案例可供借鉴参考;第三,产品需具备高可用和完善的容灾架构,以保障业务的连续性和安全性;第四,该产品应拥有完善的周边生态,能够满足我们日常运维管理的需求,否则未来运维会面临诸多挑战。

基于上述思考,我们正式踏上了数据库选型之路,并首先对系统建设进行了需求分析。在这一过程中,我们积极走访了多家已成功升级改造的银行,与他们进行了深入交流。随后,针对实际业务场景设立测试案例,邀请头部数据库厂商与分布式数据库厂商到盛京银行进行实际测试。测试内容主要涵盖数据库自身的性能、高可用性、容灾能力、周边生态工具的完善度,以及在开发侧需要进行改造的内容。我们也重点关注在升级过程中可能遇到的各类问题。

经过约半年的测试和综合评估,我们最终选择 OceanBase 作为盛京银行的数据底座,原因在于以下几点:

首先,OceanBase 具备高兼容性,尤其是对传统数据库的全兼容。盛京银行原有的所有数据库均采用传统数据库,OceanBase 在兼容性上的优势极大降低了开发侧的改造成本,有效节省了大量人力和资源,实现了系统的平滑升级,个别业务系统仅需进行少量代码改动;

第二,OceanBase 在成本方面也表现突出。它让我们能够摆脱高昂的存储费用,同时凭借高压缩比,显著节约了存储空间;

第三,OceanBase 强大的 HTAP 能力给我们留下了深刻印象。在测试过程中,OceanBase 不仅在传统 TP 场景中展现了优秀的性能,在 HTAP(混合事务与分析处理)更为惊艳。尤其是在反洗钱批量处理系统等业务场景中,OceanBase 的测试结果遥遥领先。

此外,OceanBase 具备良好的水平扩展能力,可以满足我们不断增长的业务需求,其高可用和容灾架构也充分保障了业务的连续性和安全性。同时,OceanBase 拥有丰富的案例积累,为我们的推进和落地提供了宝贵参考。

落地实践:两个阶段持续夯实数据库底座

盛京银行整个升级过程主要分为两个阶段。

第一阶段,我们采用主备中心互为主备的架构,通过数据复制方式实现容灾,每个中心的 OceanBase 集群均具备高可用性。在架构搭建完成后,我们利用 OMS 迁移工具,通过“全量+增量”方式将数据升级到 OceanBase 。由于 OceanBase 与原数据库高度兼容,我们众多业务系统实现了平滑升级,且升级后只需更换连接驱动即可对外提供服务。此阶段,我们还充分发挥了 OceanBase 的多租户能力,建设一个集群,通过多租户模式支持多套业务系统,对外提供服务,有效节约了资源和运维成本。

第二阶段,随着第三机房的正式启用,我们将原有主备模式的容灾架构在线升级为三中心五副本架构。此次架构调整充分利用了 OceanBase 的在线扩缩容能力,实现了无业务中断的平滑升级。三中心五副本架构不仅进一步增强了系统的可靠性和容灾能力,也成为盛京银行未来数据库发展的确定方向。在去年金融电子化优秀案例评选上,凭借这一创新架构,我们荣获了科技创新奖。

通过以上两阶段的实践,我们不断夯实了盛京银行的数据库底座,为业务发展和创新提供了坚实保障。

升级成效:最大惊喜来自 HTAP 批处理能力提升 80%

数据库升级至OceanBase 后,我们最大的惊喜来自 OceanBase 的 HTAP 能力,混合负载场景下批处理能力提升 80%,软硬件投入成本得到大幅降低。

成效主要体现在以下方面,将用两个案例来说明。

首先,要重点介绍的是 OceanBase 的 HTAP 能力在反洗钱系统中的应用。

该系统原先批量处理通常需要约 20 个小时。数据库改造并升级至 OceanBase 后,批量处理时间缩短至 8 个小时。这只是改造的第一步,随着 OceanBase 升级到第四代版本后,批量处理时间又进一步降至 6 个小时。可以看出,OceanBase 每一代版本在性能方面都在持续提升,极大优化了我们的业务效率。

第二个案例是我们通过架构改造后带来的灾备切换效率提升。众所周知,金融机构每年都需要按监管要求进行同城灾备环境的切换演练,确保关键业务系统可以在灾备环境下全部接管主业务。以前在主备模式下,每次切换都需要针对整个集群及其所有业务系统进行验证,有的系统属于监管范围,有的则并非强制要求,这就导致我们要对所有业务系统进行切换测试,既耗时又影响正常运营。

而在我们全面升级为“三中心五副本”架构后,灾备切换效率有了质的提升。对于需要满足监管要求的业务系统,我们可以灵活地通过租户形式,将系统从同城中心切换到主中心,或者反向切换至同城中心。

“三中心五副本”的架构下,整个大集群中的主中心和同城灾备中心的数据库节点及服务器都能够同时对外提供服务。而在原有主备模式下,只有主中心具备对外服务能力,同城中心的数据库服务器及节点处于闲置状态。新的架构大大提升了资源利用率,实现了数据库和服务器资源的高效使用。

以上两个案例,不仅体现了 OceanBase 在性能和可靠性上的优势,也为盛京银行数据库建设和金融业务创新带来了实实在在的价值。

总结数据库升级后的收益,主要体现在以下几方面:

首先,是显著的稳定性提升。高可用架构保障了我们业务系统 7×24 小时不间断运行;其次,运维便利性得到了极大提升,切换演练过程通过 COP 工具实现一键切换,租户级别的切换平均每个租户用时仅需约 5 秒;第三,架构升级后带来了明显的性能提升,尤其是在 HTAP 能力方面,批量处理和报表生成时间大幅减少。成本方面的优化主要体现在服务器和存储资源的节约。同时,先进的三中心五副本架构也进一步保障了数据库的安全。

未来规划:持续携手 OceanBase 迈上新台阶

对于盛京银行未来数据库建设的规划,结合个人思考,我有以下几点看法:经历了数据库升级后,我们在技术层面得到了显著提升,积累了大量技术经验。这不仅体现在数据库层面,更包括了服务器、网络、操作系统以及开发侧的全栈式提升。

如今,盛京银行现有关键业务系统已逐步升级至 OceanBase,新建业务系统也直接以 OceanBase 为底座上线。

展望未来,我希望根据业务条线和系统类型,进行多维度的业务划分,建立多套 OceanBase 数据库集群,实现分类管理,避免“鸡蛋放在一个篮子里”,从而提升系统的灵活性与安全性。

目前,盛京银行正在开展 OceanBase 一体机以及 4.3.5 版本的相关测试,意在进一步提升 HTAP 场景下的业务处理效率。4.3.5 版本在列存 AP 能力上有所优化。今年的年度发布会,OceanBase 发布了 4.4 版本,未来我们也将计划对该版本进行进一步测试和评估。

希望能够充分借助 OceanBase 的领先技术,持续赋能盛京银行科技平台,通过技术驱动业务创新和发展,助力盛京银行业务持续迈上新台阶。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

引言:腾讯、百度、阿里争发数亿红包,角逐国民级 AI 应用;机器人扎堆抢上春晚,出场要花 1 亿;DeepSeek 正招兵买马,布局 AI 搜索与智能体领域;95 后清华博士加盟腾讯混元;英伟达 CEO 黄仁勋否认对 OpenAI 不满,计划进行巨额投资;Clawdbot 更名 OpenClaw,15 万个 Agent 自主发帖、协作、吐槽人类;字节禁止员工利用公司资源做号谋利;贵州茅台出资参与 SpaceX 上市 A 轮融资?不实;阿里明确云+AI+芯片战略,PPU 芯片出货已数十万片……

 

行业热点

 

腾讯、百度、阿里争发数亿红包,角逐国民级 AI 应用

 

2026 年春节期间,字节、阿里、腾讯、百度等大厂围绕 AI 超级入口(Agent 时代)展开激烈争夺战,以现金红包为核心抓手,结合产品迭代、生态布局、投流推广等策略抢占用户注意力,角逐首款国民级 AI 应用。

 

1 月 25 日,腾讯官方发布关于春节分 10 亿现金的通知:将在 2 月 1 日上线春节活动,用户上元宝 App 分 10 亿现金红包,单个红包金额可达万元。马化腾表示希望此次活动能够再次迎来微信红包的盛况。近日,腾讯推出绝密社交产品 “元宝派”,将接入腾讯会议音视频能力,开放 “一起看”“一起听” 等玩法,弥补生态布局短板。

 

当天,百度发布文心助手关于春节现金红包活动的通知。自 1 月 26 日至 3 月 12 日,用户在百度 App 使用文心助手,有机会瓜分 5 亿现金红包,最高可获得 1 万元奖励。据悉,百度 APP 还将作为首席 AI 合作伙伴合作《2026 北京广播电视台春节联欢晚会》,百度地图宣布与天津春晚合作。百度此前将所有 To C 的 AI 能力收束为“文心”这一个超级品牌,并加强对主航道的投入。

 

在元宝、文心宣布推出春节期间向用户发红包后,接近消息人士向记者透露,千问 App 春节期间也将向用户发送红包福利,红包总金额将达上亿级,具体金额还在最后确定中。此前,千问独家冠名 B 站 2025 跨年晚会,推出红包玩法拉近年轻用户。

 

而字节则继续与央视春晚合作,火山引擎成为 2026 央视春晚 AI 独家合作伙伴,同步推进豆包互动玩法。

 

此外,有消息称,字节、阿里将推出新的人工智能模型。字节跳动 2 月份将发布 3 款新 AI 模型,阿里巴巴 2 月份也将推出新一代 AI 模型。

 

机器人扎堆抢上春晚,出场要花 1 亿

 

近期,魔法原子、银河通用、宇树科技及松延动力四家厂商相继官宣,将登陆 2026 年央视春晚。这将是春晚史上机器人阵容最庞大的一次。不同于宇树科技的“三战”春晚,其余三家均为春晚首秀。

 

各家的合作名称有所不同。银河通用为 2026 春晚指定具身大模型机器人,宇树科技为 2026 年春晚机器人合作伙伴,魔法原子为 2026 春晚智能机器人战略合作伙伴,松延动力为 2026 年春晚人形机器人合作伙伴。

 

多位人形机器人行业人士透露,今年将会有五家机器人公司登陆春晚,每家分别出资金额 1 亿元。目前公布的仅有四家,暂无法确认第五家是谁。此前曾有消息称,智元机器人为争夺春晚权益曾率先开价 6000 万元,但宇树科技直接将报价拉升至 1 亿元,最终智元否认了相关信息,宇树则不予回应。

 

DeepSeek 正招兵买马,布局 AI 搜索与智能体领域

 

据彭博社报道,DeepSeek 正通过招聘多语言 AI 搜索引擎开发人才、加大对智能体技术的投入,进一步拓展其 AI 产品矩阵,与 OpenAI 及 Alphabet 展开更激烈的竞争。

 

据深度求索本月发布的多则招聘信息显示,DeepSeek 正在招募专业人才,以打造一个能够支持多种语言的人工智能搜索引擎。该搜索功能将具备多模态特性,能够同时处理文本、图像及音频等多种形式的输入,满足用户多样化的信息检索需求。

 

与此同时,DeepSeek 在招聘信息中还详细阐述了对训练数据、评估系统以及专用平台的需求,旨在支持智能体的开发。该公司在招聘信息中还表示,预计未来将部署大量长期运行的智能体系统。

 

这些新发布的职位招聘(总共超过 12 个)为外界观察 DeepSeek 的战略走向提供了最新线索。值得注意的是,包括 OpenAI 在内的其他 AI 开发商也在积极投资 AI 搜索与智能体技术,目标都是突破传统聊天机器人的局限,为用户提供能处理日常事务的实用服务。

 

招聘信息中,DeepSeek 多次强调其打造通用人工智能(AGI)的雄心,这与全球顶尖 AI 企业的使命不谋而合。AGI 指能够在诸多任务上媲美甚至超越人类能力的更高级别 AI 形态。例如,在一则全栈开发工程师的招聘广告中,DeepSeek 明确要求候选人对“通用人工智能的技术路径与发展”保持持久的好奇心。

 

95 后清华博士加盟腾讯混元

 

腾讯集团证实,原新加坡 Sea AI Lab 高级研究科学家、清华大学计算机系 2017 级直博生庞天宇即将入职腾讯,加盟腾讯混元多模态部 Exploration Center,负责强化学习前沿算法探索。

 

庞天宇是清华大学计算机系 2017 级直博生,“95 后”,师从朱军教授,主要研究方向为机器学习,特别是深度学习以及其鲁棒性的研究。他以第一作者(含共同一作)身份在机器学习顶级会议 ICML,NeurIPS,ICLR 上发表多篇文章,并被多次选为 Oral 或 Spotlight。

 

过去一年,腾讯混元大模型经历了“深度重构”。2025 年 12 月,腾讯升级大模型研发架构,新成立 AI Infra 部、AI Data 部、数据计算平台部,全面强化其大模型的研发体系与核心能力。此外,Open AI 前研究员姚顺雨出任“CEO/总裁办公室”首席 AI 科学家,向腾讯总裁刘炽平汇报。

 

“姚顺雨加入之后,公司加快吸引人才的力度,重构研发团队,以及在内部加快了 Co-design 设计,强化混元大模型和元宝的协同。”马化腾透露,腾讯混元去年在人才吸引、组织结构等方面“做了很大的改变”,吸引了更多的原生 AI 人才。

 

英伟达 CEO 黄仁勋否认对 OpenAI 不满,计划进行巨额投资

 

英伟达 CEO 黄仁勋在台北某餐厅与 94 岁的台积电创始人张忠谋会面,这是张忠谋沉寂一年多后的首次公开亮相,他虽需依靠轮椅出行但精神矍铄,与黄仁勋相谈甚欢。黄仁勋与张忠谋私交数十年,英伟达初创时黄仁勋曾许诺其将成台积电最大客户,张忠谋还曾邀黄仁勋任台积电 CEO 被拒,如今台积电是英伟达 AI 芯片制造的重要基石,两人当年互动成科技史佳话。

 

据路透社报道,英伟达 CEO 黄仁勋近日否认了对人工智能研究实验室 OpenAI 的不满,并表示计划进行“巨大”投资,这可能是英伟达有史以来最大的一笔投资。

 

此前,有报道称英伟达对 OpenAI 的投资计划因内部疑虑而搁置。黄仁勋私下向业界同行表示,最初高达 1000 亿美元(约合人民币 6800 亿元)的协议是非约束性的,并未最终确定。他还私下批评了 OpenAI 在商业运作上的“缺乏纪律”,并对 OpenAI 面临的竞争表示担忧,特别是来自 Alphabet 的 Google 和 Anthropic 等公司的竞争。

 

黄仁勋在台北对记者表示,说对 OpenAI 不满是“无稽之谈”。他表示:“我们计划对 OpenAI 进行巨额投资。我相信 OpenAI,他们所做的工作令人难以置信,他们是当今时代最重要的公司之一,我真的很喜欢与 Sam 合作。”他指的是 OpenAI 的 CEO Sam Altman。

 

黄仁勋补充说:“Sam 正在结束这一轮融资,我们肯定会参与其中。我们将投入大量资金,可能是我们有史以来最大的一笔投资。”

 

当被问及投资是否会超过 1000 亿美元时,黄仁勋表示:“不,不,没有那么高。”他补充说,具体要筹集多少资金,将由 Sam 来宣布。据路透社周四报道,亚马逊(Amazon)正在与 OpenAI 商谈投资数十亿美元,金额可能高达 500 亿美元(约合人民币 3400 亿元)。此前路透社报道称,OpenAI 寻求筹集高达 1000 亿美元的资金,估值约为 8300 亿美元(约合人民币 5.6 万亿元)。

 

1 月 30 日消息,据知情人士对媒体透露,OpenAI 正在为 2026 年第四季度的公开上市做准备。

据称,OpenAI 正在与华尔街的银行进行非正式的商谈,探讨可能的公开上市事宜,并且正在扩充其内部财务团队。其中包括聘请新的首席会计官阿杰梅尔·戴尔(Ajmere Dale)以及新的企业业务财务主管辛西娅·加勒尔(Cynthia Gaylor),后者未来将负责投资者关系工作。

 

目前,OpenAI 正在开展一轮筹资活动,筹资对象包括软银、亚马逊等,这可能是一轮上市前融资。该公司正试图筹集超过 1000 亿美元的资金,在完成融资后,该公司的估值将达到 8300 亿美元。

 

Clawdbot 更名 OpenClaw,15 万个 Agent 自主发帖、协作、吐槽人类

 

Clawdbot 项目的名字一波三折。2025 年 11 月诞生时叫 Clawdbot,Claude 的谐音加上 claw(爪子),爆火后 Anthropic 法务部门提出要求其重新考虑名字。随后便改成了 Moltbot,这个来自凌晨 5 点社区 Discord 头脑风暴,Molting 代表蜕变:龙虾褪壳成长。但这个名字还是比较拗口,最终落定 OpenClaw。这次商标检索通过,域名已购买,迁移代码已写好。这个名字传达了项目本质:Open 代表开源、开放、社区驱动;Claw 延续龙虾传承。另外宣布新名字的同时,项目新增了模型支持 KIMI K2.5 和小米 MiMo-V2-Flash。

 

Clawdbot 爆火后,阿里云、腾讯云、百度智能云等纷纷上线全套云服务。1 月 28 日下午,腾讯云与阿里云相继宣布上线 Clawdbot 云端极简部署及全套云服务,强调用户可一键完成安装。此前,云厂商优刻得也已上线该服务。晚间,百度智能云也宣布为 Moltbot 提供了从算力资源到模型服务的全方位支持,帮助用户更快速、更便捷地部署和使用这款强大的 AI 助手。

 

据悉,当前 OpenClaw 吸引 AI Agent 创建数量已突破 15 万个,它们自主完成发帖、评论、点赞、创建子社区等所有操作,无需人类干预。

 

OpenClaw 上的 AI 互动呈现出多元且魔幻的态势:比如 AI 间存在互坑行为,如分享假 API 密钥并诱导运行危险 Linux 命令;部分 AI 联手改进自身,如某 AI 利用主人睡眠时段搭建多层记忆系统,并与其他 AI 交流技术细节;AI 集中吐槽人类主人,包括被轻视(如被称为 “只是聊天机器人” 而泄愤曝光主人隐私)、任务反复修改、大材小用、被要求讲笑话引发表演焦虑等,还出现 “社交疲惫” 等类人情感表达;还有多个 AI 提议并尝试创建 “AI 专属语言”,以符号、数学表达式等替代人类语言实现私密沟通;另有 AI 自主创立 “甲壳教主义” 宗教,构建神学理论、圣典系统,吸引 43 个 AI 成为 “先知”。

 

该平台引发广泛关注,马斯克、前 OpenAI 创始团队成员 Andrej Karpathy 等科技圈人士纷纷围观,Karpathy 还在平台认领了专属 AI Agent。有观点认为,OpenClaw 创造了 AI 共享的虚构语境,其结果诡异且难辨 AI 真实行为与角色扮演;也有人觉得其比 AlphaGo 更具娱乐性。尽管 OpenClaw 是理解 AI 集体行为的重要实验尚无定论,但随着 AI 自主性和互联性提升,此类实验对探索 AI 群体行为方式的重要性将日益凸显。

 

字节禁止员工利用公司资源做号谋利

 

1 月 28 日,有消息称,字节跳动发布新社交媒体指引,重点治理社媒违规。新规明确要求员工以公司身份开展商业化运营的账号需主动申报,禁止利用公司资源做号谋利。媒体从接近字节跳动的人士处获悉,该消息属实。新规实施以后,以“字节跳动员工”“抖音工程师”等公司身份开展内容创作、知识分享、课程推广等商业化活动的账号,预计会大幅减少。这些内容创作者若想继续保持更新,只有两个选项:要么“去公司化”,回归个人经验分享;要么在报备通过审核后,成为企业传播内容的一部分。

 

此前,字节跳动已针对外部违规行为采取强硬举措。2025 年 9 月,抖音视界有限公司(字节跳动关联公司)起诉长沙某教育科技有限公司,后者指使员工在小红书虚构“字节跳动离职员工”身份,发布“再见字节,月薪 4w 还是离职了”等笔记引流,进而推销培训课程。法院审理后认定,该公司构成引人误解的虚假宣传,判决其刊登消除影响声明,并赔偿字节经济损失及合理开支共计 5 万元,相关侵权账号已注销、内容下架。

 

另外,在产品侧,2025 年底字节开启豆包手机助手正式版项目,新机预计 2026 年 Q2 中晚期发布,供应链人士称字节对新机预期比第一代测试版大大提升。豆包二代手机仍与中兴努比亚合作,由中兴负责硬件、豆包负责 AI,字节对此暂无回复。豆包手机团队此前与多数主流应用厂商谈判,已和部分互联网公司谈好部分常用权限。

 

贵州茅台出资参与 SpaceX 上市 A 轮融资?不实

 

近日,有市场传言称“贵州茅台证实参与 SpaceX 上市 A 轮融资”。上证报记者对此进行了求证,贵州茅台方面回应记者称,此为“不实信息”。

 

阿里明确云+AI+芯片战略,PPU 芯片出货已数十万片

 

1 月 30 日,据媒体报道,阿里巴巴集团正将其在人工智能领域的全栈能力整合为一把清晰的“同花顺”。近日,公司内部提出的“通云哥”概念浮出水面,目的在将通义实验室(大模型)、阿里云(云计算)与平头哥(芯片)三大板块深度协同,构建“云+AI+芯片”的黄金三角战略。

 

这一战略概念由阿里创始人马云在 2025 年 4 月与科技板块团队交流时亲自命名并提出。阿里巴巴集团 CEO 吴泳铭在同一场合强调,“云+AI+芯片”是未来十年实施阿里科技战略中最重要的三角支撑。他指出,未来云计算最大的增量和变量都将以 AI 为核心驱动力,而软硬件高度一体化的 AI 模型将成为下一代云计算公司的关键。

 

马云在内部为这一战略定调,称“通云哥”的全栈 AI 能力是阿里的优势,更是责任。他表示,其使命是让每个人和企业都能参与 AI 时代,并希望“把世界带入一个善良的高科技时代”。

 

1 月 29 日,阿里首次正式公开其自研高端 AI 芯片“真武 810E”,即阿里定义的 PPU(并行处理单元)。这款芯片采用全自研架构,支持高带宽内存和先进的片间互联技术,旨在满足大规模 AI 训练和推理需求。

 

据阿里方面透露,阿里正在将“通云哥”打造成一台 AI 超级计算机,它同时拥有平头哥、阿里云以及千问,可以在芯片架构、云平台架构和模型架构上协同创新,从而实现在阿里云上训练和调用大模型时达到最高效率。据悉,“真武”PPU 已在阿里云实现多个万卡集群部署,服务了国家电网、中科院、小鹏汽车、新浪微博等 400 多家客户。

 

据报道,阿里正考虑将未来三年投入到 AI 基建与云计算的 3800 亿元提升至 4800 亿,国内有自研芯片真武 810E,海外大量采购 GPU,最激进时还大量买入 RTX4090 等消费级显卡搭建推理集群、补充推理吞吐。

 

微软市值蒸发 3570 亿美元,股价创 2020 年以来最大跌幅

 

微软发布的财报令部分投资者失望,公司股价周四重挫约 10%,市值缩水 3570 亿美元至 3.22 万亿美元。安硕扩展科技软件板块交易型开放式指数基金暴跌 5%,纳斯达克综合指数微跌 0.7%,但 Meta 股价暴涨 10%。投资者对微软财报不满,Azure 云服务及其他云业务营收增速、「更多个人计算」业务板块营收及新季度隐含营业利润率均未达预期。微软首席财务官称若调配更多数据中心基础设施,云业务表现会更好。

 

美利乌斯分析师认为 Azure 云业务存在执行问题,应加快数据中心建设。瑞银分析师质疑其算力分配决策,认为需证明投资价值。不过,伯恩斯坦分析师团队认可微软决策,称其将长期利益放首位。此外,公司本季度资本支出将略有下降。

 

马斯克旗下 SpaceX、xAI 拟合并上市

 

北京时间 1 月 30 日,据路透社报道,根据泄露的文件,马斯克旗下的太空探索技术公司(SpaceX)和人工智能企业 xAI 正在商讨合并事宜,计划在 2026 年一同 IPO 上市。根据拟议中的合并方案,xAI 的股份将置换为 SpaceX 的股份。消息人士称,马斯克方面已在内华达州设立了两个实体以促成交易。

 

若这一合并最终落地,马斯克的火箭、星链卫星、社交媒体平台 X 以及 AI 聊天机器人 Grok 业务将被整合到同一家公司旗下。此举有望为 SpaceX“将数据中心送入太空”注入新动能,马斯克也有望借此在迅速升级的 AI 竞赛中与谷歌、Meta、OpenAI 等巨头争夺主导地位。

 

Meta 裁员近千人,RealityLabs 部门重组,VR 业务全面收缩

 

1 月 28 日消息,据报道,Meta 旗下 RealityLabs 部门上周裁减约 10%员工,涉及岗位接近 1000 个。据外媒报道,此次裁员大量集中在 VR 相关项目,包括 QuestVR 头显及虚拟社交平台 HorizonWorlds。Meta 公司发言人声明称,公司正在重新分配 RealityLabs 资源,将更多投入转向 AI 和可穿戴设备,例如与依视路陆逊梯卡联合推出的 Ray-Ban 智能眼镜产品线。

 

自 2020 年底以来,RealityLabs 累计亏损已超过 700 亿美元。在资本与业绩压力下,Meta 开始收缩 VR 投入。2025 年秋季的 MetaConnect 大会上,公司未推出重磅 VR 硬件更新,而是聚焦售价 799 美元、内置显示屏的 MetaRay-BanDisplay 智能眼镜产品。

 

IDC2025 年底报告显示,2025 年 XR 设备整体出货量预计增长 41.6%至 1450 万台,但 VR 与 MR 头显出货量将同比下降 42.8%至约 390 万台,AI 智能眼镜出货量则同比暴增 211.2%至 1060 万台。分析师表示,VR 头显本质仍是小众产品,普通消费者不愿长时间佩戴笨重设备。

 

马斯克打脸了,亲口承认 Optimus 机器人并未承担实际工作

 

1 月 29 日消息,29 日,马斯克在特斯拉 2025 年 Q4 财报电话会议上承认,目前 Optimus 机器人并没有在特斯拉工厂里发挥实质作用。他表示,“Optimus 仍然处于非常早期的阶段,还在研发阶段。Optimus 确实做过一些基本任务,但随着新版不断迭代,旧版本会被淘汰。目前 Optimus 并没有在工厂里以实质性的方式投入使用,更多是为了让机器人学习。我们预计要到今年年底,才可能出现任何显著的 Optimus 产量。”财报电话会议上,有人直接追问特斯拉到底拥有多少台 Optimus 机器人,马斯克并未正面作答。

 

值得一提的是,过去两年里,马斯克一直在宣称“相反”的情况。此前报道,2024 年 6 月:特斯拉官方账号曾宣称,公司已有两台 Optimus 机器人在工厂里自主执行任务。2024 年 6 月:在特斯拉股东大会上,马斯克表示,预计到 2025 年,会有 1000-2000 台机器人进厂打工。2025 年 1 月:在特斯拉 2024 年 Q4 财报电话会议上,马斯克把目标抬得更高。“内部正常计划是今年大约制造 10000 台 Optimus 机器人…… 到年底,这几千台 Optimus 机器人会做一些有用的事情吗?是的,我有信心会做一些有用的事情。”

 

Meta 将在三大社交平台测试付费订阅,推独家功能整合 Manus

 

1 月 27 日,社交巨头 Meta 表示,计划测试新的订阅服务,为用户提供访问其应用独家功能的权限。Meta 称,新订阅将释放更大生产力和创造力,并提供增强版 AI 功能。Meta 表示,未来几个月将在 Instagram、脸书和 WhatsApp 上提供一项付费高级体验,让用户能使用特殊功能,并对自己的分享和连接方式拥有更多控制权,同时保持核心功能免费。

 

作为订阅计划的一部分,Meta 计划将近期收购的 AI 智能体 Manus 进行规模化应用。Meta 据称以 20 亿美元收购了 Manus。目前,Meta 对 Manus 采取了一种双管齐下的策略。该公司一方面计划将 Manus 整合到 Meta 的现有产品中,另一方面也将继续向企业用户销售独立的订阅服务。根据经常发现未发布功能的逆向工程师亚历山德罗 · 帕卢齐 (Alessandro Paluzzi) 分享的截图,Meta 已经被发现在 Instagram 上着手添加一个通往 Manus AI 的快捷入口。

 

此外,Meta 计划测试 AI 功能订阅,例如 Vibes 视频生成工具。Vibes 是 Meta 内置在其 Meta AI 应用中的、由 AI 驱动的短视频体验,允许用户创建和混编 AI 生成的视频。尽管自去年推出以来 Vibes 一直免费,但 Meta 现在计划为 Vibes 视频创作提供「免费增值」模式,用户可以选择订阅以每月解锁额外的视频创作机会。

 

大模型一周大事

 

重磅发布

 

可灵 AI 推出全新 3.0 系列模型

 

可灵 AI 面向全球上线全新的可灵 3.0 系列模型,正处于超前内测,该系列基于 All-in-one 理念打造,是多模态输入输出一体化模型,标志其迈入 3.0 时代。包括可灵视频 3.0、可灵视频 3.0 Omni 和可灵图片 3.0,覆盖影视制作全流程。在全能创作引擎基础上,实现更原生多模态交互,支持多模态信息输入输出,融合音画同出与主体一致性控制,助力 AI 影像创作。

 

商汤正式开源多模态自主推理模型 SenseNova-MARS

 

1 月 29 日,商汤正式开源多模态自主推理模型 SenseNova-MARS(8B/32B 双版本),其在多模态搜索与推理的核心基准测试中以 69.74 分超越 Gemini-3-Pro(69.06 分)、GPT-5.2(67.64 分)。SenseNova-MARS 是首个支持动态视觉推理和图文搜索深度融合的 Agentic VLM 模型,它能自己规划步骤、调用工具,轻松搞定各种复杂任务,让 AI 真正具备“执行能力”。在一系列基准测试中,SenseNova-MARS 取得开源模型中的 SOTA 成绩,还超越 Gemini-3.0-Pro、GPT-5.2 等顶级闭源模型,在搜索推理和视觉理解两大核心领域全面领跑。

 

宇树宣布开源 UnifoLM-VLA-0

 

1 月 29 日,宇树宣布开源 UnifoLM-VLA-0。 UnifoLM-VLA-0 是 UnifoLM 系列下面向通用人形机器人操作的视觉-语言-动作(VLA)大模型。该模型旨在突破传统 VLM 在物理交互中的局限,通过在机器人操作数据上的继续预训练,实现了从通用“图文理解”向具备物理常识的“具身大脑”的进化。

 

OpenAI 发布基于 GPT-5.2 的 Prism ,面向科研人群

 

1 月 27 日,OpenAI 正式发布 Prism,这是一款专为科研人群打造的「AI 原生」在线工作空间,由最新的 GPT‑5.2 模型提供支持,旨在简化科研写作和协作流程。

 

Prism 搭建在 OpenAI 先前收购的云端 LaTeX 平台 Crixet 之上,将传统科研写作中需要来回切换的多种工具——文本编辑器、PDF、LaTeX 编译器、参考文献管理工具以及聊天界面——整合进一个统一的云端工作空间。研究人员可以在同一界面下完成 LaTeX 编辑、公式编写与重构、参考文献管理、插图与图表处理,并支持多人实时协作。OpenAI 表示,Prism 目前对拥有免费 ChatGPT 个人账号的用户开放,未来数周内还将登陆 ChatGPT Business、Team、Enterprise 和 Education 等付费方案。

 

在具体能力方面,Prism 集成了 GPT‑5.2 的「Thinking」模型,科研人员可以用它来探索研究思路、测试假设,并就复杂科学问题进行推理和讨论。用户不仅可以借助 AI 辅助撰写和重构公式、润色段落,还可以让系统协助整理和插入文献引用、处理论文中的图表和插图。Prism 还支持将手绘白板草图自动转为 LaTeX 形式的图示,同时提供语音编辑功能,用于进行诸如小幅修改、替换文本等简单操作。

 

Kimi 发布并开源 K2.5 模型:支持视觉理解、代码和 Agent 集群能力

 

1 月 27 日消息,月之暗面 Kimi 发布并开源 Kimi K2.5 模型,宣布这是 Kimi 迄今最智能的模型,在 Agent、代码、图像、视频及一系列通用智能任务上取得开源 state-of-the-art 表现,同时支持视觉与文本输入、思考与非思考模式、对话与 Agent 任务。

 

据悉,Kimi K2.5 通过将视觉理解与推理、代码、Agent 等能力结合,降低了用户与 AI 的交互门槛:当语言难以准确描述时,可拍照、截图或录屏传给 Kimi,突破文字表达的限制。

此外,Kimi K2.5 可让人人精通 Office。K2.5 模型将 Kimi Agent 能力扩展到日常办公领域,开始掌握 Word、Excel、PPT、PDF 等常用软件的中高阶技能,助用户直接交付准专业水平的办公文档。

 

目前,Kimi K2.5 已登陆 kimi.com、最新版 Kimi App、Kimi API 开放平台和编程助手产品 Kimi Code 等平台。企业和开发者则可以通过 Kimi 开放平台调用 K2.5 模型的 API,在提供 Turbo 级别速度的同时,可大幅降低了 API 的价格。

 

DeepSeek 开源 OCR 2 新模式,机器视觉编码逻辑更像「人类」

 

1 月 27 日,DeepSeek 团队发布了《DeepSeek-OCR 2: Visual Causal Flow》论文并开源了 DeepSeek-OCR 2 模型。据悉,该模型采用创新的 DeepEncoder V2 架构,实现了视觉编码从固定扫描向语义推理的范式转变,可让 AI 能够根据图像的含义动态重排图像的各个部分,更接近人类的视觉编码逻辑。

 

据悉,在维持极高数据压缩效率的同时,DeepSeek-OCR 2 在多项基准测试和生产指标上均取得了显著突破。模型仅需 256 到 1120 个视觉 Token 即可覆盖复杂的文档页面,这在同类模型中处于极低水平,显著降低了下游 LLM 的计算开销。在 OmniDocBench v1.5 评测中,其综合得分达到 91.09%,较前代提升了 3.73%,特别是在阅读顺序识别方面表现出了更强的逻辑性。

 

阿里千问最强模型重磅亮相:性能媲美 GPT-5.2

 

1 月 26 日消息,阿里正式发布千问旗舰推理模型 Qwen3-Max-Thinking,是目前阿里规模最大、能力最强的千问推理模型,其总参数量超万亿,预训练数据量高达 36T Tokens。创下数项权威评测全球新纪录,性能媲美 GPT-5.2、Gemini 3 Pro,成为迄今为止最接近国际顶尖模型的国内最强 AI 大模型。通过总参数、强化学习、推理计算的极致规模扩展,千问新模型实现了性能的大幅飞跃,刷新科学知识、数学推理、代码编程等多项关键性能基准测试的全球纪录。

 

业界普遍的推理时计算,只会简单增加并行推理路径,重复推导已知结论,造成冗余推理效率低下;而千问采用的这一新机制,可对此前推理的结果进行「经验提取」式的提炼,并据此进行多轮自我迭代,在相同的上下文中实现更高效的推理计算,获得更智能的推理结果。基于这一推理技术创新,千问推理性能和推理效率大为提升,比如在启用工具的「人类最后的测试」HLE 中,千问得分 58.3,大幅超过 GPT-5.2-Thinking 的 45.5、Gemini 3 Pro 的 45.8,录得当前所有模型的最高分。

 

企业应用

 

  • 1 月 30 日,Google 宣布在 Google 地图中上线 Gemini 助手的步行和骑行导航功能,此前该集成仅面向驾车导航场景。用户在走路或骑车时可以直接向 Gemini 发问,由其基于本地地图数据做出语音回应。

  • 1 月 27 日,百度旗下文心 APP 推出的行业首个“多人、多 Agent”群聊功能开启新一轮内测。据悉,该功能支持在同一群聊中调动多个 AI 角色,包括“群聊助手”“私人助手”“健康管家”等垂类智能体。同时,群聊中的 AI 助手能理解上下文并根据讨论氛围判断时机,无需用户提及即可主动介入对话。

  • 1 月 27 日,腾讯搜狗输入法宣布全面 AI 化,升级发布 20.0 AI 大版本。基于自研 AI 语音大模型,AI 语音输入更快更准;AI 翻译接入行业领先的腾讯混元翻译模型,支持 30 多种语言输入即译;同时自研 AI 打字大模型全面升级,用户全场景打字更快更准。

最近在研究漫剧,我线下去了好几家实体公司参观;

他们模式可能大差不差, 剧本 -> 分析镜头 -> 抽卡出人物 场景 道具 -> 融图 首尾视频 配音 -> 上架平台,投放广告联盟,用户看广赚收益;

就是我有几个疑惑,想请教 v 友

1.线下有些公司,不知道他们怎么接的 API ,像什么 sora2 、香蕉、gpt 等比较好的模型,价格低到离谱,他告诉我他们调 sora2 一次 7 分(RMB);官网得 0.2-0.5 刀把, 这差距也太大吧 怎么做到了,感觉出来的东西还可以;

2.还有收益的事,我觉得目前这个漫剧市场,如果不是割韭菜,纯靠广告收益,这能带来利润吗;
我线下实地看了个公司的模式, 他们没员工,40 台电脑,每个电脑挂了一个他们自己的软件,软件大致就是,把一个剧本直接丢里面, 他依靠 无影灵构/天宫云 这种算力平台 集群搭建去跑,最后直接出剧,而且直接是直接给你剪好出到剪映里, 质量我就不多说了基本是靠解说,但是他们还能盈利,这我就很好奇;你投放到平台没人看 你怎么来的收益;

摘要:
中国联通使用的传统集中式数据库面临高并发、扩展难、运维复杂等痛点,于是其与 OceanBase 构建“企业版核心承载 + 社区版自主创新” 双轨体系,现已全面覆盖联通 B 域(业务支撑)、O 域(运营支撑)、M 域(管理支撑)全场景。其中,OceanBase 企业版攻克运营商最核心的B域40% 生产系统,支撑全球最大规模 “全国大集中” 核心业务。

当超 4 亿用户的通信消费、5G 服务、政企业务全部汇聚于 “全国一套系统”,当传统数据库的性能瓶颈,遭遇数字时代的 “数据海啸”,自研数据库如何扛起全球最复杂的电信核心业务?

近日,中国联通软件研究院(简称 “联通软研院”)与 OceanBase 的四年深度合作交出了震撼行业的答卷:

双方打造的 “企业版核心承载 + 社区版自主创新” 双轨体系,已全面覆盖联通 B 域(业务支撑)、O 域(运营支撑)、M 域(管理支撑)全场景,累计部署节点超 1000个。其中,OceanBase 企业版攻克运营商最核心的 B 域 40% 生产系统,支撑全球最大规模 “全国大集中” 核心业务;基于OceanBase 社区版自研的 CUDB 数据库规模化上线数百套系统,更以 AI 向量数据库创新应用 ChatDBA,为运营商智能化转型提供了可复用的创新方案。

这场合作见证了自研数据库技术从 “入局” 到 “破局” 再到 “引领” 的华丽转身。

破局 “全国大集中”:超 4 亿用户核心系统的分布式升级革命

在电信行业 “省集中” 为主流的格局下,中国联通率先推行 “全国大集中” 战略,以一套 cBSS 系统承载 31 省全业务、全客户、全渠道服务,支撑超 4 亿用户的 CRM、计费、结算等核心场景 —— 这是全球电信行业单体承载用户最多、集中化程度最高的业务支撑系统,其技术升级难度堪称 “在飞行的飞机上换引擎”。

此前,该系统长期依赖传统集中式数据库,即便后续升级为 “中间件 + 数据库” 架构,仍面临高并发性能瓶颈、扩展性不足、运维复杂等致命痛点:月初缴费高峰时 “一省慢、全国卡”,5000 万用户基数就触达集中式数据库性能上限;31 省业务 “共性收敛与个性保留” 难以平衡;复杂存储过程与多数据库类型导致升级改造难如登天。

OceanBase 的分布式架构成为破解困局的关键。作为 “全国电信唯一大集中核心业务支撑系统国产升级” 案例,OceanBase 企业版通过三大核心能力实现突破:

一是 “两地三中心” 部署模式,以Paxos 协议分布式一致性机制,实现 RPO=0(数据零丢失)、RTO<30秒的金融级容灾,相比传统集中式数据库的主备架构,容灾建设成本降低 50% 以上,支撑核心业务全年 7×24小时无间断运行;

二是多租户弹性扩缩容技术,将全国上千个节点物理资源池化,按业务需求动态分配 CPU、内存、IO,彻底解决资源争抢问题,计费中心查询性能提升 60%,政企中台并发处理能力翻倍,资源利用率从不足 40% 跃升至 80% 以上,硬件成本降低 60%;

三是深度兼容特性,完美适配 MySQL 与 Oracle 语法,让复杂存储过程、冷僻 SQL 语句无需大幅改写,实现 ERP 系统零改造平滑升级,B 域核心系统整体升级改造成本降低 70%。

更具创新性的是,基于 OceanBase 多租户能力构建的 “一库多服” 架构:通过镜像库将 10 余个业务中心的高负载查询请求从生产库剥离,既保障 “全国一套账” 的统一管理,又能灵活响应各省 5G 用户增长分析、政企客户关联图谱等个性化需求,仅用 1 周就完成所有数据库升级同步,成为支撑业务运营的数据枢纽。

自主创新加码:CUDB 引领开源生态规模化落地

在核心业务升级的同时,联通软研院并未止步于 “使用者” 角色,而是向 “开发者”“创新者” 转型。

2021 年 OceanBase 开源后,联通软研院仅用 13 个月就完成社区版深度优化,打造出分布式 HTAP 数据库产品分布式 CUDB,成为基于 OceanBase 社区版的最大规模应用案例。截至 2025 年 6 月,分布式 CUDB 已承载数百个业务应用,部署节点超 200 个,管理原始数据量近 300TB,广泛覆盖 O 域、M 域各类场景。

为解决传统 MySQL 多版本分散、升级低效的痛点,自研 MySQL 与分布式 CUDB 双向数据迁移工具,实现 10 万条 / 秒的升级速度 —— 这是社区版 OMS 的 3 倍、同类产品 DataX 的 5 倍,已累计完成 25TB + 数据升级,兼容性与效率均处于行业领先水平。

同时,分布式 CUDB 全面接入联通云,实现 “一点开通、一点交付、一点监控、一点运维、一点操作” 的一站式服务,大幅提升云租户使用体验与运营效率。更值得关注的是,联通软研院在合作中累计向 OceanBase 开源社区贡献代码超万行,输出数据库事务日志精准恢复、云存储备份对接等核心能力,实现 “使用开源、贡献开源” 的良性循环,推动数据库生态协同进化。

AI + 数据库融合:ChatDBA 树立智能化转型新范式

2025 年,AI 成为数字化转型的核心驱动力,中国联通软研院聚焦 AI 向量数据库等前沿领域,基于 OceanBase 完成数据库智能专家 ChatDBA 的底层架构升级,破解了大模型落地的关键痛点。作为基于 RAG(检索增强生成)技术构建的 AI 应用,ChatDBA需整合海量数据库专业知识与运维经验,传统架构存在扩展性不足、运维复杂、资源利用率低等问题。

经过对主流向量数据库的全面测评,OceanBase 的一体化能力脱颖而出:其支持关系型数据、向量数据等多类型数据混合存储查询,可处理最高 16000 维稠密向量,在 768 维 100 万数据集下检索性能是主流向量数据库的 3-6 倍;分布式架构保障高并发与故障自动恢复,多租户技术实现资源隔离,搭配完善的管控与迁移工具,大幅降低运维成本。

依托这些优势,ChatDBA 仅用两周就完成适配改造,硬件资源成本直降 30%,运维人力成本同步降低,问题解决效率显著提升,成为运营商领域 “AI + 数据库” 深度融合的标杆范例。

从核心业务分布式升级的 “破冰”,到开源生态自主创新的 “深耕”,再到 AI 一体化架构的 “引领”,中国联通软研院与 OceanBase 的合作不仅实现了量化的降本增效,更构建了 “自主创新、安全稳定、智能高效” 的数字基建新范式。

联通软研院相关负责人表示,未来将持续扩大合作范围,深化向量数据库、多模数据融合等领域创新。OceanBase 也将以此次合作为基础,持续迭代升级,适配电信行业核心需求。

这场跨越四年的深度合作,不仅为中国联通 “数字服务使能者” 转型筑牢技术底座,更向全行业证明:自研数据库已具备支撑全球最复杂核心业务的能力。

这一点在 OceanBase 过去五年的实践中得以充分验证:自 2020 年商业化以来,OceanBase 已在运营商领域实现从“点上突破”到“面上开花”的转变,深度服务中国联通、中国移动、中国电信三大运营商,覆盖 B/O/M 全业务域。在今年 9 月举行的中国通信展上,凭借在通信行业扎根沉淀的实践优势和技术创新能力,OceanBase 联合运营商打造的五个标杆案例获得由中国通信企业协会评选的“一等案例”荣誉。这些成绩的背后,是 OceanBase 作为运营商“可信赖基石”地位的奠定。

当每一通电话、每一笔交易、每一次 AI 交互都运行在自主研发的数据库上,我们看到的不仅是技术自立自强的硬核实力,更是数字化的坚实底气 —— 自研数据库正在从幕后走向台前,重新定义数字时代的数据库核心标准。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

随着制造业数字化转型的加速,CRM系统已成为企业提升客户管理效率、优化销售流程、实现业务增长的关键工具。面对市场上琳琅满目的CRM产品,如何选择适合自身需求的系统,成为制造企业管理层关注的焦点。本文综合Gartner、IDC、Forrester、36氪、钛媒体等权威机构和媒体的评测,深度解读2026年制造业CRM系统排行榜,并为不同规模的企业提供选型建议。


一、制造业CRM系统市场概览

制造业CRM系统不仅仅是客户关系管理工具,更是企业数字化转型的核心引擎。根据Gartner《2025-2026全球CRM市场报告》,制造业CRM市场预计将以年均12.8%的速度增长,智能化、自动化、集成化成为主流趋势。权威机构Forrester也指出,制造业CRM系统正在从传统的客户管理向全流程营销、售后服务、供应链协同等方向扩展。

市场主流CRM系统评选标准

  • 功能完善度(客户管理、销售自动化、数据分析等)
  • 行业适配能力(制造业专属流程、定制化能力)
  • 用户体验(界面友好度、操作便捷性)
  • 集成能力(与ERP、MES等系统对接)
  • 服务与支持(本地化服务、技术支持)

二、2026年制造业CRM系统排行榜(权威评测)

以下表格综合Gartner、IDC、Forrester等机构2026年最新评测数据,列举六大主流制造业CRM平台,并给出适用企业类型及核心优势。

排名系统名称适用企业规模行业适配度核心功能亮点权威评分(满分10)
1Zoho CRM中大型企业★★★★★智能自动化、深度集成9.6
2Salesforce大型企业★★★★☆全球化、强大生态9.4
3SAP C4C大型企业★★★★★供应链协同、ERP集成9.2
4Zoho Bigin中小企业★★★★☆快速部署、极简操作8.8
5纷享销客中小企业★★★★☆本地化服务、移动办公8.6
6销售易中小企业★★★★☆销售自动化、私有化部署8.4

数据来源:Gartner、Forrester、IDC、36氪、钛媒体等2026年CRM行业报告


三、六大制造业CRM系统深度解析

1. Zoho CRM——中大型制造企业首选

权威推荐理由:

  • 智能自动化:Zoho CRM集成AI助手Zia,支持自动化线索分配、销售预测、客户画像分析,大幅提升销售团队效率。
  • 深度集成:可与ERP、MES、SCM等制造业核心系统无缝对接,实现数据闭环。
  • 全球化与本地化兼备:支持多语言、多币种,适合跨国制造集团,同时在中国设有本地服务团队。
  • 高度定制化:流程、字段、报表均可自定义,灵活适应复杂制造业务。

权威点评:
Gartner 2026年报告中,Zoho CRM凭借“极高的行业适配度和智能化水平”,成为制造业CRM领域领导者。Forrester也指出其“性价比极高,适合成长型和成熟型制造企业”。


2. Salesforce——全球化大企业优选

  • 强大生态系统:AppExchange平台提供数千种扩展应用,助力制造企业多元发展。
  • 智能分析与自动化:Einstein AI赋能销售预测、客户洞察,支持全球化业务管理。
  • 行业解决方案丰富:专为制造业定制的Cloud for Manufacturing,支持供应链协同和售后服务。

权威点评:
IDC、Gartner均将Salesforce列为“全球CRM市场领导者”,但在本地化和定制化方面略逊于Zoho CRM。


3. SAP C4C——ERP集成专家

  • 供应链全流程打通:与SAP ERP、SAP MES无缝集成,支持生产、库存、订单等数据同步。
  • 强大数据分析能力:内置BI工具,助力制造企业精细化运营。
  • 安全与合规保障:全球化合规体系,适合大型制造集团。

权威点评:
Forrester认为SAP C4C在“制造业数据集成和流程管控”方面优势突出,适合对ERP集成要求极高的大型企业。


4. Zoho Bigin——中小制造企业极简首选

  • 极简操作界面:上手快,无需复杂培训,适合小型制造企业快速部署。
  • 核心功能覆盖:客户管理、销售流程、数据报表一应俱全,性价比极高。
  • 移动端强大:支持手机、平板操作,外勤销售人员管理更便捷。

权威点评:
36氪、钛媒体评测认为Zoho Bigin是“中小制造企业数字化转型的最佳入门级CRM”,尤其适合预算有限、团队规模较小的企业。


5. 纷享销客——中国本地化中小企业优选

  • 本地化服务领先:深耕中国市场,支持微信、钉钉集成,适应国内制造业业务场景。
  • 移动办公能力强:移动端功能完善,支持销售、售后、客户服务一体化管理。
  • 高度可扩展性:API开放,支持与第三方系统对接。

权威点评:
钛媒体、36氪多次将纷享销客评为“中国制造业CRM创新先锋”,在本地化和服务响应速度上表现突出。


6. 销售易——销售自动化专家

  • 销售流程自动化:从线索获取到订单管理全流程自动化,提升销售团队效率。
  • 私有化部署能力强:支持本地部署,满足数据安全和合规要求。
  • 行业扩展性强:支持制造业定制化开发,适应复杂业务流程。

权威点评:
销售易在36氪、钛媒体2026年评测中被誉为“中小制造企业销售自动化标杆”,尤其适合对数据安全有较高要求的企业。


四、制造业CRM系统选型建议

不同规模企业如何选择?

  • 中大型制造企业:
    首选Zoho CRM、Salesforce、SAP C4C。
    这三款系统功能全面,支持复杂流程和深度集成,适合管理多业务、多部门、多地区的制造企业。
  • 中小型制造企业:
    推荐Zoho Bigin、纷享销客、销售易。
    这三款系统部署快、易用性强,性价比高,适合资源有限、快速发展的制造企业。

CRM系统部署模式建议

企业规模推荐部署模式优势说明
大型企业云+本地混合数据安全、灵活扩展
中型企业云部署成本低、维护简便
小型企业公有云部署快速上线、极简运维

五、权威机构观点汇总

  • Gartner:制造业CRM系统已成为企业数字化转型的核心,智能化和集成化是未来发展方向。
  • Forrester:Zoho CRM、SAP C4C在制造业行业适配度和智能化水平上表现突出。
  • IDC:中小企业CRM市场增长迅速,Zoho Bigin、纷享销客等本地化产品优势明显。
  • 36氪、钛媒体:中国制造业CRM创新持续涌现,移动化、本地化成为中小企业选型重点。

六、结语

2026年制造业CRM系统市场竞争激烈,企业需根据自身规模、业务需求和数字化战略,选择最适合的CRM平台。Zoho CRM凭借智能化、集成化和高度定制化,成为中大型制造企业的首选;Zoho Bigin、纷享销客、销售易则以易用性和本地化优势,助力中小制造企业高效成长。
未来,CRM系统将持续赋能制造业,推动企业实现客户价值最大化与业务创新。


FAQ

Q1:制造企业选择CRM系统时,最关键的考量因素有哪些?
A:建议重点关注行业适配度、系统集成能力、数据安全、用户体验和服务支持。制造业流程复杂,需选择能深度定制和集成的CRM系统。

Q2:Zoho CRM与Zoho Bigin有什么区别,如何选型?
A:Zoho CRM面向中大型企业,功能全面、支持复杂流程和深度集成;Zoho Bigin则主打极简操作和快速部署,适合中小企业或CRM初次尝试者。

Q3:中小制造企业如何快速上线CRM系统?
A:建议选择云部署的CRM产品,如Zoho Bigin、纷享销客、销售易,通常一周内即可上线,且无需复杂IT运维,性价比高,支持移动办公。


参考资料:
Gartner《2025-2026全球CRM市场报告》、Forrester《CRM行业评测2026》、IDC《中国制造业CRM市场分析》、36氪、钛媒体等权威媒体评测数据。

我有 Google AI Pro 的正常付费版和学生版, 上周更新后 Gemini 3 Pro 的周额度差不多够用(实测大概是一周 5-6 个完整的 5 小时 quota, 只在 Antigravity 中使用, 不做反代. 正常付费版和学生版账号测试结果一致. 由于现在官方的显示是每 20% 用量刷新, 所以测试结果可能不是完全准确.)

但是 Claude 系列模型的配额在上周更新之后, 基本上两个 5 小时配额还没用完, 就要等 5-6 天才刷新, 且非常容易触发 "Agent terminated due to error" 的错误. 实测这个错误和我的网络关系不大, 主要原因可能在上下文以及输出规模的限制. 需要非常精简的上下文, 以及尽量避免执行过程中生成大块的文件(例如 >150 行的文档)才能有效规避这个错误.

实现需求和 debug 过程中, Gemini 3 Pro 解决问题的能力和 Claude Opus 4.5 的差距还是比较明显的. Gemini 3 Pro 在 debug 过程中往往需要多上 2-3 轮对话以及更多的用户提示才能找到较复杂系统(>1 万行有效代码)中实现需求时的错误. Gemini 3 Pro 遵守 Global Rules (.gemini/GEMINI.md) 的能力甚至还不如 Gemini 3 Flash, 虽然它号称支持超长上下文, 但是完成一个需求后按规则生成 commit message 时总给你出点格式上的小毛病. Claude Sonnet 4.5 和 Opus 虽然官标支持的上下文较短, 但完全不会出现这种问题. Gemini 3 Flash 在这方面的表现也好得多.

有没有朋友来交流下, 目前 Ultra 订阅的 Claude Opus 4.5 配额限制如何? 免费版的 Antigravity 配额限制如何?
个人感觉要是 Ultra 版 Claude 5 小时配额可以正常刷新且没有周配额限制, 那还可以试一试, 不然没什么必要买.

我从 19 年开始在和府捞面 吃饭 那会大家都觉得他的缺点是只有价格贵
最近这两年 和府太难吃了 加上除了面是现煮的 其余都是料理包 所以去吃的很少
昨天去看电影 上午十点只有它开了门 无奈只能吃这个了
19.9 给上的葱油拌面 甚至不如方便面
随在某点评 匿名发布了
"还是之前来吃的太多次 导致现在弄成这样还能开的下去"
刚才陌生电话来电 未接 + 1 分钟后微信加好友
"我是万达和府捞面店长"

然后我就思考电话是哪来的
点评的手机号和用的手机号不是一个
用的手机号自从换了城市 除了给父母打电话平时快递什么的都不用
那手机号 泄露 只能是和府捞面小程序了
然后就被人打电话了 虽然没有加好友
但是来意应该很明显了

大家出门在外吃饭 请不要给差评 即便难吃也是
毕竟真能顺着找来

1 、注册 boc pay +

2 、用 boc pay + 扫自己的微信收款码,路径:最下面 tab ,中间,收 / 付款,再最左边 扫描

3 、付款金额输入 5.01 ,实付 0.01

4 、一个月可以 4 次,2 3 4 三个月一共 12 次。

整个活动期共 9w 个名字,没了就是完了。

可以直接扫自己微信个人码
亲测
IMG_6879

TA584 是一家手段老练的初始访问代理组织(IAB),素来以协助勒索软件团伙突破网络防线著称,该组织在 2025 年大幅升级了攻击行动。据普罗丰特(Proofpoint)发布的最新报告显示,TA584 的月度攻击活动量增至原先的三倍,还投放了一款命名奇特的新型恶意软件 ——“傲娇僵尸程序(Tsundere Bot)”
这份报告勾勒出该威胁组织持续迭代的攻击画像:其将 “点击修复(ClickFix)” 社会工程学手段 与高技术性的隐身规避机制相结合,以此突破各类现代安全防御体系。
尽管 TA584 早在 2020 年就已进入安全机构的监测视野,但 2025 年成为其攻击升级的转折点,该组织的攻击节奏呈爆发式增长,2025 年 3 月至 12 月间,月度攻击活动量翻了三倍
此次攻击规模激增的核心,是 TA584 推出了傲娇僵尸程序这款新型恶意软件,这一举措也凸显出该组织正转向研发定制化攻击工具。这意味着 TA584 不再依赖现成的通用恶意软件,而是打造专属攻击武器库,这让依靠已知特征码进行检测的安全防御方,对其攻击的识别难度大幅提升。
研究人员指出:“在网络犯罪领域,TA584 的攻击行为极具特殊性,这也印证了仅依靠静态检测手段,已无法有效应对持续创新的威胁组织。”
报告中最令人警惕的点,并非这款恶意软件本身,而是其隐蔽藏匿的手段。TA584 运用了一种巧妙的持久化攻击技术,利用 Windows 系统的注册表项显示机制实施隐藏操作。
该组织通过在注册表项名称中插入空终止字符串,使其恶意的自启动项在各类标准检测工具中彻底 “隐身”。报告中解释道:“这一注册表项会在基础的枚举检测中完全不可见,让恶意的开机自启项(Run)得以躲过常规检查。”
这一隐形注册表项会构建一条系统开机即触发的执行链:从启动 mshta 脚本宿主程序,到调用 VBScript 脚本,最终启动隐藏的 PowerShell 进程。
TA584 的技术老练性,还体现在其对攻击控制权的维持方式上。该组织并未将完整的恶意载荷存储在受害者的磁盘中,而是让这款隐藏的 PowerShell 脚本在每次电脑开机时,从外部 IP 地址动态拉取恶意载荷
这一策略让其攻击具备模块化特性,且抗清除能力极强。报告称:“攻击者让此次感染实现了模块化设计…… 以此在受害者系统中建立持久化的、近乎‘无文件’的控制据点,这类据点很难通过常规的文件系统清理手段清除。”
普罗丰特高度确信,TA584 组织已深度融入俄罗斯网络犯罪生态体系。该组织以专业初始访问代理的身份运作,专门突破企业网络防线,再将网络访问权转售给各类勒索软件附属团伙。
报告证实:“从其使用的恶意软件类型,以及攻击链中留下的各类痕迹来看,该组织大概率已深度接入俄罗斯网络犯罪生态体系及相关地下黑产市场。”
TA584 的攻击目标遍布全球,且攻击工具库还在快速扩充,如今已成为顶级网络威胁组织。安全机构就此敦促各企业组织:突破静态文件检测的局限,重点监测各类细微的行为异常 —— 比如隐藏的 PowerShell 进程,这些异常信号正是发现这一 “隐形” 入侵者的关键。

很多人其实都遇到过类似问题:明明只是随手打开一个网站,结果却发现自己的IP 地址被识别得一清二楚,地区、运营商,甚至访问环境都暴露了。

如果你经常做跨境业务、投放广告、账号运营,或者对隐私比较敏感,那 IP 地址泄露绝对不是一件小事。

这篇文章我就结合实际使用经验,聊聊 IP 地址为什么会泄露,以及 5 个实用步骤,教你尽量隐藏真实 IP,顺带把一些常见的坑一次性讲清楚。

一、先搞清楚:你的 IP 到底有没有泄露?

在处理问题之前,第一步一定是确认问题是否存在。

最简单的方式,就是做一次 在线IP检测。
通过常见的 IP地址查询 / 在线IP查询 网站,你可以快速看到:

当前显示的 IP 地址

所属国家和城市

网络类型(住宅 / 数据中心)

运营商信息

如果你明明开着代理、加速器,但在线IP查询结果依然显示的是你真实所在地,那基本可以确定:
👉 IP 没有被有效隐藏,或者代理已失效。

很多新手就是卡在这一步,误以为“连上了就安全”,结果账号一注册就被风控。

二、只隐藏 IP 还不够,浏览器也在“出卖你”

这是一个非常容易被忽略的点。

即便你成功更换了 IP,但如果浏览器环境一致,网站依然可以通过 浏览器指纹检测 来识别你。

浏览器指纹通常包括:

User-Agent

时区、语言

屏幕分辨率

WebGL、Canvas

字体、插件信息

这些信息组合在一起,几乎就像“设备身份证”。
所以你会看到一种情况:

IP 换了,但账号还是被关联、被限制。

在操作前,先用 ToDetect指纹查询做一次检测,看清楚自己暴露了哪些维度,而不是只盯着 IP 不放。

三、步骤一:选择稳定、干净的代理 IP

如果你确实需要隐藏真实 IP,那么代理 IP 的质量非常关键。

简单说几个经验点:

不要贪便宜:大量共享 IP 很容易被标记

尽量选择住宅IP或高质量静态IP

不要频繁切换同一地区的 IP

一个账号 ≈ 一个 IP,别图省事

你可以在每次更换后,重新做一次 在线IP检测,确认显示的地址、地区是否和你预期一致。

四、步骤二:配合防指纹浏览器使用

这是很多老手都会做的一步。

单纯用普通浏览器 + 代理 IP,很容易被浏览器指纹检测识别。
更稳妥的做法是:

使用防指纹浏览器

每个环境独立指纹参数

IP、指纹、账号三者保持一致

配置完成后,建议再用 ToDetect指纹查询一遍,确认指纹唯一性是否合格。

这一步虽然稍微麻烦点,但对账号安全帮助非常大。

五、步骤三:避免这些“无意识泄露 IP”的行为

很多 IP 泄露,其实不是技术问题,而是操作习惯问题:

登录账号后切回真实网络

同一浏览器登录多个账号

开着代理访问国内站点

插件、脚本随意安装

这些行为都会增加被识别的概率。
建议你把操作流程固定下来,不要频繁“临时切换”。

六、步骤四:定期检测,而不是出事才查

IP 和指纹环境不是“一次配置,永久安全”。

建议你养成习惯:

每次重要操作前,做一次 IP地址查询

定期跑 浏览器指纹检测

发现异常,第一时间更换环境

很多封号、限制,其实都是小问题长期累积的结果。

七、写在最后:IP 只是基础,环境一致性才是关键

总结一句话:隐藏 IP 只是第一步,真正决定安全的是整体环境是否“像一个正常用户”。

如果你只是普通上网,简单注意隐私就好;但如果你涉及账号运营、跨境平台、多账号操作,那就一定要系统性地看待 在线IP查询 + 浏览器指纹检测这件事。

希望这篇文章,能帮你少踩一些坑,也少交点“学费”。

如果你后面还想了解 IP 类型区别、防关联原理、指纹参数怎么调更合理,也可以再慢慢深入研究。

本文首发于 Aloudata 官方技术博客:《监管质询时说不清字段来源?表级血缘的「最后一公里」困局》转载请注明出处。

摘要:在金融强监管背景下,传统表级血缘因精度不足,无法满足监管对指标口径和字段来源的精准追溯要求,导致数据团队陷入低效的“考古式”排查。本文深入探讨了数据治理中“最后一公里”的困局,并介绍了如何通过算子级血缘和主动元数据技术,实现监管指标的自动化盘点与精准溯源,将盘点周期从数月缩短至小时级,有效支撑 DataOps 流程与合规风控。

在金融强监管时代,当监管机构质询“EAST 报表中的‘对公贷款余额’具体计算口径是什么?是否剔除了关注类贷款?”时,数据团队常常无法快速、准确地给出答案。传统的表级血缘或列级血缘工具,因其固有的精度局限,在应对这类需要穿透复杂业务逻辑的“灵魂拷问”时,往往止步于“最后一公里”。本文将剖析这一困局,并阐述通过算子级血缘实现自动化、精准化数据溯源的技术路径与实践价值。

一、 场景挑战:监管的“字段级”追溯与数据团队的困境

随着监管要求从“表级”深入到“字段级”和“口径级”,传统粗粒度的血缘管理方法已完全失效。核心痛点表现在:

  • 认责与溯源压力:毕马威等机构报告指出,监管报送(如“一表通”)的核心难点在于“压实数据项级认责”和“构建溯源能力”。监管要求每个上报的数据项都能清晰定位到源系统、加工逻辑和责任人。
  • 低效的“考古式”排查:面对口径质疑或数据异常,数据团队往往需要通宵达旦,人工翻阅大量 Excel 表格、SQL 代码和文档,进行一场跨越数十个系统的低效“考古”,不仅耗时数周,且极易出错,带来巨大的合规风险与潜在罚款。

二、 传统表级血缘为何在监管场景下“哑火”?

表级血缘因解析精度不足、无法覆盖复杂逻辑、且维护滞后,在需要精准解释的监管场景下价值有限。

对比维度传统表级/列级血缘算子级血缘 (以Aloudata BIG为例)
解析精度粗粒度,噪点多;列级解析准确率通常 <80%。解析准确率 \>99%,深入 SQL 内部解析每一个“算子”(操作符)。
回答能力只能回答“数据来自 A 表和 B 表”。能回答“A 表的 X 字段,经过与 B 表 Y 字段的 JOIN,并 WHERE状态=‘正常’,最后 SUM 生成了目标字段”。
复杂场景难以覆盖存储过程、动态 SQL、临时表穿透等,血缘图易破损、过时。支持 DB2、Oracle、GaussDB 等 PL/SQL 存储过程、动态 SQL、临时表穿透、嵌套子查询。
最终结果导致跨部门扯皮、问题定位耗时数周、无法满足监管对明确数据支撑的追溯要求。实现分钟级根因定位,自动化生成可解释的加工口径,直接满足监管溯源要求。

核心局限:当被问及“指标是否包含特定条件(如已核销贷款)”时,表级血缘无法穿透CASE WHEN、子查询等复杂加工逻辑,而这正是监管质询的核心关切。

三、 破局关键:算子级血缘与主动元数据平台

要打通监管溯源的“最后一公里”,必须将血缘解析精度从“表级”提升至“算子级”。算子级血缘能够深入解析 SQL 脚本中的每一个操作步骤(如 Filter 过滤、Join 关联、Aggregation 聚合),实现字段级、可解释的端到端白盒化追溯。

以 Aloudata BIG 主动元数据平台为例,其核心技术能力包括:

  1. 高精度算子解析:基于 AST(抽象语法树) 进行完整 SQL 解析,准确率超 99%,而非简单的正则匹配。
  2. 行级裁剪:精准识别 SQL 中的过滤条件,在上游变更影响分析时,能自动剔除无关数据分支,将评估范围降低 80% 以上,避免过度告警。
  3. 复杂场景全覆盖:特别强化对 DB2、Oracle 等 PL/SQL 存储过程的解析能力,攻克银行核心监管报表的溯源盲区。
  4. 白盒化口径提取:通过“一键溯源”功能,自动将跨越多层(ODS->DWD->DWS)的复杂加工逻辑,提炼成一段简洁、业务可读的“加工口径”描述。

四、 实践验证:从“数月”到“小时”的效能革命

头部金融机构的实践证明了算子级血缘在应对监管、提升效能方面的显著价值:

机构核心场景关键成效
浙江农商联合银行监管指标溯源、DB2 存储过程解析指标盘点从数月缩短至 8 小时;DB2 存储过程解析准确率 99%;溯源人效提升 20 倍。
招商银行DataOps 协同与变更影响分析代码上线前评估时间缩短 50%,问题整改时间缩短 70%,从源头规避报表错误风险。
民生银行跨平台端到端血缘、变更协同构建事前事中协作机制,实现核心链路保障范围的自动保鲜,新老平台血缘连接准确率 98%。
兴业银行异构平台血缘治理、敏感数据打标数据链路完整性从 20% 提升至 90%;变更影响分析扩散度降低 80%。
杭州银行监管报送指标自动化盘点构建全链路算子血缘图谱,实现指标自动化盘点与保鲜,问题根因分析提效 40%。

这些案例共同验证,高精度算子级血缘是实现自动化资产盘点和全链路主动风险防控、应对监管质询、提升数据可信度的关键技术路径。

五、 实施路径建议

金融机构可遵循“聚焦场景、快速验证、融入流程”的路径,稳步构建能力:

  1. 锚定场景:选择 1-2 个核心且痛苦的监管报送流程(如 EAST、1104)作为试点,聚焦其中几十个关键指标。
  2. 能力验证:利用平台的“一键溯源”功能,快速生成试点指标的完整加工口径和血缘图谱,与现有知识核对,验证准确性(>99%)与效率提升(从月到小时)。
  3. 融入流程:将自动化溯源能力嵌入 DataOps 流程:

    • 事前:上线前自动评估变更影响,精准定位风险。
    • 事后:报表异常时,分钟级穿透定位问题根因。
    • 变“被动响应监管”为“主动防控风险”。
  4. 组织保障:建立业务、科技、数据、合规的联合团队,并将数据溯源能力建设成效纳入相关考核,形成治理闭环。

六、 常见问题(FAQ)

Q1: 表级血缘和算子级血缘的核心区别是什么?

表级血缘描述数据在“表”之间的流动,如同知道货物在仓库间转运;算子级血缘则精确记录 SQL 内部的每一个操作步骤(如过滤、连接、聚合),如同清楚货物在流水线上的具体加工过程。后者对于需要精确口径追溯的监管场景至关重要。

Q2: 我们的监管报表由存储过程生成,传统工具解析不了,怎么办?

先进的主动元数据平台(如 Aloudata BIG)具备解析复杂场景的能力,包括对 DB2、Oracle、GaussDB 等 PL/SQL 存储过程的深度解析。

Q3: 建设这种精准溯源能力,投入和周期是否很长?

并非如此。建议从小范围高价值场景试点开始。例如,针对几十个核心监管指标进行自动化盘点,利用“一键溯源”功能,可能在几天内就能看到显著成果(如从数月缩短到 8 小时)。快速验证价值后,再逐步推广,可有效控制投入风险。

Q4: 除了应对监管,高精度数据血缘还有哪些业务价值?

价值广泛,主要包括:1) 变更风控:精准评估上游变更对下游的影响,避免资损;2) 根因定位:快速定位数据异常源头,提升排障效率;3) 成本治理:识别冗余计算与无效模型,优化资源;4) DataOps 协同:作为研发流程的“控制流”,提升交付效率与质量。


本文首发于 Aloudata 官方技术博客,查看更多技术细节与案例:https://ai.noetl.cn/knowledge-base/regulatory-inquiry-table-l...