标签 数据采集 下的文章

随着自动化技术、数据采集和智能测试的普及,“Headless Browser(无头浏览器)”已经从一个偏工程师内部使用的工具,逐渐演变为数据工程、爬虫系统、自动化测试乃至 AI 应用中的核心组件。很多人听说过这个概念,却并不真正理解它的工作原理、真实能力以及在复杂网络环境中的价值。
本文将系统性地解析什么是 Headless Browser,它与传统浏览器的本质区别,以及它在现代互联网应用中的实际意义。

Headless Browser 的基本定义

Headless Browser,直译为“无头浏览器”,这里的“头”指的是图形用户界面。也就是说,它本质上是一个没有可视化界面的浏览器内核,能够像普通浏览器一样解析 HTML、执行 JavaScript、加载 CSS、发起网络请求、处理 Cookie 和本地存储,但所有过程都在后台完成,不向用户展示页面。
从功能角度看,Headless Browser 并不是“阉割版浏览器”,恰恰相反,它在网页渲染和脚本执行层面,与完整浏览器几乎一致,只是去掉了 UI 渲染这一步。
正因为这一特性,它非常适合被程序控制,用于自动化任务。

无头浏览器是如何工作的

理解 Headless Browser 的关键,在于理解现代网页的加载逻辑。
当你用普通浏览器访问一个网站时,背后会经历一整套流程:
浏览器发起请求、接收 HTML、解析 DOM、加载 CSS、执行 JavaScript、请求接口数据、动态更新页面内容。Headless Browser 运行的正是这套完整流程,只是整个过程由代码驱动,而不是由用户点击和操作触发。开发者可以通过脚本控制它打开页面、等待资源加载、模拟滚动、填写表单、点击按钮,甚至执行复杂的交互逻辑。
从服务器的角度看,它看到的并不是一个“工具”,而是一个行为极其接近真实用户的浏览器环境。

Headless Browser 与普通爬虫的根本区别

很多初学者会把 Headless Browser 与传统 HTTP 爬虫混为一谈,但两者在能力层级上有明显差异。
传统爬虫更多依赖直接请求接口或页面源代码,适合结构简单、反爬较弱的网站。但面对大量使用前端框架、动态渲染、接口签名和行为校验的网站时,传统爬虫往往寸步难行。
Headless Browser 的优势在于,它可以完整执行前端逻辑,获取最终渲染后的真实页面状态。这意味着即使网站内容完全由 JavaScript 动态生成,也依然可以被正确获取。
在很多复杂网站场景中,无头浏览器已经成为“唯一可行方案”。

为什么 Headless Browser 会被重点风控

正因为 Headless Browser 具备强大的模拟能力,它也成为各大平台重点识别和限制的对象。
近年来,网站风控系统不再只看 IP 和请求频率,而是更加关注浏览器指纹、行为轨迹和执行环境。一些常见的 Headless Browser 在默认配置下,会暴露出明显的自动化特征,例如特定的 JavaScript 属性、异常的渲染行为或不符合真实用户的操作节奏。
这也是很多人会遇到“明明用了无头浏览器,却还是被封”的根本原因。
Headless Browser 本身不是问题,问题在于环境是否足够真实、行为是否足够自然、网络身份是否可信。

无头浏览器与网络环境的关系

很多人忽略了一个关键问题:Headless Browser 再强,也只是“浏览器”,它依然运行在某个网络环境之中。
如果网络出口本身存在异常,例如 IP 来源不可信、ASN 被标记、地址被滥用过,那么即使浏览器层面完全模拟真实用户,依然可能在请求阶段就被拦截。
这也是为什么在高风控场景下,无头浏览器往往需要配合更稳定、更接近真实用户的网络环境使用。真实住宅网络、干净的出口地址,往往比复杂的浏览器参数伪装更重要。

Headless Browser 是否等同于“自动化作弊”

这是一个经常被误解的问题。
Headless Browser 本身是一种技术工具,它既可以用于合规的自动化测试、数据分析和效率提升,也可能被滥用于违规操作。关键并不在于工具本身,而在于使用方式是否符合平台规则和法律边界。
在合规使用前提下,无头浏览器反而是很多正规企业和开发团队不可或缺的基础设施。

未来趋势:Headless Browser 正在变得“更像人”

随着反自动化技术的不断升级,Headless Browser 也在持续进化。从早期简单执行脚本,到如今强调完整指纹一致性、行为轨迹自然化和环境真实性,无头浏览器正在向“高度拟真浏览环境”发展。
未来,它不再只是一个技术工具,而是整个网络身份系统中的一个重要组成部分。

结语

Headless Browser 并不是一个神秘或危险的概念,它只是现代 Web 技术发展下的必然产物。理解它的原理、边界和真实价值,远比盲目使用或一味回避更重要。
当你真正把它看作一个“没有界面的真实浏览器”,并将其放入合适的网络与合规框架中使用,它所能发挥的价值,远远超出想象。

在数字经济成为必选题的今天,许多企业都面临一个共同的困境:数据量爆炸式增长,但数据价值却始终“雾里看花”。我们坐拥海量数据,为何在决策时仍感“无据可依”?
图片
数据采集问题的核心往往不在于数据本身,而在于数据从“原材料”到“价值资产”的转化过程缺乏科学、规范的治理。今天,我们就以五度易链的实践为例,深入拆解一下数据治理中最为关键的标准化开发流程。这套覆盖“采集-解析-清洗-标准化”的全链路体系,正是确保每一份数据都能被科学处理,最终转化为驱动业务增长的可靠引擎。数据采集:全面覆盖,筑牢数据基础
图片
数据采集数据采集是数据开发的起点,直接决定后续数据处理的广度与深度。五度易链运用专业的数据采集工具与成熟技术,能够根据不同行业和场景的具体需求,进行精准、全面的数据抓取。采集范围覆盖线上平台数据、线下业务系统数据、第三方合作数据等各类数据源,确保数据的完整性与全面性。同时,建立合规的数据采集机制,对数据来源的合法性、数据采集过程的安全性进行全程管控,在保障数据全面性的同时,坚守数据安全与合规底线,为后续数据处理工作奠定坚实基础。数据解析:深度挖掘,揭示数据价值采集到的原始数据多为非结构化形式,难以直接应用。五度易链采用先进的数据解析技术与算法模型,对海量原始数据进行深度挖掘与智能解析。通过技术手段,从杂乱无章的非结构化数据中提取关键信息,揭示数据背后隐藏的内在关联与发展规律。数据清洗:多维度质控,提升数据质量
图片
数据质量是数据价值实现的核心前提,五度易链建立严格的多维度质量控制流程,对采集到的原始数据进行深度排查与净化处理。清洗过程围绕数据准确性、完整性、一致性、唯一性、时效性等多个核心质量指标,通过自动化检测与人工复核相结合的方式,全面排查数据中的无效信息、错误记录、重复数据以及与业务无关的冗余数据。例如,针对数据录入错误导致的格式不一致、数值异常等问题,通过智能算法进行自动修正;对于重复采集的数据,建立去重规则进行精准剔除。通过多维度的清洗处理,有效提升数据集的质量与精准度,确保后续数据分析结果的可靠性与有效性。数据标准化:统一规范,实现数据兼容不同来源、不同类型的数据在格式、口径、计量单位等方面存在差异,直接影响数据的整合应用。五度易链遵循国内外相关行业标准及规范,结合企业业务需求,对完成清洗后的有效数据进行统一格式转换和标准化处理。通过建立统一的数据编码规则、字段定义标准、计量单位规范等,消除不同数据源之间的“语言壁垒”,让原本分散、异构的数据能够实现整合兼容。标准化处理后的数据,不仅便于后续进行高效的数据分析、挖掘与应用,更能支持跨部门、跨业务的数据共享与协同,为企业构建统一的数据应用平台提供关键支撑,最终实现客户定制化数据开发的核心目标。
图片
数据治理应用高质量的数据治理已成为企业核心竞争力的重要组成部分。五度易链大数据治理解决方案标准化的“采集-解析-清洗-标准化”数据开发流程,为企业提供全方位、高品质的数据治理服务。当我们将视线从单一的技术环节拉升至整个数据价值链时,会发现数据治理远不止是IT项目,而是一项关乎企业核心竞争力的战略工程。无论是金融行业的风控升级、政务领域的数据共享,还是制造行业的智能制造、生物医药行业的研发创新,五度易链都能精准匹配需求,助力企业破解数据治理痛点,激活数据核心价值。你是否也在工作中遇到过数据质量或数据整合的挑战?欢迎在评论区分享你的故事,我们一起探讨。

小T导读:作为国内领先的智能办公整体方案提供商,成都极企科技有限公司已为全球上万家企业提供智能化建设方案,覆盖办公楼宇与园区面积已超百万平米。为应对日益增长的物联网数据接入需求,极企科技引入 TDengine TSDB 时序数据库,实现海量设备数据的实时采集、高效存储与智能分析,显著提升了设备监控系统的响应速度与数据处理能力。本文将分享这一智慧楼宇解决方案基于 TDengine的应用经验与实践成果。

背景和痛点

我们的智慧楼宇解决方案主要面向集团总部、新建办公大楼、政府园区等行业头部客户。这类客户普遍具备完善的 IT 基础与多年的办公系统建设经验,正处于从传统办公向智能化、数字化升级的关键阶段。在这一过程中,他们对智能化办公、物联网和数字化管理有较高的认知与明确的建设需求,期望通过新一代技术手段实现办公环境的智能协同与运营效率的全面提升。

在某大厦智能化项目中,共有 30 层楼宇,部署近万台传感器设备,涵盖人体感应、空气质量、厕位、烟雾、电量、水浸等多种类型。所有传感器均以秒级频率上报数据,日均数据量高达数千万条,对系统的数据采集与处理能力提出了极高要求。

该项目面临设备数据高频采集、多维度实时分析(设备状态、能耗、故障预测)以及历史数据长期存储三大挑战。传统关系型数据库在此类场景中存在明显不足,如写入性能瓶颈、查询延迟高、存储成本激增等问题。以 MySQL 和 PostgreSQL 为例,在存储设备时序数据时,由于缺乏原生的时间分区支持,当单表数据量超过千万级后,查询性能会出现断崖式下降,需人工分表分库,运维复杂度激增。同时,未压缩的原始数据占用空间庞大,存储成本高昂。

为什么选择 TDengine TSDB

在智慧楼宇项目的建设过程中,数据接入规模大、处理链路复杂、系统稳定性要求高,对底层数据库的性能与可靠性提出了极高要求。经过多方技术选型与验证,我们最终选择了 TDengine TSDB 作为核心时序数据库,主要基于以下考虑:

  • 高效数据接入能力:支持 MQTT 数据写入方式,可通过低代码方式快速接入业务平台,实现高并发数据写入,确保近万台传感器上报数据的完整与可靠。
  • 强大的流式计算能力:具备实时数据聚合与分析能力,能够对上报的时序元数据进行整合并高效供给业务平台,同时通过多副本机制保障数据高效写入与可靠备份。
  • 完善的技术支持体系:提供一对一、7×24 小时技术支持服务,确保项目在开发、部署及运维阶段的稳定运行。
  • 国产化与生态兼容性:作为 100% 自主可控的时序数据库,TDengine TSDB 符合信创标准,并已与华为云、麒麟软件等生态厂商完成深度集成,满足极企科技在国产化替代中的技术选型需求。
  • 领先的综合性能与可拓展性:在同类型数据库中,TDengine TSDB 在数据压缩率、写入速度、分析效率及分布式架构等方面表现突出,后续版本还将持续增强易用性与 AI 能力,支持更多的功能和场景,助力企业进一步提升应用效果。

TDengine TSDB 落地实践

架构描述

系统采用 Node-Red 作为数据流控制与可视化管理核心,实现全链路的数据采集、处理与展示。整体架构如下:

  1. 各类传感器采集的数据首先由 Node-Red 进行预处理后写入 EMQ 消息中间件;
  2. TDengine TSDB 通过 taosX 模块从 EMQ 中高效读取并存储数据,实现时序数据的集中管理;
  3. EMQ 再通过 Restful / WebSocket 接口从 TDengine TSDB 获取所需数据,为上层业务应用与可视化系统提供实时访问能力。

智能应用场景示例

  • 当指定区域内连续 5 分钟无人时,系统自动关闭照明;
  • 当某项监测指标超过设定阈值时,自动触发告警并记录相关信息;
  • 当检测到某区域无人时,系统自动关闭空调以节约能源。

项目初期采用 3 节点集群架构,数据库配置为 3 副本模式,以实现系统高可用与数据冗余,具体配置如下:

系统上线后该集群运行稳定,能够高效处理全部传感器采集数据,全面满足项目预定的各项指标。在确认技术架构稳定可靠后,我们将订阅模式变更为永久模式,将长期使用以 TDengine TSDB 为核心的技术架构。

数据库建模

  1. 超级表定义
CREATE STABLE IF NOT EXISTS airsensor (
  ts timestamp,        时间
  pm25 int,        PM2.5
  pm10 int,        PM1.0
  tvoc int,                TVOC
  co2 int,                二氧化碳
  formaldehyde float,        甲醛
  noise float,        噪音
  temperature float,                温度
  humidity float,        湿度
  light int,                光照
  h2s int,                硫化氢
  ch4 int,                甲烷
  co int,                一氧化碳
  no2 float,        二氧化氮
  h2 int,                氢气
  odor float        异味
) TAGS (
  position NCHAR(200),
  space NCHAR(20),
  floor_area NCHAR(20),
  floor NCHAR(20),
  area NCHAR(20),
  device_code NCHAR(20),
  device_id int,
  factory NCHAR(50),
  model NCHAR(50)
);

  • 流计算

    • 会议室人员判定
    create stream if not exists mroom_stream trigger at_once into mroom_stream_status (ts,status) tags(
        space,
        floor_area,
        floor,
        area 
    ) subtable(
        cast(
            concat('mss_', space, '_', floor_area, '_', floor, '_', area) as varchar
        )
    ) as
    SELECT
        _wstart as ts,
        case
            when sum(status) > 0 then 1
            else 0
        end as status
    FROM
        bxserver.humensensor partition by space,
        floor_area,
        floor,
    area interval(1m) fill(value,-1);

  • 楼层用电量统计
select _wstart as ts, max(total_kwh)-min(total_kwh) as used from bxserver.powersensor partition by tbname interval(1d);

  • 订阅数据

落地效果

  • 针对电量传感器采集的元数据通过 TDengine TSDB 转换后的每个楼层用电量统计如下:

  • 针对每个设备状态上报数据通过 TDengine TSDB 转化为设备告警情况如下:

  • 针对空气传感器采集的数据,系统通过 TDengine TSDB 进行转换与分析,并根据当前区域的平均温度执行相应的温控策略:

TDengine 应用经验分享

  1. 时钟同步问题

在使用过程中,我们发现某会议室的人体传感器流计算结果存在异常,最近一分钟的数据未被正常计算。经排查,原因是服务器时间未与时间服务器同步。安装并配置 NTP 服务完成时间同步后,流计算功能恢复正常。

  1. 查询 SQL 语句优化

powersensor_loop 表按行记录传感器的瞬时实测值。为计算当天的用电量,需要对相邻两行取差值后再用 SUM 求和。最初我们采用的是如下嵌套子查询方案,不仅执行时间长,而且占用较大的临时空间:

select TO_CHAR(_wstart, 'YYYY/MM/DD HH24:MI:00') as ts, TO_CHAR(_wstart, 'HH24') as hour, sum(kwh) as kwh, space,floor_area,floor,type from (select _rowts as ts, diff(kwh) as kwh, space, floor_area, floor, area, device_id, loop, type frombxserver.powersensor_loop partition by space, floor_area, floor, area, device_id, loop, type) where ts >= TO_UNIXTIMESTAMP('2025-08-28 00:00:00') and ts <= TO_UNIXTIMESTAMP('2025-08-28 23:59:59') partition by space, floor_area, floor, type interval(1d) order by floor asc;  

powersensor\_loop 表结构如下图所示:

经分析发现,上述嵌套查询语句只在外层添加了时间范围条件,而内层查询未作限制,导致内层查询需读取全量数据,执行耗时长且占用大量临时空间。优化后,我们将时间范围条件前移至内层查询,使其仅在指定时间范围内读取数据,从而显著减少数据扫描量并提升执行效率。

select TO_CHAR(_wstart, 'YYYY/MM/DD HH24:MI:00') as ts, TO_CHAR(_wstart, 'HH24') as hour, sum(kwh) as kwh, space,floor_area,floor,type from (select _rowts as ts, diff(kwh) as kwh, space, floor_area, floor, area, device_id, loop, type frombxserver.powersensor_loop where ts >= TO_UNIXTIMESTAMP('2025-08-28 00:00:00') and ts <= TO_UNIXTIMESTAMP('2025-08-28 23:59:59') partition by space, floor_area, floor, area, device_id, loop, type) partition by space, floor_area, floor, type interval(1d) order by floor asc;

未来规划

当前系统使用的版本为 TDengine TSDB 3.3.6,因流计算暂不支持 diff 函数,无法直接计算相邻数据差值。后续我们计划升级至最新版本 3.3.8,新版本已支持 diff 函数,可将每日电量数据的差值计算结果直接写入流计算结果表,进一步简化后续的查询与汇总分析流程。

关于成都极企科技

成都极企科技有限公司成立于 2014 年,注册资本 392 万元,专注于智能化办公解决方案的研发与落地。公司具备自主软硬件研发能力,已取得多项国家专利及资质认证,为全球上万家企业提供智能化解决方案,累计完成超过百万平方米的办公楼宇与园区智能化建设。客户涵盖美团、爱奇艺、腾讯、阿里、联想、华为、富力、金地等行业头部企业,形成了从硬件设计、软件开发到工程实施的一体化核心竞争力。

关于作者

何铮,公司创始人兼项目带头人,毕业于电子科技大学,国家特聘专家。拥有二十年办公领域产品开发经验,带领企业完成三轮千万级融资。

2025 年 12 月,涛思数据与北京海莱德自动化工程有限公司(简称“海莱德”)正式建立合作伙伴关系。此次合作,海莱德将基于自身行业自动化系统集成能力,结合涛思数据提供的 TDengine TSDB + IDMP 产品组合,共同为制糖等行业客户打造从数据采集、治理到智能分析应用的完整解决方案,助力制糖工业企业实现生产运营的数字化与智能化转型。

行业背景|制糖生产正在面对的新挑战

制糖行业的生产实践表明,甘蔗制糖是一项高度连续、强耦合、对运行稳定性要求极高的工业过程。原料受品种、成熟度、含糖量和纤维含量等因素影响,天然波动较大;加之榨季集中、生产节奏紧凑,一旦发生非计划停车或关键参数失控,带来的不仅是产量损失,更可能造成难以弥补的经济影响和社会影响(涉及甘蔗和甜菜的农业生产)。

在此背景下,行业内绝大多数糖厂长期依赖以人工经验为主的工艺调整方式,以及以工段为单位、相互割裂的数据管理模式,这些传统做法逐渐显现出其局限性。经验固然重要,但难以在不同班组、不同人员之间稳定传承与高效复制;生产数据虽然持续产生,却因分散在不同系统与记录中而难以整合分析,从而无法有效支撑对稳产、提质、降本目标的持续精细化管控。这已成为行业的一个普遍共识:仅依靠传统方式,已难以应对当前生产运行对稳定性与过程可控性日益提升的要求。

面临挑战|从“看不清”到“管不住”

在实际运行中,以下这些挑战并非个案,而是制糖行业中普遍存在的共性问题。

首先,生产过程链条长、环节多,从预处理、压榨、澄清、蒸发、煮糖到分蜜、干燥包装,各工段数据往往分散在不同的系统与记录中,缺乏统一视角,导致难以形成真正贯穿全流程的生产监控与分析能力。

其次,在工艺质量管控方面,参数调整长期依赖人工经验判断。许多异常往往在最终质量指标已发生偏差后才得以察觉,缺乏对工艺质量的过程性分析与持续监控手段,难以实现事前预警与主动干预。

最后,在物料与糖分损耗管理上,行业长期缺乏有效的工具进行清晰、有效的分析和管理。糖分损耗分散于滤泥、废蜜、洗水、跑糖等多个环节,大多依靠经验估算,无法形成系统、可对比的“糖损画像”,这在很大程度上制约了对产糖效率与整体经营指标的持续优化。

正是这些普遍存在的“看不清、管不住”的痛点,促使制糖行业开始重新思考生产管理方式,并推动如 TDengine IDMP 这样的生产数据与工艺管理平台,逐渐成为企业进行数字化转型、实现精细化运营的重要选择。

解决方案|从“数据分散”到“AI Ready”,让制糖跑在数据之上

在榨季现场,行业内常有一种共识:“数据其实都有,就是用不起来。”原料特性每日波动,工艺流程长且复杂,相关数据往往分散在局部的 DCS、各类设备的独立系统及手工台账中。操作人员依赖经验盯守,生产系统中前后无高效的数据流通,一旦生产节奏加快,潜在的风险与异常便容易被淹没在庞杂的信息流中。

因此,选择引入 TDengine IDMP 平台,其初衷并非简单“再上一套系统”,而是旨在将沉睡的数据转化为直接支撑生产决策与运营优化的能力。围绕制糖行业原料波动大、流程链路长、设备可靠性要求高等特点,该平台以 TDengine TSBS + TDengine IDMP 为核心,从数据采集与接入起步,逐步打通数据治理、业务情景化建模与 AI 分析应用,致力于构建一套真正面向生产、服务于工艺优化与稳定运行的工业数据管理体系。

图1 以 TDengine IDMP 为基础面向生产的工业数据管理体系

数据采集|先把“碎数据”连成一条线

在项目启动之初,制糖企业现场所面临的情况在行业中并不陌生:数据体量并不少,但分布零散。工厂局部的 DCS、各类设备的独立系统仅仅服务于局部的监控层面。而在数据分析、集中管理与智能应用层面,则长期缺乏统一、高效的数据出口。

针对这一现状,项目规划在不影响现有控制系统稳定运行的前提下,于集控层之上构建独立的数据采集与汇聚通道。计划在每个工厂部署一套 TDengine TSDB,利用其自带的零代码采集工具 taosX,通过 OPC 标准接口从 DCS Server 读取实时工艺数据,以实现关键生产数据的稳定采集与接入。同时,在企业级数据中心部署统一的 TDengine TSDB,对各工厂的时序数据进行集中汇聚与统一管理,为后续的数据整合分析与跨厂协同打下基础。

图2 某甘蔗制糖项目的数据采集架构图

这种架构既充分保留了 DCS 与 SCADA 的成熟运行体系,又在其之上形成统一、可扩展的数据采集与汇聚层,为后续的数据治理、业务情景化和 AI 应用奠定了可靠基础。

数据分析|从“看历史”到“提前知道”

在数据分析层,平台基于 TDengine TSDB 的高性能时序数据管理能力,实现实时与历史数据的统一处理,并能够结合时序基础模型的时序数据预测与异常检测能力,对生产过程和设备运行状态进行持续分析。

通过对关键工艺参数和运行指标的时序建模,时序基础模型能够识别正常运行模式,预测指标变化趋势,并对偏离正常区间的异常波动进行及时检测与预警,帮助企业提前发现潜在风险。请参考:时序数据分析智能体 TDgpt

该能力使生产管控从依赖经验的事后分析,转向基于数据的趋势预判与异常识别,为工艺稳定运行、设备可靠性提升及运营决策提供更加及时、可靠的数据支撑。

数据目录|让每个岗位都用得上数据

如果说采集和分析解决了“数据有没有、算不算得动”的问题,那么数据目录解决的,是“业务用不用得上”。

TDengine IDMP 并没有强制所有人用同一种视角看数据,而是允许不同部门按自己的业务逻辑组织数据。生产车间可以围绕工艺流程,把数据按工序、工段和关键参数来组织;设备管理部门则按设备类型和运行状态建立目录,专注设备可靠性和维护。同一份底层数据,可以在不同业务视角下被反复引用。

对业务人员来说,找数据不再是“翻系统”,而是“进目录”;对系统来说,数据有了清晰的结构和入口,才能被稳定调用、持续分析。

图3 甘蔗制糖厂数据目录(按设备、按工艺)
https://segmentfault.com/write###

数据标准化 | 让“一吨糖”只有一种算法

在工业系统中,数据标准化不是“规范问题”,而是直接影响结果是否可信的基础工程。航天领域曾因单位不统一而导致重大事故,这一案例反复被提及,并不是偶然,而是揭示了一个普遍规律:当数据口径不统一时,系统即使运行正常,结论也可能完全错误。

在制糖生产中,这类风险同样真实存在。以澄清汁流量为例,DCS 系统通常以体积流量 m³/h 采集数据,而部分历史系统或人工台账则沿用质量流量 t/h。两种口径在各自系统内都能够正常使用,但一旦进入跨系统分析场景——例如物料衡算、产能评估或能耗核算——问题便会显现:同一个“澄清汁流量”,在不同系统中参与计算,得到的却是两套完全不同的结果。

在 TDengine IDMP 中,这类问题不再依赖人工经验去“记住差异”,而是通过模型层面的标准化设计,从源头上消除歧义,确保“一吨糖”在系统中只有一种确定、可复用的计算方式。

将“老师傅的共识”固化为系统规则

在实际生产中,许多关键口径早已形成行业共识,只是长期存在于经验和习惯中。TDengine IDMP 通过元素模板机制,将这些共识转化为可执行、可约束的系统规则。

以“澄清汁”这一对象为例,IDMP 在模型层对其进行统一、规范的定义,明确其所包含的各类属性,并对每个属性的名称、业务含义、数据类型、计量单位及使用口径进行统一约束。针对澄清汁流量,模型中会明确其业务含义、统一采用的标准计量单位、适用的工艺计算口径,以及是否参与物料衡算与产能分析等核心规则。

通过这种方式,同一类工艺对象、同一类指标在系统中只保留唯一、确定的解释,从根本上避免“同名不同义”或“同数不同算”的问题,为后续跨系统分析和长期稳定运行提供一致、可靠的数据基础。

图4 通过元素模板将知识固化

单位不同?系统自动算清楚

在统一标准的同时,TDengine IDMP 也充分考虑了现有系统的复杂性。针对属性模板,平台在公式层引入计量单位的自动识别与推导能力。

当数据来自 DCS 系统时,平台能够识别其计量单位为体积流量(m³/h);当数据来自历史系统或台账时,则识别为质量流量(t/h)。在参与计算或分析时,TDengine IDMP 会根据目标属性所要求的计量单位,自动推导并完成必要的单位换算,确保计算结果口径一致。

整个过程无需人工干预,也不依赖个人经验假设,使不同来源、不同口径的数据能够在统一模型下安全、可靠地参与分析,为物料衡算和经营决策提供稳定支撑。

图5 澄清汁的质量流量到体积流量的自动推导

数据情景化|让工业数据真正看得懂、用得上

在实际生产中,制糖行业越来越深刻地体会到:没有情景的数据,只是一串数字;只有将其置于具体的工艺场景中,数据才真正具有意义。

榨季期间,生产现场变化极为迅速。今天可能是澄清工段的 pH 值出现波动,明天发现废蜜纯度偏高,过几天又察觉实际产糖率与理论值存在偏差。这类问题本身并不复杂,但过去的分析方式却异常耗时费力——通常由业务人员凭借经验提出初步判断,再由技术人员到各个独立系统中查找相关点位、收集数据;数据找齐后,还需反复确认其时间范围、计算口径是否一致。往往经过这样一轮繁琐流程,数天时间已经过去。

究其根源,问题通常不在于人员专业能力,而在于数据本身缺乏情景化组织。业务人员往往不清楚所需数据具体分布在哪些系统中、是否可直接使用;技术人员也难以理解这些数据在工艺上应如何关联、如何分析,以及它们之间的业务逻辑是什么。这种数据与业务之间的“断层”,使得高效的分析与决策难以实现。

连接业务与技术的关键一环

引入 TDengine IDMP 平台后,制糖企业将能够使数据真正成为业务与技术之间的“通用语言”。

该平台通过为数据补充统一、清晰的业务语义,将其与具体的生产过程直接关联。每一条数据都将被明确归属到特定的工艺环节(如澄清、蒸发或煮糖),同时标识其反映的工艺机理类型(如反应强度、抽提效率或回收损失),并清楚定义其适用的业务场景(如质量监控、物料衡算、异常分析或工艺优化)。

在此基础上,平台还将构建标准化的技术元数据层,对数据来源、计量单位和合理取值范围进行统一管理。由此,数据从何处来、如何计算将变得清晰可溯,在进行数据分析、计算或设置告警时,系统能够自动确保口径一致,从而避免因理解偏差导致的结果不一。

这一步的关键价值在于,许多原本存在于“老师傅经验”中的隐性知识与共识,将被有效地沉淀并固化为清晰、可复用的系统规则,为知识的传承与规模化应用奠定基础。

图6 数据情景化(业务描述和限值)

业务分析真正实现自助

在数据完成情景化之后,制糖企业的业务分析方式将发生根本性转变,从过去高度依赖 IT 部门支持,转向以业务人员自助分析为主。系统前端将不再展示零散的点位编号与底层数据结构,而是围绕“澄清稳定性”“物料衡算”“产糖效率”等业务人员熟悉的工艺情景来组织数据与功能。

以澄清工段为例,工艺人员在“澄清稳定性”情景下,将能够直接选取 pH 值、混浊度、色值等关键指标,并自行拖拽搭建趋势对比与关联分析面板,用于实时判断反应状态是否偏离正常区间。整个过程无需向 IT 部门提出建模或取数需求,分析逻辑也将更加贴近现场实际。业务人员从而能真正基于数据流进行自主判断与决策。

这种以业务情景为核心的分析模式,将显著降低数据使用门槛与技术障碍,使得工艺人员更愿意、也更能够主动、自信地使用数据工具,推动数据分析融入日常作业闭环。

图7 澄清工艺是否稳定?业务人员自助分析

响应能力的显著提升

当业务分析实现自助化,为制糖企业带来最直接的变化就是——业务响应速度得到显著提升。过去,从发现异常到形成分析结论,往往需要经过多环节传递与处理,周期以天计算,等结论出来时,问题可能已经扩大,甚至错过了最佳工艺调整窗口。

未来,在数据情景化的支撑下,业务人员将能够在当班内直接完成数据取用、对比分析和假设验证。例如,当澄清工段 pH 值刚出现连续偏移时,系统可在对应的业务情景中自动聚合相关指标,工艺人员即可当场判断是否需要调整加药或工艺参数;当产糖率与预期出现偏差时,也可快速定位问题根源,判别是前段抽提、澄清损失,还是后段回收效率所致。

这意味着,问题有望在“扩大之前”就被识别和处理,从而使生产运行从被动应对逐步转向主动预防与控制。

总体而言,数据情景化将帮助制糖企业真正把数据用活于业务。生产管理将不再高度依赖个人经验与事后分析,而是逐步形成一套以数据为驱动、以业务场景为依托的快速决策机制,生产运行也因此有望变得更加稳定、高效与可控。

无问智推|AI 驱动的生产洞察升级

在实际生产中,制糖行业逐渐形成一种共识:AI 技术在其中的真正价值,并非在于“替代人工思考”,而在于能够在问题尚未被明确提出之前,就已将所需的相关信息与洞察准备就绪

过去,行业中的中控系统更多地扮演着“被动工具”的角色。监控哪些指标、如何进行关联分析,完全依赖当班人员的个人经验:工艺人员需自行回忆关键指标、查找数据点位、调整分析的时间窗口。新接班的团队往往难以快速入手;而当经验丰富的老师傅不在场时,许多隐性的工艺逻辑与判断也难以得到有效复用。

在引入 TDengine IDMP 平台并完成数据情景化构建之后,AI 所扮演的角色将发生显著转变。它将不再被动等待指令,而是基于对工艺语义与业务上下文的理解,主动识别当前生产状态,并动态推荐最贴合该业务场景的监控视图与分析内容。这使得系统能够引导注意力,辅助不同经验层次的人员更快地聚焦于关键问题,从而将专家经验转化为可持续、可复用的系统能力

澄清段的一个真实场景

以澄清工段的澄清汁监控为例。过去,制糖行业在监控澄清段时,往往仅限于观察几条关键参数的实时曲线,难以系统性地判断“当前工况是否真正处于正常状态”或“其趋势是否正在恶化”。

现在,AI 会自动为用户推荐一整套符合澄清工艺逻辑的监控面板,只需简单的点击“生成”,TDengine IDMP 就能够自动生成监控看板。在澄清汁场景下,系统会优先推荐:

  • 过去一小时澄清汁 pH 的最新值,用于快速判断当前反应状态;
  • 过去一天每小时澄清汁锤度的平均值,帮助用户观察短周期稳定性;
  • 过去一周澄清汁还原糖的平均值,以及按天汇总的变化趋势,用于评估澄清效果对糖损的影响。

AI 推荐的澄清汁的监控面板

这些内容并不是“通用模板”,而是因为系统已经理解:这些指标正是澄清段最关键、最有业务意义的数据组合

从“人盯数据”到“系统叫人”

在引入 TDengine IDMP 之前,制糖行业对澄清段的监控更多依赖人工经验。中控画面上曲线一直在动,工艺人员需要长时间盯着趋势,凭感觉判断是不是“有点不对劲”。采用 TDengine IDMP 之后,这种状态发生了明显改变。基于已经完成的数据情景化,AI 不再等待人工提问,而是主动推荐与澄清汁相关的实时事件监控和分析,通过实时分析预警,能够在关键时刻把人“叫过来”。

在澄清汁场景中,系统能够自动推荐分析:

  • 当澄清汁加热器出口温度超过 105℃,并持续 5 分钟以上时,立即触发主要告警,同时给出该时段的平均出口温度,清楚提示存在过热风险;
  • 对澄清汁锤度,系统每 5 分钟基于 3 倍标准差的 K-sigma 方法进行异常检测,一旦波动异常,直接给出最大锤度值,帮助用户快速判断异常程度;
  • 系统还推荐每 10 分钟滚动计算过去 30 分钟内的平均流量,用于辅助判断当前负荷是否发生变化。

在过去,这些判断逻辑往往只掌握在少数经验丰富的工艺人员手中,依赖于人员持续盯守数据、反复比对分析才能得以运用。如今,通过引入 TDengine IDMP 平台,这些经验与逻辑得以被 AI 沉淀并固化为持续、自动运行的系统能力。生产管理模式由此从依赖“人盯数据”逐步转向为“系统预警、人员确认”的协同机制,使异常得以更早被识别,工艺调整也能更及时地执行。这正是 TDengine IDMP 为制糖行业生产管理带来的最直观价值——将隐性知识显性化,将个人经验转化为可持续、可复用的系统智能。

AI 自动推荐的实时分析场景

给制糖行业带来的真正变化

对制糖行业来说,最大的变化在于:正常时不被数据打扰,异常时绝不会被遗漏。
生产管理也由此从“人盯数据”转向“系统叫人”,让异常更早被发现,让调整更及时发生。这正是 TDengine IDMP 在实际生产中带给制糖行业的最直观价值。

应用成效|从“系统上线”到“价值落地”

随着该工业数据平台在生产现场的深入部署与应用,制糖企业有望在生产管理与工艺管控方面逐步收获系统性成效。整体解决方案围绕生产、工艺和设备三大核心对象展开,将推动数据不再仅仅停留在系统层面,而是持续融入日常运行与管理决策之中。

全流程生产监控:让制糖过程“看得见”

通过对制糖工艺流程进行统一的数据资产建模,平台实现了从预处理到干燥包装的全过程数据采集与集中监控。各工段之间原本割裂的数据被打通,形成连续、完整的生产视图。关键工艺参数和运行状态能够集中呈现,为现场管理、生产调度以及异常发现提供了直观、统一的支撑。

生成物料损耗分析:让损耗“算得清”

围绕工艺过程和物料流转,平台引入了系统化的数据分析与物料衡算方法,对糖分在关键环节中的变化进行结构化分析,使以往主要依赖经验判断的物料损耗问题,转变为可量化、可对比的结果。生产、工艺和设备状态对管理层更加透明,为工艺优化和质量管控提供了更有依据的决策支持。

各个工艺段制糖损耗分析

工艺质量实时监控:让生产“跑得稳”

围绕关键工艺参数和质量指标,平台构建了持续运行的工艺质量监控体系,对生产各环节的运行状态进行实时跟踪和对比分析,使工艺波动由事后发现逐步转变为过程可控。通过对工艺偏差和异常趋势的及时识别,有效降低了过程波动对产品质量的影响,推动生产运行保持稳定。

工艺质量状态在生产层和管理层之间更加透明,为工艺调整和质量管控提供了持续、可靠的数据依据,有效支撑制糖生产的稳定运行和产品质量的均质化。

澄清汁 PH 值实时监控

工艺质量异常告警(澄清汁 PH 值)

商业价值|制糖企业可持续演进的数字化底座

从行业应用与发展的角度来看,此类项目的价值并不仅体现在一次性的系统建设或阶段性验收上,更在于为企业构建了一套可长期演进、持续赋能的数字化底座。通过统一的数据标准与平台架构,制糖行业首次获得了对全生产过程进行持续感知、系统分析与长效优化的能力,这为后续的管理深化与智能应用奠定了坚实基础。

短期而言,项目的实施将有效提升生产透明度与运行稳定性;从中长期看,该平台有望逐步成长为支撑企业实现稳产、提质、降本与风险精准管控的核心基础设施。

行业意义|一条稳健、可落地的制糖数字化路径

适用企业

  • 希望持续提升管理水平和长期竞争力的甘蔗制糖企业
  • 正处于数字化转型关键阶段的中小规模糖厂

成功前提

  • 管理层对数字化目标和数据价值形成清晰、统一的认知
  • 具备相对稳定、连续的生产和设备数据基础

核心路径

  • 以“工艺 + 物料 + 设备”为主线,系统推进数字化建设
  • 按“看得见 → 算得清 → 跑得稳”的节奏逐步实施,避免激进投入
  • 在夯实数据基础之上,稳步迈向智能优化和 AI 应用

未来展望|通过组态强化生产过程与工艺质量管控

从预期效果来看,TDengine IDMP 将在生产数据采集、集中监控与分析方面为制糖企业打下坚实基础,从而有效支撑生产过程监控与工艺质量分析的日常需求。

在此基础上,企业可期待未来进一步引入并强化平台的组态能力,以更加直观、图形化的方式呈现工艺流程、设备运行状态与关键工艺参数。这将推动生产监控从以数据列表和图表展示为主,逐步升级为面向过程与运行状态的综合可视化管控。通过组态化配置关键质量指标和工艺约束条件,有助于将成熟的工艺经验固化为可自动执行的监控规则,提升对工艺偏差和质量风险的提前识别与主动干预能力,从而更好地服务于制糖生产长期、稳定、高效的运行目标。

关于海莱德

北京海莱德自动化工程有限公司成立于 2010 年,是国内工业自动化技术与解决方案提供商,在制糖行业自动化领域具有专业积累。公司业务覆盖系统设计、工程实施、调试及售后服务等全流程,并在食品饮料、汽车、电力、冶金、烟草和机械制造等行业积累了丰富工程经验。近年来,海莱德参与了多个“一带一路”糖厂的集中控制 DCS 系统及数字化系统的设计、供货与调试,持续推进从自动化向数字化、信息化和智能化方向升级,并结合涛思数据的时序数据库和 TDengine IDMP 平台建立起了对制糖企业真正高效、实用且易于掌握的,具备 AI 智能的数字化系统。

Zabbix 介绍

Zabbix 是一个开源的企业级监控解决方案,它可以监控各种网络参数,服务器健康状态,应用程序性能等,并提供灵活的告警机制和丰富的报表功能。

1、Zabbix Server

  • 核心组件,负责接收和处理所有监控数据,生成报警和报表。
  • 需要一个数据库来存储所有配置和监控数据。

2、Zabbix Agent

  • 部署在被监控的设备上,负责收集本地资源和应用数据,并发送给 Zabbix Server。
  • 支持多种操作系统,包括 Linux、Windows 和 Unix。
  • 其中 Agent 分为 Zabbix Agent 和 Zabbix Agent 2,后者是增强版 Agent,支持插件,适合大规模监控。

3、Zabbix Proxy

  • 用于分担 Zabbix Server 的负载,尤其适用于大规模分布式监控。
  • 可以在远程网络中收集数据并转发给 Zabbix Server。

4、Zabbix Web Interface

  • 基于 PHP 的 Web 界面,用于配置、管理和查看监控数据。
  • 提供用户管理、权限控制、仪表盘和报表等功能。

5、数据库

  • 存储所有的配置、监控数据、历史记录等。
  • 支持多种数据库,如 MySQL、PostgreSQL、Oracle、SQLite。

观测云

观测云是一款专为 IT 工程师打造的全链路可观测产品,它集成了基础设施监控、应用程序性能监控和日志管理,为整个技术栈提供实时可观察性。这款产品能够帮助工程师全面了解端到端的用户体验追踪,了解应用内函数的每一次调用,以及全面监控云时代的基础设施。此外,观测云还具备快速发现系统安全风险的能力,为数字化时代提供安全保障。

部署 DataKit

DataKit 是一个开源的、跨平台的数据收集和监控工具,由观测云开发并维护。它旨在帮助用户收集、处理和分析各种数据源,如日志、指标和事件,以便进行有效的监控和故障排查。DataKit 支持多种数据输入和输出格式,可以轻松集成到现有的监控系统中。(注意,请安装完整版 DataKit,Lite 版本 DataKit 没有 Zabbix 相关采集器。)

登录观测云控制台,在「集成」 - 「DataKit」选择对应安装方式。这里使用主机方式安装。

图片

复制一键安装命令,登陆到目标服务器执行该命令即可实现一键安装。

执行 datakit monitor 命令查看 DataKit 运行状态。

图片

指标数据采集

Zabbix API 方式(zabbix >= 5.0)

DataKit 方式

1、配置 pythond 配置文件

进入 DataKit 的配置文件目录 conf.d,进入 pythond 目录,复制 pythond.conf.samplepythond.conf, 修改如下配置:

[[inputs.pythond]]
  # Python input name
  name = 'zabbix_collect'  # required

  # System environments to run Python
  #envs = ['LD_LIBRARY_PATH=/path/to/lib:$LD_LIBRARY_PATH',]
  envs = ['ZABBIX_HOST=http://127.0.0.1/zabbix', 'ZABBIX_USER=Admin', 'ZABBIX_PASSWD=zabbix', 'ZABBIX_VERSION=7.0', 'COLLECT_TYPE=api']

  # Python path(recomment abstract Python path)
  cmd = "python3" # required. python3 is recommended.

  # Python scripts relative path
  dirs = ["zabbix"]

其中 ZABBIX_HOSTZABBIX_USERZABBIX_PASSWDZABBIX_VERSION 填写实际 Zabbix 的地址用户名密码和版本。

保存并退出。

2、复制脚本

进入 DataKit 目录,进入 python.d 目录,创建 zabbix 目录,点击下方链接下载脚本到 zabbix 目录下:

https://static.guance.com/integrations/zabbix/zabbix-collecto...

3、重启 DataKit

datakit service -R

4、检查采集任务,出现 zabbix_collect 任务则说明采集任务开启成功

datakit monitor

图片

Func 方式

1、安装采集脚本

登录 Func,点击「脚本市场」,选择预装脚本市场,点击管理按钮,进入预装脚本市场的脚本列表页。在过滤搜索框中输入 ,过滤出 zabbix 采集脚本。

图片

点击安装按钮,并在弹出的确认框点击确认按钮。点击确认后,在弹出的部署对话框中输入 zabbix 的地址,用户名,密码,以及版本号。确认信息无误后,点击部署启动脚本,即可完成脚本的部署以及采集任务的创建。

图片

2、查看采集结果

登录观测云,点击「指标」 - 「指标管理」,查找 zabbix 指标,看是否采集到。

图片

Streaming 方式(zabbix >= 6.4)

该方式类似于 Prometheus 的 Remote Write,由 zabbix server 主动将数据打给 DataKit,有较高的时效性。

HTTP Server

DataKit 方式

1、配置 pythond 配置文件

进入 DataKit 的配置文件目录 conf.d,进入 python.d 目录,复制 pythond.conf.samplepythond.conf,修改如下配置:

[[inputs.pythond]]
  # Python input name
  name = 'zabbix_collect'  # required

  # System environments to run Python
  #envs = ['LD_LIBRARY_PATH=/path/to/lib:$LD_LIBRARY_PATH',]
  envs = ['ZABBIX_HOST=http://127.0.0.1/zabbix', 'ZABBIX_USER=Admin', 'ZABBIX_PASSWD=zabbix', 'ZABBIX_VERSION=7.0', 'COLLECT_TYPE=stream', 'STREAM_LISTENER_PORT=8000']

  # Python path(recomment abstract Python path)
  cmd = "python3" # required. python3 is recommended.

  # Python scripts relative path
  dirs = ["zabbix"]

其中 ZABBIX_HOSTZABBIX_USERZABBIX_PASSWDZABBIX_VERSION 填写实际 Zabbix 的地址用户名密码和版本。

注意,COLLECT_TYPE 必须为 stream, 可根据需要调整 STREAM_LISTENER_PORT 的值。

保存并退出。

2、复制脚本

进入 DataKit 目录,进入 pythond 目录,创建 zabbix 目录,点击下方链接下载脚本到 zabbix 目录下:

https://static.guance.com/integrations/zabbix/zabbix-collecto...

3、重启 DataKit

datakit service -R

4、检查采集任务,出现 zabbix_collect 任务则说明采集任务开启成功

datakit monitor

图片

5、创建 Zabbix 连接器

登录 Zabbix,点击管理 -> 常规 -> 连接器,点击创建连接器,URL处输入 DataKit 的地址以及 zabbix stream 的监听端口(默认8000),信息类型选择数字和浮点数,点击添加。

图片

6、修改 zabbix_server.conf,修改 StartConnectors 为10,保存并重启 zabbix-server 服务

图片

7、验证指标采集结果

Func 方式

1、安装采集脚本

登录 Func,点击「脚本市场」,选择预装脚本市场,点击管理按钮,进入预装脚本市场的脚本列表页。在过滤搜索框中输入zabbix Stream ,过滤出zabbix Stream采集脚本。点击安装即可。

图片

2、创建URL

登录 Func,点击「管理」 - 「同步 API」(建议使用异步API)- 「新建」, 执行一栏选择刚导入脚本中的 Zabbix Receiver 方法,在参数指定中配置采集任务相关的配置,需要指定 zabbix_hostzabbix_userzabbix_passwdzabbix_version 为实际的值,base64 为 Zabbix 入参,此处填 INPUT_BY_CALLER,点击保存,并复制 url。

图片

3、创建 Zabbix 连接器

登录 Zabbix, 点击管理 -> 常规 -> 连接器,点击创建连接器,URL 处输入上一步创建的 url,信息类型选择数字和浮点数,点击添加。

图片

4、修改 zabbix_server.conf,修改 StartConnectors 为10,保存并重启 zabbix-server 服务

图片

5、验证指标采集结果

Kafka

该方式原理同 HTTP 方式消费指标数据,区别在于该方法引入了 Kafka 组件,需部署一个 HTTP 服务用于接收 Zabbix 的 stream 输出并将消息发送到 Kafka 中,详见https://git.zabbix.com/projects/ZT/repos/kafka-connector/browse,再由消费者订阅 Kafka,进行数据消费。

指标治理

Zabbix 指标数据结构

Zabbix 以主机为维度统计指标和告警。所以所有的指标必然包含主机信息。主机往往绑定一个或多个接口。

Zabbix 的指标(item key) 的形式为 key[param1,param2,param3]。其中 params 分为静态值和变量两种。

vfs.fs.size[{#FSNAME},pused]。其中 keyvfs.fs.size{#FSNAME} 是动态参数,指实际文件系统名,pused 为静态参数,指使用量。

上述采集方式中 zabbix apiStreamingZabbix Agent 2 三种采集方式均默认使用该规则进行指标映射。

建议的指标治理规则

由于 Zabbix 的数据结构跟观测云存在较大差异,为方便指标的使用与管理,结合实际企业用户的部署经验,对于 API 和 Streaming 的采集方式,我们建议 Zabbix 指标数据上传到观测云时按如下规则进行转换:

  • measurement (指标集):zabbix key 第一个 '.' 前的内容。
  • fields (指标):zabbix key + 所有静态参数。如 vfs.fs.size[{#FSNAME},pused],就会变成 vfs.fs.size.pusedsystem.cpu.load[all,avg1],就会变成system.cpu.load.all.avg1
  • tags (标签):zabbix item key 中的所有动态参数小写。同时会添加 hostip 以及 itemtags。如:vfs.fs.size[{#FSNAME},pused]tagfsname

Example:

Zabbix item keymeasurementFieldtags
vfs.dev.queue_size[{#DEVNAME}]vfsvfs.dev.queue_sizedevname
vfs.dev.read.await[{#DEVNAME}]vfsvfs.dev.read.awaitdevname
vfs.dev.read.rate[{#DEVNAME}]vfsvfs.dev.read.ratedevname
vfs.file.contents[/sys/block/{#DEVNAME}/stat]vfsvfs.file.contents._sys_blck__statdevname
vfs.file.contents["/sys/class/net/{#IFNAME}/type"]vfsvfs.file.contents._sys_class_net__typeifname
vfs.fs.inode[{#FSNAME},pfree]vfsvfs.fs.inode.pfreefsname
vfs.fs.size[{#FSNAME},pused]vfsvfs.fs.size.pusedfsname
net.if.in["{#IFNAME}",dropped]vfsnet.if.in.droppedifname
net.if.in["{#IFNAME}"]vfsnet.if.inifname

使用 Pipeline 的 reference table 实现自定义 Tag

场景:对于已有 CMDB 的客户,希望将主机的一些字段富足到指标 Tag 中。如应用、负责人信息等。

方式:使用 Pipeline 的 refertable 功能。

具体步骤:

1、使用 Func 创建一个脚本用于组装 reference table 数据,并发布。数据结构类似于:

{
"table_name": "zabbix-refer-table",
"column_name": ["itemid", "host", "ip", "itemkey"],
"column_type": ["string", "string", "string", "string"],
"row_data": [["1001", "host-1", "10.0.0.1", "vfs.fs.size"], 
    ["1002", "host-2", "10.0.0.2", "vfs.fs.size.pused"], 
    ["1003", "host-3", "10.0.0.3", "vfs.fs.size.pfree"]]
}

更多 reference table 用法,可参考:https://docs.guance.com/datakit/datakit-refer-table/

2、创建同步 API

登录 Func,点击「管理」 - 「同步 API」,点击 新建,在添加同步 API 对话框执行一栏中选择 zabbix-reference-table 获取脚本,点击确定保存脚本,并点击示例,获取请求 API。

图片

图片

3、编辑 DataKit 的配置文件

登录 DataKit 所在服务器(容器部署DataKit 参考官方文档),进入 DataKit 配置目录 /user/local/datakit/conf.d,编辑 datakit.conf 文件,修改 [pipeline] 选项下的 refer_table_url 的值为上一步复制的 Func 接口地址。DataKit 会将 refertable 数据预先加载到本地的 sqllite 中,可以根据 refer table 大小灵活选择是否使用内存模式的 sqllite。保存后重启 DataKit 生效。

图片

4、编辑 Pipeline

登录观测云,点击「管理」 - 「Pipelines」- 「新建 Pipeline」,这里给到一个参考 Pipeline,可根据实际业务情况和 refertable 数据结构灵活调整。

5、查看指标 Tag

超大数据量采集优化策略

  • 对于 Export Directory 方式,可以增加独立的高速 SSD 磁盘,增加单独的 zabbix server 用于数据导出(由于需要访问 zabbix API 和数据库,DataKit 采集 ExportDirectory 会比较占用 zabbix 资源)。调低 ExportFileSize 大小。
  • API 采集方式,可以通过分页查询,减少查询关联表,多线程查询等方式。
  • HTTP stream 方式,可以引入队列进行异步消费或使用异步方法。支持采样收集等方式。
  • 指标治理应先将映射关系生成后存入缓存或内存中,方便快速匹配。为减少 redis 读写压力可以考虑分片缓存或缓存压缩等方法。

各采集方式对比

采集方式采集原理优势劣势
Zabbix APIfunc/datakit使用python代码通过zabbix api获取指标数据。进行指标治理和映射后上传到观测云。可分布式采集,采集过程高可用便于灵活调整采集所需资源。便于指标的灵活治理和映射时效性不高,最大时延可达1minzabbix到func区间数据无法压缩,对该区间网路压力较大。通常需要在func维护采集代码,对采集代码质量要求较高,否则在进行大数据量采集时速度较慢导致时效变差或丢失数据,严重时会影响zabbix性能。
Streaming与zabbix建立网络长连接(HTTP server/Kafka)消费zabbix产生的history和event数据时效性高可分布式采集,采集过程高可用便于灵活调整采集所需资源。便于指标的灵活治理和映射zabbix到func区间数据无法压缩,对该区间网路压力较大。
Zabbix 转 Prometheus部署独立服务通过调用zabbix api将zabbix指标数据暴露成Prometheus metric接口供datakit采集集成简单,可以使用datakit现有能力。需要维护独立的转换服务。转换服务与zabbix间网络转发无压缩,对网络压力较大。无法灵活进行指标治理和映射。

总结

监控数据的集成是一个复杂的综合性工作,本文所展示方案所适用场景需相关运维工程师根据实际情况进行调整。

本工具仅限学术交流使用,严格遵循相关法律法规,符合平台内容的合法及合规性,禁止用于任何商业用途!

1. 项目背景与核心功能整合

开发初衷

小红书作为国内头部的社区种草平台,其海量笔记数据蕴含着极高的商业与学术价值。此前,为了满足不同场景的采集需求,我曾分别开发了针对评论、博主主页以及UID转换的三款独立工具。然而,许多用户反馈在处理复杂任务(如同时采集评论和主页笔记)时,频繁切换软件带来了操作上的不便。

为了解决这一痛点,我将上述三个核心模块进行了深度融合,推出了全新的 “爬小红书聚合软件v1.0”。这是一款集成了“评论采集”、“达人笔记采集”及“UID转换”的一体化数据解决方案。

适用场景

本工具严格遵循相关法律法规,仅限于学术交流与合规性研究,具体适用场景包括:

  • 获客截流: 从行业热门作品评论区精准挖掘目标用户画像。
  • 舆情分析: 用于社会舆情挖掘、网络传播规律等学术研究。
  • 内容优化: 辅助内容创作者分析优质博主风格与热门话题。
  • 运营辅助: 解决跨平台协作中链接与ID转换的痛点。

2. 技术架构与实现逻辑

本软件完全由 Python 语言独立开发,采用模块化设计以保证高效运行与维护。

核心模块分工

序号模块名称功能描述
1tkinter构建GUI图形用户界面
2requests负责发送HTTP请求
3json解析服务器返回的响应数据
4pandas处理并保存为CSV数据结果
5logging记录运行日志,便于异常回溯

核心代码实现

以下是软件中处理数据请求与保存的关键代码片段:

发送请求与解析:

# 发送请求
r = requests.get(url, headers=h1, params=params)
# 解析数据
json_data = r.json()

数据解析示例(评论内容):

for c in json_data['data']['comments']: 
    # 评论内容 
    content = c['content'] 
    self.tk_show('评论内容:' + str(content)) 
    content_list.append(content)

数据保存至CSV:

# 保存数据到DF
df = pd.DataFrame( {  
    '笔记链接': 'https://www.xiaohongshu.com/explore/' + note_id,  
    '笔记链接_长': note_url2,  
    '页码': page,  
    '评论者昵称': nickname_list,  
    '评论者id': user_id_list,  
    '评论者主页链接': user_link_list,  
    '评论时间': create_time_list,  
    '评论IP属地': ip_list,  
    '评论点赞数': like_count_list,  
    '评论级别': comment_level_list,  
    '评论内容': content_list, })
# 设置csv文件表头
if os.path.exists(self.result_file3): 
    header = False
else: 
    header = True
# 保存到csv
df.to_csv(self.result_file3, mode='a+', header=header, index=False, encoding='utf_8_sig')
self.tk_show('文件保存成功:' + self.result_file3)

采用logging模块记录日志运行过程,方便debug回溯场景:

def get_logger(self):    
    self.logger = logging.getLogger(__name__)    
    # 日志格式
    formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s'    
    # 日志级别
    self.logger.setLevel(logging.DEBUG)    
    # 控制台日志
    sh = logging.StreamHandler()    
    log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S')    
    # info日志文件名
    info_file_name = time.strftime("%Y-%m-%d") + '.log'    
    # 将其保存到特定目录
    case_dir = r'./logs/'    
    info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name,                                        
                                          when='MIDNIGHT',                                        
                                          interval=1,                                        
                                          backupCount=7,                                        
                                          encoding='utf-8')

3. 功能详解与数据产出

本软件通过接口协议进行数据交互,相比模拟浏览器(RPA)具有更高的稳定性。采集过程中,系统会实时(每页请求间隔1~2s)将数据存入CSV文件,有效防止因网络异常导致的数据丢失。

功能一:搜索笔记与评论采集

该模块支持根据关键词或笔记链接采集评论区数据。在这里插入图片描述

  • 笔记数据字段(19个): 包含关键词、笔记ID、标题、正文、点赞/收藏/评论数、发布时间及IP属地等。
  • 评论数据字段(11个): 包含评论者昵称/ID、评论内容、点赞数、IP属地及评论级别等。
  • 多媒体支持: 自动下载搜索到的笔记封面图片。

功能二:博主主页笔记采集

支持根据博主主页链接批量抓取其发布的历史笔记。在这里插入图片描述

  • 采集字段(18个): 包含作者信息、笔记ID、链接、类型、互动数据及正文内容等。
  • 结果展示: 生成结构化的CSV文件及对应的图片素材包。

功能三:UID与链接转换工具

提供高频使用的转换功能,无需打开网页即可完成:在这里插入图片描述

  1. 主页链接 $\leftrightarrow$ 小红书号(xhs号)互转。
  2. App端作品链接 $\rightarrow$ PC端作品链接转换。

4. 使用指南

前置准备

  • 在开始采集前,用户需获取并填写自己的Cookie值。
  • 打开浏览器开发者工具(F12),复制Cookie值。
  • 将其粘贴至软件同级目录下的 cookie.txt 文件中。

操作流程

  • 登录界面: 启动软件并完成登录验证。
  • 选择模块: 根据需求选择“搜索采集”、“主页采集”或“转换工具”。
  • 配置参数: 填写关键词、时间范围或博主链接等信息。
  • 执行任务: 点击「开始执行」,实时监控进度条。
  • 查看结果: 任务完成后,在软件所在文件夹查看生成的CSV文件及图片文件夹。

5.演示视频

为了方便用户上手,附带了完整的操作演示视频:

mp.weixin.qq.com/s/t9cKGsgJoI9rca3I1w5RdA

END. 版权声明

本软件及文章均为本人独立原创开发与编写。请尊重原创成果,严禁任何形式的二创、转载或盗发,违者必究!

一个基于 Wails 框架开发的网页备份工具,支持完整备份网页内容,包括 HTML、CSS、JavaScript、图片等所有资源,并提供隐私清理功能。

Star History

Star History Chart

⚠️ 重要声明

本工具仅供学习和研究使用,请勿用于任何违法活动!

  • 🎓 学习目的:仅用于学习网页技术和备份个人网站
  • 📋 遵守规则:请遵守目标网站的 robots.txt 和使用条款
  • 🚫 禁止滥用:不得用于恶意爬取、侵犯版权或其他违法行为
  • ⚖️ 自负责任:使用者需自行承担使用责任

🚀 功能特性

核心功能

  • 📦 完整备份:备份网页的所有资源文件(HTML、CSS、JS、图片、视频等)
  • 🛡️ 隐私清理:自动移除第三方跟踪代码、统计代码、广告代码
  • 📊 实时进度:显示备份进度和文件下载状态
  • 🗜️ ZIP 打包:自动将备份文件打包为 ZIP 格式
  • 📁 目录选择:支持选择自定义保存目录
  • 📱 响应式布局:栅格布局,适应不同窗口大小
  • 🌍 跨平台:支持 Windows、macOS、Linux

界面特性

  • 🎨 现代化 UI:基于 Naive UI 的美观界面
  • 📋 详细配置:丰富的备份选项配置
  • 📈 进度监控:实时显示文件下载状态
  • 🔍 文件详情:可查看每个文件的下载进度

⚠️ 功能限制

请注意:本工具主要适用于简单的静态网页备份

技术限制

  • 动态内容:无法备份需要 JavaScript 动态加载的内容
  • 懒加载:不支持懒加载(lazy loading)内容
  • 用户交互:无法处理需要用户交互才显示的内容
  • SPA 路由:不支持单页应用(SPA)的动态路由内容
  • 登录内容:无法备份需要登录才能访问的内容
  • 复杂框架:对于 React、Vue、Angular 等现代框架构建的复杂应用效果有限

适用场景

  • 静态网站:个人博客、企业官网等静态页面
  • 简单页面:新闻文章、产品介绍页面
  • 文档网站:技术文档、帮助页面
  • 传统网站:基于传统 HTML/CSS/JS 的网站

🛡️ 隐私清理功能

自动清理的内容

  • 📊 统计代码:Google Analytics、百度统计、CNZZ、Mixpanel、Segment 等
  • 👁️ 跟踪代码:Facebook Pixel、TikTok Pixel、Snapchat Pixel、Hotjar、CrazyEgg、Clarity 等
  • 📢 广告代码:Google Ads、DoubleClick、Taboola、Outbrain、PopAds、PropellerAds、AdCash 等
  • 🏷️ 标签管理器:Google Tag Manager (GTM) 等
  • ⚠️ 恶意标签:base 标签劫持、自动跳转、来源伪造、恶意重定向等

安全防护

  • 🔒 链接劫持防护:自动删除所有 base 标签,防止恶意网站劫持页面中的所有相对链接
  • 🚫 自动跳转防护:删除 meta refresh 标签,防止页面自动跳转到钓鱼网站或恶意网站
  • 🎭 来源伪造防护:删除 meta referrer 标签,防止恶意网站伪造访问来源
  • 🔄 重定向防护:检测并删除包含恶意重定向的 JavaScript 代码

🛠️ 技术栈

前端技术

  • 框架:Vue 3 + TypeScript
  • UI 库:Naive UI
  • 构建工具:Vite
  • 路由:Vue Router 4
  • 图标:Ionicons 5

后端技术

  • 语言:Go 1.23+
  • 框架:Wails v2
  • 网页解析:goquery
  • 文本编码:golang.org/x/text
  • HTTP 客户端:Go 标准库

开发工具

  • 包管理:Go Modules + npm
  • 类型检查:TypeScript + Vue TSC
  • 代码格式化:内置支持

📋 系统要求

开发环境

  • Go:1.23 或更高版本
  • Node.js:18 或更高版本
  • Wails CLI:v2 最新版本

运行环境

  • Windows:Windows 10/11 (x64)
  • macOS:macOS 10.15+ (Intel/Apple Silicon)
  • Linux:主流发行版 (x64)

🚀 快速开始

1. 克隆项目

复制
git clone https://github.com/adiudiuu/site_backup.git
cd site_backup

2. 安装依赖

复制
# 安装 Go 依赖
go mod tidy

# 安装前端依赖
cd frontend
npm install
cd ..

3. 开发运行

复制
# 使用 Makefile(推荐)
make run

# 或直接使用 Wails CLI
wails dev

4. 构建发布

复制
# 构建 Windows 版本
make build-win

# 构建 macOS 版本(需要在 macOS 上运行)
make build-mac

# 或使用 Wails CLI
wails build

📖 使用指南

基本使用步骤

  1. 输入网址:在目标网址框中输入要备份的网页 URL
  2. 选择目录:点击"选择目录"按钮,选择备份文件的保存位置
  3. 配置选项
    • 选择要备份的内容类型(图片、样式、脚本、视频)
    • 选择要清理的隐私内容(统计代码、跟踪代码、广告代码)
    • 调整高级选项(超时时间、最大文件数、并发数)
  4. 开始备份:点击"开始备份"按钮
  5. 监控进度:实时查看备份进度和文件下载状态
  6. 完成备份:备份完成后,ZIP 文件将保存到指定目录

使用建议

  • 🎯 优先选择:静态网站或博客进行备份
  • ⚠️ 避免备份:复杂的动态网站或 SPA 应用
  • 🧪 先测试:测试小页面后再备份大型网站
  • ⏱️ 注意频率:注意网站的访问频率限制,避免过于频繁的请求
  • 📏 合理配置:根据网络情况调整超时时间和并发数

故障排除

  • 网络错误:检查网络连接和 URL 是否正确
  • 访问被拒:可能遇到反爬虫机制,建议稍后重试
  • 文件过大:调整最大文件数限制或增加超时时间
  • 权限问题:确保对保存目录有写入权限

🤝 贡献指南

欢迎提交 Issue 和 Pull Request!

开发流程

  1. Fork 本仓库
  2. 创建特性分支 (git checkout -b feature/AmazingFeature)
  3. 提交更改 (git commit -m 'Add some AmazingFeature')
  4. 推送到分支 (git push origin feature/AmazingFeature)
  5. 开启 Pull Request

代码规范

  • Go 代码遵循 gofmt 格式
  • TypeScript 代码使用 ESLint 规范
  • 提交信息使用英文,格式清晰

📄 许可证

本项目采用 GNU General Public License v3.0 许可证。

这意味着:

  • ✅ 可以自由使用、修改和分发
  • ✅ 可以用于商业目的
  • ⚠️ 修改后的代码必须开源
  • ⚠️ 必须保留原始许可证和版权声明
  • ⚠️ 不提供任何担保

详细信息请查看 LICENSE 文件。

⚖️ 免责声明

  • 本工具仅供学习和研究使用
  • 使用本工具产生的任何法律后果由使用者自行承担
  • 开发者不承担任何责任
  • 请确保您的使用行为符合当地法律法规和目标网站的使用条款
  • 请尊重网站的 robots.txt 文件和访问限制

📞 联系方式


特别说明

  • 我们为你提供从竞争白热化的移动互联网红海赛道,向 AI-native 应用全新蓝海领域转型的稀缺战略机遇。
  • 我们秉持结果导向,核心团队均由各领域资深专家领衔,从根源上杜绝 “外行指导内行” 的情况;管理上坚决摒弃微观管理(micro-manage),充分赋予团队自主决策与执行空间。
  • 团队成员中既有退役军人,也有伙伴;既有大专生,也有博士后。人员背景多元包容,招聘不设学历门槛,始终坚持唯才是举。

官网

职位描述

  • 主导 Android 端核心数据采集方案的设计与落地,负责主流及高难度 APP 的数据挖掘,包括复杂 UI 交互分析、数据交互逻辑还原、加密协议破解等核心工作,为 AI 大模型训练提供高质量数据支撑。
  • 深耕 Android 端逆向工程:负责 Android APP 的脱壳、加解密分析,精通 Smali/Java 代码还原,基于 Arm64 指令集进行汇编级分析,主导 Xposed/LSPosed 插件、Frida 脚本的设计与开发,实现对目标 APP 的 Hook 与数据拦截。
  • 主导 Android 端风控对抗体系搭建:针对 APP 端的设备指纹(IMEI/AndroidID/OAID)、Root 检测、行为验证、签名校验、进程注入检测等风控策略,设计并落地有效的对抗方案,保障采集任务的稳定运行。
  • 负责 Android 端自动化采集框架的设计与优化:基于 UiAutomator、Espresso 等框架封装高效的自动化采集工具,实现复杂场景下的 APP 自动操作、数据提取与异常重试,提升采集效率与稳定性。
  • 参与 Web 端中高难度数据采集任务:基于 Python 生态爬虫框架(Scrapy/Playwright)开发复杂动态渲染页面(SPA/Vue/React)的抓取逻辑,协助破解 Web 端 JS 混淆、参数签名等加密机制。
  • 深入分析 Web 及 Android 端网络协议(HTTP/HTTPS/WebSocket/gRPC),主导复杂协议的还原与模拟,协助构建分布式数据采集架构,参与采集任务的分布式调度与性能优化(并发控制、速率调节)。
  • 协同 AI 算法团队输出标准化数据格式,优化数据采集流程与质量校验机制;沉淀 Android 逆向、双端风控对抗等技术经验,形成技术文档与团队共享。

岗位要求

  • 3~5 年数据采集相关经验,其中至少 2 年以上 Android 端数据采集 / 逆向核心经验,具备高难度 Android APP 逆向(如加固脱壳、复杂加密协议还原)及风控对抗的实战落地案例。
  • 精通 Android Framework,深入理解 AccessibilityService 原理、UI 渲染机制、AMS/PMS 等系统服务工作流程;熟练掌握 Smali 指令、Arm64 指令集,能够独立完成 Android APP 的静态分析与动态调试。
  • 具备扎实的 Android 开发与逆向技能:能够独立开发 Xposed/LSPosed 插件、Frida 脚本;熟练使用 IDA Pro、Jadx、Apktool 等逆向工具;有 APP 加固(360 加固、爱加密等)脱壳经验者优先。
  • 精通 Android 端网络协议分析:能够使用 Charles/Fiddler/Wireshark 等工具完成复杂网络抓包,独立还原 HTTPS/WebSocket 等协议的加密交互逻辑;了解 Android 端网络请求框架(OkHttp/Retrofit)的工作原理。
  • 具备 Web 端数据采集基础:熟悉 Python 编程语言,熟练使用 Scrapy、Playwright 等爬虫框架及数据解析工具;具备 Web 端 JS 逆向、参数加密破解、基础反爬(IP 代理、浏览器指纹)对抗经验。
  • 了解分布式数据采集架构:熟悉 Redis(缓存 / 队列)、MongoDB 等中间件的使用,能够基于 Scrapy-Redis 等框架实现简单的分布式任务调度;具备大规模数据采集场景下的问题排查与性能优化能力。
  • 具备较强的独立攻坚能力、问题分析与解决能力,良好的沟通协作意识与技术沉淀意愿,能承受高难度任务压力,自驱力强。

工作地址

北京市海淀区清华同方科技广场 D 座 20 层 或 北京市朝阳区锐创国际中心 A 座 12 层

薪资

30 ~ 50 * 13 薪

联系方式

yinglu@pureblueai.com


📌 转载信息
原作者:
snakeninny
转载时间:
2026/1/10 19:18:18

无限薅 ProxyScrape IP 池(7 天试用)

给大家分享下 通过临时邮箱获取 ProxyScrape 7 天试用 IP 池 的方法,可多次注册使用(单次最多 100 个 IP)。


IP 池的作用

  • 绕过访问频率与简单风控限制
  • 数据采集 / 爬虫调度
  • 模拟多地区访问环境


准备工作

  1. ProxyScrape 官网
    📄 Free Proxy List - Updated every 5 minutes

  2. 临时邮箱(推荐)
    https://tmailor.com/

    测试过多个临时邮箱服务,目前该站可正常接收 ProxyScrape 验证邮件

  3. 浏览器无痕模式
    用于避免缓存、Cookie 影响注册流程


开始注册

  1. 打开注册页面
    ProxyScrape Sign up

  2. 使用 tmailor.com 获取的临时邮箱填写注册信息

  3. 输入验证码

  4. 前往临时邮箱查收验证邮件并完成注册


使用方式

注册完成后,即可在控制台中创建并使用 7 天试用 IP 池:



说明

  • 单个试用账号可获得 最多 100 个 IP
  • 到期后可更换临时邮箱重新注册
  • 适合测试、学习、开发环境使用

接下来就可以放心使用你的 IP 池了。


📌 转载信息
转载时间:
2025/12/28 18:50:24

无限薅 ProxyScrape IP 池(7 天试用)

给大家分享下 通过临时邮箱获取 ProxyScrape 7 天试用 IP 池 的方法,可多次注册使用(单次最多 100 个 IP)。


IP 池的作用

  • 绕过访问频率与简单风控限制
  • 数据采集 / 爬虫调度
  • 模拟多地区访问环境


准备工作

  1. ProxyScrape 官网
    📄 Free Proxy List - Updated every 5 minutes

  2. 临时邮箱(推荐)
    https://tmailor.com/

    测试过多个临时邮箱服务,目前该站可正常接收 ProxyScrape 验证邮件

  3. 浏览器无痕模式
    用于避免缓存、Cookie 影响注册流程


开始注册

  1. 打开注册页面
    ProxyScrape Sign up

  2. 使用 tmailor.com 获取的临时邮箱填写注册信息

  3. 输入验证码

  4. 前往临时邮箱查收验证邮件并完成注册


使用方式

注册完成后,即可在控制台中创建并使用 7 天试用 IP 池:



说明

  • 单个试用账号可获得 最多 100 个 IP
  • 到期后可更换临时邮箱重新注册
  • 适合测试、学习、开发环境使用

接下来就可以放心使用你的 IP 池了。


📌 转载信息
转载时间:
2025/12/28 18:31:52

> ? Lms testlab教程
>   ? 【2】LMS Test.lab 学习文档资料包
>   ? 【1】test.lab 基础教程_已更新
>   ? 【3】LMS Test.Lab中文操作指南
>   ? 【1】LMS test lab培训--模态试验回放
>   ? 【必要】用来练手的数据文件
>   ? 数字信号处理 原理、算法与应用 第4版_.pdf
>     ? 【常用技巧5】如何利用小波分析的方法判断异响频率范围 已更新video
>     ? 【常用技巧13】如何将TXT时间信号导入LMS test.lab中 video已更新
>     ? 【常用技巧28】如何截取整车所需的数据 已更新video
>     ? 【常用技巧12】如何对数据进行重采样(降采样)已更新
>     ? 【常用技巧17】如何利用小波分析的方法 20220920已更新video
>     ? 【常用技巧29】怎么简简单单的生成colormap
>     ? 【常用技巧2】LMS通过CAN口读取数据_video
>     ? 【NVH应用实例4 video+素材】LMS软件计算悬置隔振率 已更新
>     ? 【常用技巧27】如何将振动加速度改成速度_已更新video
>     ? 【NVH应用实例1 video+素材】声音品质相关系数MATLAB求解方法 已更新video
>     ? 【常用技巧7】如何选择传感器及传感器灵敏度的意义 已更新
>     ? 【常用技巧10】平板模态测试 已更新(欠缺工程中录的)
>     ? 【常用技巧9】如何进行主观判断及各个工况都包含哪些
>     ? 【常用技巧20】麦克风标定 已更新video
>     ? 【常用技巧19】横纵轴设置 已更新video
>     ? 【常用技巧1】LMS软件自动计算振动RMS值(已完成)video
>     ? 【常用技巧15】如何在LMS test.lab中更改和创建自己的单位-已更新video
>     ? 【NVH应用实例2 video+素材】如何进行频谱分析和简单报告 已更新video
>     ? 【常用技巧8】如何测量飞轮曲轴的转速波动 已更新video
>     ? 【常用技巧3】整车状态下ODS工作模态分析 暂未录制视频
>     ? 【常用技巧22】在线处理 已更新video
>     ? 【34】提取转速的相关资料
>     ? 【常用技巧6】如何计算固定转速段的有效值和最值
>     ? 【常用技巧24】通道设置 已更新video
>     ? 【常用技巧31】如何导入时间信号数据并进行FFT分析 已更新video
>     ? 【常用技巧26】如何进行NVH测试 已更新video
>     ? 【常用技巧26】LMS test.lab如何处理手机录的音频-video已更新
>     ? 【NVH应用实例3 video+素材】手机录的音频如何数据后处理-已更新video
>     ? 【常用技巧16】如何在LMS test.lab中利用已有的测试项目快速设置测试模板
>     ? 【常用技巧14】如何设置限值曲线-已更新video
>     ? 【常用技巧4】采样率设置 已更新video
>     ? 【常用技巧33】如何对信号进行滤波处理
>     ? 【常用技巧18】多图形显示的设置_已更新
>     ? 【常用技巧23】追踪设置 已更新video
>     ? 【常用技巧25】GPS信号及整车车速同步采集方法 已更新video
>     ? 【常用技巧30】如何生成PSD曲线 已更新video
>     ? 【常用技巧21】时域数据提取转速 已更新video
>     ? 【常用技巧32】速度信号如何积分得到位移信号
>     ? 自做平板模态试验(激振器).rar
>     ? 更新说明.txt
>     ? 素材.exe
>     ? 【1】NVH基础知识
>     ? 【3】LMS Test.Lab中文操作指南
>     ? 【2】Test lab基础知识
>     ? 噪声振动相干性分析.pdf
>     ? 模态测试视频
>     ? training
>     ? 修复录像8.lxe
>     ? 修复录像9.lxe
>     ? 变速箱模态视频.lxe
>     ? LMS Test.Lab中文操作指南_Desktop桌面操作.pdf
>     ? LMS Test.Lab中文操作指南_Modal Analysis模态分析.pdf
>     ? LMS Test.Lab中文操作指南_Modification Prediction模态修该预测.pdf
>     ? LMS Test.Lab 刚体特性分析.pdf
>     ? Test.Lab_Trainning_声学测试.pdf
>     ? LMS Test.Lab中文操作指南_OMA运行模态分析.pdf
>     ? Test.Lab_Trainning_模态部分.pdf
>     ? LMS Test.Lab中文操作指南_Modification Predict.pdf
>     ? Test.Lab_Trainning_振动控制.pdf
>     ? Test.Lab Spectral Acquisition试验步骤.pdf
>     ? TL QTV 操作步骤说明.pdf
>     ? LMS Test.Lab中文操作指南.pdf
>     ? Test.Lab_Trainning_旋转机械.pdf
>     ? LMS Test.Lab中文操作指南_Modal Analysis模态分.pdf
>     ? LMS Test.Lab中文操作指南_应变测试.pdf
>     ? LMS Test.Lab中文操作指南Sound Intensity Testing and Analysis声强测试与分析.pdf
>     ? LMS Test.Lab中文操作指南_Signature信号特征测试分析.pdf
>     ? Test.Lab_Trainning_完整.pdf
>     ? LMSTest.Lab模态分析.pdf
>     ? LMSTest.Lab中文操作指南.pdf
>     ? LMS Test.Lab中文操作指南_ODS工作变形分析.pdf
>     ? LMS Test.Lab中文操作指南_Impact锤击法模态测试.pdf
>     ? LMS Test.Lab中文操作指南_Spectral Testing谱分析.pdf
>     ? LMS Test.Lab中文操作指南_Signature信号特征测.pdf
>     ? LMS Test.Lab中文操作指南_Geometry几何建模.pdf
>     ? Resampling参数说明.pdf
>     ? Modal试验及分析步骤.pdf
>       ? 如何利用小波分析的方法判断异响频率范围.mp4
>       ? 【基础操作32】如何截取整车所需的数据 .mp4
>     ? 某07产品_TPA_20241024
>     ? 【1】AAAA 商用车整车模态试验结果 lms文件
>     ? 【2】某车型的方向盘模态测试-锤击法
>     ? 【3】TPA_engine_10.06_cs50
>     ? TPA-demo_eng_source_data1.lms
>     ? MyPlate.lms
>     ? Up 100%Tmax 500-7500rpm 3.ldsf
>     ? 比亚迪BYD 唐整车CP0010 售后啸叫问题测试.rar
>     ? JIKE 电机啸叫整车测试(转速离线提取)-20221025.rar
>     ? 模态测试结果文件.lms
>       ? 如何将txt数据转换成Test.lab可处理的.mp4
>       ? CAN 数据信号采集方法(Method of CAN signal acquisition).mp4
>       ? 新录音 6.m4a
>       ? 2月18日 (8).mp4
>       ? 如何利用小波分析的方法.mp4
>       ? 如何利用小波分析敲击问题.lms
>       ? G6_R_20%Me_1.ldsf
>       ? 如何对数据进行重采样处理.mp4
>       ? 官方说明(resampling).pptx
>       ? 如何对数据进行重采样处理.lms
>       ? 怎么生成colormap图操作.mp4
>       ? 如何选择传感器的灵敏度和量程.docx
>       ? LMS软件计算悬置隔振率.mp4
>       ? 声音品质相关系数MATLAB求解方法.mp4
>       ? 如何将振动加速度改成速度.mp4
>       ? 麦克风标定.mp4
>       ? 横纵轴设置.mp4
>       ? 整车NVH对标试验方案及主观驾评工况.xlsx
>       ? 平板模态测试.mp4
>       ? 飞轮曲轴的转速波动提取.mp4
>       ? 如何在LMS test.lab中更改和创建自己的单位 .mp4
>       ? LMS软件自动计算振动RMS值(已完成).mp4
>       ? 如何对测试数据进行频谱分析和撰写简单报告.mp4
>       ? 如何计算固定转速段的有效值和最值.mp4
>       ? 仰望U8进排气歧管的怠速工作变形ODS分析教程 资料文件
>       ? 整车-55#车 整车ODS原状态测试_20220412
>       ? 参考文献
>       ? Time Animation and Operational Deflection Shapes.pdf
>       ? 在线处理.mp4
>       ? 提取转速
>       ? 转速提取.mp4
>       ? 提取转速.lms
>       ? P2_25%Me_1 - 副本.ldsf
>       ? P2_25%Me_1.ldsf
>       ? LMS test.lab如何处理手机录的音频.mp4
>       ? 如何进行NVH测试.mp4
>       ? 通道设置.mp4
>       ? 如何导入时间信号数据并进行FFT分析.mp4
>       ? Project1.lms
>       ? data.xlsx
>       ? www.wav
>       ? 手机录的音频如何数据后处理.mp4
>       ? 如何设置限值曲线.mp4
>       ? 7.采样率设置.mp4
>       ? 如何在LMS test.lab中利用已有的测试项目快速设置测试模板.mp4
>       ? 追踪设置.mp4
>       ? GPS信号及整车车速同步采集方法.mp4
>       ? 13.多图形显示的设置(1).mp4
>       ? 六档满油门1600.ldsf
>       ? 如何对信号进行滤波.lms
>       ? 如何对音频信号进行滤波.mp4
>       ? 实验模态分析基础.pdf
>       ? 数字信号处理基础知识.pdf
>       ? 声学测量和分析基础1.pdf
>       ? 试验模态模型的验证和应用.pdf
>       ? 转速提取与后处理.mp4
>       ? 如何生成PSD曲线 .mp4
>       ? 位移-加速度
>       ? 位移-加速度1
>       ? data(1).xlsx
>       ? 速度信号如何积分得到位移信号.mp4
>       ? 位移-加速度.lms
>       ? 位移-加速度1.lms
>       ? LMS train vedio
>       ? 汽车动力总成悬置系统NVH性能分析及改进设计.pdf
>       ? 整车NVH声学包装件解析.pdf
>       ? LMS使用方法Signature Testing.pdf
>       ? 采用频谱分析解决NVH问题的研究及应用.pdf
>       ? 基于NVH技术的五菱荣光发动机悬置支架的优化方案.pdf
>       ? 【汽车理论教程】第五章 汽车的操纵稳定性.pdf
>       ? 噪声原理.pdf
>       ? 硕士论文-基于LabVIEW的汽车NVH测试分析系统设计.pdf
>       ? 变速箱NVH测试与分析_ch.pdf
>       ? LMS理论背景.pdf
>       ? 排气系统NVH性能设计.pdf
>       ? 《汽车罩(盖)锁装置》征求意见稿.txt
>       ? 整车NVH分析.pdf
>       ? 阶次分析在发动机进气噪声研究中的应用.pdf
>       ? 振动分析技术.pdf
>       ? 汽车常见NVH问题与解决方案.pdf
>       ? 进排气系统NVH培训讲稿.pdf
>       ? 福特NVH(pdf).pdf
>       ? 齿轮阶次.pdf
>       ? 白车身强度台架试验方法及疲劳寿命的研究.pdf
>       ? MPV整车NVH问题整改综述.pdf
>       ? LMS声学培训.pdf
>       ? 盛瑞变速箱啸叫测试试验报告.pdf
>       ? wubinjiaoliu xuanzhi.lxe
>       ? 录像7.lxe
>       ? 录像5.lxe.player.exe
>       ? 录像3.lxe.player.exe
>       ? 变速箱模态视频.lxe
>       ? 录像4.lxe.player.exe
>       ? 录像5.lxe
>       ? LXE文件播放说明.txt
>       ? 录像4.lxe
>       ? 录像3.lxe
>       ? LMSTest.Lab中文操作指南.pdf
>       ? TL QTV 操作步骤说明.pdf
>       ? LMS Test.Lab中文操作指南.pdf
>       ? LMS Test.Lab中文操作指南_Signature信号特征测.pdf
>       ? Test.Lab_Trainning_振动控制.pdf
>       ? LMS Test.Lab中文操作指南_Signature信号特征测试分析.pdf
>       ? LMS Test.Lab中文操作指南_Modification Prediction模态修该预测.pdf
>       ? LMS Test.Lab 刚体特性分析.pdf
>       ? LMS Test.Lab中文操作指南_Modal Analysis模态分.pdf
>       ? Modal试验及分析步骤.pdf
>       ? Test.Lab_Trainning_旋转机械.pdf
>       ? Test.Lab_Trainning_模态部分.pdf
>       ? LMS Test.Lab中文操作指南_Geometry几何建模.pdf
>       ? Test.Lab_Trainning_完整.pdf
>       ? LMS Test.Lab中文操作指南Sound Intensity Testing and Analysis声强测试与分析.pdf
>       ? LMS Test.Lab中文操作指南_Modal Analysis模态分析.pdf
>       ? LMS Test.Lab中文操作指南_Spectral Testing谱分析.pdf
>       ? LMS Test.Lab中文操作指南_OMA运行模态分析.pdf
>       ? Test.Lab_Trainning_声学测试.pdf
>       ? LMSTest.Lab模态分析.pdf
>       ? Resampling参数说明.pdf
>       ? Test.Lab Spectral Acquisition试验步骤.pdf
>       ? LMS Test.Lab中文操作指南_ODS工作变形分析.pdf
>       ? LMS Test.Lab中文操作指南_Modification Predict.pdf
>       ? LMS Test.Lab中文操作指南_Desktop桌面操作.pdf
>       ? LMS Test.Lab中文操作指南_Impact锤击法模态测试.pdf
>       ? LMS Test.Lab中文操作指南_应变测试.pdf
>       ? SCADAS III presentation 180604.ppt
>       ? Running modes analysis.pdf
>       ? Spectral Acquisition.pdf
>       ? Test Based Transfer Path Analysis concepts.pdf
>       ? Analysis and structural design.pdf
>       ? Normal_modes_testing.pdf
>       ? procedure of modal analysis_from Cada-X data.ppt
>       ? 1 - Modal Impact.pdf
>       ? Signal processing.pdf
>       ? 2 - Operation Deflection Shapes.pdf
>       ? LMS TL OMA.pdf
>       ? Testing_training.ppt
>       ? 01 DSP.pdf
>       ? Spectral processing.pdf
>       ? 3 - Sound Diagnosis.pdf
>       ? 纯模态测试.pdf
>       ? LMS Test.Xpress声振分析仪.pdf
>       ? Functions.pdf
>       ? Signature Testing.pdf
>       ? Modal validation.pdf
>       ? Operational modal analysis.pdf
>       ? Modal Impact.pdf
>       ? Resampling.pdf
>       ? Counting and histogramming.pdf
>       ? LMS TL UFF.pdf
>       ? 3- Geometry.pdf
>       ? Rigid body modes.pdf
>       ? 7- DSP Basics.pdf
>       ? Structural analysis testing.pdf
>       ? Modal_concepts.pdf
>       ? 6_Signature_Testing_4B.ppt
>       ? 3 - Modal Analysis.pdf
>       ? Acoustic measurements.pdf
>       ? 5 - Structural Testing Overview.pdf
>       ? 1 - Signature Testing.pdf
>       ? LMS_Qsources产品介绍.pdf
>       ? Acoustic holography.pdf
>       ? 2 - Spectral Acquisitioning.pdf
>       ? 4 - Multi Run Modal Analysis.pdf
>       ? 2 - Plotting.pdf
>       ? 1 - Throughput Processing.pdf
>       ? Sound metrics.pdf
>       ? Modal Analysis.pdf
>       ? 24_DSP_Basics_CN.ppt
>       ? 2 - Time Signal Calculator.pdf
>       ? Design.pdf
>       ? Normal_modes_monitor.pdf
>       ? 3 - Compare Runs And Post-Processing.pdf
>       ? 4normal modes testing.pdf
>       ? 6- Operational Modal Analysis.pdf
>       ? Statistical functions.pdf
>       ? Harmonic tracking.pdf
>       ? Geometry concepts.pdf
>       ? Estimation of modal parameters.pdf
>       ? Time frequency analysis.pdf
>       ? 1 - Environmental Testing.pdf
>       ? Navigator-CALCULATOR.ppt
>       ? Sound quality.pdf
>       ? Desktop.pdf
>       ? Digital filtering.pdf
>       ? Time Animation and Operational Deflection Shapes.pdf
>       ? 6 - Background Experimental Modal Testing.pdf
>       ? 5normal modes monitor.pdf
>       ? Acoustic Quantities.pdf
>       ? Procedure of Signature test.ppt
>       ? Project1
>       ? Project1.lms
>       ? 4.CRFM &SW模态测试-2 SV91EV3A-20161113.lms
>       ? 6.spindle_source impact AAA车型-20161113.lms
>       ? 1.商用车SV91车轴灵敏度试验数据.xlsx
>       ? 2.SV91排气系统模态测试-AAA车型-20161104.lms
>       ? 5.spindle_force impact AAA车型-20161113.lms
>       ? 8.传动系统模态试验 AAA车型-20161109.lms
>       ? 3.商用车整车模态测试AAA车型-20161104.lms
>       ? 7.商用车动力扭矩输出灵敏度AAA车型-20161104.lms
>       ? 1.动力总成刚体模态-AAA车型-20161109.lms
>       ? Section1
>       ? Section1
>       ? TPA_engine_10.06_cs50.lms
>       ? impactmodel_20210512
>       ? impactmodel_20210512.lms
>         ? ODS
>         ? exhaust pipe visible vibration_D all on.hdf
>         ? ODS.lms
>         ? Section1
>         ? TLIndex.db
>         ? 某乘用皮卡传动系轰鸣研究及优化.pdf
>         ? 动力吸振器应用于车辆悬架系统的NVH控制.pdf
>         ? Project1
>         ? Project1.lms
>         ? Section1
>         ? Section1
>         ? 201025路试
>         ? TLIndex.db
>         ? 激励器激励模态测试
>         ? 力捶激励模态测试
>         ? LMS_Test.Lab中文操作指南_Geometry几何建模.pdf
>         ? LMS_Test.Lab中文操作指南_Modification_Prediction模态修改预测.pdf
>         ? software instalation.mp4
>         ? Frontend connection.mp4
>         ? mvideo 2012-06-15 11-36-09.mp4
>         ? mvideo 2012-06-15 10-53-18.mp4
>         ? LMS_Test.Lab中文操作指南_Signature信号特征测试分析.pdf
>         ? LMS_Test.Lab中文操作指南_Spectral_Testing谱分析.pdf
>         ? signature_2.mp4
>         ? signature_3.mp4
>         ? LMS_Test.Lab中文操作指南_Impact锤击法模态测试.pdf
>         ? signature_1.mp4
>         ? Section1
>         ? TLIndex.db
>         ? daisu 1
>         ? daisu 1
>         ? Run 5
>         ? wensu 50
>         ? wensu 80
>         ? wensu 120
>           ? Section1
>         ? Section1
>           ? Section1
>           ? Sheet1 Tds 1
>           ? 质心位置 0.75V
>           ? 变速箱侧 2V
>           ? 正后方 2V 1
>           ? 质心位置 1.5V 1
>           ? 电机旋变测 2V
>           ? 质心位置 3V
>           ? 正前方 2V 1
>           ? 变速箱侧 2V 1
>           ? 质心位置 1V
>           ? 质心位置 2V 1
>           ? 正后方 2V
>           ? 正上方 2V
>           ? 质心位置 0.75V 1
>           ? 质心位置 2.5V
>           ? 质心位置 0.5V 1
>           ? 质心位置 0.25V
>           ? 电机旋变测 2V 1
>           ? 质心位置 0.25V 1
>           ? 质心位置 1.5V
>           ? 质心位置 0.5V
>           ? 正上方 2V 1
>           ? 质心位置 2V
>           ? 质心位置 1V 1
>           ? 正前方 2V
>           ? P2_25%Me_1 Tds 1
>           ? RPM Extraction 1
>           ? 力捶激励模态试验1.mp4
>           ? 力捶激励模态试验2.mp4
>           ? 3.mp4
>           ? 5.mp4
>           ? 4.mp4
>           ? exhaust pipe visible vibration_D all on Tds 1
>           ? Sheet1 processig
>           ? 小油门加速30% 3
>           ? 滑行 2
>           ? 小油门加速50% 3
>           ? 小油门加速30% 1
>           ? 小油门加速20% 2
>           ? 小油门加速50% 4
>           ? 小油门加速20% 4
>           ? 小油门加速20% 1
>           ? 小油门加速50% 1
>           ? 小油门加速20% 3
>           ? 小油门加速50% 2
>           ? 滑行 1
>           ? 滑行 3
>           ? 小油门加速30% 2
>           ? 小油门加速30% 4
>           ? daisu1.dat
>           ? daisu1.ix0
>           ? DAISU1.mtx
>           ? daisu1.ix1
>           ? wensu50.ix1
>           ? WENSU50.idx
>           ? wensu50.dat
>           ? WENSU50.mtx
>           ? wensu50.ix0
>           ? DAISU1.idx
>           ? run5.dat
>           ? RUN5.mtx
>           ? run5.ix0
>           ? run5.ix1
>           ? RUN5.idx
>           ? wensu120.ix0
>           ? wensu120.dat
>           ? WENSU120.idx
>           ? wensu120.ix1
>           ? WENSU120.mtx
>           ? WENSU80.idx
>           ? wensu80.dat
>           ? WENSU80.mtx
>           ? wensu80.ix1
>           ? wensu80.ix0
>             ? exhaust pipe visible vibration_D all on.hdf Tds 1Modified(1)
>             ? exhaust pipe visible vibration_D all on.hdf Tds 1-7
>             ? exhaust pipe visible vibration_D all on.hdf Tds 1
>           ? v0_2
>           ? v0_up_3
>           ? v0_up_2
>           ? v0_3
>           ? v0_1
>           ? v0_up_1
>             ? 变速箱侧 2V.ldsf
>             ? Sheet1 Tds 1.ldsf
>             ? GD_WOT_12
>             ? GD_WOT_4
>             ? GD_WOT_1
>             ? GD_WOT_2
>             ? GD_WOT_7
>             ? GD_WOT_5 Tds 1
>             ? GD_WOT_11
>             ? GD_WOT_8 Tds 1
>             ? GD_WOT_9
>             ? GD_WOT_10
>             ? GD_WOT_6
>             ? GD_WOT_3
>             ? GD_WOT_8
>             ? GD_WOT_5
>             ? GD_WOT_7 Tds 1
>             ? GD_WOT_2 Tds 1
>             ? 质心位置 0.75V.ldsf
>             ? 质心位置 1.5V 1.ldsf
>             ? 正后方 2V 1.ldsf
>             ? 电机旋变测 2V.ldsf
>             ? 质心位置 3V.ldsf
>             ? 质心位置 2V 1.ldsf
>             ? 变速箱侧 2V 1.ldsf
>             ? 质心位置 1V.ldsf
>             ? 正前方 2V 1.ldsf
>             ? 质心位置 0.75V 1.ldsf
>             ? 质心位置 2.5V.ldsf
>             ? 正上方 2V.ldsf
>             ? 正后方 2V.ldsf
>             ? 质心位置 0.25V 1.ldsf
>             ? 电机旋变测 2V 1.ldsf
>             ? 质心位置 0.5V 1.ldsf
>             ? 质心位置 0.25V.ldsf
>             ? 正上方 2V 1.ldsf
>             ? 质心位置 2V.ldsf
>             ? 质心位置 0.5V.ldsf
>             ? 质心位置 1.5V.ldsf
>             ? 正前方 2V.ldsf
>             ? 质心位置 1V 1.ldsf
>             ? RPM Extraction 1.ldsf
>             ? P2_25%Me_1 Tds 1.ldsf
>             ? exhaust pipe visible vibration_D all on Tds 1.ldsf
>             ? 滑行 2.ldsf
>             ? 滑行 2 (9996-CN4 1).rddf
>             ? Sheet1 processig.ldsf
>             ? 小油门加速30% 3 (9996-CN4 1).rddf
>             ? 小油门加速30% 3.ldsf
>             ? 小油门加速20% 2.ldsf
>             ? 小油门加速20% 2 (9996-CN4 1).rddf
>             ? 小油门加速30% 1.ldsf
>             ? 小油门加速30% 1 (9996-CN4 1).rddf
>             ? 小油门加速50% 4.ldsf
>             ? 小油门加速50% 4 (9996-CN4 1).rddf
>             ? 小油门加速50% 3.ldsf
>             ? 小油门加速50% 3 (9996-CN4 1).rddf
>             ? 小油门加速20% 1.ldsf
>             ? 小油门加速20% 1 (9996-CN4 1).rddf
>             ? 小油门加速20% 4.ldsf
>             ? 小油门加速20% 4 (9996-CN4 1).rddf
>             ? 小油门加速50% 1.ldsf
>             ? 小油门加速50% 1 (9996-CN4 1).rddf
>             ? 小油门加速20% 3 (9996-CN4 1).rddf
>             ? 小油门加速20% 3.ldsf
>             ? 小油门加速50% 2 (9996-CN4 1).rddf
>             ? 小油门加速50% 2.ldsf
>             ? 滑行 3.ldsf
>             ? 滑行 3 (9996-CN4 1).rddf
>             ? 滑行 1 (9996-CN4 1).rddf
>             ? 滑行 1.ldsf
>             ? 小油门加速30% 2.ldsf
>             ? 小油门加速30% 2 (9996-CN4 1).rddf
>               ? exhaust pipe visible vibration_D all on.hdf Tds 1Modified(1).ldsf
>               ? exhaust pipe visible vibration_D all on.hdf Tds 1-7.ldsf
>             ? 小油门加速30% 4 (9996-CN4 1).rddf
>             ? 小油门加速30% 4.ldsf
>               ? exhaust pipe visible vibration_D all on.hdf Tds 1.ldsf
>             ? v0_up_3 (9999-XSI 1).rddf
>             ? v0_up_3.ldsf
>             ? v0_up_2 (9999-XSI 1).rddf
>             ? v0_up_2.ldsf
>             ? v0_2.ldsf
>             ? v0_2 (9999-XSI 1).rddf
>             ? v0_3 (9999-XSI 1).rddf
>             ? v0_3.ldsf
>             ? Run (9999-XSI 1).rddf
>             ? v0_1.ldsf
>               ? GD_WOT_12 (9999-XSI 1).rddf
>               ? GD_WOT_12.ldsf
>             ? v0_up_1 (9999-XSI 1).rddf
>             ? v0_up_1.ldsf
>               ? GD_WOT_4 (9999-XSI 1).rddf
>               ? GD_WOT_4.ldsf
>               ? GD_WOT_5 Tds 1.ldsf
>               ? GD_WOT_7.ldsf
>               ? GD_WOT_7 (9999-XSI 1).rddf
>               ? GD_WOT_2.ldsf
>               ? GD_WOT_2 (9999-XSI 1).rddf
>               ? GD_WOT_1.ldsf
>               ? GD_WOT_1 (9999-XSI 1).rddf
>               ? GD_WOT_8 Tds 1.ldsf
>               ? GD_WOT_11.ldsf
>               ? GD_WOT_11 (9999-XSI 1).rddf
>               ? GD_WOT_9 (9999-XSI 1).rddf
>               ? GD_WOT_9.ldsf
>               ? GD_WOT_10 (9999-XSI 1).rddf
>               ? GD_WOT_10.ldsf
>               ? GD_WOT_3.ldsf
>               ? GD_WOT_3 (9999-XSI 1).rddf
>               ? GD_WOT_5.ldsf
>               ? GD_WOT_5 (9999-XSI 1).rddf
>               ? GD_WOT_8.ldsf
>               ? GD_WOT_8 (9999-XSI 1).rddf
>               ? GD_WOT_6 (9999-XSI 1).rddf
>               ? GD_WOT_2 Tds 1.ldsf
>               ? GD_WOT_7 Tds 1.ldsf
> 

我用夸克网盘给你分享了「Lms testlab教程」,点击链接或复制整段内容,打开「夸克APP」即可获取。
/~851338wEJn~:/
https://pan.quark.cn/s/2d0c8f8aa40e