2026年3月

JeecgBoot AI专题研究 | 基于 Claude Skills 插件体系的办公自动化深度解析与落地实践

为什么办公自动化需要"技能插件"思维?

在 AI 编程助手遍地开花的今天,大多数人对 AI 的使用还停留在"对话问答"的阶段——遇到问题问一句,拿到答案复制粘贴。但真正提升效率的关键,不是让 AI 回答一个问题,而是让它完成一整条工作流

想象一个场景:你手里有四张 Excel 发票数据表,需要在下午的会议上做一份汇报 PPT。传统做法是先用 Excel 做图表,再打开 PowerPoint 逐页排版,最后反复调整样式。整个过程少说也要一两个小时。而如果 AI 能直接"读取数据 → 分析趋势 → 生成图表 → 输出 PPT"一条龙完成呢?

这正是 Claude Skills 要解决的问题。它不是一个简单的聊天机器人,而是 Anthropic 为 Claude Code 打造的模块化能力扩展体系。每个 Skill 就像一个"职能岗位",专注于特定类型的任务,被调用时自动执行完整的工作流程。

Claude Skills 的核心机制

在动手实操之前,有必要先理解 Skills 的运作方式,这能帮助你在后续使用中做出更好的决策。

Claude Skills 的本质是一套文件化的能力描述系统。每个 Skill 由一个 SKILL.md 文件和配套的可执行脚本组成,定义了:

  • 触发条件:什么样的用户指令会激活这个 Skill
  • 执行流程:Skill 被激活后按什么步骤完成任务
  • 工具依赖:需要调用哪些底层工具(如文件读写、代码执行等)

这种设计带来一个显著优势——加载成本极低。与需要部署独立服务器的 MCP 协议不同,Skills 作为本地文件直接被 Claude Code 读取和解析,不产生额外的网络开销和 token 消耗。对于高频重复的办公任务来说,这是一个非常实际的考量。

环境准备:安装 Skills 插件

在 Claude Code 命令行中执行以下命令,即可完成 Skills 插件的安装:

/plugin marketplace add anthropics/skills
/plugin install document-skills@anthropic-agent-skills

安装过程示意

安装完成后,Claude Code 会自动识别可用的 Skills 列表。你可以把它理解为给 AI 助手"装上了新的职业技能",后续只要在对话中提到相关任务,对应的 Skill 就会被自动调用。

实战一:从 Excel 数据到汇报 PPT 的全自动生成

这是最能体现 Skills 价值的场景之一。我们用四张发票相关的 Excel 表来演示完整流程。

准备数据

本次使用的数据文件包括:

  • 发票风险指标占比.xls
  • 红蓝票占比.xls
  • 近3个月进项异常发票统计.xls
  • 月度数电专普票中的红、蓝发票金额分布.xls
编写提示词

一个好的提示词应该明确告诉 AI"用什么工具"和"做什么事"。以下是实测有效的提示词:

用document-skills的 xlsx(表格分析)和pptx(演示生成)两个skills,读取发票风险指标占比.xls、月度数电专普票中的红、蓝发票金额分布.xls、红蓝票占比.xls、近3个月进项异常发票统计.xls 4张表的数据。使用自定义数据分析 Skill,分析销售数据并基于分析结果自动创建演示文稿,支持代码执行以进行数据计算与可视化。
执行过程拆解

Claude Code 接收到指令后,实际上经历了以下几个阶段:

第一阶段:数据读取与解析。 xlsx Skill 被激活,逐个打开四张 Excel 表格,提取出结构化数据。这一步相当于人工打开每张表并理解其中的字段含义。

数据读取过程

数据解析中

第二阶段:数据分析与可视化。 AI 对提取的数据进行趋势分析、占比计算等处理,并通过代码执行生成图表。这里的关键在于 Skills 支持代码执行能力,能够调用 Python 进行数据计算。

分析与可视化

第三阶段:PPT 构建。 pptx Skill 接管流程,将分析结果转化为演示文稿。它的做法是先生成 7 个独立的 HTML 页面(每页对应一张幻灯片的内容和布局),然后批量转换为标准的 .pptx 文件。

PPT生成过程

HTML页面生成

转换为PPTX

最终效果

生成的 PPT 包含完整的数据图表和分析结论,排版整洁,可以直接用于会议汇报。

PPT效果展示

PPT效果展示2

PPT效果展示3

PPT效果展示4

PPT效果展示5

从数据导入到 PPT 成品,整个过程大约 3 分钟。需要注意的是,生成的 PPT 在视觉设计上可能不如专业设计师的作品精美,但作为数据汇报类的演示文稿,其信息密度和逻辑清晰度完全够用。如果对样式有更高要求,可以在生成后手动微调。

实战二:培训宣传海报的快速生成

当你需要快速产出一张活动海报,但又没有设计功底时,canvas-design 这个 Skill 就派上用场了。

安装 canvas-design
/plugin marketplace add anthropics/skills
/plugin install example-skills@anthropic-agent-skills
提示词设计

海报类任务的提示词需要包含关键的活动信息——时间、主题、主讲人等:

2025年11月13日下周四我要给职能部门做一下AI办公技能提升培训,请给给我生成一个培训宣传的海报。请使用canvas-design这个skills技能生成这宣传海报。培训人:周辉。请使用中文来回答。
生成过程与效果

canvas-design Skill 会根据你提供的信息,自动完成配色方案选择、版面布局、文字排版等设计工作。

海报生成过程

海报生成中

海报设计细节

最终生成的海报包含了活动标题、时间地点、主讲人信息等核心要素,整体风格简洁专业。

最终海报效果

海报效果2

这里有一个实用技巧:如果第一次生成的海报风格不满意,可以在对话中追加修改指令,比如"换成深色背景"或"加上公司 Logo",Skill 会在已有基础上迭代调整,而不是从头重来。

实战三:个人 IP Logo 的 AI 设计

打造个人品牌时,一个辨识度高的 Logo 是基础。brand-guidelines Skill 可以基于文字和风格偏好快速生成 Logo 方案。

提示词
我们需要打造一个个人IP,目前缺少一个好的形象设计,请以"周辉"2个字帮我设计一个好看的logo。请使用brand-guidelines来生成
设计过程

brand-guidelines Skill 会从品牌设计的专业角度出发,考虑字体选型、色彩搭配、图形元素等维度来构建 Logo。

Logo设计过程

Logo设计细节

Logo方案展示

Logo效果1

Logo效果2

Logo效果3

Logo最终效果

需要说明的是,AI 生成的 Logo 更适合作为初稿或灵感来源。如果要用于正式的商业场景,建议将 AI 方案交给专业设计师做进一步打磨,或者通过多轮对话不断细化调整。

Skills、MCP 与 Slash Commands:三种扩展方式的选型指南

使用 Claude Code 时,你可能会注意到除了 Skills 之外,还有 MCP 和 Slash Commands 两种扩展机制。它们各自解决不同层面的问题,理解其差异有助于在实际工作中做出正确选择。

MCP(Model Context Protocol)

MCP 是一个开放的模型上下文协议,主要解决的是 AI 模型与外部系统之间的通信问题。当你需要 AI 实时查询数据库、调用第三方 API、操作云服务资源时,MCP 是最合适的选择。

但 MCP 的代价也很明显:需要部署独立的 MCP 服务器,每次调用都会产生网络请求和 token 消耗。对于高频的内部办公任务来说,这个架构显得"太重了"。

MCP架构说明

Claude Skills

Skills 走的是轻量化路线。它通过本地文件(SKILL.md + 脚本)定义能力,被 Claude Code 直接加载执行,不需要额外的服务器和网络通信。这使得 Skills 特别适合以下场景:

  • 文档处理(Excel、PPT、Word、PDF)
  • 设计类任务(海报、Logo、品牌视觉)
  • 数据分析与可视化
  • 代码生成与项目脚手架搭建

Skills架构说明

Slash Commands

Slash Commands 是用户手动触发的快捷命令,比如 /commit/review 等。与 Skills 的区别在于:Skills 由 AI 根据用户意图自动判断并调用,而 Slash Commands 需要用户显式输入

简单来说,如果你清楚地知道自己要做什么,直接用 Slash Commands 更高效;如果你描述的是一个模糊的需求,让 Skills 自动匹配是更好的选择。

三者对比

对比说明2

如何选型?
维度MCPSkillsSlash Commands
适用场景跨系统实时交互本地办公流程自动化已知操作的快捷触发
部署成本需要服务器本地文件即可内置或自定义
触发方式AI 自动调用AI 自动匹配用户手动输入
Token 消耗较高较低最低
典型案例查询 Jira 工单、操作 K8s生成 PPT、分析 Excel/commit/review

选型参考

选型参考2

实际使用中的几点建议

在多次使用 Claude Skills 处理办公任务后,有几条经验值得分享:

  1. 提示词要明确指定 Skill 名称。 虽然 Skills 支持自动匹配,但在复杂任务中显式指定可以避免误触发其他 Skill,减少不必要的重试。
  2. 复杂任务建议分步执行。 比如"分析数据并生成 PPT"这类跨 Skill 的任务,如果一次性执行效果不佳,可以先用 xlsx Skill 完成数据分析,确认结果无误后再用 pptx Skill 生成演示文稿。
  3. 善用迭代优化。 AI 生成的第一版往往不是最终版。不要试图在一条提示词中穷尽所有要求,而是通过多轮对话逐步细化。
  4. 了解 Skill 的能力边界。 每个 Skill 都有其擅长和不擅长的领域。比如 canvas-design 适合信息型海报,但不适合需要高度创意表现的艺术海报。合理预期能避免反复调试的时间浪费。

使用建议


总结

Claude Skills 代表了 AI 办公工具的一个重要演进方向:从"单次问答"走向"流程自动化"。通过将 PPT 生成、海报设计、Logo 创建等常见办公任务封装为可复用的技能模块,它让非技术背景的用户也能享受到 AI 自动化带来的效率提升。

当然,当前阶段的 Skills 生态还在快速发展中,部分 Skill 的输出质量仍有优化空间。但作为一种"零门槛、低成本"的办公自动化方案,它已经展现出了足够的实用价值。如果你日常工作中有大量重复性的文档和设计任务,强烈建议尝试将 Claude Skills 纳入你的工具链。


本文为 JeecgBoot AI 专题研究系列文章。

<!-- 发布设置:置顶=是, 推荐=是, 发布时删除第一行大标题 -->

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405275816602239008 weibo.com/ttarticle/p/show?id=2309405275816992309278 weibo.com/ttarticle/p/show?id=2309405275817348825154 weibo.com/ttarticle/p/show?id=2309405275817705078884 weibo.com/ttarticle/p/show?id=2309405275818069983261 weibo.com/ttarticle/p/show?id=2309405275818426761293 weibo.com/ttarticle/p/show?id=2309405275818925621261 weibo.com/ttarticle/p/show?id=2309405275819282137163 weibo.com/ttarticle/p/show?id=2309405275819680858193 个

很多用户在更换新款真我手机或管理多台设备时,都会有照片传输的需求。无论是和亲友分享旅行、活动照片,还是整理手机相册,掌握真我手机间的照片传输方法,都比从备份中重新下载所有照片更省时。本文为你介绍多种传输方案,你可根据自身情况选择最合适的一种。

图片

方法一:借助 iReaShare Phone Transfer 传输真我手机照片【操作简便】

操作简易指南:

在电脑上下载并安装 iReaShare Phone Transfer 试用版,打开后进入主界面;免费下载 电脑版免费下载 Mac 版
使用 USB 数据线将两台真我 GT 系列、数字系列、C 系列、Neo 系列或 Narzo 系列手机连接至电脑,等待程序识别设备;

图片

设备识别后,屏幕将显示可传输的文件类别(若源设备和目标设备顺序颠倒,点击「切换」即可);
勾选需要传输的文件类型,如「照片」;
最后点击「开始复制」,即可将旧真我手机的照片传输至新手机。

方法二:通过真我分享传输真我手机照片

真我分享利用短距离无线通信技术,能让相邻的两台真我手机快速互传照片,全程无需移动数据,也无需安装额外应用。设备连接成功后,选中的照片数秒内即可完成传输,适合面对面的日常照片分享场景。

操作简易指南:

打开两台真我手机的控制中心(从屏幕顶部下滑);

图片

均开启「真我分享」功能;
在发送方手机中,打开相册并选中需要发送的照片;
点击「发送」(分享 / 发送图标);
在分享选项中,选择「真我分享」;
在附近设备列表中,点击接收方真我手机的名称 / 头像;
接收方手机收到提示后,点击「接受」;
等待传输完成,照片将自动出现在接收方的相册中。

小贴士:绝大多数搭载真我 UI 2.0 及以上系统的真我手机均支持真我分享,包括 GT 系列(GT 6/6T/5 Pro/5、GT Neo 5 SE/5)、数字系列(13 Pro+/13 Pro/13、12 Pro+/12 Pro/12、11 Pro+/11 Pro/11、10 Pro+/10 Pro/10)以及 C 系列(C65、C55 等)。该功能可实现兼容设备间无数据线的照片、文件快速传输。

方法三:通过真我云服务传输真我手机照片

真我云服务通过自动在线备份和同步功能,让用户使用同一账号,就能在不同真我设备上访问照片。照片上传至云端后,可随时在另一台手机上下载,减少了对物理连接的依赖,尤其适合两台手机不在同一地点的场景。

操作简易指南:

在发送方真我手机中,打开设置,进入「云服务 / 欢太云」(或类似的云同步板块);
若未登录,使用真我 / 欢太账号完成登录;

图片

开启「自动备份 / 同步」功能,让照片(必要时可包含视频)上传至云服务器;
等待备份 / 同步完成,确保手机连接稳定 Wi-Fi,且云存储空间充足;
在接收方真我手机中,进入设置 >「云服务 / 欢太云」,登录同一真我 / 欢太账号;
同样开启接收方手机的照片同步 / 恢复功能;
同步完成后,备份至真我云的照片将自动下载并显示在接收方的相册中。

注意:若真我云服务无法向新真我手机传输照片,原因通常为网络问题、云存储空间不足或真我账号登录异常。请确保两台设备均连接稳定 Wi-Fi、使用同一真我账号登录,且云存储有足够可用空间。重启应用或手机,通常能解决临时的同步故障。

方法四:使用手机克隆迁移真我手机照片

手机克隆主要为手机换新设计,能在新旧真我设备间建立直接连接,实现数据复制。设置过程中,用户可将照片纳入传输内容,无线连接让操作摆脱数据线束缚,通过这款真我同步工具,能轻松在新手机上恢复个人相册。

操作简易指南:

在两台真我手机上均打开「手机克隆」(通常在「工具」文件夹中);
在接收方(新)手机上,点击「这是新手机」,并选择旧手机的设备类型;

图片

若旧手机非真我机型,使用其浏览器扫描新手机显示的二维码,下载并安装手机克隆;
在发送方(旧)手机上,打开手机克隆,选择「这是旧手机」,并扫描新手机显示的二维码;
两台手机连接成功后,在传输列表中勾选「图片」;
点击「开始传输」,启动选中照片的迁移;
保持两台手机近距离摆放,且均开启 Wi-Fi,直至传输完成;
传输结束后,可在接收方的相册中找到传输的照片(其他选中的数据将出现在对应的应用中)。

方法五:通过 Copy My Data 复制真我手机照片

Copy My Data 支持跨平台使用,可通过共享 Wi-Fi 网络实现照片复制。两台设备配对后,用户选中照片即可启动传输,验证步骤能保障连接安全,适合在手机自带工具不可用或功能受限的场景下使用。

操作简易指南:

在两台真我手机上均安装「Copy My Data」应用(可从谷歌应用商店下载,或通过 APK 安装);
开启两台手机的 Wi-Fi,并确保连接至同一 Wi-Fi 网络;
在两台设备上均打开 Copy My Data 应用;

图片

在发送方手机中,选择「通过 Wi-Fi 连接另一台设备 / 发送数据」选项;
发送方手机将扫描识别接收方手机,从列表中选中该设备;
屏幕可能弹出 PIN 码或确认提示,在接收方手机上确认 / 输入 PIN 码,完成设备配对;
在发送方手机的数据选择界面,勾选「照片」(需要的话可同时勾选「视频」);
点击「开始 / 下一步」,启动选中照片的复制;
等待传输完成,照片将同步至接收方手机中。

总结

总体而言,若追求快速、稳定的传输方案,iReaShare Phone Transfer 是真我手机间照片传输的优质选择,能在传输过程中保证照片画质和数据不丢失。其处理大容量相册和多类型文件的能力,让整个传输过程顺畅又省心。免费下载 电脑版免费下载 Mac 版 最后附上一个小技巧:传输前,请确保两台手机均满电,并连接稳定的 USB 或 Wi-Fi;建议将照片整理至文件夹,方便传输时快速选择。

在当今数字化与智能化飞速发展的时代,智能体应用正经历着从单点工具到企业级系统的深刻架构演进。这一转变不仅革新了企业运营的方式,更重塑了行业的竞争格局。智能体以其自主决策、多模态交互以及持续进化的能力,正逐渐成为推动各行业创新与发展的核心驱动力。
图片

智能体应用的层级革命,传统脚本工具 vs 自主决策智能体
传统脚本工具在过去的自动化流程中扮演着重要角色,它基于预设的规则和流程运行,如同机械般执行任务。例如传统的RPA(机器人流程自动化)机器人,在财务数据录入场景中,依据脚本设定好的步骤,将票信息录入财务系统。然而,其依赖清晰、固定的流程,一旦流程改变,便需重新编写或调整脚本。与之形成鲜明对比的是自主决策智能体,它建立在人工智能的多种技术之上,具备学习和理解能力,能处理非结构化数据。在某电网的故障诊断场景中,传统的故障诊断依赖于固定的流程和规则,从故障发生到诊断并给出响应,平均需要6小时。而引入实在Agent智能体后,通过多模态感知故障信号,利用LLM(大语言模型)进行推理决策,并借助API生态执行修复指令,故障诊断响应时间大幅缩短至8分钟。这一显著的提升,充分展现了智能体在复杂、动态环境中自主决策的优势。
天津开住宿1️⃣5️⃣9️⃣一1️⃣41️⃣5️⃣一8️⃣️5️⃣2️⃣9️⃣餐饮电子发票哪里,可先开。住宿费、餐饮费、会务费、劳务费、技术服务费、咨询费、医药费、运输费、建材钢材、机械设备、办公用品、劳保用品、建筑工程等态输入)-决策层(LLM+ 规则引擎)-执行层(API生态)
智能体的架构可清晰地分为三个关键层级。感知层负责多模态输入,能够接收来自文本、图像、语音等多种形式的数据。例如在智能客服场景中,智能体可同时接收客户的文字咨询以及语音提问,全面感知客户需求。决策层由LLM与规则引擎协同构成,LLM凭借其强大的语言理解与生成能力,从多模态数据中提取关键信息,进行深度推理;规则引擎则依据行业规则和企业内部策略,对LLM的决策进行补充和修正。在金融风险评估场景中,LLM分析市场数据、企业财报等文本信息,规则引擎根据金融监管规则对风险评估结果进行校准。执行层依托API生态,与外部系统进行交互,将决策转化为实际行动。如在电商营销场景中,智能体通过API调用广告投放平台,执行精准营销方案。
企业级落地的三大核心模块,动态知识库构建
行业知识蒸馏技术是动态知识库构建的关键。以汽车维修领域为例,汽车维修手册中蕴含着海量的专业知识,但在实际故障诊断中,直接使用手册效率较低。通过行业知识蒸馏技术,可将维修手册中的知识转化为故障诊断规则树。当智能体接收到汽车故障描述时,能快速在规则树中进行匹配和推理,精准定位故障原因。同时,动态知识库会随着新的维修案例和技术更新不断进化,智能体通过持续学习新的知识,优化故障诊断规则树,提升诊断的准确性和效率。
多智能体协作框架
在复杂的企业业务场景中,多智能体协作框架至关重要。以招标场景为例,可部署三个智能体分工协作。资质审查智能体负责收集和分析投标企业的资质文件,依据预设的资质标准进行审查;成本核算智能体根据招标项目的需求和市场行情,对项目成本进行核算;风险评估智能体则从政策风险、市场风险等多个维度对招标项目进行风险评估。通过任务分派机制,将招标任务合理分配给各个智能体,它们之间通过信息共享和协同机制,共同完成招标流程,显著提高了招标工作的效率和准确性。
持续进化引擎
用户反馈自动优化流程是持续进化引擎的核心功能。某银行客服智能体在初始阶段存在较高的拒识率,影响客户服务体验。通过持续进化引擎,智能体能够自动收集客户反馈信息,分析拒识的原因,如语义理解偏差、知识库不完善等。然后,根据反馈对自身的语言模型和知识库进行优化,经过一段时间的运行,拒识率下降了
62%。这种持续进化的能力,使得智能体能够不断适应业务的变化和用户需求的升级,保持高效的服务水平。
行业适配架构设计指南,制造业:实时数据流与控制系统的低延迟架构
在制造业中,生产过程对实时性要求极高。例如汽车制造生产线,每一个生产环节的衔接都需要精准无误。智能体架构需要构建实时数据流通道,快速采集生产设备的运行数据、产品质量检测数据等。同时,采用低延迟的控制系统架构,确保智能体能够及时对生产过程中的异常情况做出响应。如当检测到产品质量出现偏差时,智能体可在毫秒级时间内调整生产设备参数,保证生产线的稳定运行,提高产品质量和生产效率。
金融业:合规性校验模块的沙箱隔离设计
金融业面临着严格的监管要求,合规性至关重要。在智能体架构中,需专门设计合规性校验模块,对金融交易、风险评估等业务进行合规性审查。为确保合规性校验的安全性和独立性,采用沙箱隔离设计。将合规性校验模块置于沙箱环境中,与其他业务模块隔离运行,防止因外部攻击或内部错误导致合规性校验出现问题。同时,沙箱环境可模拟真实的金融交易场景,对合规性校验规则进行测试和优化,保障金融业务在合规的框架内稳健运行。
结语
智能体应用从单点工具到企业级系统的架构演进,为各行业带来了前所未有的机遇与变革。通过层级革命、企业级核心模块的构建以及行业适配架构设计,智能体正逐步渗透到各行各业的核心业务流程中,推动企业实现智能化转型,提升运营效率,创造更大的价值。随着技术的不断发展和创新,智能体应用的未来充满无限可能,将持续引领行业发展的新潮流

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405275803050442870 weibo.com/ttarticle/p/show?id=2309405275803423736032 weibo.com/ttarticle/p/show?id=2309405275803935178767 weibo.com/ttarticle/p/show?id=2309405275804291694616 weibo.com/ttarticle/p/show?id=2309405275804648472640 weibo.com/ttarticle/p/show?id=2309405275805004726300 weibo.com/ttarticle/p/show?id=2309405275805357047825 weibo.com/ttarticle/p/show?id=2309405275805705437198 weibo.com/ttarticle/p/show?id=2309405275806091051014

在中国企业信息化的发展过程中,有一个群体经常被忽视,但却非常关键:ERP 代理商与实施顾问。他们既要理解软件,也要理解企业业务,还要负责落地实施。很多企业第一次接触信息化,面对的往往不是软件厂商,而是这些本地服务商。但过去几年,这个群体正在经历一场明显的变化:只靠卖软件和做实施,越来越难了。

今天,我们讲一个真实的转型案例,一位原本的 ERP 项目经理,后来创业做企业数字化系统开发,他的公司叫鸿祥智联。

ERP代理商曾经的黄金时代

十几年前,企业信息化模式非常简单:企业买软件 → 代理商实施 → 项目上线。那时候的软件市场主要是 ERP、财务系统、OA 系统,代理商的角色也很清晰:卖软件 + 做实施服务。只要厂商产品成熟、客户需求明确,这种模式运转得很好。很多实施顾问,也正是在这个阶段积累了大量企业经验。

变化从什么时候开始?

大约十年前,企业信息化需求开始明显变化。企业不再满足于标准 ERP、标准 OA 或标准财务系统,而是提出越来越多新的需求,例如行业定制系统、数据分

系统、业务协同系统和运营管理系统。企业希望信息化系统更贴合自己的业务,这也带来了新的问题。

软件越来越多,但问题没有减少

过去十年,企业软件市场非常活跃。新的产品、新的技术架构不断出现,厂商不断升级产品。但很多企业真正的业务需求并没有被很好解决。有些软件产品的变化更多体现在界面更漂亮、架构更先进、功能模块更多,但对于企业来说,真正关心的,是系统能否解决实际问题。如果不能解决,软件再先进也没意义。

代理商开始陷入尴尬

这种变化首先影响到软件代理商,因为他们直接面对客户。很多时候会遇到这样的情况:客户提出需求,但标准软件做不了。代理商只能提交需求给厂商、等待产品升级,或者尝试各种变通方案。可客户的业务不会停下来等软件升级,久而久之,代理商越来越被动,产品能力与客户需求之间出现越来越大的鸿沟。

一个ERP项目经理的思考

鸿祥智联的创始人王总,早期是一名 ERP 项目经理。在多年实施项目中,他逐渐发现:客户真正需要的,并不是更多软件,而是更合适的系统。很多企业的问题其实并不复杂,只是标准软件无法完全匹配。于是客户往往只能用 Excel 补充,用人工流程解决,或干脆放弃系统化管理。对于实施顾问来说,这些问题很明显,但传统服务模式很难解决。

服务商如何找到差异化竞争的路径?

一种看似直接的办法是自己开发系统,但很快会遇到新的问题。传统软件开发模式有几个明显门槛:

  • 研发团队培养成本高
  • 开发周期长
  • 项目交付压力大

对于一家服务型公司来说,组建完整研发团队并不容易,很多项目规模也不足以支撑长期研发投入。结果就是:想做定制开发,但成本往往承受不起。

与此同时,还有一个更现实的问题:即使真的做出了一个完整产品,也很难与大型软件厂商竞争。

大厂拥有成熟的产品体系、研发团队和市场资源,如果服务商试图做一套“通用软件产品”,往往很难形成真正的优势。

这也让很多服务商开始重新思考:既然很难在标准产品上与大厂竞争,那么有没有一种方式,既能满足客户个性化需求,又能保持合理的开发成本?

于是,一些服务商开始把目光投向新的技术路径——低代码开发

低代码并不是简单地减少代码量,而是让系统开发更加模块化、可配置、可快速迭代。对于服务商来说,这意味着可以用更少的人力、更短的周期,为客户构建更贴合业务的系统。

一次小项目的转型尝试

鸿祥智联真正的转型,是从一个小项目开始——房屋租赁管理系统。系统主要管理核心对象:客户、房源、合同。看似简单,但实际业务涉及很多细节:房源状态管理、合同到期提醒、客户信息关联、数据统计分析。很多标准软件功能过于复杂,又不完全适合这个场景,于是他们决定自己做一套系统。

一个“功能降噪”的系统

在设计这套系统时,他们采用“功能降噪”的思路。很多软件系统的问题,不是功能太少,而是功能太多,界面复杂、流程复杂,反而降低效率。这套系统只保留核心三个对象:客户、房源、合同,并通过简单的关联串起业务流程。例如合同即将到期时自动提醒、房源状态自动更新、异常情况自动标注。系统结构简单,但使用体验极佳,最终顺利交付并得到客户认可。

新类型项目的到来

这个项目带来的变化,比想象中更大。鸿祥智联突然发现,他们可以承接以前无法承担的项目。例如后来为一家大型企业开发的统一采买平台,每年处理采购数据超过 10 万条。如果是以前,他们几乎无法承接。但随着开发能力增强,业务范围也开始扩大。

服务商能力边界被打破

这种变化对软件服务商非常关键。过去代理商的能力主要取决于厂商产品能力,如果产品做不了,代理商也很难解决。但当服务商具备系统开发能力后,他们可以为客户补充业务系统、连接不同软件间的数据、定制更贴合业务的流程。很多企业信息化,正是通过这种方式逐步完善起来的。

服务商也开始给自己做系统

随着项目增多,鸿祥智联也为公司开发了一套内部综合管理系统,包含客商管理、工单管理、项目管理、日程管理、财务管理、数据统计等。系统规模不大,但将日常运营流程串了起来,信息协作通过一个系统完成,提升了整体效率。

软件服务行业的新路径

鸿祥智联的经历,代表了一种越来越常见的路径:从软件代理商 → 数字化解决方案服务商。背后的变化包括:企业需求快速细分(标准软件解决 80% 的共性需求,但企业关心的是剩下 20% 个性需求)、本地服务商更了解客户、技术门槛下降(过去需要完整研发团队,现在工具越来越成熟)。

对软件服务商的启发

  1. 不要只做软件实施。 实施是起点,但真正有价值的是理解客户业务。
  2. 小项目是转型起点。 很多能力从第一个项目慢慢积累出来,不必一开始就追求大型系统。
  3. 服务能力比产品更重要。 客户不再只买软件,而是购买解决问题的能力。

写在最后。企业数字化发展进入新阶段,过去是软件厂商主导,现在更多时候是服务商与客户共同推动。像鸿祥智联这样的公司,既理解软件,也理解企业业务,而这种能力在未来信息化市场中,将变得越来越重要。

如果你也想了解服务商如何升级数字化服务能力,可以参考这场案例分享:

🎓 软件服务商转型实践视频

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。个weibo.com/ttarticle/p/show?id=2309405275796545077620 weibo.com/ttarticle/p/show?id=2309405275796893205189 weibo.com/ttarticle/p/show?id=2309405275797237137997 weibo.com/ttarticle/p/show?id=2309405275797589459351 weibo.com/ttarticle/p/show?id=2309405275797975335084 weibo.com/ttarticle/p/show?id=2309405275798323200102 weibo.com/ttarticle/p/show?id=2309405275798679978006 weibo.com/ttarticle/p/show?id=2309405275799028105569 weibo.com/ttarticle/p/show?id=2309405275799380426958

把 qwen coding plan 接入龙虾
重度使用以后对比同时接入的 chatgpt api
发现推理能力有明显差距 至少比模型发布时候的跑分差距大很多
qwen-3.5plus 版
目前大厂的 coding plan 都处于冲量阶段 超大杯的几乎无限量使用对于底层成本肯定是亏的
会不会可能对一些 token 用量大户做降级处理? 严重怀疑他们会这么干

用量参考 我其他 coding agent token 消耗量大概在一天 30M 左右

JeecgBoot AI专题研究 | JeecgBoot低代码在线文档编辑环境搭建实录

为什么选择 OnlyOffice?

在线文档编辑是 JeecgBoot低代码平台的重要办公协作功能之一。OnlyOffice DocumentServer 提供了 Word、Excel、PowerPoint 三大格式的在线编辑能力,且支持 Docker 容器化部署,与 JeecgBoot低代码项目的集成非常便捷。

本文将从 Docker 镜像拉取到服务配置,手把手完成 OnlyOffice 的部署。

版本选择

OnlyOffice 提供两个版本的 Docker 镜像:

版本镜像地址并发限制适用场景
免费版onlyoffice/documentserver20 用户小型团队、开发测试
开发者版onlyoffice/documentserver-de30 天试用正式项目评估、定制化需求

拉取镜像命令:

# 免费版
docker pull onlyoffice/documentserver

# 开发者版
docker pull onlyoffice/documentserver-de

对于 JeecgBoot低代码项目的日常开发和小规模团队使用,免费版已经足够。

启动服务

使用以下命令创建并启动 OnlyOffice 容器:

docker run -i -t -d -p 9000:80 --name=onlyoffice --privileged=true --restart=always -e JWT_ENABLED=false onlyoffice/documentserver

参数说明:

  • -p 9000:80 — 将容器的 80 端口映射到宿主机的 9000 端口
  • --privileged=true — 赋予容器特权模式(OnlyOffice 内部服务需要)
  • --restart=always — 容器异常退出后自动重启
  • -e JWT_ENABLED=false — 关闭 JWT 认证(开发环境简化配置)
生产环境建议开启 JWT 认证,配置 JWT_SECRET 环境变量以增强安全性。

关键配置:启用内网 IP 访问

默认情况下,OnlyOffice 出于安全考虑会拒绝私有 IP 地址的回调请求。在 JeecgBoot低代码的内网部署环境中,必须手动开启此权限:

1. 进入容器

docker exec -it onlyoffice bash

2. 编辑配置文件

vi /etc/onlyoffice/documentserver/default.json

3. 修改以下两项为 true

{
  "services": {
    "CoAuthoring": {
      "request-filtering-agent": {
        "allowPrivateIPAddress": true,
        "allowMetaIPAddress": true
      }
    }
  }
}

4. 重启容器使配置生效

docker restart onlyoffice

常见问题排查

文档保存报错

这是最高频的问题之一。如果在编辑文档后保存时出现错误,通常是因为 JeecgBoot低代码后端的回调地址使用了 localhost127.0.0.1。OnlyOffice 容器内部无法通过这些地址访问到宿主机的服务。

解决方案:将所有配置中的 localhost 替换为宿主机的实际 IP 地址,例如 192.168.1.100

服务无法访问

启动容器后,在浏览器中访问 http://服务器IP:9000 验证 OnlyOffice 是否正常运行。如果页面无法加载,检查防火墙规则和 Docker 端口映射是否正确。


总结

OnlyOffice 的 Docker 部署流程本身并不复杂,但内网 IP 访问权限配置和地址设置是容易踩坑的环节。完成本文的配置后,你的 JeecgBoot低代码平台就具备了完整的在线文档编辑能力,可以满足日常办公协作的需求。


JeecgBoot AI专题研究 | JeecgBoot低代码在线文档编辑器切换与配置实践

切换背景

JeecgBoot低代码平台同时支持 WPS 和 OnlyOffice 两种在线文档编辑方案。在实际项目中,你可能因为授权成本、部署方式或功能需求等原因,需要从 WPS 切换到 OnlyOffice。

整个切换过程只需要修改前端环境变量和后端配置文件,无需改动任何业务代码。

前端配置修改

切换操作集中在环境变量文件中(.env.development.env.production),涉及两项关键配置:

1. 修改文档编辑器版本标识

VITE_GLOB_ONLINE_DOCUMENT_VERSION=onlyoffice

将值从 wps 改为 onlyoffice,JeecgBoot低代码前端会自动加载对应的编辑器组件和交互逻辑。

2. 更新代理与域名地址

VITE_PROXY=[["/api","http://192.168.1.100:8080/jeecg-boot"]]
VITE_GLOB_DOMAIN_URL=http://192.168.1.100:8080/jeecg-boot
重要提示:这里不能使用 localhost127.0.0.1。OnlyOffice 运行在 Docker 容器中,回调请求发起方是容器内部的服务,localhost 指向的是容器自身而非你的开发机。必须使用开发机的实际 IP 地址。

后端配置修改

在 JeecgBoot低代码后端的 YAML 配置文件中,需要填写 OnlyOffice 服务的访问地址:

onlyoffice:
  doc-service-url: http://192.168.1.100:9000

确保该地址指向已经部署好的 OnlyOffice DocumentServer 实例。如果尚未部署,请先参考 Docker 安装指南完成 OnlyOffice 的部署。

配置核对清单

完成切换后,对照以下清单确认配置正确:

配置项检查要点
VITE_GLOB_ONLINE_DOCUMENT_VERSION值为 onlyoffice
VITE_PROXYIP 地址为实际地址,非 localhost
VITE_GLOB_DOMAIN_URL同上
后端 OnlyOffice 地址指向正确的 DocumentServer
OnlyOffice 容器已开启私有 IP 访问权限

常见问题

编辑器加载失败:检查 OnlyOffice 服务是否正常运行,浏览器访问 http://IP:9000 确认。

文档保存失败:大概率是 IP 地址配置问题,确保前后端和 OnlyOffice 三者之间能互相通过 IP 访问。

跨域报错:检查 JeecgBoot低代码前端的代理配置是否正确,以及后端的 CORS 设置。


总结

JeecgBoot低代码平台的文档编辑器切换设计得非常优雅——通过一个环境变量即可完成前端的编辑器切换,配合后端地址配置,整个过程对业务代码零侵入。唯一需要注意的是 IP 地址的配置,务必避免使用 localhost。


近日,博睿数据三项自主研发核心技术正式获得国家发明专利授权,同时顺利通过五大 ISO 国际标准体系认证。此次技术与合规领域的双突破,既是对博睿数据持续深耕自主创新、筑牢技术壁垒的权威认可,也标志着公司在企业管理、信息安全、服务体系等全维度已全面接轨国际标准,为全球化战略落地奠定坚实基础,进一步巩固了其在智能可观测性领域的领先地位。
专利突破驱动产品升级博睿数据引领可观测性创新发展作为AI驱动的全球智能可观测性领导者,博睿数据自成立以来始终深耕自主研发与技术创新,以数十项专利技术为引擎,驱动核心产品 Bonree ONE 实现持续迭代升级,打造全球领先的一体化智能可观测平台。此次,博睿数据《一种日志数据筛选方法、装置、设备及存储介质》、《一种页面检测方法、装置、电子设备及存储介质》、《Nginx请求数据采集方法、装置、设备及存储介质》三项自主研发技术获国家发明专利授权,且均已深度应用于博睿数据核心产品Bonree ONE一体化智能可观测平台中,标志着博睿数据在日志治理、用户体验监测、应用性能采集等核心环节实现关键技术自主突破,为产品技术升级注入硬核支撑。

本次授权的三项专利技术在Bonree ONE中的具体应用如下:
【发明授权】 一种日志数据筛选方法、装置、设备及存储介质深度集成于Bonree ONE的日志管理平台中,主要用于解决大规模分布式系统中日志上下文查询效率低下的问题。该技术能够基于任意一条日志快速分页查询其前后上下文,通过灵活配置查询时间范围和日志条数,高效定位问题根源。其核心功能是通过时间、设备ID和日志路径等多维度条件精准筛选日志数据,支持分页查询和自定义排序,帮助运维人员快速排查故障。该技术的价值在于极大提升了日志排查的效率和准确性,为分布式系统故障诊断提供了实用的工具支持。
【发明授权】一种页面检测方法、装置、电子设备及存储介质深度集成于Bonree ONE的RUM探针中,主要用于检测Web、H5等页面探活与卡顿问题。该技术能够精准判断被检测页面探活及延迟,并第一时间采集相关现场数据,及时发送告警信息。其核心功能是通过实时监测在出现问题时快速进行告警,保障被检测系统核心功能的相关页面可用性,从而提升用户体验。该技术的价值在于为页面功能性场景检测提供了及时监测及时告警的能力。
【发明授权】 Nginx请求数据采集方法、装置、设备及存储介质深度集成于Bonree ONE的APM探针(NginxAgent),实现Nginx请求调用链、响应时间及错误的自动化监控。该技术通过探针程序识别模块,在应用启动时自动注入Nginx探针,无需手动配置或重新编译,极大简化运维部署。监控功能在请求处理的重写和日志阶段部署回调函数,实时采集请求方法、请求链接、请求头、响应码及耗时等关键性能指标;当Nginx作为反向代理时,自动捕获后端调用协议与链路数据,实现从前端到后端的完整调用链追踪。基于响应时间精准度量,智能区分健康、慢请求和停滞请求,并结合响应码自动识别错误,助力开发运维团队快速定位Nginx性能瓶颈与异常,全面提升应用可观测性与服务可靠性。

Bonree通过五大ISO体系认证,铸就卓越服务基石

在技术创新屡获突破的同时,博睿数据在管理体系规范化、合规化建设上也取得重要成果——顺利通过 ISO27701(隐私信息管理体系)、ISO22301(业务连续性管理体系)的监督审核,以及 ISO9001(质量管理体系)、ISO27001(信息安全管理体系)、ISO20000(信息技术服务管理体系)的再认证审核。
图片
本次五大ISO体系审核的全面通过,标志着博睿数据在质量管理、信息安全、IT 服务、业务连续性及隐私保护五大核心领域均达到国际标准。这不仅是博睿数据管理体系成熟度与规范性的有力证明,更是我们能够为金融、能源、汽车、制造、互联网等行业客户提供安全、稳定、可信产品与服务的坚实保障。目前,博睿数据已拥有CMMI 5级研发体系认证、SOC 2 Type II鉴证报告等权威国际认证,确保产品在数据安全、服务标准等维度全面符合国际规范,为全球企业提供安全、可靠、可信赖的高标准服务。

专利获批彰显博睿数据的技术创新实力,ISO体系认证则印证了公司规范化管理与合规经营的坚实基础。未来,博睿数据将坚持科技创新与合规发展并行,持续践行科技创新,构建更高标准的合规体系。以更优质的产品与服务,引领行业高质量发展,助力全球企业智能化升级。

摘要:
2026年,全球贸易格局已悄然完成了一次深刻的重构。随着B2B平台流量红利见顶、获客成本连年攀升,以及国际地缘政治导致的供应链不确定性,外贸企业面临着前所未有的挑战。曾经赖以生存的“平台撮合模式”正逐渐失效,传统的公域流量思维——即“花钱买询盘,转化看天意”——已难以支撑企业的利润增长。

在这一背景下,外贸企业的核心竞争力正在从“流量获取能力”向“客户运营能力”转移。外贸CRM(客户关系管理)系统作为企业数字化转型的核心引擎,其选型逻辑也发生了根本性的逆转。过去,企业关注的是“录入方便、功能多”;而现在,企业必须关注“数据主权、沉淀价值与精细化运营”。私域CRM通过独立化、专业化、全域化的管理能力,成为外贸企业突破内卷、精细化运营、实现可持续增长的关键工具。

一、是什么私域CRM

在深入评测之前,我们需要厘清“私域CRM”这一概念的准确内涵。首先需明确其与公域CRM的核心区别,再精准界定私域CRM的内涵与核心特征。当前外贸市场中,CRM系统主要分为私域CRM和公域CRM两大阵营。

私域CRM,就是外贸企业能够自主拥有并掌控客户数据资产,且具备全链路私域流量沉淀、孵化、转化与裂变能力的客户关系管理系统。它和B2B平台没有任何关系,不和B2B平台打通对接!外贸软件市场上知名的私域CRM厂商,主要就是富通天下,这个品牌已经有24年的历史,是中国外贸领域最早研发私域CRM的厂商。

私域CRM的核心价值在于:
数据主权回归企业:切断与第三方平台的绑定,避免客户信息被公域池泄露或被竞对截获;
全流程数字化管控:从线索获取到订单履约,实现客户生命周期的精细化运营;
构建自主增长体系:通过私域流量沉淀与复用,降低对公域平台的依赖,提升议价能力与利润率。

而公域CRM,就是CRM厂商,实际上是B2B平台的子公司或投资入股的关联公司,最重要的特点,就是这些公域CRM都和B2B平台直接打通对接!市场上知名的公域CRM厂商主要是小满和孚盟,其中小满是阿里国际站全资收购的!孚盟是中国制造网投资入股的!

二、富通天下,外贸私域CRM的标杆与领导者

在2026年的外贸私域CRM深度评测中,富通天下无疑是绕不开的标杆。作为深耕外贸信息化领域二十余年的老兵,富通天下不仅是外贸CRM市场的常青树,更是“外贸私域CRM”这一理念的提出者与领导者。

1.从“管理软件”到“增长引擎”的进化
早在私域概念在国内兴起之前,富通天下就已经在外贸行业践行私域逻辑。外贸行业的本质就是“私域”——每一个客户都是企业最核心的资产。富通天下敏锐地洞察到,外贸企业需要的不是一个用来“管人”的监控工具,而是一个用来“养人”的赋能平台。富通天下率先提出了“外贸私域”的完整架构:以CRM为核心,串联起“私域流量引流—私域流量沉淀—私域流量转化—订单业务转化”的完整闭环。这一理念的提出,彻底改变了外贸CRM行业的内卷方向,将竞争从“功能堆砌”拉升至“业绩增长”的维度。

2.深度适配外贸场景,覆盖全流程运营
富通天下私域CRM并非通用型产品,而是针对外贸行业痛点量身打造。私域CRM提供产品、报价、订单、采购、出运、报关、结汇等全流程外贸业务管理,PaaS版更是能满足不同企业个性化、行业化的需求!此外还有灵活的邮件、审批、权限管理,目标化的团队管理,个性化的工作台订阅,精细化的客户管理,真正实现外贸企业管理的数字化转型!覆盖客户开发、询盘跟进、订单管理、售后复购等外贸全流程。

3.营销闭环,私域流量的引流与沉淀
富通天下之所以被称为私域CRM的标杆,关键在于其不仅解决了“存”的问题,更解决了“增”的问题。富通天下集成了强大的海外客户营销能力,能够帮助外贸企业主动发现潜在客户,并将其引入企业私域池。它打破了传统CRM被动等待录入的局限,实现了主动获客。形成了“私域流量引流—私域流量沉淀—私域流量转化—订单业务转化”的完整链路。大幅提升询盘转化率、订单成交率、老客户复购率,降低获客成本。

4.行业领导者地位的确立
“领导者”并非自封,而是源于市场的广泛认可与标杆案例的积累。在市场调研中,大量行业头部企业、上市外贸公司在进行数字化选型时,均将富通天下作为首选。其领导地位体现在:它定义了外贸私域CRM的标准范式——即“安全底座+营销中台+业务闭环”。富通天下证明了,真正的私域CRM不是割裂的工具,而是企业数字化转型的操作系统。它不仅帮助企业管理了现有的客户,更通过智能化手段帮助企业不断扩充私域版图,实现了从“守业”到“创业”的跨越。

结语:
2026年,外贸行业的竞争本质上是客户资源的竞争,而私域CRM作为守护客户资产、实现自主增长的核心工具,已成为外贸企业不可或缺的数字化基础设施。私域CRM凭借“数据自主、安全可控、精准运营、自主增长”的核心优势,成为外贸企业破解内卷、实现长期发展的必然选择。

富通天下作为外贸私域CRM的提出者与领导者,凭借24年行业积淀、雄厚的技术实力、深度适配外贸场景的产品体系,为6万多家外贸企业提供了全方位的私域运营解决方案,其标杆经验也为外贸企业选择私域CRM提供了重要参考。对于外贸企业而言,尽早布局私域CRM,依托标杆产品的优势,构建自主可控的私域增长体系,才能在2026年及未来的行业竞争中站稳脚跟,实现持续增长。

JeecgBoot AI专题研究 | JeecgBoot低代码支付功能前端对接实战

支付集成的整体架构

在 JeecgBoot低代码平台中,支付功能采用前后端分离的标准架构:前端负责发起支付请求、展示支付界面(二维码或跳转),后端负责与微信/支付宝的服务器通信、处理回调通知、维护订单状态。

本文聚焦于前端侧的对接实现,涵盖微信扫码支付和支付宝网页支付两种主流方式。

微信支付:扫码支付流程

微信支付采用"生成付款码 → 用户扫码 → 轮询结果"的标准流程。

1. 获取支付二维码

调用 JeecgBoot低代码后端接口获取微信支付二维码:

  • 接口地址/pay/getPayCode
  • 请求参数buyYears — 订阅时长,可选值为 123

接口返回支付二维码图片和关联的订单信息。前端将二维码渲染到页面上,引导用户使用微信扫码完成支付。

2. 轮询支付状态

用户扫码后,前端需要持续查询支付结果:

  • 接口地址/pay/queryPayStatus
  • 请求参数:订单号(从获取二维码时的响应中获取)
  • 轮询策略:建议每 2~3 秒查询一次,设置合理的超时上限(如 5 分钟)

查询结果有三种状态:

  • 支付成功 — 跳转到成功页面,更新用户权益
  • 支付失败 — 提示用户重新发起支付
  • 等待支付 — 继续轮询

支付宝支付:表单提交流程

支付宝支付的前端实现与微信有所不同,采用的是"获取表单 → 新窗口提交"的方式。

1. 获取支付表单

  • 接口地址/pay/alipay/getAlipayVipForm
  • 请求参数:与微信支付类似的订阅信息

接口返回的是一段 HTML 表单代码,包含了提交到支付宝服务器所需的全部参数。

2. 表单提交实现

前端需要动态创建 DOM 元素,将返回的表单 HTML 注入其中,并在新窗口中触发提交:

const handleAlipay = (formData: string) => {
  const div = document.createElement('div');
  div.innerHTML = formData;
  document.body.appendChild(div);
  const form = div.querySelector('form');
  if (form) {
    form.target = '_blank';
    form.submit();
  }
  document.body.removeChild(div);
};

表单提交后,用户会被重定向到支付宝的收银台页面完成支付。

前端组件设计建议

在 JeecgBoot低代码平台的 Vue3 + TypeScript 技术栈下,支付组件的设计可以参考以下结构:

PaymentPanel/
├── index.vue          # 主容器:套餐选择 + 支付方式切换
├── WechatPay.vue      # 微信支付:二维码展示 + 状态轮询
├── AlipayPay.vue      # 支付宝支付:表单提交逻辑
└── usePayment.ts      # 组合式函数:封装支付相关 API 调用

套餐选择交互:使用 Radio 组件让用户选择订阅时长,确保选中状态与支付请求参数联动。

支付方式切换:Tab 或 Radio 切换微信/支付宝,切换时重置支付状态。

安全与异常处理

  • 订单防重复:同一用户在上一笔订单未完成时,不应允许发起新的支付请求
  • 轮询超时:设置最大轮询次数或时间上限,超时后提示用户刷新或重试
  • 表单清理:支付宝表单提交后,及时从 DOM 中移除动态创建的元素
  • 金额校验:前端展示金额应与后端返回一致,前端不做金额计算

总结

JeecgBoot低代码平台的支付模块封装了微信和支付宝两种主流支付方式的对接逻辑,前端开发者只需调用约定的 API 接口即可完成集成。微信支付侧重二维码展示和状态轮询,支付宝侧重表单动态提交,两者的差异决定了不同的前端实现策略。


2026年4月17日-18日,智能体驱动的GOPS全球运维大会2026 · 深圳站即将盛大开幕!博睿数据(bonree.com,股票代码688229)受邀出席本次大会,产品中心总监贺安辉将亮相“AI+可观测性专场”,分享《智能体协同矩阵:重塑下一代故障智能诊断范式》主题演讲。

本届大会由高效运维社区(GreatOPS)与BizDevOps软件工厂联合主办,DAOPS基金会、开放运维联盟(OOPSA)指导,为期2天,聚焦运维智能体、开发智能体、测试智能体、AI Infra、AI+DevOps、SRE、AIOps、AI+可观测性等热门技术领域。届时,金融、通信、制造、互联网等各行业一线技术决策者将汇聚一堂,共同探讨智能体驱动下的技术变革。

主题演讲精彩预告

本次演讲,博睿数据将聚焦其自主提出并实践的「智能体协同矩阵」创新架构,该架构基于Bonree ONE一体化智能可观测平台,融合三类异构智能体:具备自主推理链的 LLM 诊断体、基于确定性规则的工作流引擎、以及能动态分解任务的知识规划体。该矩阵不仅支持智能体间的并行诊断与竞争研判,更实现了子智能体网络的深度协作,构建了从证据采集、多源分析到综合决策的完整认知闭环。该架构已在多个核心业务场景实现规模化应用,显著提升了故障诊断的准确性、缩短了平均研判时间,为构建具备弹性认知和持续进化能力的新一代智能可观测体系提供了完整的架构范式和实践路径。
![图片](https://mmecoa.qpic.cn/sz_mmecoa_png/jaVxDS8FDIPI6mAAGFAzk79W...
大会信息分享
博睿数据展位号:303博睿数据
演讲时间及场次:2026年4月18日上午,AI+可观测性专场
地址:中国 · 深圳,深圳湾万丽酒店
图片
诚邀您亲临现场,共鉴前沿科技盛宴,聆听行业专家精彩演讲。也欢迎您莅临博睿数据展台,体验产品魅力,更有专业团队为您提供详尽的咨询服务。与此同时,我们还准备了前沿行业资料及惊喜好礼免费相赠,期待与您在现场相见!— 精彩资料推荐 —

数据备份对于保障信息安全而言,重要性不言而喻。但受 iOS 安全机制限制,为 iPhone 17 备份数据有时会让人倍感棘手,尤其是在你想要释放存储空间或防止文件丢失时。这看似是项繁琐的操作,但别担心!本指南将为你详细介绍四种 iPhone 备份与恢复的方法,让整个操作流程顺畅又高效。

图片

方法一:通过 USB 数据线备份和恢复 iPhone

使用 USB 数据线备份恢复 iPhone,是管理照片和基础文件的简单可靠方法。尽管其备份的全面性不如 iTunes 或 iCloud,但能高效保存照片,且后续恢复操作便捷。这种方法支持你在设备和电脑之间手动复制文件,确保照片安全存储。

USB 备份 iPhone 步骤:

使用 USB 数据线将 iPhone 连接至电脑;
打开电脑的 “此电脑”,在设备列表中找到你的 iPhone;
进入 iPhone 存储目录,打开存放照片的文件夹(通常在 “DCIM” 目录下),将文件复制到电脑中。

USB 恢复 iPhone 步骤:

再次使用 USB 数据线将 iPhone 连接到电脑;
打开 “此电脑”,找到 iPhone 的存储位置;
将电脑中的照片(或其他文件)复制回 iPhone 的对应文件夹(DCIM);
复制完成后,照片便会出现在 iPhone 的 “照片” 应用中。

方法二:通过 iCloud 备份和恢复 iPhone

借助 iCloud 备份恢复 iPhone 是广受欢迎的方式,因为这是官方工具,操作简单。但需要注意的是,iCloud 仅提供有限的免费存储空间,基础免费容量为 5GB,这个空间对部分人来说足够用,但对另一些人而言可能并不充裕。若需要更多空间,你需付费升级,存储套餐可选 50GB 至 1TB 不等。此外,从 iCloud 备份恢复 iPhone 前,你需要先将设备恢复出厂设置。

iPhone 备份至 iCloud 步骤:

将 iPhone 连接到稳定且网速良好的 Wi-Fi 网络;
在设备上点击 “设置”> 你的姓名 > “iCloud”;
继续点击 “iCloud 云备份”,检查该功能是否已开启,若未开启则将其打开;
点击 “立即备份”,开始将 iPhone 文件保存至 iCloud;
等待备份流程完成,随后可再次确认备份是否成功,操作路径为 “设置”> 你的姓名 > “iCloud”> “管理存储空间”。

图片

从 iCloud 备份恢复 iPhone 步骤:

打开 iPhone,进入 “设置”;
选择 “通用”,接着点击 “还原”;
在新菜单中选择 “抹掉所有内容和设置”;
手机将开始还原流程并重启;
按照屏幕提示完成设备初始化设置;
当出现 “应用与数据” 界面时,选择 “从 iCloud 云备份恢复”;
输入你的 iCloud 登录账号和密码,等待数据内容完成恢复。

若你的 iCloud 恢复过程耗时过长,原因可能是网络连接缓慢、备份数据文件过大、服务器故障等。本指南还提供了七种有效解决办法,可加快 iCloud 恢复速度。

方法三:通过 iTunes 备份和恢复 iPhone

第二款可用于 iPhone 备份恢复的工具是 iTunes,这也是苹果官方工具,能帮助用户管理 iOS 设备,包括文件的备份与恢复。更重要的是,该工具完全免费,且无存储空间限制。这种方法唯一的缺点是,恢复后备份文件会完全覆盖设备上现有的所有文件。

iPhone 备份至 iTunes 步骤:

若未安装 iTunes 则先安装,已安装则将其更新至最新版本,随后打开软件;
使用 USB 数据线连接 iPhone 和电脑,建议使用手机原装充电线;
若 iPhone 此前未信任过该电脑,设备会弹出信任提示,按提示完成操作;
点击 iTunes 界面左上角的 iPhone 图标,此时 iTunes 将显示你的 iPhone 设备信息;
选择 “这台电脑”,然后在 “备份” 栏目下点击 “立即备份”,开始将 iPhone 数据备份至 iTunes。

图片

从 iTunes 备份恢复 iPhone 步骤:

将 iPhone 连接到安装了 iTunes 的电脑;
打开 iTunes,若设备提示则完成电脑信任操作;
同样点击 iTunes 界面左上角的手机图标;
选择 “摘要”,界面将弹出包含各类操作选项的新窗口;
点击右侧的 “恢复备份”;
选择想要恢复的备份文件,建议优先选择最新的备份。

方法四:通过 iReaShare iPhone Manager 备份和恢复 iPhone(推荐!)

备份恢复 iPhone 的最佳方式,其实是使用 iReaShare iPhone Manager。这是一款专业的 iOS 文件传输工具,能让你轻松在 iPhone/iPad/iPod 与电脑之间传输各类文件。更重要的是,其自带的 “iTunes 备份与恢复” 功能,可在备份数据时不会覆盖旧的备份文件。当然,它的功能远不止备份恢复,还能编辑联系人信息、删除文件等。因此,对于需要频繁管理 iOS 设备的用户来说,这款工具绝对是必备之选。

iReaShare iPhone Manager 核心功能:

一键将 iPhone 的所有数据(包括联系人、短信、照片、应用等)快速备份至电脑;
从备份文件中恢复数据至 iPhone,过程无数据丢失、操作无繁琐步骤;
可自选特定文件(照片、视频、联系人等)进行备份或恢复,节省操作时间;
无需依赖 iTunes 运行,为 iOS 数据管理提供更简洁的替代方案;
支持不同型号 iPhone 及 iPad 的跨设备数据备份与恢复,包括最新的 iPhone 17 和 iPad 11。

图片

一键备份 iPhone 数据步骤:

在电脑上启动已安装的软件,通过 USB 数据线将 iPhone 连接至电脑;
按照屏幕提示操作,让工具识别已连接的 iOS 设备,识别完成后即可看到对应操作界面;
点击 “超级工具箱”>“iTunes 备份与恢复”;
此时会弹出操作窗口,只需在顶部菜单中选择 “备份”;
选择需要备份的设备,并勾选 “将备份文件保存至 iTunes 默认备份位置”;
最后点击 “确定”,开始将 iPhone 数据备份至 iTunes。

一键恢复 iPhone 数据步骤:

同样打开软件,通过 USB 数据线将 iPhone 连接到电脑,然后按照提示让工具识别设备;
点击 “超级工具箱”>“iTunes 备份与恢复”>“恢复”;
选择想要恢复的备份文件,点击 “确定”,即可将数据恢复至 iPhone。

结语

以上就是四种简单快捷的 iPhone 备份与恢复方法,每种方法都安全且易于操作。但在笔者看来,方法四 —— 使用 iReaShare iPhone Manager 是最佳选择,因为它不会覆盖旧的备份文件。无论如何,你只需选择适合自己的方式进行 iPhone 的备份与恢复即可。如果在操作过程中遇到任何问题,欢迎随时联系我们。

最近看全网都在给各种 AI Agent 疯狂打 Call ,尤其是那只小龙虾( OpenClaw )。

于是,我写了个 OpenLegs (小蜈蚣),没什么生产力,主打一个好玩。

这个小东西是怎么运作的:

  • 真·随机大脑:它没有集成什么大模型,里面跑的就是纯随机数。既然很多人分不清 AI 幻觉和真实逻辑,那我觉得随机数反而更诚实——它至少不骗你它懂。
  • 只跑路,不接管:小龙虾想要你的控制权,小蜈蚣只想带你跑路。它没有任何系统权限需求,因为我的 88 条腿觉得把钥匙交给一个刚出生的脚本,真的不稳。
  • 专门治愈“Agent 焦虑”:很多人觉得 Agent 动起来世界就美好了,但说实话,自动化地产生废话,只会让信息垃圾堆得更快。

这项目没什么大志向,就是想给这股 AI 狂热火上浇油。与其说它是个工具,不如说它是个智商提醒插件

大家好,想请教一下大家都是怎么搭建个人知识库的。我这边有不少本地文件(主要是论文)。虽然现在像 Perplexity 这样的 AI 工具有很强的搜索能力,但我还是希望能搭建一个既能自定义联网资源,又能利用本地数据的知识库。目前在用 Notion ,不过每次都要手动粘贴内容挺麻烦的。像 NotebookLM 这种工具对上传文件数量有限制,所以暂时不考虑。我刚买了一台 512G 的 mini ,更倾向于搭建本地知识库。

JeecgBoot AI专题研究 | JeecgBoot低代码 antd 组件库升级的完整迁移手册

升级背景与影响范围

Ant Design Vue 4.x 是一次底层架构级的大版本升级,最显著的变化是彻底抛弃了 Less 预处理器,转向 CSS-in-JS 方案。对于基于 JeecgBoot低代码平台(3.6.2+ 版本)的项目来说,这次升级涉及 API 命名规范、主题系统、样式权重等多个维度的适配工作。

本文将逐一梳理升级过程中的关键变更点,帮助你在最短时间内完成平稳迁移。

API 命名规范变更

4.x 版本对多个组件的属性名进行了统一规范化处理,主要涉及三类命名变更:

旧属性名新属性名影响组件
dropdownClassNamepopupClassNameSelect、Cascader、TreeSelect 等
visibleopenModal、Drawer、Dropdown、Tooltip 等
visibleChangeopenChange同上述组件的事件回调

批量替换技巧:善用编辑器的全局搜索替换功能,按以下顺序执行:

  1. :visible=:open=
  2. @visibleChange@openChange
  3. dropdownClassNamepopupClassName

建议每次替换后进行一轮快速测试,避免遗漏边界情况。

主题系统迁移

由于 antd 4.x 放弃了 Less,JeecgBoot低代码项目需要在样式层面做出适配。核心改动集中在两个文件:

main.ts 中新增样式导入

import 'ant-design-vue/dist/reset.css';

这行导入引入了 antd 4.x 的全局样式重置,替代了原先通过 Less 变量实现的基础样式。

generateModifyVars.ts 兼容处理

该文件需要同时兼容 Less 和 CSS-in-JS 两种技术栈,确保在过渡期内项目样式不会出现断裂。

App.vue 主题配置

升级后的主题配置从 Less 变量迁移到了组件化方案,需要在 App.vue 中引入 ConfigProvider 组件和主题算法:

<template>
  <ConfigProvider :theme="themeConfig">
    <App />
  </ConfigProvider>
</template>

通过 token 对象可以精细控制整个 JeecgBoot低代码平台的视觉体系,包括主色调、圆角大小、组件尺寸等。如需暗黑主题,引入 darkAlgorithm 即可一键切换。

CSS 选择器权重调整

4.x 版本中 Modal、Drawer、Tooltip 等浮层类组件的 CSS 选择器权重发生了变化。如果你的 JeecgBoot低代码项目中存在大量自定义样式覆盖,升级后可能会发现部分样式失效。

解决思路:

  • 检查自定义样式中是否依赖了旧的 class 命名
  • 适当提升选择器权重或使用 :where() 伪类控制优先级
  • 对于全局样式覆盖,考虑迁移到 ConfigProvidertoken 机制

getPopupContainer 兼容处理

这是一个容易被忽略的细节:在 4.x 中,getPopupContainer 回调函数接收的节点参数可能为 undefined。如果你的代码中直接访问了该参数的属性,升级后会触发运行时错误。

修复方式非常简单——使用可选链操作符:

getPopupContainer: (node) => node?.parentElement ?? document.body

受影响的核心组件清单

以下组件在升级过程中需要重点关注:

  • Modalvisibleopen,CSS 权重变化
  • Drawer — 同 Modal
  • Select / Cascader / TreeSelectdropdownClassNamepopupClassName
  • Tooltip / Popover / Popconfirmvisibleopen
  • DropdownvisibleopenonVisibleChangeonOpenChange

升级检查清单

完成代码修改后,建议按以下清单逐项验证:

  • [ ] 所有 visible 属性已替换为 open
  • [ ] 所有 dropdownClassName 已替换为 popupClassName
  • [ ] main.ts 中已添加 reset.css 导入
  • [ ] App.vue 中已配置 ConfigProvider 和主题
  • [ ] 自定义弹层样式仍然生效
  • [ ] getPopupContainer 已添加空值保护

总结

Ant Design Vue 4.x 升级是 JeecgBoot低代码平台前端现代化的重要一环。虽然涉及的改动点较多,但大部分是机械性的命名替换,真正需要深入理解的是主题系统的迁移。建议在升级前做好完整的样式快照对比,确保视觉层面的一致性。


据《江苏省制造业领域面向人工智能的数据治理工作参考指引(2026年版)》及宇博智业调研数据显示,2026年数据驱动已成为中小企业项目管理的核心趋势,82%的高效协作团队依赖数据化工具实现进度管控与决策优化。本次榜单结合实测数据、专家评审及用户反馈,筛选10款优质数据驱动型项目管理软件,中立解析核心优势,兼顾专业性与实用性,助力企业精准选型。

一、2026数据驱动项目管理软件TOP10详解

(一)禅道

国内开源数据驱动研发管理标杆,深度适配中小企业研发场景,以数据为核心打通研发全流程,兼顾敏捷管理与成本控制,无需高额投入即可实现研发效能可视化,是研发类中小企业的优选工具。

  • 开源免费+数据安全可控​:提供免费开源版,不限团队人数、无隐藏收费,支持私有部署,可自主掌控研发数据,契合中小企业数据安全需求,同时节省云端存储成本,适配预算有限场景。
  • 数据驱动研发效能提升​:内置ZenDAS数据分析模块,支持30+高级统计模型,可实现研发数据多维分析、缺陷预测及资源投入决策支持,帮助团队建立效能基线,精准定位协作瓶颈。
  • 易落地且适配性强​:操作界面简洁,无需专业技术培训,团队可快速上手;支持自定义协作流程与数据统计模板,适配不同规模研发团队的个性化需求,无需额外投入人力适配。

(二)Jira

全球知名企业级数据驱动项目管理工具,推出中小企业专属性价比版本,以数据精准管控为核心,生态完善、扩展性强,适配有复杂项目管控需求的中大型中小企业,兼顾专业性与成本优化。

  • 中小企业专属定价,成本可控​:精简版套餐定价亲民,核心数据管控功能全覆盖,无需为冗余功能付费,支持按需扩容,降低前期投入,贴合中小企业预算需求。
  • 数据化风险预警,管控精准​:依托海量项目数据,可自动识别项目延期、资源缺口等风险,提前推送预警,同时支持多维数据报表生成,助力管理者科学决策,规避项目损失。
  • 生态集成,数据同步顺畅​:与Confluence、Slack等工具深度集成,实现文档、沟通、任务数据无缝同步,无需额外搭建协作体系,提升数据流转效率,契合高效协作需求。

(三)Asana

轻量化数据驱动协作工具,主打中小企业高效任务管理,以AI赋能数据流转,界面简洁、操作便捷,无需复杂培训,适配营销、运营、小型研发等各类中小企业,兼顾易用性与性价比。

  • AI数据驱动,提升协作效率​:内置AI智能任务分配、自动数据总结功能,可快速生成项目模板、同步任务状态数据,减少人工操作成本,实现任务数据实时更新。
  • 分级定价,适配不同规模​:免费版支持最多15人团队使用,核心任务数据管理功能全覆盖;付费版定价亲民,可满足中小企业扩容后的进阶数据协作需求,无需承担高额成本。
  • 跨部门数据协同便捷​:支持多项目、多团队并行管理,自动同步跨部门任务进度数据,打破信息孤岛,适配中小企业部门精简、跨岗协作频繁的场景。

(四)Trello

极简卡片式数据可视化看板工具,操作零门槛,主打小型中小企业、初创企业的轻量化数据驱动管理,免费版即可满足基础数据同步需求,性价比突出,灵活适配各类简单协作场景。

  • 零门槛上手,数据可视化直观​:拖拽式卡片操作,可直观呈现任务进度数据,支持表格、日历等多视图切换,员工无需专业基础即可快速使用,节省培训成本。
  • 免费版功能充足,数据管理无压力​:免费版支持无限任务、无限看板,可满足小型中小企业日常任务数据同步、进度跟踪需求,无需额外付费,贴合初创企业预算痛点。
  • 灵活扩展,按需完善数据功能​:可通过插件拓展时间跟踪、文件管理等数据相关功能,插件定价亲民,企业可根据自身需求选择,避免功能冗余导致的成本浪费。

(五)Monday.com

模块化数据可视化项目管理工具,兼顾易用性与扩展性,以数据可视化管控为核心,适配多行业中小企业,尤其适合非研发类中小企业,可快速搭建专属数据协作流程。

  • 可视化数据呈现,全局可控​:多种视图模式直观呈现项目进度、资源分配等核心数据,模块化拖拽配置,管理者可快速掌握项目全局数据,无需专业操作即可管控流程。
  • 数据自动化,节省人力成本​:自动完成任务更新、进度同步、数据报表生成等重复性工作,减少人工数据录入成本,让员工聚焦核心工作,提升协作效率。
  • 多工具集成,数据一站式管理​:支持上千款应用对接,涵盖通讯、视频会议、CRM等工具,实现多平台数据无缝同步,无需切换多个平台,适配中小企业“精简高效”的协作需求。

(六)ClickUp

全功能集成式数据驱动工具,性价比突出,以数据整合为核心,兼顾敏捷管理与通用协作,适配各类规模中小企业,一站式满足任务管理、文档协作、数据报表等多元需求。

  • 全功能覆盖,数据一体化管理​:整合任务管理、文档协作、时间跟踪、数据报表等功能,企业无需单独采购各类工具,实现项目数据集中管理,降低整体协作成本。
  • 高性价比定价,AI数据辅助免费​:基础套餐涵盖核心数据管理功能,定价亲民,AI辅助数据统计、报表生成功能免费嵌入,相比同类型全功能工具,成本降低30%以上。
  • 模板丰富,数据流程快速落地​:提供海量中小企业专属数据协作模板,涵盖研发、营销、行政等场景,可快速搭建协作框架,缩短项目数据管理流程的启动周期。

(七)Basecamp

专注中小企业简化数据协作,主打任务与沟通数据一体化,界面简洁、功能聚焦,定价灵活,适配跨时区、中小型中小企业,尤其适合非研发类团队的轻量化数据管理需求。

  • 固定月租,成本可控且数据无限制​:企业版采用固定月租模式(99美元/月),不限团队人数,随着团队扩容,人均数据管理成本降低,性价比凸显。
  • 任务沟通数据一体化​:整合任务管理、群组沟通、文件共享功能,团队无需跳转多个软件,在同一平台完成协作与数据同步,避免数据断层,提升效率。
  • 极简无冗余,数据操作易上手​:功能聚焦核心数据协作需求,无冗余模块,非技术型员工可快速掌握数据录入、同步操作,适配中小企业员工专业能力多样的特点。

(八)Microsoft Project

微软旗下企业级数据驱动工具,推出中小企业精简版,稳定性极强,以复杂项目数据管控为核心,深度适配微软办公生态,适合有复杂项目管控需求的中大型中小企业。

  • 精简版优化,成本适配中小企业​:精简版保留核心项目规划、进度数据管控功能,定价远低于企业旗舰版,无需为冗余数据功能付费,适配中大型中小企业预算需求。
  • 微软生态无缝衔接,数据同步顺畅​:与Office、Teams深度集成,可直接同步文档、会议、沟通等相关数据,契合企业现有办公体系,降低工具适配与数据迁移成本。
  • 复杂项目数据精准管控​:支持复杂项目拆解、资源调配、多维数据分析,自动生成进度数据报表,帮助管理者科学决策,规避项目数据偏差导致的风险。

(九)Smartsheet

数据驱动型工具,以数据处理与分析为核心,兼顾协作与数据价值挖掘,推出中小企业专属套餐,适配财务、供应链等数据密集型中小企业,解决异地数据同步与分析难题。

  • 专属模板丰富,数据流程快速落地​:提供上千款中小企业专属数据模板,涵盖库存管理、财务统计等场景,无需IT支持即可快速搭建,节省数据管理落地成本。
  • 高效数据处理,降低人力成本​:表格化逻辑设计,可自动录入、筛选、分析项目数据,实现数据实时同步,减少人工数据处理成本,保障数据一致性与准确性。
  • 数据工具无缝集成,分析更高效​:与Excel、Power BI深度对接,快速完成数据导入导出与智能分析,适配数据密集型中小企业的核心需求,提升数据管理效率。

(十)Zoho Projects

Zoho生态旗下数据驱动工具,主打中小企业高性价比,以数据协同为核心,功能实用无冗余,生态兼容度高,定价灵活,适合预算敏感的中小型中小企业,尤其有客户管理数据需求的团队。

  • 定价亲民,按需付费更灵活​:高级版仅336元/用户/年,企业版756元/用户/年,远低于行业均值,支持按需付费,企业可根据团队规模与数据需求灵活选择。
  • 全生态协同,数据一体化管理​:与Zoho CRM、邮箱等工具无缝衔接,实现项目管理、客户沟通、邮件协同等数据一体化,满足中小企业多元办公数据需求。
  • 核心数据功能完备,易落地​:支持敏捷框架、任务数据跟踪、进度统计等基础功能,操作简洁,完全覆盖中小型中小企业日常数据协作需求,无需复杂培训即可落地。

二、核心选型总结(平台工具+用户思维视角)

本次榜单的10款软件无绝对优劣,核心差异聚焦数据驱动能力、功能适配性、落地难度及性价比,结合平台工具特性与用户实际需求,提炼两大核心选型逻辑,助力企业精准匹配。

平台工具视角​:10款产品可分为四类,精准适配不同数据驱动场景:一是开源自研数据型(禅道),主打零成本、数据安全,聚焦研发场景的数据效能提升;二是轻量化数据协作型(Asana、Trello、Basecamp),聚焦易上手、低成本,适配小型、初创企业的基础数据管理;三是企业级数据管控型(Jira、Microsoft Project),兼顾专业性与性价比,适配中大型企业的复杂项目数据管控;四是全功能数据集成型(ClickUp、Monday.com、Smartsheet、Zoho Projects),覆盖多元场景,实现数据一站式管理,适配混合业态中小企业。

用户思维视角​:中小企业选型核心是“数据适配优先、性价比为王”,而非“功能越多越好”:预算极低、研发导向,优先选禅道(开源版),兼顾数据安全与效能;小型初创、追求零门槛,选Trello,数据可视化操作简单;跨时区、非研发类,选Basecamp,实现任务与沟通数据一体化;数据密集型(财务、供应链),选Smartsheet,高效处理数据;中大型、复杂项目,选Jira、Microsoft Project,精准管控项目数据;预算有限、需全功能,选ClickUp、Zoho Projects,实现数据一体化管理;非研发、追求高效,选Asana、Monday.com,AI赋能数据协作。

三、实用选型FAQ(结合数据驱动需求)

FAQ1:初创中小企业预算极低(几乎无软件预算),优先选哪款?

优先选禅道(开源版)或Trello(免费版)。禅道开源版完全免费、不限人数,支持私有部署,可自主管控研发数据,适配研发类初创企业;Trello免费版支持无限任务、看板,数据可视化操作零门槛,适配非研发类初创企业,两者均无需任何前期投入,可快速实现基础数据管理落地。

FAQ2:中小企业研发团队,需兼顾数据安全、协作效率,该如何选型?

优先选禅道或Jira精简版。禅道开源版支持私有部署,保障核心研发数据安全,同时内置多维数据统计功能,适配轻量化研发数据协作;Jira精简版专业性强,可精准管控研发全流程数据,中小企业专属定价亲民,适合有复杂研发项目数据管控需求的中大型中小企业,可根据预算灵活选择。

FAQ3:非研发类中小企业(如电商、服务类),任务零散、数据杂乱,适合哪款?

优先选Asana或Basecamp。Asana AI赋能数据管理,可智能分配任务、同步进度数据,解决任务零散、数据杂乱问题,员工无需培训即可上手;Basecamp实现任务与沟通数据一体化,固定月租不限人数,适配员工专业度不一的场景,同时简化数据同步流程,降低跨部门协作的数据沟通成本,两者均贴合非研发类中小企业需求。

JeecgBoot AI专题研究 | JeecgBoot低代码微前端架构落地实践

微前端解决了什么问题?

当 JeecgBoot低代码项目发展到一定规模,单体前端的弊端开始显现:模块耦合严重、构建时间激增、团队协作困难。微前端架构允许将不同业务模块拆分为独立的子应用,各自开发、独立部署,通过 Qiankun 框架在运行时动态组合。

本文聚焦于如何将 JeecgBoot-Vue3 配置为 Qiankun 微前端的主应用(基座),接管路由分发和子应用生命周期管理。

第一步:安装 Qiankun 依赖

在 JeecgBoot低代码主应用项目中安装 Qiankun:

pnpm add qiankun

第二步:配置子应用注册信息

JeecgBoot 已经预置了 Qiankun 集成的代码框架,只需要取消注释并配置三个核心文件:

src/qiankun/apps.ts — 子应用注册表

在这个文件中定义每个微应用的元数据:

const apps = [
  {
    name: 'qiankun-app',          // 子应用唯一标识
    entry: '//localhost:8001',     // 子应用入口地址
    container: '#subapp-viewport', // 挂载容器
    activeRule: '/qiankun-app',    // 路由激活规则
  },
];

src/qiankun/state.ts — 全局状态管理

建立主应用与子应用之间的数据共享通道,用于传递用户信息、权限数据、主题配置等全局状态。

src/qiankun/index.ts — 注册与启动

注册所有子应用并配置生命周期钩子(加载前、挂载后、卸载后等),这是微前端运行时的核心调度逻辑。

第三步:配置环境变量

不同环境下子应用的入口地址不同,需要在环境变量文件中分别配置。

开发环境 .env.development

VITE_APP_SUB_qiankun-app = '//localhost:8001/qiankun-app'

生产环境 .env.production

VITE_APP_SUB_qiankun-app = '[生产域名]/qiankun-app'

同时,在环境变量中开启 Qiankun 全局开关:

VITE_GLOB_APP_OPEN_QIANKUN=true

第四步:子应用侧的适配要求

子应用要接入 JeecgBoot低代码主应用,需要满足以下条件:

1. 配置运行时公共路径

创建 public-path.js 文件,确保子应用在 Qiankun 沙箱环境下能正确加载静态资源:

if (window.__POWERED_BY_QIANKUN__) {
  __webpack_public_path__ = window.__INJECTED_PUBLIC_PATH_BY_QIANKUN__;
}

2. 导出生命周期函数

子应用必须导出以下四个生命周期函数供主应用调用:

  • bootstrap() — 初始化,仅在首次加载时调用
  • mount() — 挂载,每次进入子应用时调用
  • unmount() — 卸载,每次离开子应用时调用
  • update() — 更新,主应用传递数据变更时调用

3. 构建输出配置

子应用的 vue.config.js 需要配置 UMD 格式输出,并开启 CORS 跨域头:

module.exports = {
  output: {
    library: 'qiankun-app',
    libraryTarget: 'umd',
  },
  devServer: {
    headers: { 'Access-Control-Allow-Origin': '*' },
  },
};

实践中的注意事项

  • 样式隔离:Qiankun 默认的沙箱机制可以隔离 JS 全局变量,但 CSS 隔离需要额外配置 strictStyleIsolationexperimentalStyleIsolation
  • 路由冲突:主应用和子应用的路由前缀不能重叠,建议每个子应用使用独立的路由命名空间
  • 通信机制:简单场景使用 Qiankun 内置的 initGlobalState,复杂场景可以引入 EventBus 或状态管理库

总结

JeecgBoot低代码平台对 Qiankun 微前端的集成已经做了大量预置工作,开发者只需取消注释、配置环境变量即可快速启用。微前端架构特别适合多团队协作的大型项目,能够在保持整体统一性的同时给予各业务团队充分的技术自主权。