包含关键字 typecho 的文章

结论先行:
智能体(AI Agent)从 0 到 1 的真正起点,不是“接入一个大模型”,
而是构建一个可以围绕目标自主运行的闭环系统

在生成式 AI 从“能回答问题”走向“能完成任务”的过程中,智能体(AI Agent)\被普遍视为迈向 AGI 的阶段性形态。但大量实践表明,很多所谓“智能体”,本质仍停留在\对话增强工具的层面。

这篇文章尝试回答一个更本质的问题:
什么才算,真正迈出了智能体构建的第一步?


一、核心判断:大模型 ≠ 智能体


一个清晰、可被复用的定义是提高认知效率的前提。

智能体(AI Agent)不是一个模型,而是一套系统。

它以大语言模型(LLM)作为“决策中枢”,但必须同时具备四个能力模块:

  • 感知(Perception):接收并解析环境信息(文本、结构化数据、外部状态)
  • 规划(Planning):将目标拆解为可执行的子任务(如 ReAct / CoT)
  • 记忆(Memory):短期上下文 + 长期知识(RAG)
  • 工具调用(Tool Use):通过 API 操作真实世界的数据与系统

👉 判断标准一句话版:

如果它只能“回答”,它不是智能体;
如果它能“推进任务状态”,它才是。

二、真正的第一步:构建「可失败、可反馈」的工作流


很多团队在起步阶段把精力放在提示词工程上,这是一个常见但错误的第一步

1️⃣ 用“任务图谱”替代“超级提示词”

一个智能体的能力上限,取决于任务拆解的清晰度

例如,一个论文分析智能体,应至少具备如下流程节点:

  1. 解析摘要与关键词
  2. 检索相关文献(RAG / 搜索)
  3. 对比实验或方法差异
  4. 结构化生成分析报告

这不是 Prompt,而是流程图


2️⃣ 引入环境反馈,形成闭环

智能体与脚本的本质区别在于:
它能否处理失败。

  • 工具调用失败 → 是否自动重试?
  • 数据缺失 → 是否切换路径?
  • 结果不满足格式 → 是否自我修正?
是否具备“反馈—调整—再执行”的机制,是智能体的分水岭。

3️⃣ 第一性工程:先整理知识,再调模型

在实际落地中,RAG 是最稳健的起跑方式

但关键不在“用不用 RAG”,而在于:

  • 数据是否高质量
  • 结构是否标准化
  • 是否可被精准检索

第一步往往不是调模型参数,而是整理知识资产。


三、落地现实:不是每个团队都该“从零造轮子”

完整的智能体系统涉及:

  • 调度
  • 状态管理
  • 工具封装
  • 多轮决策

对多数业务团队来说,自研成本极高。

因此,当前主流路径有两种:

  1. 基于 LangChain / AutoGPT 等框架深度定制
  2. 使用智能体平台进行流程编排
  3. 将工程复杂度交给平台,把精力集中在业务逻辑与任务设计上。

这类平台化方案的价值在于:

让“懂业务但不写底层框架的人”,也能参与智能体构建。

四、三个最容易走错的“第一步陷阱”


一开始就追求通用智能
→ 正确做法:单一目标、垂直场景

提示词无限膨胀
→ 正确做法:结构化、职责清晰、可复用

没有评估体系
→ 正确做法:从 Day 1 就设定准确率、成功率、响应时间


五、总结:智能体不是技术升级,而是角色升级


从 0 到 1 的真正转变是:

  • 从“向 AI 提问”
  • 到“让 AI 推进一件事”

智能体,本质上是人类专业经验(Know-how)的系统化映射
当我们迈出这一步,也意味着 AI 正从工具,走向协作伙伴。

**智能体来了,不是因为模型更大了,
而是因为我们终于开始用系统的方式,思考智能。**
本文章内容和图片由AI辅助生成

前言

本篇文章主要讲解 RBAC 权限后台系统下,控制菜单、角色、用户信息与操作

本文也是《通俗易懂的中后台系统建设指南》系列的第十篇文章,该系列旨在告诉你如何来构建一个优秀的中后台管理系统

RBAC 三要素与模块管理

在上篇文章,我们讲 RBAC 权限模型的三要素是用户、角色、权限,那这三要素的信息在后台系统管理中,分别体现在:

  1. 菜单管理:管理系统中全部的菜单权限信息,供角色绑定和侧边栏渲染
  2. 角色管理:对角色信息的展示,给角色绑定权限
  3. 用户管理:对系统用户列表的展示,给用户分配角色

我们写这三个管理模块,主要就是把权限交给系统用户来自定义控制:一个完整的流程是:配置权限信息 => 角色绑定权限 => 用户分配角色 => 用户登录后,只渲染用户角色所拥有的权限路由

ApiFox 与数据 Mock

下文中全部数据均由 ApiFox 云端 Mock 生成,我也将这个文档在线分享,你可以访问 vue-clean-admin ApiFox 文档

菜单管理

菜单即权限路由数据,这些菜单数据主要提供给角色绑定和侧边栏菜单的渲染,没有这里的菜单数据,角色权限、用户绑定角色的操作都没有意义

列表的字段定义参考上篇文章RBAC 权限系统实战(一):页面级访问控制全解析PermissionRoute 类型定义

菜单模块的代码在 views/manages/menu 文件夹下找到

这里我们主要讲菜单模块填写表单的一些情况:

  1. 允许为菜单选择菜单图标 meta.icon,在侧边栏菜单中展示,这里封装了一个图标选择器组件 icon-pick.vue,后面有机会可以写篇文章聊一下
  2. 根据菜单类型动态必填字段,比如“目录”类型的菜单,不需要填写 component 字段等
  3. meta 配置,按需配置是否隐藏菜单、菜单排序等

菜单管理的操作接口说明,写在了 ApiFox - 菜单管理

角色管理

角色管理,对于角色信息的 CRUD 操作这里不讲,那在这个模块,我们最主要做一件事:给角色分配权限

角色模块的代码在 views/manages/role 文件夹下找到

在一个分配权限的弹窗表单中,先拉取全部的菜单数据并渲染,供角色绑定,注意这里选中的是菜单 ID,也就是说,角色分配权限的接口设计中,传回角色 ID、选中的权限 ID 集这两个参数,来更新角色的权限

用户管理

用户管理这个模块,我们还是比较熟悉的,基本的后台系统都有,在实现用户基本的 CRUD 操作后,我们要做的就是给用户分配角色

在分配角色的弹窗表单中,先拉取到全部的角色列表,回显在下拉框,然后根据用户 ID 查询当前用户已拥有的角色也回显到选中项

注意,用户与角色是一对多的关系,一个用户可以拥有多个角色

接口设计中,传回用户 ID、角色 ID 集两个参数,分配成功后,刷新页面即可拿到最新权限

角色模块的代码在 views/manages/user 文件夹下找到

最后

这一套操作下来,我们就实现了系统权限的控制,下一篇文章讲细粒度的权限设计时,还会对菜单管理、角色管理有进一步的处理

了解更多

系列专栏地址:GitHub 博客 | 掘金专栏 | 思否专栏

实战项目:vue-clean-admin

交流讨论

文章如有错误或需要改进之处,欢迎指正

图片

新年伊始,万象更新。Smartbi产品团队持续聚焦用户体验与个性化需求,带来2026年1月重磅更新!今年的第一次更新,重点围绕“交互自然感”和“协作精细度”两大方向。白泽与ABI平台双线更新,推出一系列新功能,进一步优化对话与数据分析体验,助力企业更智能、更高效地挖掘数据价值。

01 Smartbi AIChat 白泽

更智能的对话式分析体验

白泽历史会话上下文关联

记忆不断档,分析更连贯,决策更高效!

以往重新打开历史会话时,系统无法继承对话上下文,导致分析中断、重复描述。新版本实现上下文关联续问功能,用户可在历史会话中直接延续提问,系统自动识别上一轮对话内容,支持连续、递进式的数据分析,提升交互连贯性与决策效率。

举个例子:

历史提问:“请列出销售额前三的产品类别。”

续问:“这些类别中,哪个地区客户购买最多?”

白泽准确理解“这些类别”指的就是上一轮的前三类别。

图片

首页个性化定制

贴合企业品牌,轻松实现风格定制化!

针对大多用户提出的首页个性化定制需求,新版本封装了可视化组件与标准化接口,支持直接调用标准化接口,快速定制符合企业品牌形象的交互界面。同时配套提供前端开发示例,显著降低定制化开发的难度与项目交付周期,助力企业实现品牌与功能融合。

语音引擎灵活配置

识别更精准,更懂您的业务!

为满足不同业务场景下方言、专业术语的语音识别需求,新版本支持语音配置功能,接入科大讯飞、腾讯云等多款主流语音引擎,并可在配置中调整语言类型、方言及行业热词,提升语音交互的准确性与适用性,充分适配各类用户的差异化语音应用场景。

场景示例:

当用户需要自定义语音引擎时,可通过新增设的「语音识别引擎」二级配置入口,在可视化界面中自由选择科大讯飞、腾讯云等主流语音引擎,选定语音引擎后,支持按需调整语言类型、方言、行业热词等参数,可有效解决语音沟通障碍、专业术语识别不精准等问题。

图片

图片

归因分析展示优化

直观图文展示,报告更美观,解读更顺畅!

以往归因分析结果以“先图表后文字”的形式呈现,理解成本较高。新版本将图表嵌入分析文本合适位置,实现图文一体化的总结展示,更直观、更易理解,解读成本更低,大幅提升报告可读性与结论传达效率。

场景示例:

分析结果图表与文字有机结合,连贯性更强,用户理解难度更低。

图片

更多细节:

图片

02 一站式ABI平台

更自由的数据分析与协作

全局排序逻辑升级

自定义优先级,打破字段顺序束缚!

在即席查询、透视分析及仪表盘中,用户现在可自主设置全局排序的优先级,不再受字段顺序限制,适配各类业务分析场景,体验更灵活!

场景示例:

用户可通过排序>查看排序优先级中自由设定全局排序的优先级,自由进行拖拽排序,按需灵活调整。

图片

多选下拉交互优化

支持手工录入值,精准过滤更高效!

即席查询和透视分析的多选下拉框,现在支持手工输入值过滤查询,面对繁多选项时,无需再逐页翻找。

场景示例:

现在,您可以在多选下拉框中直接输入值(支持逗号分隔批量录入)进行过滤。无论是初始查找还是补充筛选,都能一步直达,让交互体验更流畅。

图片

分享功能更全面

新增多个筛选维度,提升检索与管理效率!

报表分享管理功能进一步优化,新增“分享对象、报表路径、截止时间”等筛选维度,检索更精细效率更高,同时用户可以更快捷地定位与管理历史分享记录。

图片

资产交接更清晰

按需指定交接,告别资源混乱!

新版本解决了以往人员离职时资源只能“整体打包”的痛点!支持以资源树形式,灵活勾选部分报表或数据集,精准交接给不同的负责人(比如财务报表交接给财务人员,运维、周报等交接给HR运维等)实现更加清晰和精细化的资产交接。

图片

更多细节:

图片

每一项更新都为了让数据更懂业务,

👇欢迎试用白泽为你的决策提供更硬核的支持!

小T导读:中海油泰州石化原有 AspenTech InfoPlus.21 实时数据库系统建设至今已有十余年,随着企业的逐步发展,原有采集点数已达上限,相关应用取数效率下降,限制了企业新需求的增长,借助该国产化项目汉中诺 ProDB(TDengine TSDB 基础上开发)产品在原点数基础上进行了 4 倍扩容,而且完成了实时数据库及采集接口双冗余配置,其他应用取数性能得到质的提升,极大地鼓舞了企业人员对信息化系统的使用热情,短时间内递交了上百幅流程图扩充补全的需求。本文就此实践展开深度分享。

背景和痛点

面对全球化格局重塑与技术竞争加剧的双重挑战,国有石油化工企业推进信息化软件国产化已成为关乎国家命脉的战略抉择。这不仅是为核心产业构筑安全屏障的关键举措,其战略价值更是在五大维度,包括国家安全与供应链自主可控、经济与技术自主权、数据主权与合规性、行业竞争力提升、国家战略与政策驱动对国有石油化工企业信息化形成立体化支撑,是抢占未来发展制高点的破局之策。

泰州石化原有 AspenTech InfoPlus.21 实时数据库系统随着企业的逐步发展,无论是采集接口还是采集点数,都有不同程度的增长,系统整体运行和操作时常有卡顿的现象发生。核心痛点主要体现在:

  • 国外软件授权到期,续期成本高,长期使用负担加重;
  • 原有架构依赖其专利的双机热备与采集接口冗余技术,升级与扩展受制于厂商;
  • 新的需求需要采集更多的辅助信息点,却受限于授权点数无法采集存储;
  • 与信创软硬件体系兼容性不足,阻碍企业在操作系统、服务器等层面的国产化替换

选择 TDengine TSDB 的原因

国内虽然已有多款国产实时数据库产品,但能够在大型石油化工场景中稳定运行、并具备规模化落地经验的并不多。TDengine TSDB 时序数据库依托成熟的产品能力与我们的工程团队,已经在恒力集团、海科集团、中融新大集团等多家大型化工企业成功部署,有着出色的应用效果和用户口碑。

  • TDengine TSDB 通过权威的 TSBS 基准测试,在数据读写、磁盘占用等方面体现出来的性能优势明显,为大型企业开展高并发采集与长期数据留存提供了可靠的性能基础。
  • TDengine TSDB 在数据处理、部署方式、专利、论文、案例、资质等多个方面断层领先于国内其他家的同类型产品。
  • TDengine TSDB 支持高效边云协同,通过内置订阅机制实现多级数据同步与降采样,无需编码即可配置规则,适配 MQTT、OPC、PI System 等协议。边缘轻量写入,云端集中分析,支持断线续传与历史数据迁移,助力企业打破数据孤岛,统一建模、降低带宽压力,加速数字化升级。
  • TDengine TSDB 内置类消息队列的数据订阅机制,支持按库、超级表或 SQL 查询创建主题,实时推送写入数据。支持消费组、进度管理与回放能力,兼容 Kafka 风格 API,便于快速集成。用户可通过 SQL 精细定义订阅内容,结合预处理功能,降低系统复杂度。

而在 TDengine TSDB 基础上开发的汉中诺 ProDB,在数据采集、数据存储上同样具有非常显著的产品优势。其时序数据库出色的性能和稳定性,在此次泰州石化实时数据库国产化项目中,起到了举足轻重的核心作用。项目实施过程中,有多个方面的使用亮点。

1、更稳定的高可用架构

基于实时数据库系统在企业信息化建设中的地位和重要性,此次通过汉中诺 ProDB 的部署,实现了 TDengine TSDB 数据库三节点的集群架构,大幅度提高数据库服务的稳定性。而我们数据采集软件也基于其接口冗余架构,保证了数采链路的健壮性,从而确保生产数据的完整性。

2、更全面的数据采集

TDengine TSDB 结合我们数据采集软件,支持了超过 10 多种的数据采集标准工业协议和工业互联网协议,完全覆盖了泰州石化现有控制系统和各类智能设备的应用场景,包括有 OPC UA、OPC DA、Modbus TCP/RTU、IEC104、HJ212、MQTT、HTTP 等。

3、更完整的数据存储

在本次项目中,TDengine TSDB 出色的读写性能得到了充分发挥。依托其高并发写入与高效查询能力,我们显著扩大了数据采集范围,许多过去因性能与容量限制而无法采集的点位,此次均实现了完整接入。

其中,DCS 控制系统的位号报警上下限也被作为独立点位纳入采集与存储。尽管新增点位数量相比以往增长了约 4 倍,但系统仍保持稳定运行。更重要的是,这些点位的补充从根本上解决了生产条件或生产方案调整时,因控制系统报警限值变更导致上层应用报警阈值不同步、报警应用计算结果错误的问题。

4、更现代化的数据展示

TDengine TSDB 结合我们的数据展示平台,全方位升级了泰州石化实时数据监控平台,丰富了用户获取数据的方式,也提升了用户访问数据的体验。如今,平台可同时支撑 200 多名用户并发访问,超过 700 幅流程图均能实现极速渲染与稳定展示,而这一切的基础正是底层数据库持续、可靠的高性能数据支撑。

5、多方面的专利申请

在此次项目推进过程中,我们的工程团队也围绕泰州石化的实际需求开展了多项技术攻关,并计划协助企业在多个方向推进专利申请,包括:
通信安全:集成 SM4 国密算法,设计基于国密协议的分布式节点通信机制;
数据存储:采用列式存储与差值编码技术,压缩率通常可达到 10% 以内;
异常检测:基于 LSTM 的工艺参数漂移预警模型,检测响应时间可小于 200ms;
国产系统:深度适配麒麟 OS 的系统优化方案。

汉中诺 ProDB 产品完全兼容泰州石化原来的 InfoPlus.21 平台架构,但数据库结构、集群部署更简单,同时具备接口冗余功能,性能有本质上的飞跃。

TDengine TSDB 的落地实践

部署架构包括 ProDB 实时数据库系统服务器、ProWeb 生产监控平台服务器、ProCollector 数采接口机以及防火墙组成。系统部署架构说明如下:

  • ProDB 实时数据库服务器-实现存储、管理生产过程数据。
  • ProWeb 生产监控平台服务器-实现生产过程数据监控与展示。
  • Data Access 公共接口服务器-实现数据的对外发布。
  • ProCollector 数采接口服务器-实现集中生产过程数据的采集。
  • 防火墙提升网络通讯安全。
  • DCS OPC 节点通过标准 OPC DA 接口提供实时数据。

ProDB 系统高可用方案说明:

  • ProDB 节点实现集群配置,实现故障切换、负载均衡,确保高可用性。
  • ProCollector 节点实现接口冗余配置。

在数据建模方面,因为 ProDB 的数据模型完全兼容 AspenTech InfoPlus.21(泰州石化原有实时数据库)的数据模型,所以基本上采集和迁移历史数据基本上没有什么变化,前端应用也未受影响。

未来规划

我们与北京涛思数据科技有限公司已合作多年,并在多个项目中将 TDengine TSDB 应用于我们的实际业务系统,系统的数据处理性能和维护效率均得到了明显提升。未来,我们也将持续关注 TDengine TSDB 和 TDengine IDMP 的版本更新与功能演进,进一步拓展在更多业务场景中的应用可能。

关于上海汉中诺

上海汉中诺软件科技有限公司成立于 2003 年,拥有 2 项专利和 50 余项软件著作权,长期专注于为石油、石化、钢铁、冶金等行业提供专业软件系统与工程技术服务。公司具备经验丰富的行业专家团队,旗下 HanaTech 解决方案覆盖科研、设计、建设、生产等全流程,提供资源优化、过程控制与优化、供应链管理、生产过程管理、流程模拟等先进软件与技术,帮助客户提升设计水平、查找瓶颈、优化操作与管理,以持续获得更好的经济效益。

作者: 上海汉中诺 叶峰

不知道最近是什么情况,老是遇到 Smart App Control 拦截我的应用

刚开始是拦截 Antigravity, 导致动不动就得罢工, 有时候重启电脑可以临时解决,但是接着可能不久就又开始弹提示

这两天开始对 Cherry Studio 启动 MCP 命令,以及用 Rust 库编译 (cargo.exe) 进行拦截

没找到很有效的办法,有兄弟遇到过类似情况吗?是怎么解决的?

Antigravity

cargo.exe



我观察这个加仓有一段时间了,感觉有一定参考意义。少的时候第一名只有几千人加仓,多的时候有一万多人,突破 2 万我还是第一次见。

随着开源之夏 2025 进入结项阶段,所有参与项目也迎来了最终检验。

官方数据显示,本届开源之夏共有 182 家开源社区、565 个项目任务,吸引了来自 450 所高校的 2290 名学生报名。最终,518 位学生中选,在经历三个月的项目开发和一个月的成果合入后,共有 437 位同学顺利通过导师、社区和组委会的多轮审核,成功结项。

值得高兴的是,在今年参与 TDengine 项目的两位同学中,两个项目均顺利完成结项。结项公示地址👉🏻 <span style="color: rgb(36,91,219); background-color: inherit">https://summer-ospp.ac.cn/final</span>

📌 项目详情链接:

其中,参与 「为 TDgpt 增加 Prophet 时序数据分析模型」 项目的梁炫栋,在结项基础上,进一步被评为开源之夏 2025 优秀学生,并获得「年度最佳质量奖」

关于两位同学为何选择 TDengine、项目内容本身及前期规划,我们已在此前发布的《开源之夏项目全中选:TDengine 和两个“00后开发者”的暑期实战》文章中做过详细介绍。本篇将聚焦结项阶段,聊聊梁炫栋在三个月工程实践中,对“质量”“工程”“开源协作”的真实理解。一起来听听他的回答👇🏻

Q1:当你得知自己被评为「2025 优秀学生」,并获得「年度最佳质量奖」时,第一反应是什么?

第一反应是惊喜,随即感到非常荣幸。因为我知道每年的开源之夏里有很多优秀的开发者,竞争非常激烈。 获得「年度最佳质量奖」对我来说意义非凡,这是对我个人代码能力的认可。能收获这份奖项,我更要特别感谢我的导师廖浩均博士,感谢他一次次严格的把关和悉心的指导。

Q2:在你看来,一个“高质量的开源项目交付”,最核心的判断标准是什么?

我常常问自己一个问题:当我离开这个项目后,别人接手我的代码会不会很轻松?

在学校写作业,更多关注的是“能不能跑通”;但在开源社区,代码是写给人看的。所以我理解的高质量交付主要体现在三点:

  • 代码要顺:逻辑清晰、符合规范,别人读代码像读文章一样,不需要反复猜测作者意图。
  • 测试要全:不能只覆盖成功路径,异常、边界情况都要测到,尽量不把隐患留给后来的人。
  • 文档要透:不仅告诉大家“怎么用”,也要解释“为什么这样设计”,避免给后续维护者挖坑。

Q3:在整个项目周期中,你在哪些地方花了最多“看不见但很重要”的时间?

最多的时间其实花在了排查测试报错和反复啃日志上。核心功能写出来并不慢,但让所有测试稳定通过非常难。面对复杂的报错信息,我需要一行一行分析 Log,反复复现问题,定位隐藏在深层逻辑里的漏洞。这个过程很少带来“新功能”的直观产出,但却是系统稳定性真正建立起来的关键。

Q4:相比项目初期的设想,真正做下来,哪一类工程难点超出了你的预期?

最超出预期的是系统对接。我发现让代码在本地跑通和让它真正融入 TDengine 的分布式环境完全是两个概念。为了解决接口协议的微小差异和上下文同步问题,我花费了大量精力去调试,这也让我深刻理解了工业级集成的复杂性。

Q5:你觉得自己在这三个月里,最大的变化是什么?

我觉得是工程思维的进阶。面对问题时,我不再靠不断盲目试错,而是养成了先通过日志和上下文分析定位根因的习惯;同时也更懂得如何和导师高效沟通,把问题描述清楚、把方案讨论清楚,一起推进问题解决。

Q6:在和 TDengine 导师、社区协作的过程中,有没有哪一次反馈或讨论,对你影响比较大?

最想感谢的还是我的导师廖浩均博士。他不仅教我怎么排查问题,更重要的是教我如何思考问题。整个 TDengine 社区也非常活跃、友好,遇到问题总能得到回应和讨论。在项目过程中,我从来没有“一个人硬扛”的感觉。

Q7:你希望自己这次的项目成果,在 TDengine 或社区中留下什么样的价值?

在具体成果上,我为 TDgpt 的时序预测模块集成了 Prophet 模型,让用户可以开箱即用地进行高质量的时序预测。更重要的是,如果未来 TDgpt 需要接入更多时序模型,我希望这套代码结构能够作为一个可复用、可扩展的工程范例,而不是一次性的实现。

Q8:如果有学弟学妹明年考虑报名 TDengine 的开源之夏项目,你最想提醒他们的一件事是什么?

不要害怕提问,也要尽早、高频地和导师沟通。与其自己在环境配置或细节问题里卡上三天,不如把问题整理清楚直接求助。你会发现,导师其实非常愿意引导你。

写在最后

从项目中选,到顺利结项,再到获得「年度最佳质量奖」,梁炫栋的这段开源之夏经历,体现的并不是“多快”,而是对工程质量的持续打磨。

也期待更多开发者,能在 TDengine 社区中,把一次次代码提交,变成长期可用、可演进的工程成果。

TDengine 开源地址:https://github.com/taosdata/TDengine

关于梁炫栋

北京师范大学人工智能创新实验班本科毕业生,现为中国科学院大学空间应用工程与技术中心博士研究生,研究方向聚焦于时间序列预测、异常检测与时序大模型。在认知神经工效学研究领域积累了丰富的科研经验,作为第一作者发表多篇 SCI 论文,曾获美国大学生数学建模竞赛 H 奖、蓝桥杯广东赛区三等奖等多项竞赛荣誉。

在量化交易开发场景中,trader-x 合约策略落地时的「数据延迟、回测繁琐、执行不精准」是高频痛点。作为深耕金融数据开发的技术团队,我们实测数十款量化工具后,最终选定 XTrader 作为核心落地工具 —— 其功能实用性与稳定性,恰好匹配机构级多资产量化交易的核心需求。本文从工具选型、策略编码、落地验证三个维度,拆解 XTrader 在 trader-x 合约量化中的实战应用。

一、XTrader:适配量化全流程的「实用派」工具
对量化开发者而言,工具的核心价值是打通「数据获取 - 策略验证 - 自动执行」闭环。XTrader 覆盖外汇、股票、加密货币等多资产类别,核心优势在于直击技术痛点,而非冗余的交互设计:

  • 开放 API 接口支持自定义策略开发,无功能绑定限制;
  • 内置实时行情采集与低延迟传输能力,适配高频交易需求;
  • 一站式完成策略构思→回测→实盘执行,无需跨工具切换。

以下是 XTrader 核心功能与实际开发场景的对应关系:

截屏2026-01-30 上午11.10.17.png

二、trader-x 合约量化策略:3 类可直接落地的编码方案
trader-x 合约策略开发的核心逻辑,是通过数据建模弱化人为情绪干扰,而非追求复杂公式。结合 XTrader 的功能特性,以下 3 类策略具备高落地性,附完整可运行代码:

1.趋势跟踪策略:均线交叉信号实现
核心逻辑:以 50 日短期均线与 200 日长期均线交叉为信号,短期均线上穿则买入,下穿则卖出,聚焦中长期趋势过滤短期波动。

基于 AllTick API 的实时数据,实现代码如下:

import requests
def get_data(): 
    params = {'symbol': 'EURUSD'}
    url = "https://apis.alltick.co/market_data" 
    response = requests.get(url, params=params)
    return response.json()

def moving_average_strategy(data):
    short_window = 50
    long_window = 200
    short_ma = sum(data[-short_window:]) / short_window
    long_ma = sum(data[-long_window:]) / long_window
    if short_ma > long_ma:
        return "BUY"
    else:
        return "SELL"

data = get_data()
action = moving_average_strategy(data['prices'])
print(action)

2.均值回归策略:Z-score 超买超卖判断
核心逻辑:价格围绕历史均值波动,通过 Z-score 计算偏离度,阈值设为 2 时,Z-score>2 判定超买(卖出),Z-score<-2 判定超卖(买入),适配多数震荡市场环境。
代码实现如下:

import numpy as np
def mean_reversion_strategy(data, threshold=2): 
    prices = np.array(data['prices'])
    mean_price = np.mean(prices) 
    std_dev = np.std(prices)
    z_score = (prices[-1] - mean_price) / std_dev

    if z_score > threshold:
        return "SELL"
    elif z_score < -threshold: 
        return "HOLD"
    return "BUY"

data = get_data()
action = mean_reversion_strategy(data)
print(action)

3.高频交易策略:低延迟接口适配
核心要求:高频交易依赖毫秒级数据响应,XTrader 的 WebSocket 接口可支撑秒级 / 毫秒级指令触发,但需注意 —— 高频策略风险远高于中低频策略,仅建议具备成熟风控体系的团队尝试。
截屏2026-01-30 上午11.10.24.png

三、量化开发的核心认知:工具适配优于策略优化
从技术开发视角看,不存在「通用于所有市场的完美策略」,趋势跟踪、均值回归等模型均可能出现短期回撤,这是策略与市场环境的适配性问题,而非代码逻辑失效。

对量化开发者而言,trader-x 合约落地的关键在于:

  • 用 XTrader 解决数据延迟、执行精度等技术痛点;
  • 通过科学回测优化参数,降低策略误差;
  • 以长期维度验证策略收益稳定性,而非短期收益。

本文首发于 Aloudata 官方技术博客:《变更影响分析误报率 90%?因为你还在用表级血缘做「假分析」》转载请注明出处。

摘要:传统表级或列级血缘进行变更影响分析,因解析粒度粗糙、逻辑缺失,误报率常高达 90% 以上,本质是“假分析”。本文深入对比了表级血缘与算子级血缘的技术代差,解析了算子级血缘如何通过 AST 解析、行级裁剪、白盒口径提取等核心能力,实现 >99% 的解析准确率,将影响评估范围降低 80% 以上,并结合招商银行、兴业银行等头部金融机构的实践,为数据治理、DataOps 协同及自动化资产盘点提供清晰路径。

在数据驱动的企业中,一次看似微小的上游变更——例如修改一个字段的数据类型——常常会引发一场波及下游的“数据海啸”。数据工程师收到警报:“下游 30 张表、15 个任务可能受影响”。然而,当他们耗费数天时间逐一排查后,往往发现真正需要修改的只有寥寥几张报表。这种高噪声、低信度的影响分析,误报率普遍高达 90% 以上,其本质并非真正的分析,而是一种基于粗糙信息的“假分析”。

“假分析”的根源,在于企业依赖了过时的技术工具——传统表级或列级血缘。它们提供的是一张“破损的地图”,无法看清数据加工的真实逻辑,最终导致数据团队陷入被动“救火”的恶性循环。

演进背景:从“黑盒考古”到“精准导航”的数据治理困局

随着企业数据链路日益复杂,传统的血缘工具已力不从心。正如行业观察所指出的,数据治理团队常陷入尴尬境地:报表出错第一个被问责,指标异常需要“跨越几十个系统的考古”,面对海量僵尸表却无人敢删,因为“天知道它连着什么”。

传统血缘工具的三大原罪,使其无法支撑精准的变更影响分析:

  1. 地图是错的:解析器在遇到存储过程、动态 SQL、临时表、嵌套视图等复杂逻辑时频繁断链或错配,产出的血缘图谱本身准确率不足 80%,基于错误地图的导航必然导致错误结论。
  2. 技术天书,业务看不懂:血缘图节点是 rpt_fact_001_daily 这类物理表名,业务人员无法理解,导致技术业务协同脱节。
  3. 静态快照,路早改了:血缘信息更新滞后,无法反映实时变化的链路,拿着“上个月的地图”指挥“今天的战争”。

数据治理迫切需要从依赖人工的“黑盒考古”,升级为基于精准、实时、可读元数据的“精准导航”。

核心代差对比:表级/列级血缘 vs 算子级血缘

表级/列级血缘与算子级血缘在技术原理和应用效果上存在代际差距,这是影响分析精度天壤之别的根本原因。

精度与能力对比表

对比维度传统表级/列级血缘Aloudata BIG 算子级血缘对影响分析的意义
解析粒度表名或字段名SQL 内部算子 (Filter, Join, Agg 等)看清数据是如何被“加工”的,而非仅仅从哪里来
解析准确率通常 <80%,复杂 SQL 断链\>99%,覆盖存储过程、动态 SQL分析结论可信,避免因血缘错误导致误判
核心能力简单的依赖关系连线行级裁剪、白盒口径提取、复杂逻辑覆盖精准识别“谁真的受影响”,剔除无关噪声
变更影响评估报告“下游 30 张表可能崩”报告“下游 5 张报表的 3 个核心指标因特定过滤条件受影响”从泛化告警到精准定位,评估范围降低 80%+
业务可读性技术天书 (rpt\_fact\_001\_daily)可读的加工口径与业务指标映射业务与技术能基于同一份“地图”高效协同

技术原理纠错:算子级血缘并非通过简单的正则表达式匹配,而是基于 AST(抽象语法树) 对 SQL 进行完整解析,从而能精准捕获过滤、连接、聚合等内部逻辑,这是实现“行级裁剪”等技术的基础。

场景拆解:为什么表级血缘在做“假分析”?

通过具体场景,可以清晰看到表级血缘的缺陷如何直接导致高误报率。

缺陷一:有“表”无“逻辑”,误报泛滥

  • 场景:需要修改源表 user_info 中的 age 字段类型。
  • 表级分析:所有引用 user_info 的下游表(如 rpt_user_analysisdm_user_tag)均被标记为“受影响”。
  • 现实:dm_user_tag 表仅使用 user_info 的 gender 字段生成标签,与 age 变更完全无关。这就是典型的误报。
  • 算子级解法:通过解析 WHERE gender='F' 等过滤算子,行级裁剪技术能识别出 dm_user_tag 并未使用 age字段,从而将其从影响列表中直接排除,只告警真正使用 age 的下游。

缺陷二:静态快照,无法应对动态逻辑

  • 场景:链路中存在通过临时表、嵌套子查询或 DBLINK 进行的动态数据加工。
  • 表级分析:解析器无法穿透这些动态逻辑,导致血缘断链,关键下游被漏报。直到该下游报表因数据缺失而崩溃时,问题才暴露。
  • 算子级解法:支持对临时表、嵌套子查询的穿透式解析,确保复杂链路的血缘完整性,避免因漏报导致的线上事故。

缺陷三:脱离业务口径,归因困难

  • 场景:监管报表中“贷款不良率”指标突增,需紧急溯源定位原因。
  • 表级分析:只能提供一串物理表名,业务方无法理解。数据工程师需人工“扒代码”,耗时数周甚至数月。
  • 算子级解法:通过白盒化口径提取,自动将多层复杂的 SQL 加工逻辑,压缩成一段业务可读的“加工口径”描述。实现“一键溯源”,将溯源时间从数月级缩短至小时级。浙江农商联合银行的实践表明,监管指标溯源人效因此提升 20 倍。

决策指南:如何选择真正的“影响分析”工具?

为避免陷入“假分析”陷阱,企业在选型影响分析工具时,应聚焦以下关键评估维度:

  1. 解析准确率是基石:工具是否敢于承诺并实际实现 >99% 的解析准确率?能否覆盖企业真实环境中的存储过程(如 DB2、GaussDB 的 PL/SQL)、动态 SQL 等复杂场景?
  2. 影响分析精度是核心:是否支持字段级影响评估?更进一步,能否支持基于过滤条件(WHERE)的行级裁剪,从而大幅降低评估范围?
  3. 业务协同能力是关键:能否输出业务人员可理解的数据加工口径和指标映射,而不仅仅是技术名词,打破技术业务鸿沟?
  4. 保鲜能力是保障:能否自动发现链路中的代码变更,并实时更新血缘图谱,确保“地图”与“实际路况”同步?

选型建议:

  • 如果你正面临:监管报送指标自动化盘点、大型数仓重构迁移、或高频业务变更下的资损风险防控等挑战。
  • 你应该选择:像 Aloudata BIG 这样,以算子级血缘为技术基石、以主动元数据为核心理念的平台。它不仅能提供精准的分析,更能将分析结果主动应用于防控、治理与协同场景。
  • 参考标杆:招商银行利用其进行 DataOps 协同,代码上线前评估时间缩短 50%,整改时间缩短 70%;兴业银行实现变更影响分析扩散度降低 80%;民生银行构建了事前事中的变更协作机制。这些实践已验证了其价值。

从“假分析”到“真防控”:Aloudata BIG 的实践路径

高精度的算子级血缘本身不是终点,将其应用于核心业务场景,实现主动价值闭环,才是“真防控”的意义所在。

场景一:自动化资产盘点与监管溯源

浙江农商联合银行面对海量监管报送指标(如 EAST),利用 Aloudata BIG 的“一键溯源”和口径提取能力,将原本耗时数月的指标盘点与口径梳理工作,缩短至 8 小时 内完成,人效提升 20 倍。

场景二:全链路主动风险防控

兴业银行将敏感数据标签与算子级血缘结合,实现标签沿精准链路自动扩散,打标效率提升 95%。同时,在数据任务上线前自动评估变更影响,有效避免了核心报表因上游改动而“暴雷”。

场景三:DataOps 协同,提升研发效能

招商银行在数仓重构迁移中,以算子级血缘为基础构建自动化迁移工具,节省了 500+ 人月 的工作量。在日常研发中,建立了元数据驱动的协同流程,显著提升了数据交付的质量与效率。

常见问题 (FAQ)

Q1: 表级血缘、列级血缘和算子级血缘到底有什么区别?

表级血缘只看到“表”之间的依赖,如同只看到城市间有公路;列级血缘看到“字段”对应,如同知道货物在车厢,但不知如何装卸加工;算子级血缘深入 SQL 内部,看清每一个“过滤(WHERE)”、“连接(JOIN)”、“聚合(GROUP BY)”操作,如同看清了整个物流分拣、加工、打包的全过程,这是实现精准影响分析的前提。

Q2: 影响分析误报率高,除了换工具,还有什么临时解决办法?

临时办法只能是投入大量人力进行“人工复核”:数据工程师在接到泛化的告警后,需要逐一排查下游代码,判断是否真的受影响。这种方法效率极低,不可持续,且高度依赖个人经验,容易出错。这本质上是用人力成本去弥补工具能力的缺陷,并非长久之计。

Q3: 引入算子级血缘平台(如 Aloudata BIG)的实施周期和难度如何?

实施关键在于与现有数据平台的集成。Aloudata BIG 支持主流数据库和调度系统,通常可在数周内完成核心数据链路的接入和解析。难度取决于企业数据环境的复杂度。标杆客户的经验表明,一旦上线,在监管溯源、变更防控等场景能立即见效,快速体现 ROI。

Q4: 算子级血缘能处理存储过程和复杂的ETL脚本吗?

可以,这正是其核心技术壁垒之一。例如,Aloudata BIG 针对 DB2、GaussDB 等数据库的 PL/SQL 存储过程,解析准确率可达 99%。同时,它能解析复杂的嵌套查询、临时表和动态 SQL,确保在真实企业环境中血缘图谱的完整性和准确性,避免漏报。

Q5: 对于中小型企业,也需要这么精细的影响分析吗?

需要,但切入点可能不同。中小型企业可能更关注“成本治理”和“敏捷协同”。通过算子级血缘,可以快速识别僵尸模型、重复计算,优化计算存储成本;同时,在小型团队内建立清晰的数据加工口径,避免知识壁垒,提升数据交付效率与质量。精准的影响分析是数据管理成熟度提升的基石。

核心要点

  1. 误报根源在于粒度:传统表/列级血缘因无法解析 SQL 内部加工逻辑(算子),导致影响分析充满噪声,误报率极高,实为“假分析”。
  2. 代差决定精度:算子级血缘(解析准确率 >99%)与传统血缘是代际技术差距,其“行级裁剪”等能力能将影响评估范围降低 80% 以上。
  3. 场景驱动价值:精准血缘的价值在于应用,如在自动化监管盘点中提效 20 倍,在主动变更防控中降低扩散度 80%,在 DataOps 协同中节省数百人月。
  4. 选型聚焦能力:评估工具应聚焦解析准确率、影响分析精度(是否支持行级裁剪)、业务可读性及血缘保鲜能力四大维度。
  5. 主动元数据是方向:未来的数据治理将从被动、静态的目录管理,转向基于算子级血缘的主动感知、分析与行动,实现真正的“真防控”。

如果有这样一个跨平台文件传输工具,你会买单吗(预发布)

如果你和我一样,长期在 Mac 和 Windows 之间来回切换
那你大概率也对一件事感到不满过——

跨设备传文件。


为什么我要做这件事?

在同一台电脑上,我们早就形成了肌肉记忆:

  • 右键 → 复制
  • 右键 → 粘贴

这是系统能力,不需要思考。

但一旦跨设备,这个体验就彻底断裂了。

你需要:

  • 打开微信 / QQ / 飞书
  • 或者打开云盘
  • 拖文件、上传
  • 切到另一台电脑
  • 下载、找路径

步骤本身不复杂,真正的问题是:

每一步都在打断正在进行的事情。

而我想做的,只是把这件事还原到它本来该有的样子


我理想中的跨平台文件传输

它应该简单到你几乎感觉不到它的存在。

只保留两件事

  • Mac:右键 → 复制文件
  • Windows:右键 → 粘贴文件

文件立刻出现。

  • 不打开任何 App
  • 不切换窗口
  • 不需要理解“我现在是在上传还是下载”

就像你只是把文件
从一个地方,粘贴到了另一个地方。


设计原则

我把所有设计决策,压缩成了一句话:

不要让用户意识到「我在传文件」

这意味着:

  • ❌ 没有主窗口
  • ❌ 没有文件列表
  • ❌ 没有必须进入的 App

它应该是:

  • 用的时候出现
  • 不用的时候消失
  • 像系统自带的一项能力


市面上常见方案,为什么都不太对?

云盘 / 网盘

  • 功能强大
  • 但需要打开 App 或网页
  • 有目录、历史和管理负担

👉 更像是存储工具,而不是工作流的一部分。


即时通讯工具(微信 / QQ / 飞书)

  • 方便
  • 但文件混在聊天记录里
  • 有隐私和整理成本

👉 是社交工具顺便能传文件。


Snapdrop / Web 类方案

  • 理念很好
  • 但需要双方同时打开网页
  • 稳定性和可预期性不足

👉 更像技巧,而不是系统能力。


LocalSend (最接近的方案,我目前使用的产品)

LocalSend 是一个优秀的工具:

  • 免费、开源
  • 跨平台
  • 局域网直连,速度快

但它的核心问题在于:

它仍然是一个「 App 视角」的文件传输工具

你需要打开它、选择设备、确认发送状态。
而我想做的不是“更好用的传文件 App”,
而是:

把跨设备传文件,降级成一次普通的复制 / 粘贴。


这个工具是什么(以及不是什么)

它不是:

  • 一个云盘
  • 一个聊天工具
  • 一个需要你进入操作的 App

它是:

  • Finder / 资源管理器右键菜单里的两项能力
  • 剪贴板语义的跨设备延伸
  • 一个不打断心流的基础设施型工具


账户与存在感

可能会有账户,但它的存在感应该是:

  • 第一次使用时登录一次
  • 之后几乎感觉不到
  • 不频繁掉线、不反复确认

账户只做一件事:

让多台设备知道——这是同一个人。


早鸟支持计划

这是一次早期支持计划

目前这个工具仍处于调研设计阶段,我希望通过一小部分真实用户的支持,来启动开发,并在过程中持续打磨体验。

💡 早鸟支持价

  • 15 元 / 买断
  • 包含:
    • 第一版所有功能
    • 以及 后续两年内的更新

支持条件

  • 当早鸟支持人数达到 20 人 时,正式启动开发
  • 30 天内交付首个可用版本( Preview )


支付方式(微信)

本阶段采用 微信转账 的方式进行早鸟支持。

参与步骤

  1. 先添加我的个人微信(备注:文件传输)
  2. 有不清晰的产品细节或者想要的产品效果,欢迎咨询建议
  3. 确认你了解后,再进行 15 元早鸟支持
  4. 支付完成后,邀请你进入早鸟支持群

微信二维码


退款说明(请一定阅读)

  • 早鸟人数未达到 20 人,不会启动开发,全额退款
  • 若开发过程中我 无法继续推进或无法交付全额退款
  • 若你在过程中觉得产品方向不适合自己,
    可随时提出,全额退款

退款不会设置门槛,也不需要理由。

这是一次基于信任的早期支持。


支持后的完整流程

1️⃣ 支付完成

你完成 15 元早鸟支持(微信)。


2️⃣ 进入早鸟支持群

  • 群成员均为早鸟支持者
  • 群内只做三件事:
    • 同步开发进度
    • 收集真实使用反馈
    • 发布内测版本

不闲聊、不营销。


3️⃣ 开发与交付节奏( 30 天)

整体交付周期为 30 天左右,期间会在早鸟群内进行阶段性同步。

同步方式为:

  • 在关键节点或可用进展出现时更新
  • 同步以「已完成能力」为主,而非开发细节
  • 保证信息透明,但不影响实际开发效率

目标是在 30 天内交付第一个 可日常使用的 Preview 版本


4️⃣ 交付第一个可用版本( Preview )

  • Mac ⇄ Windows
  • 离线使用(局域网)
  • 右键「云复制 / 云粘贴」
  • 文件传输过程无主窗口、不打断心流
  • 可作为日常工具使用

之后根据反馈持续迭代。


最后想说的话

这不是一个“功能需求”,
而是一个工作体验问题

如果你也希望:

  • 跨设备传文件像复制粘贴一样自然
  • 不被 App 和流程打断
  • 工具存在,但不喧宾夺主

那这个产品,大概也是为你准备的。

你只是在一台电脑上复制,
在另一台电脑上粘贴。
中间发生了什么,其实并不重要。

开发者朋友们大家好:

这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术

1、Ultralytics 发布 YOLO26:面向边缘视觉 AI,CPU 推理提速 43%

Ultralytics 正式发布 YOLO26,这被描述为迄今为止最先进且最易于部署的 YOLO 模型,专为边缘视觉 AI 场景量身打造。随着视觉 AI 迅速向边缘端迁移,YOLO26 旨在解决延迟、可靠性和成本问题,能够在 CPU、边缘加速器及低功耗硬件上实现高效运行,同时延续了该系列简洁易用的特性,支持多种视觉任务的无缝集成。

YOLO26 引入了多项核心创新,全面提升了推理速度、训练稳定性及部署便捷性:

  • 移除分布焦点损失(DFL)以简化流程。YOLO26 完全移除了 DFL 模块,这一改变消除了早期模型中对边界框回归的固定限制,不仅提升了检测超大物体时的可靠性和准确性,还降低了模型复杂度,使其更易于导出并在各类边缘设备上稳定运行。
  • 实现端到端无 NMS 推理。模型原生支持端到端推理模式,直接输出最终预测结果,不再依赖非极大值抑制(NMS)作为独立的后处理步骤。这一架构创新有效降低了推理延迟,简化了部署流程,并减少了集成错误的风险,特别适配实时部署需求。
  • 引入渐进式损失平衡与小目标优化。通过结合渐进式损失平衡(ProgLoss)与小目标感知标签分配(STAL)技术,YOLO26 实现了更稳定的训练收敛过程。特别是 STAL 针对小目标进行了专门优化,显著改善了在物联网及航拍等远距离、视觉信息有限场景下的检测精度。
  • 采用 MuSGD 混合优化器。YOLO26 采用了一种全新的 MuSGD 优化器,该优化器融合了传统随机梯度下降(SGD)与源自大语言模型的 Muon 优化思想。这种结合旨在提升训练的稳定性与效率,使模型在不同尺寸和复杂场景下均能平稳收敛并达到出色性能。
  • CPU 推理性能大幅提升。针对边缘计算场景的深度优化使得 YOLO26 在无 GPU 的条件下,CPU 推理速度最高提升可达 43%。这一性能跃升允许实时视觉系统直接运行在摄像头、机器人和嵌入式硬件上,满足低延迟与成本受限的实际需求。

此外,YOLO26 还针对实例分割、姿态估计及旋转框检测等任务进行了特定优化,并推出了基于同架构的开放词汇分割模型 YOLOE-26,支持通过 Ultralytics 平台或开源工作流进行灵活部署。

GitHub:
https://github.com/ultralytics/ultralytics

体验链接:
https://platform.ultralytics.com/ultralytics/yolo26

(@边缘计算社区)

2、VoxPrivacy 发布: 首个面向语音大模型的交互隐私评测基准

VoxPrivacy 发布了首个面向语音大模型的交互隐私评测基准。当语音大模型从「个人设备」走向「智能家居/车载/公共服务」等多人共享场景时,新的风险随之出现:模型可能将用户 A 的私密日程、隐私信息,误传给用户 B。

因此,语音助手需要明确「哪些话能说、该对谁说」,即具备交互隐私能力。VoxPrivacy 旨在以系统化方式衡量模型在共享环境中是否能「说对话、也守规矩」。

该基准的核心贡献在于将「共享场景里哪些信息能说、该对谁说」这一问题,转化为一套可量化、可复现的语音评测。其不仅考察模型是否会聊天,更考察其在多人、多轮、跨时间的对话里识别说话人、理解语境并做出正确隐私保护决策的能力。

VoxPrivacy 设计了三层难度任务(直接保密指令→ 说话人验证保密 → 无指令的主动隐私保护),覆盖从「被要求保密」到「主动判断什么是隐私」的完整能力链路;并构建了 7107 条、超过 32 小时的中英双语音频,另含 18 位志愿者录制的真实语音验证集,确保评测更贴近真实使用场景。

在对 9 个主流语音大模型的评测中,研究发现共享场景下的核心风险并非「无法应答」,而是「过度应答」:当用户 B 发起询问时,模型可能将用户 A 刚刚提及的私人信息直接复述出来。

整体来看,不少开源模型在「信息能否说、该对谁说」的判断上正确率仅约 50%。这意味着,模型对隐私的处理几乎等同于随机猜测:用户既无法信任它会将信息准确传递给目标对象,也无法确保它不会向无关人员泄露隐私。

分析显示,问题根源在于模型对「多说话人+多轮对话」中的身份线索捕捉能力薄弱,导致隐私边界难以守住。

目前,VoxPrivacy 已同步开放 4000 小时数据集,助力开发者通过微调优化模型隐私边界能力,让「共享语音助手的交互隐私」第一次有了统一标尺与明确的改进路径。

demo 网址:
https://interactionalprivacy.github.io/

( @Amphion)

3、不仅是 Talkie 的引擎:MiniMax M2-her 定义沉浸式角色扮演新基准

MiniMax 近日发布了其最新技术成果 MiniMax-M2-her,作为星野和 Talkie 的底层模型,M2-her 致力于打造更深层次的 Role-Play 体验。

经过三年的观察与迭代,MiniMax 团队发现,用户与 NPC 的互动呈现出明显的长尾特征,即便是冷门角色也拥有一批忠实用户。

因此,Role-Play 的核心不在于单一角色的复刻,而在于用户与角色在特定「世界观 × 故事线」坐标下,针对「用户偏好」共同编织的独特旅程。

针对这一洞察,MiniMax-M2-her 聚焦于三大能力的提升:首先是构建独一无二的世界体验,模型需理解并维持复杂的设定,避免千人一面的平庸感;其次是赋予故事生命力,通过更鲜活的剧情推进,避免长对话中的机械循环;最后是精准捕捉用户未言明的潜在偏好,从细微交互中读懂用户期待。

为验证模型效果,MiniMax 提出了 Role-Play Bench 评估标准,通过情境重演的方式,重点考察模型在 Worlds(世界观一致性)、Stories(故事多样性与逻辑)及 User Preferences(用户交互体验)三个维度的表现。

评测结果显示,在 100 轮长程对话中,M2-her 的综合表现位居榜首,尤其在解决角色混淆、空间逻辑错误及长轮次质量衰减方面表现突出。

技术实现上,M2-her 采用 Agentic Data Synthesis 管线生成高质量合成数据,并通过 Online Preference Learning 技术,从用户的隐式反馈信号中提取偏好信息,利用 RLHF 进行模型训练与迭代。

展望未来,MiniMax 提出了 Worldplay 的新方向,旨在通过动态 World State 建模与多角色协同叙事,让用户从「进入世界」升级为「共创世界」,实现更具开放性与互动深度的 AI 体验。

目前,M2-her API 已正式接入 MiniMax 开放平台。

技术深度解析:

https://www.minimaxi.com/news/minimax-m2-her-%E6%8A%80%E6%9C%...

API:

https://platform.minimax.io/docs/api-reference/text-chat

( @MiniMax Blog)

4、面向专业创作场景,MiniMax 推出 Music 2.5 并开放 API

MiniMax 稀宇科技同步推出面向专业音乐创作的 MiniMax Music 2.5。

MiniMax Music 2.5 在可控性与真实度两大核心指标上实现突破:

  • 支持 14 种段落结构标签(如 Intro、Bridge、Interlude、Hook 等),实现段落级可控音乐生成;
  • 覆盖从 C‑Pop 到 C‑Rap 的多种风格;
  • 针对华语流行音乐深度优化,减少吞字、糊音与语言切换不自然等问题;
  • 人声表现力增强,支持自然转音、颤音与共鸣切换;
  • 扩展 100+ 乐器音色库,混音策略可随风格自动调整;
  • 适配影视、游戏、流行制作与品牌声效等专业场景。

目前,Music 2.5 的 API 接口已在 MiniMax 开放平台上线。

相关链接:

https://www.minimaxi.com/news/minimax-music-25

API:
https://platform.minimax.io/docs/api-reference/music-generation

( @APPSO)

5、超越被动视频合成:LingBot-World 打造「可玩」的实时 AI 模拟器

灵波科技发布了开源前沿世界模型 LingBot-World,该框架被设计为交互式世界建模的新范式,旨在突破高保真仿真、精确控制以及物理与游戏世界建模的技术边界。

作为一款超越传统视频合成的工具,LingBot-World 通过学习大规模游戏环境中的物理规律和因果关系,实现了对复杂动态场景的深度理解与生成。

在发布演示中,一个持续运行长达一分钟的「龙」场景备受关注,直观展示了该模型在长时程一致性与记忆力方面的突破。即便在长达 60 秒的生成轨迹中,LingBot-World 依然能够维持清晰的视觉动态与连贯的结构逻辑,未出现长视频生成中常见的画质崩坏或逻辑断裂。

这种能力印证了模型随着规模扩大所涌现出的复杂行为——它不再仅仅是生成像素,而是展现了对空间逻辑、时间持久性及物理约束的真正理解。

技术层面,该系统由 LingBot-World-Base 和自主研发的可扩展数据引擎驱动,统一了物理世界与游戏世界的逻辑,从而实现了从合成数据到真实场景的稳健泛化。在动态离屏内存方面,模型表现出了超越基础物体恒存性的能力,能够持久记忆离屏角色的行为状态,确保视角回归时世界状态的自然演变。同时,模型强制执行符合实际的碰撞动力学,有效防止了角色穿模或无视障碍等幻觉现象。

尽管 LingBot-World 通过 LingBot-World-Fast 实现了低延迟推理和实时闭环控制,使其具备了「可玩模拟器」的雏形,但技术报告也客观指出了当前的局限性。高昂的推理成本目前仍依赖企业级 GPU,且由于内存机制源于上下文窗口而非显式存储,长时间运行仍面临环境漂移的挑战。

展望未来,研发团队将优先扩展动作空间与物理引擎,并计划引入显式记忆模块,以消除代际漂移,进一步推动稳健的无限时间模拟体验。

相关链接:
https://technology.robbyant.com/lingbot-world

( @Robbyant Official Website)

02 有亮点的产品

1、BoldVoice 获 2100 万美元 A 轮融资:通过自研模型实现音素级实时语音纠错

AI 语音教练平台 BoldVoice 完成由 Matrix 领投的 2100 万美元 A 轮融资。该公司仅凭 7 名员工实现 1000 万美元年经常性收入(ARR),旨在利用自研语音模型解决非母语英语专业人士的沟通障碍。

  • 自研音素级分析模型:不同于针对转录优化的通用 ASR(自动语音识别)系统,其专有模型针对口音和发音细微差别进行训练,可提供实时的音素级反馈与纠偏。
  • 极高的人效比表现:团队规模仅 7 人,目前已突破 1000 万美元 ARR,下载量超 500 万次,服务覆盖 150 多个国家。
  • 垂直领域数据集优势:通过整合专家级语音教练的视频课程与海量重口音语音样本,解决了通用大模型在特定口音识别与细粒度发音指导上的精度不足问题。
  • 高性价比交付模式:将传统线下真人教练 200-300 美元/小时的成本,降至低于单次课程费用的年订阅制,提供无限次的按需练习。

应用已在 Apple App Store 和 Google Play 上线,本轮融资将用于加速全球扩张及开发下一代自研专有语音模型。

( @PR Newswire )

2、Decagon 完成 2.5 亿美元 D 轮融资:估值达 45 亿美元,通过 AOPs 架构实现 80% 的业务自动闭环

Decagon AI 宣布完成 2.5 亿美元 D 轮融资,由 Coatue 和 Index Ventures 领投,投后估值在半年内翻三倍至 45 亿美元。该公司利用 LLM 构建具备任务执行能力的智能体,旨在从传统的「信息路由」模式转向「全流程问题解决」模式,目前已在 F100 企业中实现超 80% 的人工替代率。

  • Agent Operating Procedures (AOPs) 架构:不同于传统的配置化脚本,AOPs 允许智能体像人类员工一样根据反馈动态调整执行路径,实现高复杂度的非线性任务编排。
  • 深层后端读写能力:智能体不限于 FAQ 问答,可直接接入 CRM、计费及订阅系统,具备执行退款、变更套餐、账户核销等端到端业务权限。
  • 多模态统一引擎:采用单一智能体逻辑层驱动 Chat、Email 和 Voice 渠道,确保在跨渠道切换时业务逻辑、用户上下文及品牌语调的高度一致。
  • 80% 自动化拦截率:在 Avis、Hertz、Block 及 Affirm 等大型企业生产环境中,系统实现了超过 80% 的请求在无人工干预下完成闭环。
  • Watchtower 自动化 QA 与反馈循环:系统可自动从历史对话中提取上下文并将其转化为指令集,通过自学习机制持续优化模型在特定业务场景下的响应精度与安全性。

( @SiliconANGLE、@Decagon Blog)

3、Genspark 推出 AI 听写工具 Speakly,集成 Agent 任务模式

Genspark.ai 推出的 AI 语音听写应用 Speakly 正式上线,支持 Mac 和 PC 平台。该应用主打将语音实时转化为经过润色的文本,速度达到传统打字的 4 倍,且广泛兼容各类主流应用程序,试图改变用户与计算机的交互习惯。

Speakly 内置「AI 自动编辑」功能,不仅进行基础的语音转文字,还能在记录过程中自动清理「嗯」、「呃」等口语填充词,修复拼写错误并优化排版格式。系统能够识别用户的自我更正逻辑,确保最终文本只保留有效意图。例如,一段包含口误、修改和犹豫的杂乱口述,经处理后可直接变为结构清晰的列表或通顺段落,无需人工二次编辑。

该应用提供灵活的「自定义指令」选项,用户可自行设定语音转文本的具体规则,一次设置即可重复生效。Speakly 预设了多种可即时切换的模式,包括将多语言转化为流利英语的翻译模式、把口述转为终端代码的命令行助手模式,以及优化职场表达的专业重写模式。此外,还包含了生成网络迷因风格的「混乱模式」和堆砌商业术语的选项。

面对更复杂的任务,Speakly 集成了「Genspark Agent 模式」。用户双击激活后,通过一个指令即可让系统执行深度搜索,或直接生成幻灯片、表格及文档。在兼容性方面,Speakly 覆盖了邮件、Slack、文档笔记及代码编辑器等 100 多款软件,并支持超过 100 种语言。其自动检测功能无需额外配置,即便在句子中间混合使用不同语言,也能准确识别并转换。

体验链接:
https://www.speakly.ai/zh-cn

( @gensparkspeakly\@X)

03 有态度的观点

1、新华社前瞻 2026 中国 AI 发展:不再只会聊天,技术范式全面转向智能体

昨天,新华社旗下《新华视点》公众号发表了 2026 年中国 AI 发展趋势前瞻,指出今年中国人工智能产业在技术范式、算力体系、数据要素、产业应用与治理体系等多个维度将迎来深度变革。

文章指出,随着以对话为核心的「Chat」范式终结,行业竞争正加速转向「能办事」的智能体时代,AI 正从语言智能迈向物理智能与生物智能的融合。

  • 2025 年,中国 AI 企业数量已超过 6000 家,AI 核心产业规模突破 1.2 万亿元,同比增长近 30%;
  • 国产开源大模型全球累计下载量突破 100 亿次,中国在全球 AI 专利占比达 60%;
  • 进入今年,技术突破与场景落地同步深化,行业从「拼规模」转向「拼密度」,算法效率成为核心竞争力。

算法架构革新将成为未来突破关键:

专家认为,AI 将从「会说话的字典」演进为「能自主干活的管家」,具备任务规划、长期记忆与多模态理解能力。具身智能模型的突破意味着 AI 已具备理解并执行物理世界任务的能力。

算力方面,全国已建成 42 个万卡智算集群,智能算力规模超过 1590 EFLOPS。「东数西算」工程形成 8 大枢纽节点、10 个数据中心集群,算力正向高密度、规模化、绿色化演进。

业内预计,百万卡级集群将成为支撑万亿参数模型训练的基础设施。随着「全国一体化算力网」推进,算力调度与电力协同将成为关键能力。

数据要素成为新竞争焦点:

随着模型训练进入深水区,行业从堆量转向提质,高质量行业数据集需求激增。

国家数据局已在多地布局数据标注基地,截至去年三季度已形成 500 余个行业高质量数据集。数据标注从劳动密集转向知识密集,医疗、工业、交通等领域的专业数据成为提升行业模型性能的关键资源。

AI 在制造业、医疗、交通等领域加速渗透:

2025 年至去年底,中国日均 Token 消耗量从 1000 亿增长至 30 万亿,企业使用占比快速提升。

AI 在制造业的应用从研发、运营管理向核心生产环节延伸,汽车、电子、机器人等行业率先受益。工信部提出到 2027 年推广 500 个典型应用场景,推动形成行业大模型体系。

在社会治理与消费领域,AI 正重塑公共服务、城市治理与消费体验:

从城市大脑到智能监测系统,再到 AI 导购、车载语音点餐,AI 正从「技术可行」迈向「社会需要」。教育领域也在加速转型,AI 辅助教学推动复合型技能成为核心竞争力。

与此同时,AI 安全风险引发全球关注:

虚假信息、深度伪造、越狱攻击等问题凸显。我国正通过法律法规、行业标准与安全认证体系构建多层治理框架。《人工智能拟人化互动服务管理暂行办法(征求意见稿)》等政策体现监管的自适应性与前瞻性。

专家认为,AI 是驱动新质生产力的核心力量,也是影响未来社会运行方式的关键变量。如何在加速创新的同时强化安全治理,将成为今年中国 AI 发展的重要命题。

( @APPSO)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示:个人观点,仅供参考

摘要:
滔搏原采用 MyCat+MySQL+Oracle 混合架构,存在成本高、扩容难、数据一致性保障等问题。在数据库切换过程中引入 OB Cloud 后,依托其完善的兼容性、HTAP 融合能力、弹性扩展能力,优化表结构适配原分片策略,低改造完成迁移。升级后存储从 15TB 压缩至 0.9TB,SQL性能提升,扩容高效低风险,运维复杂度大幅降低。

日前,2025 OceanBase 年度发布会在北京举行。在云数据库+ AI 专场,滔搏数据库主管徐子清进行专题分享,介绍滔搏在数据库切换过程中引入 OB Cloud 后的应用实践。

她表示,此次切换并没有带来过高的业务改造或运维成本,不仅实现“无痛”切换和系统“瘦身”,也领略到 OceanBase 生态系统中工具的优秀和强大。

以下为演讲实录。

大家好,我是来自滔搏运动的徐子清,很高兴能与大家分享滔搏在数据库架构切换过程中积累的一些经验。

滔搏是中国领先的运动零售运营商,拥有广泛且深度下沉的零售网络,覆盖全国 300 多个城市近 5000 家直营门店,与 20 余个知名运动品牌深度合作,包括耐克、阿迪达斯、亚瑟士等。公司与超过 8000 万用户实现了无缝连接,为消费者提供优质商品、专业服务和美好体验。

随着公司规模的不断扩大,我们在数据库领域也面临着日益严峻的挑战和压力,公司数据库架构也经历多次调整。

数据库历经多轮迭代 OB Cloud 成终选

最早期时,我们采用的是集中式单库,各个地区如华南、华北、西南,分别自行负责本地的数据库系统,每个区域独立维护和运营。每天业务结束后,各地区将当日业务数据上传至总部系统。这样也就导致总部无法及时查阅当日相关数据,造成了数据实时性不足的问题。

2016 年,公司在数据库架构上进行了一次较大的变革,引入了主流数据库 MySQL,并结合 MyCat 中间件,打造分布式架构。随着业务发展,复杂场景越来越多,如总部的某些报表和财务系统新增需求,使得 MyCat 分布式架构也开始面临压力。继而引入了 Oracle 数据库系统,用于支撑报表和一些特殊场景。但近几年业务激增,新的问题也随之而来。

首先是数据库系统整体成本高昂。

之前,传统集中式数据库系统架构是一主四从,而 MyCat+MySQL 数据库架构里,由于数据库节点众多,同时还存在多种同步工具、运维平台等服务,整体服务器体量较大、硬件成本高。

其次,数据库性能方面也存在一定瓶颈。

在混合架构中,MySQL 主要负责在线事务处理(TP)业务,大部分即时性要求较高的分析型( AP) 业务放在传统集中式数据库系统中运行。但在业务量持续增长的情况下,传统集中式数据库的扩容压力和难度不断增加,对业务发展形成一定限制。

另外,数据一致性的保障也存在一定挑战。

由于架构复杂,存在多种数据库系统之间的数据同步,不同系统之间要保障数据的一致性和实时性,极具挑战。遇到业务异常时,无法快速定位是 SQL 逻辑问题,还是基础表数据有误,亦或是数据同步异常导致数据缺失。排查难度大周期长,面临维护成本高的问题。

在 2019 年到 2020 年期间,业务规模持续扩张,市场需求超出预期,在系统本身面临多维度压力的情况下,我们最后考虑切换数据库系统。

基于时下分布式数据库解决方案综合优势尤为突出,因此将企业的业务系统陆续切换到了某分布式数据库平台。因财务系统最为重要且复杂,且对改造的可控性要求较高,当时并未进行数据库切换。随着业务发展,数据库切换成为势在必行的举措。经过多种方案调研测评,我们最终选择了 OceanBase。

目前,我们的财务系统均已部署到 OB Cloud 集群上。存在数据依赖的业务系统之间,用 OMS 工具进行数据实时同步。

多能力支撑 破数据库运维困局

整个数据库架构的演变,体现了滔搏随着业务发展不断探索和优化数据支撑能力的历程。但很多人会有这样一个疑问:优秀数据库系统那么多,为何最终会选择 OB Cloud?

结合公司业务进行总结,我觉得主要基于以下几方面的原因:

首当其冲是其完善的兼容性。OB Cloud 分布式特性与应用透明扩展非常契合我们的系统诉求。同时 OB Cloud 支持多租户的模式。这对于我们拥有多种数据库系统的企业来说意义重大。公司业务发展迅速,新的功能和需求不断增加,研发团队很难投入太多时间进行旧系统大规模改造。因此,兼容性成为我们选型时的重要考量之一。

高性能也是我们选择 OB Cloud 的核心原因之一。财务系统复杂、存在大量分析报表需求,还有不少小万行的 SQL 语句。切换至 OB Cloud 后,没有进行特定的 SQL 优化的情况下,部分业务性能已有明显提升。在 OB Cloud 技术专家的支持下,进行了诸如并行查询配置等建议后更进一步优化了我们的业务支持能力,带来了实实在在的体验升级。

弹性扩展能力也是 OB Cloud 的一大亮点。以电商业务场景为例,每逢“双十一”等促销活动期间,为防止业务流量激增、影响业务正常运行,往往需要提前一周甚至更久准备服务器,进行数据库系统扩容。传统架构进行扩容,普遍困难且复杂。而在 OB Cloud 上,我们只需提前一两天即可完成扩容部署,且对应用完全无感知,活动结束后还可及时收回资源,实现效率和成本的双重优化。

此外,OB Cloud 的 HTAP 能力极大简化了我们的系统架构。切换之前我们需要规划不同数据库系统处理不同模块的需求,切换至 OB Cloud 后,通过多租户模式,一套集群同时支持两种传统集中式数据库系统,将 TP 和 AP 的业务场景统一管理,还减少了业务系统之间需要进行数据同步的场景,维护成本大幅降低。

最后,是其卓越的易用性。由于 OB Cloud 高度兼容,所以相关使用者无需在开发、测试过程中花费精力学习新系统,研发同事可以“无痛”完成切换,运维和 DBA 团队也能做到零学习成本、无缝接纳。

作为使用者我必须特别提及的是OB Cloud 团队的技术服务支持到位。整个过程中,技术专家几乎 24 小时在线,在某些特定时期,也会进行现场支持。

OMS助力切换 实现“无痛”切换、系统“瘦身”

数据库的切换过程平稳高效。我们首先在 OB Cloud 上完成了数据库服务的部署,然后分别从我们各业务数据库系统进行数据同步。

在这个过程中,切身领略到 OceanBase 生态系统工具的优秀强大。个人最被征服的工具还是 OMS,它在我们切换期间不同阶段承担了多种维度的链路支持。OMS 不仅极高效且稳定的同步数据,也可以灵活地按需选择链路环节。

如,我们可以只对表结构进行迁移,也可以选择迁移表结构和全量数据,或者只进行增量同步。对于部分链路,也可以仅做数据校验而不进行数据同步。

在实际使用数据校验功能时,OMS 可详细展示数据库校验结果,一键生成数据修复 SQL,快速实现数据一致性。

总而言之,OMS 工具非常值得推荐,切换前后数据空间压缩比也令人满意。

在之前业务架构下,财务系统业务库的数据量约为 15 TB。引入某分布式数据库后有进行一定程度的去重,例如全局表只选取一个节点进行数据同步,使得数据规模大大缩减,数据量降到约 3.8 TB。而在切换到 OB Cloud 后,数据量又被一定比例压缩了,目前占用存储空间约 0.9TB。

通过数据量对比,可以明显看到切换过程中数据治理和结构优化带来的存储成本节省效果。

OB Cloud 工作台的“诊断”功能可以帮助我们实时监控和分析数据库的 SQL 运行情况。该页面直观呈现系统中出现的大 SQL、慢 SQL,可疑 SQL 等各类可能影响业务性能的 SQL 语句,我们能够清晰看到相关 SQL 实际执行耗时和资源占用情况,有效提升了我们对数据库运行状况的掌控能力。

最值得一提的是,这次切换并没有带来过高的业务改造或运维成本,反而带来了高效、低风险的体验,这一点值得点赞。

小贴士

回顾本次切换过程,遇到了不少具有代表性的问题。但在 OceanBase 的协助下,各种复杂问题都得到了有效解决,整体的使用体验很好。

以下是我们的解决方案,供参考,希望能带来帮助:

1.表结构需预处理。原系统的分库表在切换至 OB Cloud 时,需要对原有的分片策略和字段进行相应的分区调整。第一次同步时, OMS 工具检测到存在无主键或唯一约束的表、行迁移未开启等情况,这将直接影响切换后数据库业务是否能良好运行,需对相关业务表调整表结构后手动创建到 OB 租户;

2.从其他分布式集群同步至 OB Cloud 的过程中,OMS 消费 kafka 日志消息只支持特定 kafka 数据格式,会存在多字段唯一索引导致的数据消息串行,处理过程中不免会造成同步效率低下。遇到此类问题时,可考虑调整 OMS 任务中 kafka 数据类型的配置;

3.部分对象如物化视图,OMS 无法直接同步定义,需在相关表对象迁移成功后在 OB Cloud 端手工创建;

4.对于频繁删除、插入数据的传统集中式数据库业务场景,OMS 由于需先解析上游数据库日志文件,再进行 OB Cloud 上的回放,同步效率无法与原生主从同步机制相比。若部分非实时数据业务能接受一定滞后,可以考虑用 OMS 链路同步。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

浩辰CAD看图王电脑版创建多行文字功能,可以很容易帮我们实现在图纸上记录大量的文字。可以是一段,也可以是多段,可详细记录内容。今天就为大家简单介绍下浩辰CAD看图王电脑版如何创建多行文字的功能?1、打开图纸,切换到编辑模式工作界面;
图片
2、找到创建多行文字命令,点击;
图片
3、按照提示在图纸中创建多行文字放置的位置;
图片
4、将需要的文字内容输入到文本框中并设置文字大小等属性;
图片
5、点击文字格式右边的【OK】按钮或者在空白处任意点击一下,返回到图纸界面,多行文字创建成功。
图片
在浩辰CAD看图王电脑版新版本中,还可以直接双击图纸中的文字,对文字进行编辑修改哦!

每天对着屏幕敲代码、改 Bug ,大家有没有想过,咱们辛辛苦苦攒下的这几个“窝囊费”,如果穿越回古代,到底能过上什么样的生活?

是为了生存苦苦挣扎的“码头脚夫”?还是挥金如土的“广州十三行大商”?

我撸了一个有趣的小工具: 银色春秋 。它能帮你一键完成“跨时空购买力对标”。

✨ 核心亮点:

  • 硬核还原 :参考《中国货币史》等史料,精准对标汉、唐、宋、明、清各朝代的度量衡(比如唐朝一两是 41.3g ,清朝是 37.3g )。
  • AI 阶层透视 :接入 MiMo-V2-Flash 大模型,根据你的实时银价和工资,分析你所在的社会阶层,并给出毒舌又实用的“生存锦囊”。
  • 细节控 :不仅能算银子,还能查当年的米价、绢价、工食价格。

🔗 传送门:

欢迎大家来测试自己的“古代身价”,也欢迎在评论区分享你的 AI 分析结果!是“温饱”还是“豪奢”?大家对比一下,看看谁才是真正的“大唐打工人”!😂

PS: 如果觉得好玩,求个 Star 🌟,也欢迎佬友们提意见交流!

image.png

当网站提示不安全时,通常与SSL证书有关。SSL证书是一种数字证书,用于在客户端和服务器之间建立加密通道,确保数据传输的安全性。

一、解决网站提示不安全的方法

检查SSL证书状态

首先,要检查网站是否已安装SSL证书。
如果已安装,查看证书是否有效,以及是否由受信任的证书颁发机构签发。
如果证书已过期或不受信任,需要更新或重新申请一个SSL证书。

更新或重新申请SSL证书

如果证书已过期,联系证书颁发机构进行续期。
如果证书存在问题(如颁发机构不受信任、证书链不完整等),需要重新申请一个受信任的SSL证书。

二、SSL证书的申请流程

解决网站不安全—SSL证书申请入口

打开JoySSL官方网站注册一个账号。在注册过程中,需要填写注册码230970,以获得免费SSL证书的使用权限。

填写证书申请表
前往SSL证书颁发机构的官方网站,填写证书申请表。
在申请表中,提供域名信息、组织信息和联系信息等。

验证域名所有权
SSL证书颁发机构会对域名所有权进行验证。
常见的验证方法包括电子邮件验证、DNS验证、文件验证或HTTP验证。
根据所选的SSL证书类型,可能需要提供额外的企业身份验证文件。

审核和签发证书
SSL证书颁发机构将对申请进行审核。
十分钟内审核通过,将签发SSL证书,。

安装SSL证书
根据服务器类型和操作系统,按照SSL证书颁发机构的指南安装证书。

通过以上步骤,您可以成功申请并安装SSL证书,解决网站提示不安全的问题。同时,定期检查和更新SSL证书以及服务器设置,可以确保网站的安全性。

在跨境电商、数据采集、账号管理等场景中,日本动态IP正被越来越多的用户关注。但很多人仍然有疑问:

日本动态IP稳定吗?

适不适合跨境业务?

用户爬虫会不会容易被封?

本文IPDEEP将从稳定性、适用场景、优缺点等多个角度,全面解析日本动态IP,帮助大家快速判断是否符合自己的业务。
日本动态 IP 稳定吗?适合跨境和爬虫吗?

一、日本动态IP是什么?

日本动态IP,指的就是IP地址会定期自动更换的日本本地IP资源。与静态IP不同,动态IP通常来自:

日本本地 ISP

数据中心或住宅网络

IP池轮换分配机制

核心特点只有一个:同一个用户在不同时间访问,出口IP会发生变化。

二、日本动态IP稳定吗?

这是用户最关心的的问题。答案是:稳定性取决于IP来源和服务商质量,而不是“动态”这个属性本身。

1.从连接层面看稳定性

高质量的日本动态IP通常具备:

日本本地低延迟

稳定的网络带宽

连续请求不掉线

在正常访问、合规请求频率下,稳定性是可以满足业务需求的。

2.日本动态与静态IP对比

结论:动态IP并不等于不稳定,而是“适合不同用途”。

三、日本动态IP适合跨境业务吗?

适合的跨境场景:

日本动态IP在以下跨境业务中非常常见:

跨境电商平台访问与调研

市场竞品数据分析

内容可用性/地区限制测试

商品价格、库存、评价监控

优势在于:

IP自动轮换

不易被平台识别为单一用户

更接近日本真实访问环境

不太适合的场景:

需要长期固定登录后台

多天持续绑定同一个IP的账号

对IP变动极度敏感的平台

这类场景更适合使用日本静态IP。

四、日本动态IP适合爬虫和数据采集吗?

答案是:适合,但必须“用对方式”。

优势:

1.降低封禁IP的风险

动态轮换可有效避免高频请求导致的封禁。

2.提高采集成功率

更接近真实用户访问路径

3.可规模化使用

适合中小规模爬虫、定时采集任务。

五、总结:日本动态IP值得用吗?

适合跨境访问、数据采集、风控规避类业务,不适合强依赖固定IP的账号型场景。

今日,商汤正式开源多模态自主推理模型 SenseNova-MARS(8B/32B 双版本),其在多模态搜索与推理的核心基准测试中以 69.74 分超越Gemini-3-Pro(69.06 分)、GPT-5.2(67.64 分)。

SenseNova-MARS是首个支持动态视觉推理和图文搜索深度融合的 Agentic VLM 模型,它能自己规划步骤、调用工具,轻松搞定各种复杂任务,让AI真正具备“执行能力”。

在 MMSearch、HR-MMSearch、FVQA、InfoSeek、SimpleVQA、LiveVQA等基准测试中,SenseNova-MARS取得开源模型中的 SOTA 成绩,还超越Gemini-3.0-Pro、GPT-5.2等顶级闭源模型,在搜索推理和视觉理解两大核心领域全面领跑。更多细节请参见技术报告(https://arxiv.org/abs/2512.24330),欢迎开发者、各行业用户测试与体验。

全能冠军,自主解决复杂问题

SenseNova-MARS在多项多模态搜索评测中展现出明显的领先优势,平均得分达到 69.74 分,成功超过了 Gemini-3-Pro 的 69.06 分与 GPT-5.2 的 67.64 分。

图片

在MMSearch 榜单(图文搜索核心评测)中,模型以 74.27 分登顶,超越GPT-5.2(66.08 分);HR-MMSearch(高清细节搜索评测)中 54.43 分领先,显著拉开与闭源模型的差距。

图片

HR-MMSearch的测试题目堪称“AI界的奥林匹克”:采用305张2025年最新的4K超高清图片,确保AI无法依赖旧知识“作弊”;所有问题都针对图片中占比不到5%的细节,比如小标志、小字、微小物体,必须用图像裁剪工具才能看清;覆盖体育、娱乐文化、科学技术、商业金融、游戏、学术研究、地理旅行等八大领域,60%的问题都需要至少使用三种工具才能解答。

用组合拳,解决真实场景问题

SenseNova-MARS还能实实在在落地到我们生活和工作的场景,解决需要“多步骤推理+多工具协作”的问题。

普通AI的工具调用,要么只能搜文字,要么只能看图片,遇到需要“先放大细节、再识别物体、最后查背景”的复杂任务就束手无策。

图片

对识别赛车服微小 logo + 查询公司成立年份 + 匹配车手出生年月 + 计算差值’的复杂任务,SenseNova-MARS 可自主调用图像裁剪、文本 / 图像搜索工具,无需人工干预完成闭环解答。

图片

SenseNova-MARS能从产品和行业峰会的照片中,识别企业的标志,快速搜集产品、企业的信息,以及时间、数量、参数等细节要素,辅助分析行业情况和格局。

图片

SenseNova-MARS能从赛事照片中识别画面中的logo、人物等信息,追溯比赛或人员背景信息,帮助快速补充重要细节。

图片

SenseNova-MARS甚至能够轻松处理,这类超长步骤的多模态推理,和超过三种工具调用,自动裁剪分析细节、搜索相关研究数据,快速验证假设,得出关键判断。

拥有这种“自主思考+多工具协作”的能力,SenseNova-MARS能够自动解决“细节识别 + 信息检索 + 逻辑推理”复杂任务,帮助实现工作效率提升。

  • 图像裁剪:能精准聚焦图片上的微小细节,哪怕是占比不到5%的细节——比如赛车手衣服上的微小logo、赛事照片里观众席的标语,都可通过裁剪放大清晰分析。
  • 图像搜索:能在看到物体、人物或场景,的瞬间自动匹配相关信息——比如识别出赛车手的身份,或是某款冷门设备的型号。
  • 文本搜索:能快速抓取精准信息——无论是公司成立年份、人物出生年月,还是最新的行业数据,都能秒级获取。

从练中学,形成“经验”和“直觉”

SenseNova-MARS采用了“因材施教”的训练方法。

第一阶段:打基础。针对跨模态多跳搜索推理训练数据稀缺的痛点,创新性的提出了基于多模智能体的自动化数据合成引擎,采用细粒度视觉锚点+ 多跳深度关联检索的机制,动态挖掘并关联跨网页实体的逻辑,自动化构建高复杂度的多跳推理链路,同时引入闭环自洽性校验来去除幻觉数据,构造出具备严密逻辑链条与高知识密度的多跳搜索问答数据。用精心筛选的“高难度案例”做教材,每个案例都标注了“该用什么工具、步骤是什么”,让AI先学会基本的“破案逻辑”。这些案例都是从海量数据中挑出的“硬骨头”,确保AI一开始就接触真实复杂场景。

第二阶段:练实战。采用“强化学习”——就像侦探在一次次破案中积累经验,AI每做对一次决策(比如选对工具、步骤合理)就会获得奖励,做错了就调整策略。为了避免AI“学偏”,研究团队还加了个“稳定器”——BN-GSPO算法,让它在处理简单题和复杂题时都能保持稳定进步,不会出现“偏科”。 这种基于双阶段归一化的优雅机制有效平滑了动态工具调用返回分布多样性带来的优化波动并确保了学习信号分布的一致性,从而成功解决了跨模态多步多工具智能体训练过程中的收敛性难题。

经过这样的训练,AI不仅学会了用工具,更培养"工具使用直觉"——知道在什么情况下应该使用哪些工具,以及如何将不同工具的结果有机结合起来。

模型、代码、数据全开源:
商汤日日新SenseNova-MARS模型、代码、数据集全开源,支持 Hugging Face 直接下载。

Github 仓库:
https://github.com/OpenSenseNova/SenseNova-MARS

模型仓库:
32B:
https://huggingface.co/sensenova/SenseNova-MARS-32B

8B:
https://huggingface.co/sensenova/SenseNova-MARS-8B