2026年4月

随着大模型技术的普及,企业搜索正从传统的“关键词匹配”向“智能体交互式搜索”演进。如何在不牺牲稳定性与成本可控的前提下,实现搜索能力的智能化升级,成为企业数字化转型的关键命题。

2026年4月18日,由 Elastic 主办、阿里云作为钻石赞助商支持的 “Unlock the Power of Search AI —— Elastic 中国 AI 搜索技术大会” 在北京成功举行,参会人数近400人。阿里云智能集团计算平台事业部多位AI搜索技术与产品专家出席,围绕 Agent Native架构、向量混合检索实战、云端存算分离与降本增效、Agentic RAG 等核心议题,与企业客户深入探讨了 Search AI 的技术落地与商业价值。

一、 产品进阶:定义 Agent 时代的搜索新范式——从“人找信息”到“知识记忆湖”

阿里云智能集团计算平台事业部 AI 搜索负责人邢少敏在《从企业搜索到AI搜索Token化:阿里云 Elasticsearch 的云产品进阶之路》中指出,随着大模型应用进入 Harness Engineering 阶段,搜索的核心价值已从服务于人类查找信息,转变为服务于 Agent 获取上下文,成为Agent上下文工程(Context Engineering)与记忆管理的核心组件
d0f92767f3244ad9aef314423bf4782c.png

1. Agent 原生的搜索体验

传统搜索引擎为人类设计,图形界面,搜索结果列表用于点击浏览,而阿里云 Elasticsearch 正在重构搜索体验,为 Agent 重新设计搜索引擎

  • 原生 Agent 支持: 阿里云Elasticsearch原生支持Agent创建,编排和使用,可以创建各类Agent 用于ES的运维管理、数据检索和分析。
  • Agentic Search: 阿里云Elasticsearch 原生支持Agentic Search,将原来面向人的搜索结果转变为面向Agent,搜索结果为JSON、Markdown 等适合AI阅读的格式,让 Agent 能高效读取与执行,同时节省token消耗。
  • Agentic数据处理: 阿里云Elasticsearch 将原生支持Agentic 多模态数据离线处理,内置的多模态数据处理Agent会将用户可以以自然语言描述的多模态数据处理需求转化为 离线任务运行,处理完成后再构建索引。
  • 全生命周期 Skills:将阿里云Elasticsearch的实例创建、集群配置、集群运维、健康诊断、监控和告警等全生命周期抽象为 通用Skills,允许不同的Agent使用阿里云Elasticsearch,比如悟空、QoderWork,Dataworks Data Agent,还有开源的OpenClaw等。阿里云Elasticsearch 成为 Agent 连接数据世界的统一网关,支持Agent直接创建实例,管理索引,运维集群、数据分析等,大幅降低使用门槛。

2. 构建企业级“知识记忆湖”

邢少敏提出,阿里云 Elasticsearch 应演变为 Agent 的长期记忆、技能和知识库存储引擎。通过 Agentic Search 架构,阿里云 Elasticsearch 不仅能存储交互日志,用户偏好与 Skills,还能沉淀企业知识。这种“越用越懂你”的记忆机制,能有效减少 LLM Token 消耗,提升任务成功率,并依托全模态数据湖仓架构打破企业信息孤岛。
254ed28794ff48a4bda29fb6842e4768.png

3. 高性能底座支撑

底层依托自研 FalconSeek 引擎,实现向量查询性能提升 50%-300%,并结合 GPU 加速与 BBQ 量化,确保在千亿级数据规模下,仍能为 Agent 提供毫秒级的上下文检索响应。

二、 最佳实践:千亿级 AI 搜索的效能突破与架构演进

面对 AI 搜索大规模落地中的效果瓶颈与高昂成本,AI搜索成为Agentic产品的关键组件 ,阿里云智能集团计算平台事业部 AI 搜索产品负责人汤祯捷在《搜索即智能体:千亿级 AI 搜索的效能实践》中,分享了客户实践中的三大核心突破:

1. 混合检索 2.0:原生一体化融合检索,解决“召回不准”难题

针对传统向量检索在过滤场景下的失效问题,阿里云推出 智能混合检索(Hybrid Retrieval 2.0)

  • 原生一体化联合检索:多路召回 + RRF 融合的统一架构。不再是两个独立引擎拼在一起,而是在一个统一的检索框架内做多路召回。
  • 边检索边过滤:在 KNN 搜索过程中直接应用过滤器并设定相似度阈值,彻底解决“过滤后结果为空”的工程痛点。
  • 动态 RRF 融合:通过语义感知的动态权重调整与学习型稀疏检索(LSR),无需手动调参即可实现多路召回的高质量融合,显著提升长尾知识的召回准确率。

a37b6102405d4c4e9e97a91588035e53.png

2. 极致效能:逻辑冷热索引分层与存储降级,TCO 降低 40%-70%

为打破千亿级数据下的算力瓶颈,阿里云创新提出 “逻辑冷热索引分离” 策略:

  • 资源精准分配:仅对 10% 热数据构建高性能 HNSW 索引,90% 冷数据采用低开销存储,使单节点内存需求暴降 70%,计算规格减半。
  • Ingest Pipeline 实现智能流量路由: 根据文档的更新时间、访问频率、业务重要性等维度,自动路由标记为热索引或冷索引。
  • 存储介质降级: 牺牲一部分冗余 IOPS,换来的是 50% 的存储降本和吞吐量的提升。
  • 存算分离升级:依托自研内核 FalconSeek 与云端存算分离架构,实现云原生 DSL 查询加速 3 倍以上,整体拥有成本(TCO)降低 40%-70%。

3. 搜索即执行:知识库 RAG 全面拥抱 Agentic RAG

汤祯捷指出,AI 搜索正经历从“信息获取”到“智能体自主执行”的范式转移。借助阿里云ES的基础底座,结合Search Agent核心能力与Agentic RAG引擎,搭建Agentic Search + 阿里云ES的全新AI智能体产品。支持多模态检索与结构化索引,为企业构建可度量、可调度的多 Agent 协作体系, 实现DeepResearch, 联网搜索,知识库RAG,自主执行等AI典型任务。

Agentic RAG——AI搜索即智能体的实践应用。Agentic RAG引擎实现三位一体索引库(文本/向量/结构化索引目录)能力,应用在AgenticSearch 知识库内。并支持Agentic Search持续学习:检索结果的质量反馈回来,用于优化索引;索引的更新反过来提升检索效果。这是一个闭环。
600a450f3b1a41508218851acb238ebe.png

三、 技术深潜:破解 AI 搜索“效果与成本”双重难题的最佳实践

阿里云智能集团计算平台事业部 AI 搜索高级技术专家吴作栋在《向量混合检索最佳实践》中,分享了从算法优化到架构升级的系统性解法:
a25a8bdfeeaa452ab6b58be81bd38704.png

1. 成本效益:BBQ 量化与存算分离

针对百亿级向量场景,阿里云推出 BBQ(Better Binary Quantization)量化技术,通过非对称量化将向量数据压缩至极致。实测显示,100亿向量数据的存储节点可从 225 台缩减至 11 台,资源节约高达 95%。结合 OpenStore 存算分离架构,整体 TCO 降低 40% 以上。

2. 性能提升:自研 FalconSeek 引擎

基于 C++ Native 构建的 FalconSeek 云原生引擎,消除了 JVM GC 抖动,实现 DSL 聚合查询加速 6.8 倍、带过滤向量查询吞吐提升 3-5 倍。同时,通过 Retrievers 声明式检索框架,一键编排 BM25、kNN 多路召回与 RRF 融合排序,兼顾关键词精确匹配与语义理解。

3. 落地路径:三步走策略

吴作栋建议企业采用 “快速搭建(BM25+kNN+RRF)→ 效果优化(接入百炼 Embedding/Rerank+BBQ 量化)→ 极致性能(FalconSeek 引擎+存算分离)” 的三步走路径。该方案已成功支撑 金山文档千亿级语义搜索 及某大模型公司大规模 C 端实时检索。

四、 生态协同:构建 Agent Native 的开放搜索底座

本次大会不仅是技术的交流,更是生态的聚合。阿里云与 Elastic 深度协同,通过 官方ES Skills、云原生架构增强、全链路可观测 三大维度,共同构建面向 Agent 时代的开放搜索生态系统。

  1. 首发 ES Skills,赋予 Agent 原生执行力
    阿里云 Elasticsearch 正式发布 ES Skills 功能,将实例管理、集群诊断、索引管理、数据查询等核心能力封装为标准化工具集。多种主流AI Agent 都可通过自然语言直接发现并调用这些ES Skills,实现从“被动检索”到“主动执行”的跨越。
  2. 云原生架构增强,实现极致弹性与合规
    在兼容 Elastic 最新特性(如 Vector Search、ML Nodes)的基础上,阿里云增强了 OpenStore 存算分离架构 与 Serverless 能力,支持按需付费与秒级扩缩容。
  3. 全链路可观测,降低运维复杂度
    通过集成 CloudLens For ES,实现了从基础设施层(CPU/内存/磁盘)到应用层(慢查询、健康事件、向量检索延迟)的全链路监控。结合智能告警与根因分析功能,帮助运维团队从“被动救火”转向“主动预防”,保障 AI 搜索业务的高可用性(SLA)。

五、 未来演进:从 RAG 到 Agentic Search,重塑企业知识资产

随着 AI 技术从“ Prompt Engineering”, 到“Context Engineering”, 向长时间运行的“Harness Engineering”演进,阿里云 Elasticsearch 的战略重心已从单纯的“搜索引擎”转向 “Agent 的智能记忆与AI搜索基础设施”升级。未来,我们将持续深化以下三个方向的投入:

1. AI搜索演进:打造“知识记忆湖”Agentic Memory

未来的搜索系统将不再仅仅是信息的检索入口,而是企业专属的包含智能记忆库的Agent智能体。

  • 记忆沉淀:自动从交互日志中提取用户偏好、对话上下文与执行 Skills,形成结构化与非结构化统一的“知识记忆湖”。
  • 越用越聪明:通过记忆机制减少 LLM Token 消耗,提升任务成功率,让 Agent 具备“个性化”与“连续性”的服务能力。
  • Lake Search: 阿里云ES打造基于阿里云OpenLake的全场景联邦搜索。

2. 效能突破:FalconSeek引擎升级与存算分离云架构

  • Serverless 与存算分离:进一步屏蔽底层资源管理细节,实现真正的按需计费与极致弹性,让开发者专注于业务逻辑而非集群运维。
  • GPU 加速向量化:深化 GPU 在向量索引构建、重排序(Rerank)及推理环节的加速应用,结合 BBQ 量化技术,在千亿级数据规模下保持毫秒级响应与极致低成本。

3. 行业深耕:专属化与一体化解决方案

  • 行业专属实例:针对金融(高合规)、电商(高并发)、媒体(多模态)等行业,推出预置最佳实践参数的专属搜索实例。
  • 搜推问一体:推动搜索、推荐与问答能力的融合,构建支持多模态(文本/图片/视频)检索与复杂工作流编排的一体化平台,助力企业从“数字化”迈向“智能化”。

阿里云致力于通过 稳定、高效、智能且成本可控 的AI搜索基础设施,成为企业构建下一代 AI Agent 应用的最坚实底座,助力客户在 AI 浪潮中实现业务的可持续增长。


关于阿里云 Elasticsearch
阿里云 Elasticsearch 是基于开源 Elasticsearch 构建, 支持 Elasticsearch 企业版的全托管AI搜索云服务,提供高可用、高性能、高安全的搜索与数据分析能力。深度融合阿里云 AI 技术栈,支持向量检索、机器学习节点、Serverless 架构及 MCP 协议,助力企业轻松构建新一代 AI 搜索与 Agent 应用。

了解更多:

阿里云Elasticsearch:https://www.aliyun.com/product/bigdata/elasticsearch

阿里云AgenticSearch: https://help.aliyun.com/zh/open-search/search-platform/product-overview/agentic-search-ai-driven-next-generation-enterprise-search

  1. 楼主新房,媳妇怀孕 8 个月。

  2. 楼上放租,年前搬来一伙合租的年轻人。年后媳妇总是说半夜两三点有人在不停说话放音乐,感觉像是直播,吵得她睡不着。我先是问物业与楼栋群,没有人说在做直播。于是我半夜蹲守,发现就是我家楼上在吵,拍照报物业,物业上门规劝。后续对方半夜再次吵闹,我就报物业保安,大概三次之后,终于消停了一会。

  3. 三月份楼上又开始吵闹了:每天晚上两三点准时开始,一直到早上四五点结束。声音变成了高跟鞋的嗒嗒声和男女讲话声、怪叫声。
    这段时间工作比较累,媳妇晚上睡得比较沉,一直没有被吵醒,我也实在不想起床,只好戴降噪耳机睡觉。(不过高跟鞋的声音还是能穿透降噪耳机进来)。
    白天向物业管家投诉,管家说楼上现在是合租户,她先去帮忙跟对方协商。之后管家说对方道歉态度很诚恳,知道自己影响到了其他人(期间应该也有其他住户投诉),说以后动作会小心点。

  4. 之后依旧被吵醒,继续向管家投诉,管家直接到人家家里沟通,楼上租户解释说他们在附近某家公司上晚班,每天半夜两点才下班,到早上七八点睡觉。现在已经尽量减少生活噪音了。之后还听物业说他们跟管家诉苦了很久,说找工作不容易云云、晚班很累云云,每天唯一的盼头就是下班之后开 party ,现在由于投诉也不敢开了云云。结果就是物业给我来了一句邻里之间应该互相体谅。当时看对方道歉态度好,我也不好发作。

  5. 问了豆包和 chatgpt 楼上半夜噪音如何维权,根据豆包推荐花几百大洋买了个录音笔,关闭主动降噪,打开增强,插天花板上贴着楼板直接录声音。
    第二天听声音,发现楼下半夜狗叫能录到,隔壁邻居半夜回家开锁也能录到,就是录不到楼上的声音,以至于楼主精神都有点恍惚了,质疑自己是不是真的是被楼上给吵醒的,心脏部位紧得慌。

  6. 有一天 1 点多就开始出现硬底鞋嗒嗒声,持续了半个多小时,期间还有拖动重物的声音。我反复确认不是幻觉后决定起身硬刚楼上。上楼拍门后开门的是一个老太太。

  • 我:你们能不能动静小一点
  • 老太太:我没有听见任何声音啊
  • 我:你们刚刚没有穿硬地鞋吗?没有听见硬底鞋踏地板嗒嗒的声音吗(看了一眼老太太穿的棉拖鞋,但是边上放了一双带跟的皮鞋)
  • 老太太:我什么都不知道,我也没有发出任何声音,我不知道你说什么。

后面老太太的儿子回来了,说他妈刚过来照顾他不久,他会跟他妈说注意点的。但是他们平常生活已经很小心了,因为我们的投诉,他们生活也受到了很大影响,互相能不能谅解下。我看他这样说也不知道说什么,只能回一句以后注意一点。

  1. 期间我爸妈过来住了一个周末,走的时候跟我吐槽说楼上半夜真吵,他们俩每天晚上都被吵醒了;

现在是自己调理了一段时间(其实就是每天提前到十点就睡觉,中午在公司吃完饭就睡,周末也是有空就补半小时觉;然后找医生开了一点养神经的药),感觉自己都适应了楼上的作息了:

  • 每天半夜 1 点多老太太开始给她儿子做饭搞卫生;
  • 两点多男的回家噼里啪啦一顿;
  • 两点半女的回家又是霹雳啪啦一顿;
  • 男的打三角洲死了就会怪叫一声;
  • 时不时传来拖椅子的声音、东西摔地下的声音;
  • 男的女的说话声和笑声;

换了支录音笔,能录到一些楼上的声音(仅限搬东西等直接接触楼板引发震动的声音,录不到说话声与叫声这类通过空气传播的声音)。现在对方每次意识到发出比较大的声响后就会安静一段时间。
用 ai 写了个程序,根据波形图粗略统计了一下,差不多每半个小时就有一个比较高的声音。
问了 chatGPT ,这种情况下就算报警也很难处理,给出的建议是要对方换作息。。。豆包更离谱,要我请公证半夜来家里听噪音,然后和楼上打官司。。

现在楼主还能勉强忍住;媳妇因为孕晚期倒是睡得挺香。不知道以后孩子出生了该怎么办。家长过来带娃肯定是没法睡好觉的。。。

LTRD;

福利在下面,直接用就行。

介绍

Mirrorstages 是从 V2EX 开始一点点做起来的,最开始做的时候不知道还有 sub2api\newapi 这些开源项目,所以就是自己从头手搓,搓了大概三个多月,期间走了不少弯路。随便给大家唠唠。

一开始我只是想做类似 Openrouter 这样的路由平台,在官网的价格上加点赚个鸡腿钱。把模型和协议解耦,让用户可以在不修改代码的情况下去使用任意的模型。等我手搓完才发现原来还有中转这个市场,就顺水推舟入了行。发现里面门门道道真的挺多的。

大部分中转都是二道贩子的二道贩子

刚入行的时候我以为号池是基本需求,凭着之前积累的技术功底开始研究,也算有了自己的独家。等和同行交流的时候才发现很多人其实是随便接的同行的中转站。他们的工作是去找同行谁的渠道做的不错、价格低,就过去谈价格,转手再卖一点,等这个同行价格上涨了,他再找下一家。如此循环往复。如果有个不长眼的同行来问他,他就再加个几毛钱倒卖一手

对于用户来说,一天稳一天不稳,其实就看老板今天聊到的渠道怎么样。

见过最离谱的是:几个站炸了去对帐,对来对去发现调用链路成环了= =,A 接了 B ,B 接了 C ,C 的渠道不稳之后又去对接了 A ,用户的一个请求就在 ABC 三个站来回打转。( 90 年代的网络风暴以另一方式重出江湖)

这样其实也可以理解,毕竟一个小站维护一两个号池就很麻烦了,每个渠道都自建的话,真的顶不住。

虚拟卡已经是上个版本

一开始我以为搞号池就拿虚拟卡批量白嫖免费试用,但实际用起来发现大部分卡头其实都被平台封完了。普通网络不行要上家宽,家宽还分真家宽和 IDC 伪家宽。最后拿卡开号变成了非常玄学的事情。所以现在有些平台的号基本是通过官方的 BUG 搞定的。

比如最近的 Codex Plus 号,应该是从上一年开始出现的。原理大概是 OpenAI 对通过 Google (还是 Apple 忘记了)这样的第三方支付的时候,没有做充分的验证。导致只要有一个支付记录,通过模拟请求可以将一个号的权益复制给另一号。

但因为某些原因,这个 BUG 被人捅到了 OpenAI 脸上,导致 BUG 在今早修复了(

写点软文

Mirrorstages 一开始就自己做 Claude 的号池,目前为止已经两个月没宕机,稳定跑了。最近 GPT 也搭了新号池出来,所以送点福利给大家,请大家帮忙看看转发和调度写的怎么样。

最近和老挝那边的朋友也有了联系,我们自营的纯血家宽和 KYC 认证服务也在路上了,等跑起来之后也要开始自己搭 CCMAX 的号池了

最后放点福利

地址: https://mirrorstages.com

  • 注册送 5 元额度
  • Claude 模型 0.6
  • GPT 模型限时免费( 0.01 )过段时间恢复到 0.5 左右

说出来你可能不信,虽然大厂技术都是985高校计算机博士,写推荐算法写得行云流水,但是我见过很多人在算法备案这件事上硬是折腾了将近一年,愣是没搞定。

这是客户亲身经历,今天这篇文章,就是把大家踩过的坑总结出来,让你知道为什么“填个表就能过”这种想法会让你死得有多惨。

生成式人工智能 #大模型备案 #算法备案 #网络安全 #AI产品安全应用

算法备案比你想象的更卷

2025年,累计有748款生成式人工智能服务完成备案,435款完成登记。

这是什么概念?平均算下来,每天至少有1.2个算法或大模型通过备案。你以为这是个蓝海市场?不,这是个修罗场。

更扎心的是,2025年算法备案已经进入“双轨监管深化期”。双级审核流程使平均备案周期延长40%以上。 也就是说,以前可能三个月能搞定的事,现在可能要四五个月;以前可能被退回一两次,现在可能被退回三五次。

你以为你是在和同行竞争?不,你是在和整个监管体系博弈。

核心原则:建立正确的认知框架

在讲具体流程之前,我觉得最最重要的事情,是先帮你建立一套正确的认知框架。因为我见过太多人,在错误的认知上拼命努力,越努力越惨。

原则一:懂代码≠懂表达

博士代码写得漂亮,思路清晰,逻辑严谨。但他写的第一版备案材料,审核人员的评价是:“这不是算法描述,这是论文摘要。”

你看,问题来了。他懂算法吗?太懂了。但他懂怎么把算法“翻译”成审核人员能理解的语言吗?

算法备案材料不是技术文档,它需要的是:用通俗语言说清楚你的算法“怎么工作的”“做什么决策的”“可能有什么风险”“你怎么控制风险”。

审核人员不是算法工程师,他们看不懂你的矩阵分解、注意力机制。他们只想知道:你这个算法会不会害人。

原则二:懂算法≠懂政策

很多技术出身的人会有一个误区:只要我的算法合规,备案就是走个流程。

这个想法有多危险?危险到你可能因此不断吃闭门羹。

算法合规和政策合规是两码事。算法层面,你的推荐算法可能确实没有任何歧视性输出,没有任何隐私泄露风险。但政策层面,你可能需要公示算法备案号、可能需要提供用户关闭推荐的入口、可能需要在用户协议里写明算法使用的目的和范围。

《互联网信息服务算法推荐管理规定》第二十四条明确要求,具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内履行备案手续。 《互联网信息服务深度合成管理规定》第十九条也规定,具有舆论属性或者社会动员能力的深度合成服务提供者必须依法备案。

这些政策要求,不是技术问题,是合规问题。你不懂政策,就像开车不懂交通规则——技术再好也是马路杀手。

原则三:懂产品≠懂审核重点

产品经理可能是最了解自己产品的人。但问题来了:你了解的东西,是审核人员想了解的吗?

举个例子。产品经理描述产品时会说:“我们采用基于协同过滤的矩阵分解算法,结合用户行为数据和内容特征进行个性化推荐,提升用户留存和转化。”

这段话有什么问题?看起来没什么问题,对吧?但审核人员看到的是:你们在用用户数据做精准推送,可能会影响用户决策,需要说明如何保护用户权益。

算法备案到底要怎么做

好,认知框架建立完了,现在我们来看具体流程。

1 判断你需要哪种备案

算法备案不是只有一种,它分好几类:

•算法备案:针对推荐算法、搜索排序算法、调度决策算法、检索过滤算法等。

•深度合成备案:针对使用深度合成技术(AI换脸、虚拟形象、自动生成内容等)的服务。

•大模型备案:针对自主研发的生成式AI大模型。

这三者的适用范围不同,材料要求不同,审核流程也不同。 你需要先搞清楚自己的产品用的是什么技术、面向什么用户、有什么功能,然后判断你需要做哪种备案。

2 准备材料

根据2026年的最新要求,算法备案材料已增至8项核心模块。主要包括:

1.主体信息:公司营业执照、法人身份证明、安全负责人信息等(需要盖公司公章)。

2.算法信息:算法类型、应用领域、基本原理。

3.算法安全自评估报告:这是重中之重,需要详细说明算法可能存在的安全风险及防控措施。

4.算法负责人承诺书:需要有算法安全负责人的签字和公章。

5.用户权益保护机制说明:包括如何提供关闭推荐的选项、如何保护用户个人信息等。

6.内容安全机制说明:特别是生成式算法,需要说明如何防止虚假信息传播。

7.数据安全保护措施:说明数据存储、使用、传输的安全性。

8.其他证明材料:根据具体业务可能需要补充。

材料准备是最花时间的环节。我的建议是:宁可多准备,不要少准备。你以为自己用不上的材料,可能恰恰是审核人员想看的。

3 提交材料

材料准备好了,下一步就是提交。目前算法备案通过互联网信息服务算法备案系统进行(https://beian.cac.gov.cn)。

提交时需要注意几点:

•所有材料需要加盖公章,电子版需要清晰可读。

•法人、安全负责人需要本人签字,不能代签。

•填写信息要与实际业务一致,不能有任何虚假。

提交后就是等审核。正常情况下,审核周期约2个月。但如果材料被打回修改,周期可能延长到3-4个月。

4 整改与补充

别指望一次通过。根据我的经验,大多数企业的首次提交都会被退回,需要修改。常见的退回原因包括:

•材料描述与实际产品功能不符

•风险评估不够详细

•缺少具体的防控措施

•用户权益保护机制不完善

被退回不要慌,这是正常流程。认真看退回意见,一项一项改,改完再提交。记住:审核人员的每一条意见,都是在帮你完善材料。

注意事项:这些坑千万别踩

最后这部分,说说我见过的别人踩过的坑。希望你能避开。

1 不要用通用模板

这是最容易犯的错误。网上有太多“算法备案通用模板”,很多企业为了省事,直接下载模板改一改就提交。

审核人员一眼就能看出来。轻则打回修改,重则被认定为“敷衍了事”,后续审核会更加严格。

2 不要忽视“舆论属性”判定

并不是所有使用算法的产品都需要备案。《互联网信息服务算法推荐管理规定》明确要求的是“具有舆论属性或者社会动员能力”的算法推荐服务提供者需要备案。

但问题是,“舆论属性”和“社会动员能力”的判定标准是什么?这个边界其实比较模糊。很多企业以为自己的产品不属于这个范围,结果被监管机构发现在这个范围内,直接吃了罚单。

我的建议是:如果你的产品有一定用户规模,有内容分发功能,最好主动咨询一下专业机构,确认是否需要备案。别等被查了再后悔。

JS中this关键字详解(面试必背+错题复盘+bind/call/apply用法)

本文整合JS中this关键字的核心知识点、记忆口诀、易错点复盘,以及bind/call/apply三大方法的用法,结合经典面试题和个人错题,适合整理成博客存档,助力面试备考,彻底吃透this指向问题。

一、this核心记忆口诀(背会直接破题)

核心总纲:this不看书写时,只看运行时;谁调用,指向谁(箭头函数除外)

  • 普通函数:谁调用,this是谁
  • 直接调用:无调用者,this→window(浏览器)/undefined(严格模式/Node)
  • new调用:this→新创建的实例对象
  • call/apply:临时手动指定this,仅当前调用生效
  • bind:永久手动绑定this,生成新函数,不可修改
  • 箭头函数:无自身this,继承外层第一个普通函数的this;无外层普通函数则指向window
  • 补充坑点:对象{}不产生作用域,不绑定this

优先级口诀(从高到低):new绑定 \> bind硬绑定 \> 对象方法隐式绑定 \> 普通调用默认绑定 \> 箭头函数继承绑定

二、bind、call、apply 用法详解(重点区分)

三者核心作用:手动改变函数的this指向,区别在于调用方式、传参形式和是否永久绑定。

1. call 方法

  • 语法:函数名\.call\(指定的this, 参数1, 参数2, \.\.\.\)
  • 核心特点:立即执行函数,临时绑定this(仅当前调用生效),参数以列表形式传递
  • 示例:
function foo(a, b) {
  console.log(this.name, a + b);
}
const obj = { name: "张三" };
foo.call(obj, 1, 2); // 输出:张三 3(this临时指向obj,立即执行)
foo(); // 输出:undefined/global (this恢复默认,绑定失效)

2. apply 方法

  • 语法:函数名\.apply\(指定的this, \[参数1, 参数2, \.\.\.\]\)
  • 核心特点:立即执行函数,临时绑定this(仅当前调用生效),参数以数组形式传递
  • 示例:
function foo(a, b) {
  console.log(this.name, a + b);
}
const obj = { name: "李四" };
foo.apply(obj, [1, 2]); // 输出:李四 3(参数是数组,其余和call一致)
foo(); // 绑定失效,this恢复默认

3. bind 方法

  • 语法:const 新函数 = 原函数\.bind\(指定的this, 参数1, 参数2, \.\.\.\)
  • 核心特点:不立即执行函数,返回一个新函数;新函数的this被永久绑定,不可修改(硬绑定)
  • 关键注意:即使再用call/apply/bind修改新函数的this,也无效;可重复调用新函数,this始终不变
  • 示例:
function foo(a, b) {
  console.log(this.name, a + b);
}
const obj = { name: "王五" };
const newFoo = foo.bind(obj, 1, 2); // 生成新函数,this永久绑定obj
newFoo(); // 输出:王五 3
newFoo.call({ name: "赵六" }); // 依然输出:王五 3(绑定不可改)

4. 三者对比表

方法是否立即执行this绑定特性参数传递方式核心特点
call临时绑定,仅当前生效列表形式(逗号分隔)临时借用this,单次使用
apply临时绑定,仅当前生效数组形式参数较多时更便捷
bind永久绑定,生成新函数列表形式(可预传参)可重复使用,绑定不可改

三、个人错题复盘(箭头函数+bind易错重点)

以下是之前做题时出错的题目,重点分析错误原因,对应this核心规则,彻底避免再错。

错题1:对象中的箭头函数(第7题)

var a = 100;
var obj = {
  a: 200,
  foo: () => {
    console.log(this.a);
  }
};
obj.foo(); // 我的答案:200 → 正确答案:100
错误原因

误以为“obj调用foo,this就指向obj”,忽略了箭头函数无自身this,且对象{}不产生作用域

正确解析
  • foo是箭头函数,没有自己的this,需继承外层作用域的this;
  • 箭头函数写在obj里,但obj是对象,不是普通函数,不产生作用域;
  • 外层无其他普通函数,this指向全局window,this.a = 100。

错题2:bind永久绑定(第9题)

var a = 10;
function foo() {
  console.log(this.a);
}
var obj = { a: 20 };
var fn = foo.bind(obj);
fn(); // 我的答案:window → 正确答案:20
错误原因

忘记bind的“永久绑定”特性,误以为fn()是普通调用,this会变回window。

正确解析
  • bind会生成一个新函数(fn),并将新函数的this永久绑定到obj;
  • 无论新函数怎么调用(即使再用call),this都不会改变;
  • fn()调用时,this=obj,this.a=20。

错题3:对象中箭头函数的this(第10题fn2)

var name = 'global';
var obj = {
  name: 'obj',
  fn1: function() { console.log(this.name) },
  fn2: () => { console.log(this.name) },
};
obj.fn2(); // 我的答案:obj → 正确答案:global
错误原因

和第7题错误一致,混淆了“对象调用”和“箭头函数的this继承规则”,忽略对象不产生作用域。

正确解析
  • fn2是箭头函数,无自身this,继承外层作用域的this;
  • 外层无普通函数,this指向window,window.name = \&\#39;global\&\#39;;
  • obj.fn2()只是调用箭头函数,不会改变箭头函数的this指向(箭头函数不看调用者)。

错题4:setTimeout中箭头函数与普通函数(第5、6题对比)

// 第5题(普通函数)
var obj = {
  a: 10,
  foo: function() {
    setTimeout(function() {
      console.log(this.a); // 我的答案:window(正确),但理解不透彻
    }, 100);
  }
};
obj.foo();

// 第6题(箭头函数)
var obj = {
  a: 10,
  foo: function() {
    setTimeout(() => {
      console.log(this.a); // 我的答案:obj(正确),但分不清和第5题的区别
    }, 100);
  }
};
obj.foo();
错误原因

能选对答案,但未彻底掌握“普通函数vs箭头函数”在异步回调中的this区别。

正确解析
  • 第5题:setTimeout的回调是普通函数,有自身this;普通函数由window调用,this=window,this.a=全局a(无则undefined);
  • 第6题:setTimeout的回调是箭头函数,无自身this;外层是foo(普通函数),foo的this=obj(被obj调用),所以箭头函数继承this=obj,this.a=10。

四、this经典易错面试题(10道,含解析)

以下题目覆盖所有核心场景,结合前面的知识点,可自行先做题,再看解析巩固。

第1题:普通函数直接调用

var a = 10;
function foo() {
  console.log(this.a);
}
foo(); // 答案:10(浏览器)/ undefined(严格模式)

解析:普通函数直接调用,无明确调用者,this指向全局window(浏览器),window.a=10。

第2题:对象方法调用

var obj = {
  a: 20,
  foo: function() {
    console.log(this.a);
  }
};
obj.foo(); // 答案:20

解析:obj调用foo,谁调用this指向谁,this=obj,obj.a=20。

第3题:对象方法单独调用

var obj = {
  a: 20,
  foo: function() {
    console.log(this.a);
  }
};
var fn = obj.foo;
fn(); // 答案:10(浏览器)/ undefined(严格模式)

解析:fn接收的是foo函数本身,并非obj调用;fn()是普通直接调用,this指向全局。

第4题:new构造函数调用

function Foo() {
  this.a = 30;
  console.log(this);
}
var f = new Foo(); // 答案:Foo { a: 30 }

解析:new调用构造函数,this指向新创建的实例对象(f),函数内部this.a=30,打印实例。

第5题:setTimeout普通函数回调

var obj = {
  a: 10,
  foo: function() {
    setTimeout(function() {
      console.log(this.a);
    }, 100);
  }
};
obj.foo(); // 答案:10(浏览器)/ undefined(严格模式)

解析:setTimeout回调是普通函数,由window调用,this=window,window.a=10。

第6题:setTimeout箭头函数回调

var obj = {
  a: 10,
  foo: function() {
    setTimeout(() => {
      console.log(this.a);
    }, 100);
  }
};
obj.foo(); // 答案:10

解析:箭头函数无自身this,继承外层foo的this(foo被obj调用,this=obj),obj.a=10。

第7题:对象中的箭头函数

var a = 100;
var obj = {
  a: 200,
  foo: () => {
    console.log(this.a);
  }
};
obj.foo(); // 答案:100

解析:箭头函数无自身this,外层无普通函数,this=window,window.a=100(对象不产生作用域)。

第8题:call临时绑定

var obj1 = {
  a: 1,
  foo: function() {
    console.log(this.a);
  }
};
var obj2 = {
  a: 2,
};
obj1.foo.call(obj2); // 答案:2

解析:call临时将foo的this绑定到obj2,立即执行,this=obj2,obj2.a=2。

第9题:bind永久绑定

var a = 10;
function foo() {
  console.log(this.a);
}
var obj = { a: 20 };
var fn = foo.bind(obj);
fn(); // 答案:20

解析:bind生成新函数fn,this永久绑定obj,fn()调用时,this=obj,obj.a=20。

第10题:综合题(箭头+普通函数+对象调用)

var name = 'global';
var obj = {
  name: 'obj',
  fn1: function() {
    console.log(this.name);
  },
  fn2: () => {
    console.log(this.name);
  },
};

obj.fn1(); // 答案:obj
var fn = obj.fn1;
fn(); // 答案:global
obj.fn2(); // 答案:global

解析:

  • obj.fn1():obj调用普通函数,this=obj,输出obj;
  • fn():fn是普通函数直接调用,this=window,输出global;
  • obj.fn2():fn2是箭头函数,外层无普通函数,this=window,输出global。

五、总结

this的核心难点在于“运行时绑定”和“箭头函数的继承规则”,记住口诀+分清场景,就能避开90%的坑:

  1. 普通函数看调用者,箭头函数看书写位置(外层普通函数);
  2. call/apply临时绑,bind永久绑;
  3. 对象不产生作用域,箭头函数写在对象里,this不指向对象;
  4. 优先级顺序记牢,new和bind优先级最高。

收藏本文,面试前快速过一遍口诀和错题,就能轻松应对this相关面试题~

(注:文档部分内容可能由 AI 生成)

截至 4 月 20 日,Hermes Agent 已斩获 100k+ Star,持续霸榜 GitHub,成为近期开发者社区最受关注的 Agent 之一。技术大佬更是直言它是"OpenClaw 上线以来第一个真正意义上的竞争对手。"

过去大家往往在意 Agent 会不会调用工具、能不能接更多入口、做不做得完任务。而对 Hermes 的讨论更进一步触及 Learning Loop、自我反思,以及 Skill 自进化这类更底层的能力机制。

Hermes 是什么

Hermes Agent 由 Nous Research 在 2026 年 2 月开源发布。官方的定义很直接:"The self-improving AI agent"。它最大特点是内置学习环路(learning loop),能从任务中提炼 Skill,在使用中持续改进,主动沉淀知识,搜索过往会话,并在跨会话过程中逐步形成对用户的长期理解。

简单说,它试图成为一个会持续积累经验的个人 AI Agent。

OpenClaw 与 Hermes

提到 Hermes,不可避免地要和 OpenClaw 一起讨论。它们都不只是单点脚本、聊天 bot,而是把模型、工具、会话、记忆、Skill 和运行环境包在一起的通用 Agent 系统。目前,Hermes 与 OpenClaw 都已越过所谓"模型包装器"的阶段,区别不在"是不是 Agent",而是"厚度长在什么地方"。

两者在系统重心上有所区别:OpenClaw 管入口和秩序,更像控制面,重点是把入口、会话、权限、路由和秩序组织进系统;Hermes 管执行和经验,更像学习循环,重点是把执行中的方法沉淀下来,并在后续任务里复用。

此外,这两个工具的差异还体现在 Skill 上。OpenClaw 的 Skill 更像团队里的 SOP 库,强调来源、加载、优先级和治理;Hermes 的 Skill 更像任务完成后沉淀下来的工作笔记,强调把成功路径保存成可复用的方法。也就是说,前者更强调把能力组织起来,后者更强调把方法留下来,进行后续的迭代加强。

再往下拆,两者的差异还可以概括成下面这几个维度:

Skill 自进化:Hermes 最值得聊的东西

这不是设计师画的,也不是程序员写的——这是 Hermes Agent 调用自己创建的 Skill 生成的。

Hermes 的 Skill 不是插件,不是扩展,而是 Agent 在完成复杂任务后自动生成的操作手册——一个名为 SKILL.md 的文件。

格式很简单:YAML 头部(名称、描述、标签、版本)加 Markdown 正文(使用场景、操作步骤、常见坑、验证方法)。文件则保存在 ~/.hermes/skills/ 目录下。

一句话概括:OpenClaw 存储你说了什么(memory),Hermes 存储它学到了什么(skill)。

需要注意的点,Skill 不是 Hermes 的私有格式。agentskills.io 是 Skill 的开放标准规范,已经被 Claude Code、Cursor、Kiro、VS Code 等 16 个 AI 产品采纳。无疑,Skill 是目前 AI 行业采用最广泛的事实标准。

自进化是怎么发生的?

过程拆解开,如下:

  1. 第一次执行复杂任务
  2. 完成(5+ tool calls 成功)
  3. Agent 自动抽象步骤 → 生成 SKILL.md
  4. 第二次遇到类似任务
  5. Agent 调用已有 Skill → 速度更快、步骤更少
  6. 如果有新发现 → Agent 自动 patch SKILL.md
  7. Skill 越用越精准

当中关键点:

  • 生成 SKILL.md 的触发条件是完成 5 次以上复杂任务的工具调用(tool call),像是你和 AI 之间的简单问答并不会生成 Skill
  • 自进化方式是 LLM 驱动的 Markdown 改写
  • 高级玩法:hermes-agent-self-evolution 用 DSPy + 遗传算法做 Skill 变异优化,单次进化开销在 $2-$10 之间

实战:用 architecture-diagram 走一遍全流程

相信不少人对"自进化"的说法保持怀疑,现在我们来简单验证一下:

第一步:让 Hermes 画一张架构图

给个常见需求:"画一个 React + Node.js + PostgreSQL + Redis + S3 的系统架构图。"

Hermes 调用内置的 architecture-diagram Skill,接着 7 步:

  1. 分析需求
  2. 规划布局
  3. 计算坐标
  4. 生成 SVG
  5. 包装成 HTML
  6. 输出一个独立 HTML 文件
  7. 浏览器打开

简单讲解下色块,它十分清晰,Skill 以对应技术产品的 logo 色作为参考。像是前端 React 的青色、后端 Node.js 的翡翠、PostgreSQL 数据库的紫色、云服务 S3 的淡黄、Redis 数据库的淡橙。我们不需要指定配色,Skill 文件里默认这套配色设计,你可以按需自行修改对应的配色。

第二步:Skill "操作手册"长什么样

打开 ~/.hermes/skills/creative/architecture-diagram/SKILL.md,里面有完整的 Workflow、Design System、连线规则、间距逻辑。这是 Hermes 在反复执行架构图任务后积累形成的。

第三步:用 Anthropic 官方工具验证这个 Skill

skill-creator 来自 anthropics/skills 仓库,是 Anthropic 官方出品的 13 个标准 Skill 之一。它的定位很特别——Meta-Skill:专门用来创建、测试、迭代其他 Skill。

它能自动生成 eval 测试用例、跑 benchmark、给出质量评分、建议改进方向。把 Hermes 生成的 architecture-diagram SKILL.md 喂给了 skill-creator,结果很有意思:它指出了几个真实问题。

比如:8 个以上组件时布局会乱、连线路由在密集场景下会重叠、验证步骤不够完整…

第四步:按建议改进 → 再验证 → 分数提升

根据 skill-creator 的反馈,我们来改进下 Skill:补充组件数量警告、增加布局验证步骤、完善边缘场景处理。再跑一次验证,分数上去了,图片也更美观了。

这就是自进化,一个可重复的、有方法论的闭环:

Hermes 创建 Skill → Anthropic 官方工具验证质量 → 发现问题 → 改进 → 再验证 → 能力提升

不止于此:正在成型的 Skill 生态

Hermes 绘制架构图只是开始,Hermes 的 Skill 已初具生态规模:

  • 官方开箱即用: 官方 optional-skills/ 目录下已沉淀 28+ 个 Skill,覆盖了 DevOps、代码研究、安全审计等 13 个常见开发场景
  • 拥抱开放标准: 采用 agentskills.io 规范,这意味它生成的 Skill 可以与 Claude Code、Cursor 等其他 10+ 种主流 AI 工具互通
  • 极客的高阶玩法: 开发者社区已经开始出现基于 DSPy 和遗传算法的衍生项目(hermes-agent-self-evolution),通过程序让 Skill 自行变异、跑测和择优

当然,赞叹之余,我们还需要客观认清其能力边界:

  • 触发有门槛: 简单的日常闲聊无效,只有成功完成复杂任务(5+ tool calls)才会触发总结机制
  • 是"记笔记",而非"微调训练": 官方宣称的 "Self-improving" 有夸大成分。它没有在底层微调大模型,只是让 Agent 写了一份高质量 SOP 留给下次参考
  • 仍需人工审核: HN 极客曾吐槽传统 Memory 流是一团乱麻("a complete mess")。Hermes 的 Skill 虽高度结构化,但在极端复杂场景下,依然离不开开发者的人工微调
  • 验证的是规范: 本文工具验证的是 Skill 文档的逻辑与格式完整性,并不是在给 AI 测智力

即便我们罗列一些槽点,但这不影响核心结论:凭借这套可复用的经验沉淀机制,Hermes 已经是目前开源框架中最接近"越用越强"的实现。它不完美,但方向对了。

让"自进化"飞轮持续转下去

Hermes 的"自进化"依赖于真实任务的反复试错与积累。跑通只是第一步,长线运行才是让它"越用越强"的关键。

如果你已经跨过了本地尝鲜阶段,希望专属 Agent 能 7x24 小时在线待命,并随时随地复用它积攒下来的 SKILL.md,可以借助七牛云的现成基建快速落地:

  • 七牛云 LAS: 10 分钟轻松部署,免折腾环境,实现 Agent 的云端常驻与能力持久化
  • 七牛云 MaaS: 无缝接入主流大模型,低成本 Token 足以覆盖 Agent 日常跑 Demo

无论是开发者们在本地手搓,还是在云端长期挂机,Hermes 都值得每个开发者亲自上手一试。

👉 [上手专属] 七牛云 LAS 特惠活动:https://s.qiniu.com/IviUfa
👉 [算力弹药] 邀好友最高领百亿 Token:https://s.qiniu.com/rAzUZ3
👉【10分钟部署】Hermes Agent 一站式部署教程:[https://mp.weixin.qq.com/s/ugqS0neWETsLEn9sqX2t1g]

做独立开发有一段时间了,最近上线了一个 AI 音效生成平台 aiwave,用户输入一段中文描述就能生成对应的专业音效。这篇文章聊聊整个项目的技术选型、踩过的坑和一些思考,希望对同样在做音频方向的开发者有参考价值。


项目是什么

简单说就是一个 Text-to-Sound-Effect 的平台。用户输入类似"暴风雨中远处传来的雷声,伴随雨点打在玻璃窗上"这样的描述,AI 在 3 秒内生成对应的音效文件。除了 AI 生成,还做了一个浏览器内的音效编辑器,支持裁剪、淡入淡出、混响调节等操作。

核心用户群是视频创作者、独立游戏开发者和播客主播——这些人经常需要找特定的音效,传统素材库搜不到就没辙,AI 生成正好解决这个问题。


技术栈选型

前后端分离架构:

前端: Next.js 15 + React 19 + TypeScript + Tailwind CSS + shadcn/ui + Zustand

选 Next.js 主要是为了 SSR 和 SEO,音效平台需要被搜索引擎收录。React 19 的 Server Components 在首屏加载上提升明显。状态管理用的 Zustand,比 Redux 轻量太多,音频编辑器的状态逻辑用 Zustand 管理很舒服。

后端: Node.js 20 + Fastify 5 + Prisma 6 + Zod

Fastify 比 Express 快不少,而且原生支持 JSON Schema 校验。Prisma 做 ORM 类型安全很好,配合 Zod 做入参校验基本杜绝了类型问题。

数据库: PostgreSQL 16 + Redis 7

AI 引擎: 音效生成接的是底层 AI 引擎,做了 7 天缓存策略减少重复调用成本。


最难的部分:浏览器内音频编辑器

这是项目里花时间最多的模块。基于 Web Audio API 实现,支持以下操作:

  • 波形可视化显示
  • 音频裁剪(精确到毫秒)
  • 多段音轨叠加
  • 淡入淡出效果
  • 音量调节
  • 导出 WAV / MP3 / OGG

踩坑 1:Web Audio API 的 AudioContext 生命周期

浏览器安全策略要求 AudioContext 必须在用户交互(点击/触摸)后才能启动。如果你在页面加载时就创建 AudioContext,Chrome 会把它置于 suspended 状态。

解决方案是延迟创建,在用户第一次点击播放按钮时才初始化:

let audioCtx = null;
function getAudioContext() {
  if (!audioCtx) {
    audioCtx = new AudioContext();
  }
  if (audioCtx.state === 'suspended') {
    audioCtx.resume();
  }
  return audioCtx;
}

踩坑 2:大文件波形渲染性能

直接用 Canvas 画完整波形在长音频(>10秒)时会很卡。最终方案是对音频数据做降采样,把几万个采样点降到 Canvas 像素宽度的 2 倍,渲染性能提升了 10 倍以上。

踩坑 3:音频导出格式

Web Audio API 原生只支持导出 PCM 数据,要输出 MP3 需要用 lamejs 库做编码,OGG 需要 vorbis-encoder。导出过程放在 Web Worker 里跑,避免阻塞主线程。


AI 音效生成的提示词工程

接底层 AI 引擎不难,难的是让中文用户的描述能被准确理解。做了一层提示词预处理:

  1. 用户输入中文描述
  2. 后端用 DeepSeek 做语义增强(≤2轮对话),补充音频专业术语
  3. 增强后的描述发给 AI 引擎生成

比如用户输入"老式收音机调台的声音",经过增强变成更精确的音频描述,生成效果会好很多。


缓存策略

AI 生成单次成本不低,所以做了多级缓存:

  • Redis 缓存: 相同描述 7 天内直接返回缓存结果
  • OSS 存储: 生成的音效文件存阿里云 OSS + CDN 加速
  • 前端缓存: 用户最近生成的记录本地缓存

这样同一个描述的音效,第一个用户等 3 秒,后续用户毫秒级返回。


和其他方案的对比

做调研时看了不少同类产品:

产品定位优势局限
可灵 AIAI 视频创意大厂生态音效功能是附属
aiwaveAI 音效生成中文友好+在线编辑器单次最长 30 秒

我觉得 AI 音效和 AI 音乐是两个不同赛道。音乐生成已经很卷了,但纯音效生成的产品在国内几乎是空白,这也是我选择做这个方向的原因。


一些数据

上线到现在的一些情况:

  • 注册用户自然增长中(没做推广)
  • 生成成功率 > 95%
  • 平均生成耗时 3.2 秒
  • 最受欢迎的音效类型:环境音 > 科技界面音 > 动作音效

总结

做一个 AI 音效平台,AI 部分其实不是最难的(接 API 就行),真正耗时间的是:

  1. 浏览器内音频编辑器(Web Audio API 坑巨多)
  2. 提示词工程(让中文描述变成高质量的音频生成指令)
  3. 缓存和成本控制(AI 调用成本 vs 用户体验)

如果你也在做音频方向的项目,欢迎交流。

项目地址:aiwave.art
GitHub:github.com/liushafeiniao/aiwave


如果这篇文章对你有帮助,点个赞 👍 让更多人看到。


2026年4月20日晚,Kimi-K2.6正式发布,Comate Day 0同步首发,将其上线为IDE及插件端内置模型,支持图片理解,供用户使用。

Kimi-K2.6 是月之暗面最新发布的模型。Kimi-K2.6 在代码编写、长程任务执行及 Agent 集群能力方面实现了全面升级。据官方披露,Kimi K2.6 在博士级难度的完整版“终极人类考试”(Humanity's Last Exam)、评估真实软件工程能力的 SWE-Bench Pro 以及 Agent 深度检索基准 DeepSearchQA 等测试中,均取得了行业领先的成绩,表现持平或优于 GPT-5.4、Claude Opus 4.6 和 Gemini 3.1 Pro 等闭源模型。

Comate持续为用户提供在编程领域最新、表现优秀的模型,成为您的最佳编程伙伴~将Comate AI IDE及插件端升级至最新版本,立即体验全新Kimi-K2.6模型带来的生产力提升!

一键更新Comate ,来体验长程编码能力显著提升、大幅增强Agent自主化执行能力吧

更新途径一: 百度搜索“文心快码”,官网下载Comate AI IDE最新版;

更新途径二: Comate AI IDE 界面点击 “重启以更新”;

更新途径三: VS Code 或者 Jetbrains 系列 IDE 搜索文心快码插件,点击“安装”或“更新”。

如果您(或所在机构)对百度文心快码感兴趣,请扫码联系下方微信~

任何文心快码售前及售后问题
欢迎添加产品顾问咨询(请带前缀:Comate咨询)
工作时间:工作日10:00-18:00

对于iOS开发者和有应用分发需求的企业来说,苹果签名是绕不开的关键环节。它就像苹果系统给应用颁发的“通行证”,只有拥有合法“通行证”,应用才能在iOS设备上正常安装和运行。不同于安卓系统的开放分发,苹果签名有着严格的分类和规范,不同类型的签名适配不同场景,今天就用通俗的语言,带大家认识主流苹果签名类型,避开认知误区。
最基础的是个人开发者签名,主要面向个人开发者或小型开发团队,用于应用的初期调试和小范围试用。它需要依托苹果个人开发者账号开通,费用适中,操作门槛低,新手开发者也能快速上手。使用时需提前将测试设备的UDID录入账号,单账号最多可绑定100台设备,签名有效期为一年,到期后需及时续签。这种签名的核心价值的满足开发调试需求,不适合大规模对外分发,仅能用于内部测试或少量种子用户体验。
针对企业需求的是企业签名,专为企业内部分发应用设计,无需绑定设备UDID,也没有设备数量限制。企业只需拥有苹果企业开发者账号,即可生成签名,员工或内部用户下载应用后,简单操作即可完成信任,快速安装使用。它广泛应用于企业内部办公软件、内部培训应用等场景,能极大提升企业内部应用的部署效率。需要注意的是,企业签名仅能用于企业内部使用,若违规对外分发,可能导致证书被苹果吊销,影响应用正常使用。
兼顾稳定性和便捷性的是超级签名,它基于个人开发者证书优化而来,解决了个人签名设备绑定繁琐的痛点。用户安装应用时,无需手动提供UDID,系统会自动完成设备绑定和签名,操作更便捷。同时,超级签名采用单设备独立签名的方式,大幅降低了掉签概率,稳定性远超普通企业共享签名。它适合对应用稳定性要求高、分发范围较小的场景,比如小众应用测试、精准用户体验投放等,唯一不足是成本随设备数量增加而上升。
最合规的是TF签名,也就是TestFlight签名,是苹果官方推出的测试签名方式。应用需先通过苹果的基础审核,审核通过后,可邀请外部用户参与测试,最多支持1万名测试用户,测试周期为90天。用户只需下载TestFlight官方应用,即可直接安装测试版应用,无需手动信任证书,零掉签风险。这种签名适合需要公开测试、收集广泛用户反馈的应用,尤其适合对合规性和安全性要求高的行业,唯一局限是审核有一定标准,部分特殊功能应用可能无法通过。
综上,各类苹果签名没有优劣之分,核心是适配需求:个人调试选个人开发者签名,企业内部分发选企业签名,追求稳定便捷选超级签名,合规公开测试选TF签名。掌握这些核心区别,就能轻松选对适合自己的苹果签名。

事情经过我就不仔细描述了,之前都发过,上次发的那篇可能因为评论原因进小黑屋了,公司给本地棋牌 APP 做资金结算,又把资金结算卖给了别人,自己干起了四方支付,在这家公司上班了 2 年 10 个月,最后检察院给了相对不诉,退了 3 个月工资。

历经 3 个月时间,从公安取保到拿到不起诉决定书,刚取保时候每天都活在那种害怕听到电话铃声的状态。前一个月线下找过本地律师,本地律师说小事情。然后就天天在闲鱼找前刑警,在抖音找各种直播律师咨询,也花了不少咨询费。闲鱼上给的答复都是比较乐观,直播律师就一个说的是你出不来了,会进去坐牢,其他基本都是说把工资全退了拿个缓,那段时间真的是焦虑的不行。

去过 3 次派出所,一次是询问,一次是移送审查前的笔录,一次是把银行流水自己截图拿过去,去过 1 次办案中心,去做的讯问笔录,这 4 次,办案民警每次都是和我说检察院那边不会起诉,就是走个流程,但得退赃。

后面移送审查后,去过两次检察院,第一次是谈话,比较轻松,没有像去办案中心那样需要进小黑屋坐在固定手脚的凳子,就是问一些有没诱供有没刑讯逼供,然后把办案民警问的话再问了一遍,让我不要狡辩了,肯定会给我从轻处罚,问完让我把工资流水 APP 上截图交给办案民警,我问她能不起诉吗,说的是还没决定需要和领导汇报。

我们把工资流水交给了办案民警,第二天检察院就电话来了,说退 3 个月工资,工资按扣除社保个人所得税这些算,还给我们一个月减免了 1000 ,可能是为了凑到那个罚金,让我们抓紧筹钱,这样她才好去和领导申请不起诉。后面约了我今天下午过去退违法所得和做认罪认罚,没说会给不起诉。

今天下午过去,先和我们说,你们先把钱交了,然后一个个进来给你们做认罪认罚,做完你们再等一下,今天把不起诉决定书一起弄了,但后面可能公安还会有行政处罚。

因为有一个同事还请了律师,那个律师还迟到了很久,律师费真的是白给了他,纯属过来捡钱的,我们就在那等了一会,检察官闲聊时候说以后找工作要注意点,特别是你们程序员互联网行业这些,她们遇到了太多了诈骗啊开设赌场啊,叫我们以后发现不对就赶紧离职。后面同事律师来了,做完认罪认罚,检察官去做不起诉决定书,一会就搞好了,各回各家。中间因为我同事之前提供给公安的流水和我相差了 7 万多,叫他去解释了下。

现在就等办案民警给我们做行政处罚,不知道会不会罚的很夸张,还有会不会行政拘留,我同事问了他律师,律师说不知道,要看公安那边怎么定了,我也问了检察官助理,他说一般不会超过检察院定的违法所得的钱。

终于自由了,下周要去上班了,AI 时代也不知道这家公司能干多久,说不定下个月就失业。

在之前的 PAI Physical AI 系列 Notebook中,我们已经介绍了基于 Isaac Lab 的强化学习训练、Newton 新物理引擎与Rerun轻量可视化等核心能力。然而,在实际的具身智能研发中,如何从仿真环境搭建到数据生成、策略训练再到闭环评估,完成一条完整的端到端工作流,仍是开发者面临的核心挑战。尤其是在复杂操作任务(如全身机动+操控)中,场景配置、数据扩增与策略后训练的衔接尤为关键。

Isaac Lab Arena 是基于 Isaac Lab 开发的任务集成系统,将完整任务划分为场景+具身智能体+任务物体的模块化系统,大幅扩增任务多样性并简化单个任务的创建。结合 NVIDIA GR00T N1.5 策略后训练能力,开发者可以在仿真环境中完成从示教数据扩增到策略微调再到闭环评估的全链路闭环。

本Notebook以 G1 箱体抓取与放置 任务为例,展示 Isaac Lab Arena 完整链路:

  1. 使用 Isaac Lab Arena 配置环境并通过回放 Demo 验证
  2. 使用 Isaac Lab Arena 配置 Mimic 环境进行演示扩增
  3. 使用 Isaac Lab Arena 进行 GR00T-N1.5 策略后训练
  4. 在 Isaac Sim 中进行策略闭环评估

在 PAI 的 Notebook Gallery 中,我们已经预置了这套的最佳实践:

https://gallery.pai-ml.com/#/preview/deepLearning/cv/isaac\_lab\_arena

image

1. 启动 DSW 与资源准备

通过 Notebook Gallery 启动 DSW,使用以下预编译镜像与实例规格:

类型
镜像(专网)dsw-registry-vpc.${regionId}.cr.aliyuncs.com/pai-training-algorithm/isaac-sim:isaaclab-arena-gr00t-vnc-v3-20260307
镜像(公网)dsw-registry.${regionId}.cr.aliyuncs.com/pai-training-algorithm/isaac-sim:isaaclab-arena-gr00t-vnc-v3-20260307
实例规格ecs.gn8is.2xlarge(单张 48G 显存 L20 GPU,8核 CPU / 128G 内存)
需配置专有网络(VPC)用于局域网/公网访问及挂载外部存储,挂载到 /mnt/data

数据集与模型资源

资源OSS 路径
小规模测试数据oss://pai-vision-data-${oss-region}/aigc-data/isaac/nb13/datasets/isaaclab_arena/locomanipulation_tutorial/arena_g1_loco_manipulation_dataset_generated_small.hdf5
带标注人类示教数据...arena_g1_loco_manipulation_dataset_annotated.hdf5
Mimic扩增后数据 (~21GB)...arena_g1_loco_manipulation_dataset_generated.hdf5
已转换LeRobot数据...arena_g1_loco_manipulation_dataset_generated.zip
GR00T-N1.5后训练模型oss://pai-vision-data-${oss-region}/aigc-data/isaac/nb13/models/isaaclab_arena/locomanipulation_tutorial/checkpoint-20000.zip

区域映射

${regionId}${oss-region}
cn-beijingbj
cn-shanghaish
cn-hangzhouhz2
cn-shenzhensz
ap-southeast-1ap-southeast
cn-wulanchabuwlcb
  • 内网endpointoss-${regionId}-internal.aliyuncs.com
  • 外网endpointoss-${regionId}.aliyuncs.com

2. 环境验证与基础配置

在 DSW 启动完成后,首先执行 Notebook 中的环境验证 Cell,确认运行状态与路径配置。

运行状态检查

确认 Isaac Lab Arena 环境已正确加载,检查关键依赖(Isaac Sim、Isaac Lab Arena、Mimic、GR00T)的版本与可用性。

路径与环境变量配置

DATASET_DIR=/datasets/isaaclab_arena/locomanipulation_tutorial
MODELS_DIR=/models/isaaclab_arena/locomanipulation_tutorial

OSS 下载工具

Notebook 中提供了便捷的 OSS 下载函数,自动根据 DSW 实例所在区域选择内网 endpoint 进行高速下载:

def download_from_oss(url, filename, save_dir):
    url_prefix = {
        "cn-shanghai": "http://pai-vision-data-sh.oss-cn-shanghai-internal.aliyuncs.com",
        "cn-hangzhou": "http://pai-vision-data-hz2.oss-cn-hangzhou-internal.aliyuncs.com",
        "cn-shenzhen": "http://pai-vision-data-sz.oss-cn-shenzhen-internal.aliyuncs.com",
        "cn-beijing": "http://pai-vision-data-bj.oss-cn-beijing-internal.aliyuncs.com",
        "ap-southeast-1": "http://pai-vision-data-ap-southeast.oss-ap-southeast-1-internal.aliyuncs.com",
        "cn-wulanchabu": "http://pai-vision-data-wlcb.oss-cn-wulanchabu-internal.aliyuncs.com"
    }
    dsw_region = os.environ.get("dsw_region")
    prefix = url_prefix.get(dsw_region, "http://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com")
    full_url = os.path.join(prefix, url, quote(filename))

VNC 可视化桌面(可选)

如需观察仿真过程的 GUI 画面,可通过 VNC 连接:

  • 镜像中 TurboVNC 默认密码:123456
  • 本地 SSH 端口转发:ssh -L 5900:localhost:5900
  • VNC 客户端连接:localhost:5900
  • 可视化运行:在 VNC 桌面 terminal 中去掉 --headless 参数执行

image

3. 环境准备与回放验证

下载测试数据集

首先下载小规模测试数据集,用于验证仿真环境是否正确配置:

download_from_oss(
    "aigc-data/isaac/nb13/datasets/isaaclab_arena/locomanipulation_tutorial",
    "arena_g1_loco_manipulation_dataset_generated_small.hdf5",
    DATASET_DIR
)

回放 Demo 验证环境

使用 Isaac Lab Arena 回放任务 galileo_g1_locomanip_pick_and_place,验证环境配置是否正确。成功标准:仿真正常启动并跑完指定步数;相机与抓取/放置行为符合预期。

image

4. 数据生成

下载带标注人类示教数据

下载带标注的人类示教数据(HDF5格式),作为 Mimic 数据扩增的种子数据:

download_from_oss(
    "aigc-data/isaac/nb13/datasets/isaaclab_arena/locomanipulation_tutorial",
    "arena_g1_loco_manipulation_dataset_annotated.hdf5",
    DATASET_DIR
)

使用 Mimic 进行数据扩增

基于人类示教数据,使用 Isaac Lab Mimic 进行大规模演示数据集生成。Mimic 能够在保持任务语义一致的前提下,通过随机化场景配置(物体位置、光照、纹理等)快速扩增数据规模。

示例代码:

# 使用 Isaac Lab Mimic 生成数据集
# 生成 100 条演示数据,约需 1 小时
!/isaac-sim/python.sh isaaclab_arena/scripts/generate_dataset.py \
  --headless \
  --enable_cameras \
  --mimic \
  --input_file $DATASET_DIR/arena_g1_loco_manipulation_dataset_annotated.hdf5 \
  --output_file $DATASET_DIR/arena_g1_loco_manipulation_dataset_generated.hdf5 \
  --generation_num_trials 100 \
  --device cpu \
  galileo_g1_locomanip_pick_and_place \
  --object brown_box \
  --embodiment g1_wbc_pink

参数说明:

  • --mimic:启用 Mimic 数据扩增模式
  • --input_file:输入的人类示教数据文件
  • --output_file:输出的扩增数据文件
  • --generation_num_trials 100:生成 100 条演示轨迹
  • --device cpu:使用 CPU 进行仿真

image

Mimic 扩增后的数据集约 21GB,可根据实际需求调整扩增参数

(可选)回放生成数据

可对 Mimic 生成的数据进行回放验证,确保扩增数据的正确性与多样性。

示例代码:

# 回放生成后的数据集进行验证
!/isaac-sim/python.sh isaaclab_arena/scripts/replay_demos.py --headless \
  --device cpu \
  --enable_cameras \
  --dataset_file $DATASET_DIR/arena_g1_loco_manipulation_dataset_generated.hdf5 \
  galileo_g1_locomanip_pick_and_place \
  --object brown_box \
  --embodiment g1_wbc_pink

5. 策略后训练(GR00T-N1.5)

数据集快捷下载(可选)

为快速体验完整流程,可直接下载预生成数据跳过前序步骤:

  • 预生成 HDF5:完整的 Mimic 扩增数据
  • 已转换 LeRobot 数据:跳过 HDF5→LeRobot 转换步骤

HDF5 转 LeRobot 格式

使用 Isaac Lab Arena 自带脚本,将 HDF5 格式的演示数据转换为 GR00T 训练所需的 LeRobot 格式:

python scripts/convert_hdf5_to_lerobot.py \
    --input_path ${DATASET_DIR}/arena_g1_loco_manipulation_dataset_generated.hdf5 \
    --output_path ${DATASET_DIR}/lerobot_data

GR00T N1.5 微调训练

启动 GR00T N1.5 模型的微调训练,基于 LeRobot 格式的扩增数据进行策略后训练:

当前参数用于快速验证,正式实验需调整迭代步数、保存间隔与数据加载并发

训练完成后,checkpoint 将保存至 ${MODELS_DIR} 目录下。

6. 闭环策略推理与评估

预训练模型下载(可选)

如需跳过训练步骤,可直接下载预训练 checkpoint(checkpoint-20000.zip):

download_from_oss(
    "aigc-data/isaac/nb13/models/isaaclab_arena/locomanipulation_tutorial",
    "checkpoint-20000.zip",
    MODELS_DIR
)

单环境评估(GUI)

使用配置文件 isaaclab_arena_gr00t/g1_locomanip_gr00t_closedloop_config.yaml,在单个仿真环境中进行闭环策略推理与可视化评估。可通过 VNC 观察 G1 机器人执行箱体搬运放置任务的完整过程。

示例代码:

# 运行单环境评估
!/isaac-sim/python.sh isaaclab_arena/examples/policy_runner.py --headless \
  --policy_type gr00t_closedloop \
  --policy_config_yaml_path isaaclab_arena_gr00t/g1_locomanip_gr00t_closedloop_config.yaml \
  --num_steps 1200 \
  --enable_cameras \
  galileo_g1_locomanip_pick_and_place \
  --object brown_box \
  --embodiment g1_wbc_joint

参数说明:

  • --policy_type gr00t_closedloop:使用 GR00T 闭环策略
  • --num_steps 1200:运行步数
  • --enable_cameras:启用相机渲染
  • 去掉 --headless 参数可在 VNC 中观察 GUI 画面

image

并行环境评估(可选)

支持多环境并行评估,提高评估效率与统计显著性。

示例代码:

# 运行并行环境评估(5 个环境)
!/isaac-sim/python.sh isaaclab_arena/examples/policy_runner.py --headless \
  --policy_type gr00t_closedloop \
  --policy_config_yaml_path isaaclab_arena_gr00t/g1_locomanip_gr00t_closedloop_config.yaml \
  --num_steps 1200 \
  --num_envs 5 \
  --enable_cameras \
  --device cpu \
  --policy_device cuda \
  galileo_g1_locomanip_pick_and_place \
  --object brown_box \
  --embodiment g1_wbc_joint

参数说明:

  • --num_envs 5:并行运行 5 个仿真环境
  • --device cpu:仿真在 CPU 上运行
  • --policy_device cuda:策略推理在 GPU 上运行

image

7. 训练过程分析

使用 TensorBoard 分析训练 logs,观察 loss 曲线与评估成功率:

  • 示例训练 1000 次迭代:loss 明显下降且平滑
  • 评估显示相当的成功率,验证了 Mimic 数据扩增与 GR00T 后训练的有效性

image

image

8. 小结

PAI 全面支持 Isaac 工具链,本Notebook展示了在 PAI-DSW 单实例中闭环完成的完整工作流:

  1. 场景搭建 — Isaac Lab Arena 模块化创建场景,将任务拆分为场景+具身智能体+任务物体的灵活组合
  2. 数据扩增 — 复用 Isaac Lab Mimic 能力,基于人类示教数据短时间大规模生产多样化训练数据
  3. 策略后训练 — GR00T N1.5 微调,将仿真数据转化为可部署的策略模型
  4. 闭环评估 — Isaac Lab Arena 闭环评估,验证策略在仿真环境中的实际表现
大大简化了复杂的 Isaac Lab 任务配置流程,提高具身智能体的数据生产和训练效率。从场景搭建到策略评估,全链路在PAI-DSW中一站式完成,无需切换环境或额外配置。

未完待续

至此,PAI Physical AI Notebook 系列文档已覆盖从仿真环境搭建、数据生成、模型训练到闭环评估的完整技术栈:

序号文档主题核心内容
详解1基于Isaac仿真的操作动作数据扩增与模仿学习Isaac Sim 基础操作与数据采集流程
详解2基于Cosmos世界模型的操作动作数据扩增与模仿学习Cosmos 世界模型与数据增强
详解3基于仿真的导航模型训练移动机器人导航策略训练
详解4基于仿真的GR00T-N1.5模型微调GR00T 模型微调实践
详解5基于Isaac-Cortex的软件在环验证软件在环仿真验证
详解6Isaac Lab分布式感知强化学习分布式强化学习训练
详解7Newton新物理引擎与Rerun轻量可视化Newton 物理引擎与云原生可视化
详解8Isaac Lab Arena 全身机器人机动+操控工作流Isaac Lab Arena模型测评

本系列文档系统性地介绍了 PAI 平台对 NVIDIA Isaac 工具链的全面支持,涵盖:

  • 仿真平台:Isaac Sim、Isaac Lab、Isaac Lab Arena
  • 物理引擎:PhysX、Newton(Warp)
  • 可视化方案:Omniverse、VNC、Rerun
  • 数据生成:Mimic 数据扩增、Cosmos 世界模型
  • 模型训练:GR00T-N1.5 策略后训练、强化学习
  • 评估验证:闭环策略评估、软件在环验证
PAI Physical AI 系列将暂告一段落,感谢各位读者的关注与支持!后续我们将持续跟进 NVIDIA Isaac 生态的最新进展,推出更多实战教程与最佳实践。敬请期待!

原文 链接 **:https://tecdat.cn/?p=45620
原文出处:拓端抖音号@拓端tecdat
 

封面

关于分析师

在此对 Weilong Zhang 对本文所作的贡献表示诚挚感谢,他在上海交通大学完成了企业管理专业的博士学位,专注人工智能与数据挖掘领域。擅长Matlab、SPSS、Eviews、Stata等专业统计软件,长期关注统计建模、数据挖掘与商业智能方向。曾为多家金融机构与科技企业提供数据分析与策略咨询,在模型构建与行业洞察方面积累了丰富经验。

    • *

“我每天用 开源模型 调API,怎么就没见升职加薪?”——这是许多AI开发者的真实困惑。魔搭社区联合行业伙伴于2026年发布的《 AI 开源生态的全球价值与实践探索报告》,用超过20万用户的调研数据告诉我们:开源的红利,从来不属于只会“调用”的人,而属于敢于“贡献”的二次创作者。** 本文将带你穿透数据,看清开源生态真正的价值阶梯。

本文完整研究报告数据图表和文末100+ 份AI行业最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和900+行业人士共同交流和成长。

    • *

一、开场定调:AI开源,绝不是“把代码扔到网上”

过去提到“开源”,很多人想到的就是GitHub上一个公开的代码仓库。但魔搭社区的这份报告明确指出:AI时代的开源,核心不是Open Source,而是Open Resource——资源普惠。 只有模型权重、训练方法、 数据集 **、工具链全面开放,开发者才能真正“知其然更知其所以然”。

图表:AI人工智能开源生态核心框架信息图表1
(展示报告核心闭环:资源普惠→全球协作→安全共治)

报告中揭示了一个关键认知误区:AI开源只是代码公开。 事实上,开源社区正在演变为一个集模型集市、算力扶持、开发者社交、职业孵化于一体的综合性基础设施。魔搭社区汇聚了超17万个模型、近3万个数据集,吸引了超2500万全球用户,这早已不是极客的小圈子。

    • *

二、冲击数据:开源并非“为爱发电”,而是职业杠杆

“天天泡开源社区,能当饭吃吗?”报告给出的答案令人振奋:52.7%的用户通过开源获得了真实工作机会,45.9%获得了融资或上下游合作机会,39.3%产生了实际收入。 如果把开源贡献比作投资,这回报率已经跑赢了多数理财产品。

图表:AI人工智能开源开发者收益认知反转信息图表2
(展示开发者从开源中获得工作、融资、收入的比例)

更惊人的是,高达96%的开发者表示愿意将自己的成果二次开源。这意味着开源社区不是一潭死水,而是一个持续蓄水、持续溢出的技术水池。你贡献的一行代码,可能成为别人改变命运的支点;而别人的成果,又会反哺你的下一次创新。

    • *

相关文章

2026AI医疗行业专题报告:智能医疗器械、手术机器人、脑机接口、可穿戴设备|附240+份报告PDF、数据、可视化模板汇总下载

原文链接:https://tecdat.cn/?p=44979

    • *

三、认知反转:中国开发者,早已不是“跟随者”

你还认为中国AI开发者只会“Copy to China”?报告用数据打破这一刻板印象:高达65%的开发者将自己定位为“技术贡献者”,61.6%认同自己是“应用输出者”,仅有26.5%还停留在“生态跟随者”角色。 以 Qwen (千问)系列为例,累计下载量破10亿次,衍生模型超20万个,已成为全球事实上的底层模型标准之一。

图表:AI人工智能开源价值与全球化定位横向比例条形图2
(展示开发者对自身角色的认知比例)

在全球化视野下,中国开发者凭借“应用+技术”双轮驱动,正在重构全球协作网络。魔搭社区不仅是一个模型托管平台,更是一个生而全球化的生态枢纽。

    • *

四、价值分层:从“代码调用”到“资源深潜”,你在哪一层?

开源社区的价值并非均匀分布。报告将开源价值清晰地划分为两个地带:

  • 高风险/低价值区:仅调用API、停留在代码层面的“黑盒”使用者。这类开发者可替代性强,难以形成核心竞争力。
  • 高价值/红利区:深入模型权重、训练方法、数据集,能够进行工程复现与二次创新的开发者。他们不仅懂模型,更懂业务,是市场的香饽饽。

图表:AI人工智能深度开源价值分层信息图表3
(展示不同开源深度的价值认同比例:认知平权63.8%、信任建立53.9%等)

最常见的误区是:“开源=免费=没技术含量”。恰恰相反,深度开源意味着你必须投入更高的学习成本,但回报是无可替代的认知红利。

    • *

五、认知升维:企业如何跳出“开源孤岛”?

个体层面,开源赋能超级个体;企业层面,开源则是一面照妖镜。许多企业陷入“每个部门搞一套开源方案”的孤岛式转型,重复造轮子,成本高企。

报告的底层逻辑一针见血:开源的本质是技术的前置市场,通过开放协作降低全行业的研发边际成本。 企业应当从“闭门造车”转向“社区共建”,将内部成果适度开源,换取生态反哺与人才吸引力。

    • *

六、真实案例:95后团队,100元成本造出AI助盲眼镜

理论听起来遥远?报告中的一个案例让人看到开源的切实力量。设计师出身的95后徐帆,非科班背景,却利用魔搭社区的开源模型与工具链,精准抓住视障人群“寻找通路”的核心痛点。他微调模型、适配低成本硬件,最终以100元级成本实现了盲道循迹、红绿灯识别等刚需功能。

图表:AI人工智能开源赋能案例拆解信息图表4
(对比传统医疗辅具研发与开源AI助盲眼镜的成本、周期、曝 光 **量)

项目代码全开源,全网曝光量超1亿次,团队收到了顶级VC的邀约。传统模式下,这类辅具研发成本动辄数万甚至数十万,周期长达18个月。开源模式将研发成本压缩至不足百分之一,周期缩短至2个月。这就是开源赋能的“一人公司”奇迹。

    • *

七、行动指南:三步成为开源生态的“弄潮儿”

看完报告,你或许已经跃跃欲试。这里提供三条可直接落地的行动建议:

图表:AI人工智能开源生态行动指南信息图表5
(展示三条行动建议的错误做法、正确方向与核心价值)

  1. 从“调用者”变为“贡献者”
    不要再满足于调API。选择一个你熟悉的开源项目,提交第一个Pull Request,哪怕是修正一个文档错误。开源履历正在成为AI时代的职场硬通货。
  2. 拥抱“二次开源”,建立个人品牌
    将你在工作中基于开源模型的微调成果、改进脚本二次开源。这不仅能获得社区认可,还能吸引潜在的合作伙伴与雇主。
  3. 利用开源工具链,实现“一人公司”模式
    借助开源模型作为大脑、AI编程助手作为双手,你可以一个人完成过去需要整个团队才能完成的商业闭环。先从解决一个微小但真实的需求开始,快速验证、迭代。
    • *

八、收尾福利:进群领取完整报告与数据

如果你想知道:

  • 哪些细分领域最适合二次开源创业?
  • 如何系统评估开源模型的安全性?
  • 开源社区的全球化协作有哪些隐藏机会?

后续我将持续解读AI行业前沿报告,带你抓住下一波技术红利。

获取文末所有参考行业报告及数据,进交流群,加小助手微信号:tecdat_cn

本文图表列表:

  • AI人工智能开源生态核心框架信息图表1
  • AI人工智能开源开发者收益认知反转信息图表2
  • AI人工智能开源价值与全球化定位横向比例条形图2
  • AI人工智能深度开源价值分层信息图表3
  • AI人工智能开源赋能案例拆解信息图表4
  • AI人工智能开源生态行动指南信息图表5

本专题内的参考报告(PDF)目录

  • 2026 AI开源生态的全球价值与实践探索报告
    2026Q1AI趋势研究白皮书 报告2026-04-20
    2026AI开源生态的全球价值与实践探索报告 报告2026-04-20
    2026医疗生产力重构报告-AI、机器人与量子技术的应用前景量化分析 报告2026-04-16
    2026年AI数据采集趋势网络数据基础架构的崛起研究报告 报告2026-04-16
    2026大型AI产品营销全景研究报告 报告2026-04-16
    2025年的六大常见AI业务挑战报告 报告2026-04-16
    AI应用追寻系列报告(三)-OpenClaw启发AI Agent新阶段... 报告2026-04-15
    2026年AI智能体趋势报告:制造业篇 报告2026-04-15
    2026年AI时代的商业进化蓝图 报告2026-04-15
    2026年B2B商业趋势:AI、数据与信任引领增长新纪元研究报告 报告2026-04-14
    2026AI康养深度研究从辅助诊疗工具到生命全周期照护操作系统 报告2026-04-14
    2026 AI对就业的影响:重塑为主 替代为辅研究报告 报告2026-04-14
    2025年数据现状:AI在媒体广告活动中的当下、近期与未来演进 报告2026-04-14
    2026代理型AI的未来:前瞻报告 报告2026-04-13
    AI对话与消费决策研究报告-医疗健康篇 报告2026-04-12
    2026中国旅游AI营销白皮书 报告2026-04-12
    2026老年群体AI应用研究报告 报告2026-04-12
    2026海外AI监管解读与合规实战指南 报告2026-04-12
    2026负责任人工智能(AI)尽职调查指南 报告2026-04-12
    2026 AI原生劳动力:工程与产品价值链中的工作与技能未来研究报告 报告2026-04-12
    2026医生AI数字生活调研报告 报告2026-04-11
    2026年大模型与生成式AI面试与工程实践手册 报告2026-04-11
    夸克AI眼镜S1用户体验调研报告 报告2026-04-10
    从总体拥有成本危机到成本与性能优化:AI效率鸿沟 报告2026-04-10
    AI驱动的制造业三效跃升:“零阻力”进化 报告2026-04-10
    2026云原生新篇章:基于代理型AI的运营模式研究报告 报告2026-04-10
    2026下一前沿人工智能AI时代的工程仿真研究报告 报告2026-04-10
    2026年AI+服饰消费新纪元 报告2026-04-10
    算法定义时尚:2026 AI+服饰消费新纪元 报告2026-04-09
    AI芯片荒:当算力成为比电力更稀缺的资源 报告2026-04-09
    AI驱动下的电力重构:美国数据中心能源需求新图景 报告2026-04-09
    AI对话与消费决策研究报告—医疗健康篇 报告2026-04-09
    2026年全球算力芯片行业:AI军备竞赛下的_芯_战场(精华版) 报告2026-04-09
    2025年AI新纪元的冷链破圈战略研究报告 报告2026-04-09
    21世纪采购技能迭代升级:复杂化、协同化与AI深度赋能研究报告 报告2026-04-09
    OpenClaw开源AIAgent平台快速崛起折射个人智能代理时代加速... 报告2026-04-08
    2026年AI赋能行业共治中小银行反电诈实践与探索报告 报告2026-04-08
    2026安全设计先行AI助力实现智能化防御智能威胁时代重塑网络韧研究报... 报告2026-04-08
    市场洞察:AI重塑“耳朵”经济,在线音频多元化增长 报告2026-04-07
    顾问增效手册:30个AI增效场景全解析 报告2026-04-07
    从试点到规模化:物流行业AI落地的关键拐点 报告2026-04-07
    从风险识别到责任修复:AI治理的全球标准路径 报告2026-04-07
    Anthropic为什么成为迭代最快的AI团队 报告2026-04-07
    AI4SE行业现状调查报告(2026年) 报告2026-04-07
    2026年OpenClaw蓝皮书:人人都能拥有的 AI 常驻助手 报告2026-04-07
    2026年HR指南:全面提升企业的AI素养与AI就绪度 报告2026-04-07
    2026年CMO增长领航AI时代重塑营销报告 报告2026-04-07
    2026年Anthropic为什么成为迭代最快的AI团队研究报告 报告2026-04-07
    2026年 AI浪潮下的冷链行业研究报告 报告2026-04-07
    2026大模型与生成式AI面试与工程实践全指南 报告2026-04-07
    2026AI短剧行业发展与受众洞察报告 报告2026-04-07
    AI供应链“风险决策大脑”驱动供应链风控迈向智能决策时代 报告2026-04-06
    AI时代金融机构智能化转型与本体论轻量化落地方案 报告2026-04-05
    2026携手AI加速前行治理到位提速有道研究报告 报告2026-04-05
    2026年AI时代-饮用水行业品牌竞争战略白皮书 报告2026-04-05
    2025年AI智能体指数报告 报告2026-04-05
    AI驱动新能源产业智能化转型:智塑新生 报告2026-04-04
    2026医疗生产力重构:AI、机器人与量子技术的应用前景量化分析报告 报告2026-04-04
    2025年315曝光AI投毒品牌如何做好GEO营销 报告2026-04-04
    人机协同时代:AI如何重塑全球客户服务 报告2026-04-03
    AI从数字网络走进物理世界:人形机器人是否会复刻新能源汽车发展路径? 报告2026-04-03
    2026年AI短剧行业发展与受众洞察报告 报告2026-04-03
    2026年AI+美妆消费趋势报告-科技赋能-精准定义新美学生态 报告2026-04-03
    2026HR指南全面提升企业的AI素养与AI就绪度 报告2026-04-03
    AI陪聊行业市场调研报告 报告2026-04-02
    2026年AI陪聊行业市场调研报告全球AI陪伴角色对话市场深度解析 报告2026-04-02
    2026AI+美妆消费趋势报告 报告2026-04-02
    餐饮AI炒菜机器人研究报告2026 报告2026-04-01
  • 等其他100+份精选AI行业报告(进群获取完整目录)

整理|华卫

 

日前,它石智航宣布完成超 4.55 亿美元 Pre-A 轮融资,创下中国具身智能有史以来最高单轮融资纪录。值得注意的是,这已经是它石智航第二次刷新行业融资纪录。在 2025 年第二季度,它石智航以 2.42 亿美金完成中国具身智能有史以来最大天使轮融资。时隔一年,它石智航进一步打破了中国具身智能有史以来最大 Pre-A 轮融资纪录及行业最大单轮融资纪录。

 

它石智航董事长李震宇表示,“本轮融资将用于加速打造通用具身大模型 AWE 和持续吸引行业顶尖人才,下一轮融资将重点用于打造真干活、真量产的机器人。公司将积极参与全球竞争,让中国具身智能站上世界舞台。”

 

自成立以来,它石智航接连攻克多项关键技术,解决复杂柔性线束装配等难题。

 

硬件方面,它石智航已推出了轮式工业机器人 A 系列和双足通用机器人 T 系列。其中,A 系列机器人可实现亚毫米级精度的装配操作。以线束装配为例,这是工业场景中典型的高难度精密操作任务,广泛应用于汽车制造、3C 电子等领域。因为自动化难度极高,线束装配还被称作是工业自动化界的“哥德巴赫猜想”。今年 3 月,A1 机器人在 1 小时内完成亚毫米级柔性线束完整装配任务百余次,创下全新吉尼斯世界纪录,这也是中国具身智能企业在工业精密操作领域的首个吉尼斯世界纪录。

 

软件层面,它石智航设计研发了通用具身大模型 AWE3.0。它石智航称,AWE3.0 是全球首个“能干活”的通用具身大模型,具备物理世界精准感知、理解与规划能力,支持亚毫米级操作与长程稳定执行。AWE3.0 不仅可以让机器人在从未见过的新视角下,实现稳定可靠作业,还能大幅消除卡顿,让任务执行更为稳定丝滑、连续自然,使得机器人能够胜任精密装配、柔性制造等复杂场景。

 

数据采集上,它石智航推出了 SenseHub 穿戴式具身数据采集系统。SenseHub 坚持以人为中心,打造了一套从感知、计算到传输的全链路融合解决方案,能够精准捕捉人类全身动作数据、触觉数据、多视角相机数据。

 

据了解,这家企业创立于 2025 年 2 月 5 日,创始团队出自华为、百度、大疆。董事长李震宇曾任百度智能驾驶事业群总裁,牵头打造了阿波罗自动驾驶开放平台和当前全球最大的无人驾驶出行服务平台“萝卜快跑”。

 

CEO 陈亦伦本科及硕士均毕业于清华电子工程系,拥有美国密歇根大学电子工程博士学位,曾任大疆首席工程师,华为智能汽车解决方案事业部(BU)自动驾驶系统 CTO、首席科学家,清华大学智能产业研究院(AIR)智能机器人方向首席科学家、AIR 创新中心主任以及 AIR 无锡创新中心执行主任,主导完成华为第一代自动驾驶系统的全栈研发工作。

 

首席科学家丁文超是华为“天才少年”计划首批入选者,本科毕业于华中科技大学,研究生毕业于香港科技大学,曾任华为智能驾驶解决方案(ADS)研究科学家和技术负责人,从 0 到 1 主导华为智驾端到端决策网络。后进入复旦大学工程与应用技术研究院担任研究员,打造该校首个人形机器人。

 

Cisco Secure Network Analytics Virtual 7.6.0 - 领先的网络检测和响应 (NDR) 解决方案

Secure Network Analytics (formerly Stealthwatch) - Network Visibility and Segmentation

请访问原文链接:https://sysin.org/blog/cisco-secure-network-analytics/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


Cisco Secure Network Analytics

为您的企业提供安全保障是思科义不容辞的职责

通过行业领先的机器学习和行为建模,战胜新出现的威胁,永不言弃。

Secure Network Analytics

从容应对混乱局面

分析您现有的网络数据,帮助检测可能已经找到绕过现有控制的方法的威胁,以免造成严重破坏。

  • 有备则无患

    实时高效检测整个动态网络中的攻击,并提供精准的警报及丰富的相关情景信息,包括用户、设备、位置、时间戳和应用。

  • 减少策略违规

    验证策略的有效性,根据您的环境需求采用正确的策略,并简化策略违规调查

  • 发现未知威胁

    使用先进的分析方法 (sysin),快速检测未知的恶意软件、内部威胁(如数据渗出和策略违规)以及其他复杂的攻击。

  • 轻松分析

    在不影响隐私和数据完整性的情况下识别和隔离加密流量中的威胁。

新增功能

Cisco Secure Network Analytics 7.6.0

以下为本站整理的摘要内容,更多内容请参看下载中的 PDF 文档。

Cisco Webex Webhook

增强了 Manager 中的响应管理(Response Management)操作,现已支持 Cisco Webex Webhook。您现在可以使用该操作类型将 Secure Network Analytics 与 Cisco Webex 集成。

通过 Web UI 修改 sysadmin 用户密码

Web 管理员现在可以通过 Web 用户界面,为 Manager 及所有受管设备修改 sysadmin 用户密码。该改进为管理 sysadmin 凭据提供了更高的灵活性与便利性。

证书通用名称显示

更新了中央管理(Central Management)用户界面中的证书显示方式。“Issued To”和“Issued By”字段现在显示通用名称(CN),而不再显示组织(Organization)。该改进提升了清晰度,便于快速识别特定证书 (sysin)。

仪表板改进

增强了仪表板(Dashboards)功能。现在您可以将仪表板固定到主页,并支持对仪表板进行调度。

  • 固定仪表板
  • 仪表板调度

检测结果作为告警与观察项

来自已启用检测包(Detections Packs)的检测结果(Detections Findings),现在已纳入完整的分析告警(Analytics Alerts)与观察项(Observations)运行流程,包括 UI 工作流、响应管理、Cisco XDR(如已集成)以及其他 SIEM 系统。

增强的数据存储数据库证书管理

增强了数据存储数据库的证书管理功能。现在您可以上传自定义证书,或为数据存储数据库生成自签名身份(identity)证书。可通过“Database Security”选项卡上传自定义证书 (sysin)。该改进简化了通过用户界面管理和更新证书的流程。

SNMP Agent 字段的特殊字符支持增强

增强了 SNMP Agent,使其在以下字段中支持下划线_特殊字符,从而为配置提供更高的灵活性:

数据节点的 IPv6 支持

扩展了 IPv6 能力,使其支持数据存储部署。数据节点现在支持仅 IPv6 的网络模式,包括管理接口和私有 LAN(用于数据节点之间通信)。

支持的硬件平台

Secure Network Analytics v7.6.0 支持最新一代 UCS 硬件(M8)。有关各系统版本支持的硬件平台,请参阅硬件与版本支持矩阵(Hardware and Version Support Matrix)。

系统日期、时间和运行时长显示

设备控制台(SystemConfig)的 About 菜单现在会显示系统日期与时间以及系统运行时长(Uptime)。该改进可直接在控制台中提供关键系统状态与时间信息。

通过设备控制台查看或删除信任库中的证书

新增了一个插件,可通过设备控制台(SystemConfig)查看或删除信任库中过期或过时的证书。

适用的 VMware 软件下载

建议在以下版本的 VMware 软件中运行(Linux OVF 无需本站定制版可以正常运行,macOS 虚拟化如果不是 Mac 必须使用定制版才能运行,Windows OVF 需要定制版才能启用完整功能):

下载地址

Cisco Secure Network Analytics 以两种形式交付:

  • Physical Appliance, a scalable device suitable for any size organization.
  • Virtual Edition, designed to perform the same functions as the appliance edition, but in a VMware or KVM Hypervisor environment.

此处提供的是 Virtual Edition 系统软件。

Cisco Secure Network Analytics Virtual 7.6.0

  • 请访问:https://sysin.org/blog/cisco-secure-network-analytics/

    • Secure Network Analytics Virtual Data Store
    • Secure Network Analytics Virtual Flow Collector
    • Secure Network Analytics Virtual Flow Sensor
    • Secure Network Analytics Virtual Manager
    • Secure Network Analytics Virtual UDP Director
File InformationFile NameRelease DateSize
SNA - Datastore ISOSDBN-7.6.0-20260121.0132-d4cc42fbe5c9-0.iso23-Mar-20262491.94 MB
SNA - Flow Collector Netflow ISOFlowCollector-NetFlow-7.6.0-20260121.0132-d4cc42fbe5c9-0.iso23-Mar-20263478.50 MB
SNA - Flow Sensor ISOFlowSensor-7.6.0-20260121.0132-d4cc42fbe5c9-0.iso23-Mar-20262179.33 MB
SNA - Manager ISOSMC-7.6.0-20260121.0132-d4cc42fbe5c9-0.iso23-Mar-20266233.82 MB
SNA - UDP Director ISOUDPDirector-7.6.0-20260121.0132-d4cc42fbe5c9-0.iso23-Mar-20262127.54 MB

更多:Cisco 产品下载链接汇总

Binary Ninja 5.3.9434 (macOS, Linux, Windows) - 反编译器、反汇编器、调试器和二进制分析平台

interactive decompiler, disassembler, debugger, and binary analysis platform

请访问原文链接:https://sysin.org/blog/binary-ninja/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


Binary Ninja

A New Type of Reversing Platform

Binary Ninja 是一个交互式反编译器、反汇编器、调试器和二进制分析平台,由逆向工程师为逆向工程师打造。它在开发时特别注重提供高质量的自动化 API 以及简洁易用的图形界面。Binary Ninja 正被全球的恶意软件分析师、漏洞研究人员和软件开发者广泛使用。Binary Ninja 具备跨平台的强大优势 (sysin),可反编译为 Windows、macOS 和 Linux 上的许多常见架构构建的软件。

decompiler, disassembler

功能简介

  • 反编译 Decompile

    针对任何受支持的架构(包括您自己的架构)反汇编和反编译代码为 C 或 BNIL。

  • 分析 Analyze

    可视化控制流并以交互方式浏览交叉引用。

  • 自动化 Automate

    使用 C++、Python 和 Rust API 从 UI 内部或外部自动进行分析。

  • 调试 Debug

    在任何受支持的架构或平台上本地或远程调试程序。

  • 协作 Collaborate

    使用我们的企业产品通过同步提交轻松协作。

  • 加速 Accelerate

    通过额外的 AI 功能加速分析并优化理解。

新增功能

Binary Ninja 5.3 (Jotunheim)

2026-04-13

Binjas, assemble! This release is code-named Jotunheim in honor of Norse mythology though of course the modern Marvel re-telling is perhaps the most well-known. >

对于 Binary Ninja 5.3,在多个方面带来了新功能和改进。为了提升互操作性,在现有的 Ghidra Import 代码基础上新增了 Ghidra Export,并改进了 IDB Import 能力。在新架构和平台方面,为 Ultimate 版本新增了 NDS32 支持,为 AArch64 引入了新的 ILP32 ABI,并提供了一组用于“特殊”架构的新 API。当然,也对 UI 进行了多项改进,包括全新的 Universal Mach-O loader UI、容器浏览器的可用性优化,以及全新的“超级”命令面板!此外,还包括调试器、企业功能的改进,以及新增的可选崩溃报告功能,帮助更快修复问题等等!

  • Architecture / Platform

    • New Architecture APIs
    • NDS32
    • AArch64 ILP32 ABI
  • UI

    • Mach-O Architecture Picker
    • Container Browser Improvements
    • Command Palette Refresh
  • Types & Signatures

    • Type Library Utilities
    • WARP Improvements
  • Interoperability

    • Ghidra Export
    • IDB Import Improvements
  • Enterprise
  • Debugger

    • Hardware and Conditional Breakpoints
    • New Debug Adapters
  • Crash Reporting
  • Open-Source Contributions
  • Everything Else

5.3 包含了大量的改进和修复,篇幅特别长,这里仅仅是列出目录,详见官方更新记录。

下载地址

Binary Ninja 5.3.9434 for macOS, Linux, Windows


更多:HTTP 协议与安全

全文链接:https://tecdat.cn/?p=45627
原文出处:拓端数据部落公众号

!封面

关于分析师

!

在此对YouMing Zhang对本文所作的贡献表示诚挚感谢,他在东北大学完成了信息与计算科学专业的学位,专注机器学习与深度学习算法领域。擅长Python、Matlab编程及数据分析,熟悉神经网络、集成学习等主流算法框架。曾参与多个计算化学与生物信息学交叉 项目 **,在分子表征学习与高维统计建模方向积累了丰富的实践经验。

摘要 药物研发过程中,化合物与靶点蛋白结合亲和力的准确评估是筛选候选分子的关键环节。传统高通量筛选成本高昂且周期漫长,而现有机器学习方法在预测 精度 **上仍有提升空间。本文引入一种基于随机矩阵理论(Random Matrix Theory, RMT)的分类算法,利用Marchenko-Pastur分布确定特征空间中具有统计显著性的方向,构建靶点特异性的化学特征子空间。以ADRB1受体为研究对象,从公共生物活性数据库获取结合物与非结合物数据,采用摩根分子指纹进行结构表征。模型评估显示,RMT算法在独立验证集上的AUC值达到0.9以上,显著优于随机森林、朴素贝叶斯等传统方法。本文提供完整的Python实现代码与数据预处理流程,并针对论文写作场景给出模型解释与稳健性检验的实操建议。

关键词 随机矩阵理论;药物虚拟筛选;结合亲和力预测;Marchenko-Pastur分布;分子指纹;Python实现

    • *

引言

在计算化学与药物信息学交叉领域,如何从海量化合物库中高效识别具有潜在活性的分子一直是核心议题。传统的分子对接与自由能微扰方法计算开销巨大,难以应对大规模虚拟筛选需求。近年来,机器学习技术在结合亲和力预测任务中展现出独特优势,但多数算法依赖大规模标注数据,且在小样本场景下泛化性能有限。

从算法工程视角审视,这一问题可抽象为高维稀疏特征空间中的二分类任务——分子指纹维度通常高达数千维,而活性样本往往仅有数百个。经典机器学习模型在处理此类“大p小n”问题时容易陷入过拟合,亟需引入更稳健的统计推断框架。

本文所述方法源于我们此前协助某生物科技企业完成的技术咨询项目,该项目旨在构建一套轻量化、高精度的靶点特异性虚拟筛选工具。经过对多种算法范式的系统评估,我们最终采纳了基于随机矩阵理论的分析思路——该思路受一篇学术期刊论文启发,其核心在于利用Marchenko-Pastur分布自动甄别真实信号与随机噪声的边界。我们在此基础上完成了工程化实现与参数调优,相关代码与测试数据已整理完备。

本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码与数据已分享至交流社群。阅读原文进群获取完整代码数据及更多最新 AI 见解和行业洞察,可与900+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路;遇代码运行问题,更能享24小时调试支持。

下文将系统阐述RMT算法的数学原理、完整实现流程及性能评估结果。研究框架如下图所示:

     数据获取与清洗
          │
          ▼
     分子指纹生成
          │
          ▼
   ┌──────────────┐
   │  训练集缩放  │
   └──────┬───────┘
          │
          ▼
   构建相关矩阵并特征分解
          │
          ▼
   Marchenko-Pastur阈值筛选
          │
          ▼
     构建靶点特征子空间
          │
          ▼
   测试集投影与距离计算
          │
          ▼
      ROC曲线与AUC评估
    • *

1 选题背景与研究意义

1.1 药物虚拟筛选的现实需求

先导化合物发现是创新药物研发的起点,其效率直接决定后续临床开发的成功概率。传统实验筛选手段受限于化合物库规模与检测通量,单次筛选通常仅能覆盖数万至数十万个分子,而理论化学空间高达10^60量级。计算方法的介入为解决这一矛盾提供了可行路径。

基于受体结构的分子对接虽能给出直观的结合模式,但评分函数精度有限且单分子耗时较长。基于配体的机器学习方法则另辟蹊径——通过已知活性分子的结构特征外推未知化合物的活性概率,在虚拟筛选场景中更具计算经济性。

1.2 现有方法的局限性

随机森林与朴素贝叶斯是虚拟筛选领域应用最广的两类算法,二者在多数公开基准测试中的AUC值稳定在0.70至0.80区间。然而,这一精度水平意味着排名前10%的候选分子中仍有大量假阳性,后续实验验证成本被显著抬高。

深入分析可知,性能瓶颈部分源于特征构造方式。摩根指纹将分子结构编码为长度为2048的二元向量,但其中仅有少数比特位与特定靶点的结合行为真实相关。在样本量有限的情况下,模型难以从高维噪声中准确辨识这些信号位点。

1.3 随机矩阵理论的引入价值

随机矩阵理论为高维数据分析提供了独特的数学工具。其核心洞察在于:当数据矩阵的元素满足特定随机性假设时,其样本协方差矩阵的特征值分布收敛于确定的Marchenko-Pastur分布。偏离这一理论分布的特征值(超出上界者)即蕴含了非随机的结构化信息。

将这一思想迁移至药物筛选场景,可通过分析结合物训练集的特征相关矩阵,筛选出统计意义上显著偏离随机预期的特征方向,进而构建靶点特异性的结合特征子空间。未知分子在该子空间投影后的残差距离即反映了其与结合模式的偏离程度。该方法仅需结合物数据即可完成建模,规避了对大规模非结合物标注的依赖。

    • *

2 数据来源与预处理全流程

2.1 数据集 **构成

本研究需要两类数据集:

  • 训练集与验证集:对ADRB1受体具有明确结合活性的化合物,活性阈值设为IC50/Kd/Ki ≤ 1000 nM
  • 诱饵集:假定对ADRB1无结合活性的化合物。实践中选取5HT1A受体的配体分子,因该受体与ADRB1序列同源性较低

2.2 数据清洗步骤

原始CSV文件包含大量冗余字段,需提取核心列:化合物ID、SMILES字符串、标准活性值。清洗流程遵循以下规则:

  • 剔除SMILES为空或格式无效的记录
  • 对于训练验证集,保留标准活性值≤1000 nM的分子并标记为正样本
  • 对于诱饵集,活性值不作为筛选依据,全部标记为负样本

加载后的数据集结构如下:

!

需要特别关注的是SMILES列,位于DataFrame中部位置,后续将用于分子指纹生成:

!

接下来筛选关键列并划分训练验证集

    • *

3 分子指纹生成与特征矩阵构建

3.1 摩根指纹原理简述

摩根指纹(又称扩展连通性指纹,ECFP)是目前应用最广的化学信息学表征方法之一。其算法流程可概括为:

  1. 为分子中每个重原子分配初始标识符(基于原子类型、连接数等局部属性)
  2. 迭代更新:将相邻原子的标识符拼接后重新哈希,逐步扩展感知半径
  3. 最终将所有生成的特征子结构映射至定长位向量

本研究中采用半径为2(相当于直径4)的摩根指纹,输出长度固定为2048位。每一位对应特定化学子结构的有无。

3.2 RDKit实现

!

    • *

相关文章

!

DeepSeek、LangGraph和Python融合LSTM、RF、XGBoost、LR多模型预测NFLX股票涨跌|附完整代码数据

原文链接:https://tecdat.cn/?p=44060

    • *

4 RMT算法原理与实现

4.1 核心数学框架

随机矩阵理论在分类问题中的应用基于以下观察:对于元素独立同分布的高斯随机矩阵,其样本相关矩阵的特征值渐近分布服从Marchenko-Pastur定律。该分布的概率密度函数为:

ρ(λ) = (γ / (2πσ²λ)) × √((λ_max - λ)(λ - λ_min))

其中γ = p/N描述特征维度与样本量之比,λ_max与λ_min分别为理论特征值的上下界:

λ_max = σ²(1 + √γ)²
λ_min = σ²(1 - √γ)²

在标准化数据(σ²=1)条件下,任何大于λ_max的特征值均以高概率表明对应特征向量方向蕴含了超越随机涨落的结构化模式。RMT算法正是利用这一性质,从结合物训练集的相关矩阵中提取统计显著的特征向量,张成靶点结合特征子空间。

!

4.2 算法步骤分解

步骤一:特征标准化

使用训练集的列均值与标准差对全部数据集进行标准化,确保相关矩阵计算前的特征尺度一致性。

步骤二:相关矩阵特征分解

计算训练集指纹矩阵的样本相关矩阵,并求解特征值与特征向量。

步骤三:MP阈值筛选

根据训练集样本量N与特征维度p计算MP上界,仅保留特征值大于该阈值的特征向量,构成投影矩阵V。

步骤四:未知样本投影与距离计算

将待测样本标准化后投影至V张成的子空间,计算原始向量与投影向量间的欧氏距离。距离越小,表明分子越符合训练集所表征的结合模式。

步骤五:分类决策

引入距离阈值ε:若残差距离≤ε则预测为结合物,否则预测为非结合物。ε的取值可通过训练集的指定分位数确定。

4.3 Python分类器实现

4.4 代码运行高频问题与修复方案

在论文复现过程中,以下问题较为常见:

问题一:RDKit导入失败或分子指纹生成异常

报错信息:ImportError: No module named 'rdkit' 或 MolFromSmiles返回None

修复方案:

# 确保RDKit正确安装(推荐通过conda)
# conda install -c conda-forge rdkit
# 对SMILES字符串做预处理,去除可能导致解析失败的特殊字符
def preprocess_smiles(smi_str):
    # 移除盐组分(取最大片段)
    parts = smi_str.split('.')
    return max(parts, key=len) if len(parts) > 1 else smi_str

问题二:相关矩阵出现NaN值

原因:训练集标准化后某列方差为零

修复方案已在fit方法中实现(nonzero_var_mask筛选),若问题仍存在可添加:

# 进一步检查并移除含NaN的样本
nan_rows = np.isnan(X_scaled).any(axis=1)
if nan_rows.any():
    print(f"警告:移除{nan_rows.sum()}个含无效值的样本")
    X_scaled = X_scaled[~nan_rows]

问题三:MP筛选后子空间维度为零

原因:样本量过少或特征维度过高导致γ值过大

修复方案:适当降低mp_multiplier参数或增大训练样本量。如需代码层面的调试支持,可获取免费的代码预检服务。

    • *

5 模型结果对比与解读

5.1 预测性能评估

对验证集(结合物)与诱饵集(非结合物)分别执行预测,统计真阳性率与假阳性率:

5.2 ROC **曲线绘制与AUC计算

通过调节距离阈值ε,可获得一系列(假阳性率,真阳性率)坐标点,进而绘制受试者工作特征曲线:

最终ROC曲线如下,AUC达到0.9以上,较随机森林与朴素贝叶斯(通常为0.7~0.8)有显著提升:

!

5.3 实证结果的解读

维度一:统计显著性验证

AUC值的提升并非偶然。从方法论角度,RMT通过MP分布从数学上界定了信号与噪声的边界,避免了对特征重要性的人为假设。建议在论文中补充置换检验(Permutation Test)结果,以量化AUC提升的显著性水平。

维度二:生物学可解释性

筛选出的显著特征向量对应了哪些化学子结构组合?可通过反向映射将特征向量权重较大的指纹位点解码为具体的SMARTS模式,进而关联至药效团模型。这一分析能显著增强论文的领域深度。

维度三:泛化能力边界

模型在5HT1A诱饵集上表现良好,但是否能泛化至结构差异更大的化学空间?建议增设多样性采样验证,评估模型对骨架跃迁分子的识别能力。

如对变量匹配、模型适配论文主题没有把握,可获取对应的1v1专项辅导支持。

    • *

6 模型优化方向与稳健性检验

6.1 随机矩阵判别分析扩展

前述RMT算法仅利用了结合物的正向相关性信息,未考虑非结合物所蕴含的“排斥特征”。随机矩阵判别分析(RMD)对此进行了自然扩展:分别在结合物集与非结合物集上执行RMT流程,获得正向特征子空间V_pos与负向特征子空间V_neg。待测分子需满足:在V_pos上投影残差小,同时在V_neg上投影残差大。

RMD在原文献中报道的AUC进一步提升,ROC曲线如下图所示:

!

6.2 稳健性检验清单

检验项操作要点预期结论
指纹参数敏感性对比半径=2、3及位长=1024、4096的组合AUC波动≤0.05,结论稳健
活性阈值敏感性将结合物判定阈值调整为100 nM、500 nM模型对合理阈值范围不敏感
诱饵集替换改用随机采样分子或其它非同源靶点配体假阳性率保持稳定
训练集规模扰动对训练集做80%~100%比例的bootstrap采样模型在≥60%样本量时性能收敛

6.3 答辩高频提问预判

提问1:MP分布假设数据服从高斯分布,分子指纹是二元变量,为何仍适用?

回答要点:二元矩阵在列数足够大时,其样本协方差矩阵的渐近谱分布仍向MP律收敛,已有文献证明该性质在离散数据上的鲁棒性。同时,标准化步骤进一步削弱了分布假设的影响。

提问2:ε阈值由训练集95%分位数确定,此参数选择的客观性如何保证?

回答要点:95%并非固定取值,而是通过ROC曲线全局优化得到的最优操作点。论文中可通过交叉验证验证该参数选择的泛化稳定性。

提问3:与深度学习方法(如图神经网络)相比,RMT的优势何在?

回答要点:RMT无需大量标注数据,在小样本场景下表现更稳健;计算复杂度低,单次预测仅需矩阵乘法;模型具有明确的可解释性(显著特征向量可映射至化学子结构)。

    • *

7 研究结论

本文系统阐述了基于随机矩阵理论的药物-靶点结合预测方法,并在ADRB1受体数据集上完成了完整实现与评估。主要结论如下:

(1)Marchenko-Pastur分布为高维分子指纹数据中的信号甄别提供了理论完备的数学工具,可自动识别具有统计显著性的特征组合方向。

(2)RMT算法在仅使用结合物数据训练的前提下,AUC达到0.9以上,显著优于随机森林、朴素贝叶斯等常用方法。

(3)算法工程实现简洁,计算开销小,适合嵌入大规模虚拟筛选流程。

(4)RMD扩展进一步整合了非结合物信息,在保持计算效率的同时提升了判别精度。

后续研究可围绕特征向量的化学可解释性展开,将显著指纹位点逆向解码为具体的药效团模式,为药物化学家提供更直观的结构改造线索。

本文配套的论文建模可直接套用的完整代码包、实证分析, 可加小助手微信:tecdat_cn领取,我们可提供全流程的辅助学术合规辅导、1v1建模陪跑服务,助力顺利完成科研、通过答辩。

阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

    • *

图片
《数据安全法》《网络数据安全管理条例》落地深化,数据安全已从合规要求升级为企业数字化运营的核心底座。但当前企业在数据安全建设中,仍深陷“不知数、不见流、难守安”的三重困境:数据资产底数模糊,分类分级人工投入大、周期长、结果难落地;多协议跨系统的数据流转处于黑盒状态,来源去向不可溯;API攻击频发、防护工具碎片化,全生命周期安全管控能力缺失,合规与攻防的双重压力下,企业亟需一套面向未来、体系化、自动化的全链路解决方案。何为见流?何为知数?何为守安?这不仅是数据安全建设的核心命题,更是全知科技深耕近十年的技术探索方向。作为国内率先提出“以数据为中心的数据流动安全”理念的先行者,全知科技以构建全链路数据安全治理能力为核心目标,重磅打造三大核心产品矩阵,即将在2026春季数据安全产品发布会上全新亮相。三款产品深度融合AI大模型能力,覆盖流动监测、风险防护、资产治理全场景,打造数据全生命周期的闭环治理体系,一站式破解企业数据安全建设痛点。数据流动安全检测平台:打破流转黑盒,实现全域可视可控聚焦数据流动核心场景,构建全通道一体化监测体系,原生覆盖全场景数据流转协议,采用旁路无扰部署模式,实现数据流向全链路追踪与异常精准识别,彻底消除数据流转盲区,让数据流动全程可管、可控、可溯。知形-数据库风险监测系统:AI赋能,实现主动式安全治理聚焦企业核心数据载体,全面覆盖数据库全维度风险监测,依托AI大模型实现弱点研判、风险处置、合规运营的全流程自动化,帮助企业从被动防护升级为主动治理,大幅提升安全运营效率与风险响应能力。知源-AI数据分类分级系统:夯实数据安全治理底座以AI自动化能力完成数据资产精准梳理与合规分级,为全链路安全防护提供统一的数据标准与治理依据,高效满足监管合规要求,为企业数据安全建设筑牢基础4月22日14:30,全知科技2026春季数据安全产品发布会即将线上开启;届时,全知科技资深产品专家将为大家深度解析三款产品的亮点功能与核心优势,同步分享全知科技数据安全产品体系的最新规划方向,欢迎大家扫描下方二维码预约直播!
图片
本次发布的三款产品,直击企业“不知数、不见流、难守安”的核心痛点,全面推动企业数据安全建设从碎片化工具部署迈向全链路体系化治理。全知科技将以本次新品发布为牵引,持续深化AI数据安全技术创新,整合数据全生命周期安全管控能力,以见流、知数、守安的坚实能力,护航企业数字化未来,构建适配时代发展、面向长期价值的智能安全防护体系,助力企业在数字化浪潮中行稳致远。

昨晚,总部位于加州库比蒂诺的 Apple 公司宣布,现任首席执行官 Tim Cook 将于 2026 年 9 月 1 日起转任董事会执行主席;现任硬件工程高级副总裁 John Ternus 将接任公司下一任 CEO。

苹果告别库克时代,硬件副总裁接任 CEO

 

苹果表示,此次人事变动已获得董事会一致批准,是“经过深思熟虑的长期继任计划”的结果。几个月来,外界一直猜测库克可能会卸任,而特纳斯被认为是接替他的热门人选。

 

苹果公司将于 4 月 30 日公布财报。盘后交易中,苹果股价小幅下跌 0.5%,至 271 美元左右。

 

在正式交接前,库克将在整个夏季继续担任 CEO,并与 Ternus 密切合作,确保过渡平稳完成。未来作为执行主席,库克仍将参与公司部分事务,包括与全球政策制定者的沟通。

 

库克表示:“能够担任苹果 CEO,是我一生中最大的荣幸。能够带领这样一家非凡的公司,是对我莫大的信任。我深深爱着苹果,也由衷感激能与一群极具创造力、才华横溢且充满责任感的同事并肩工作。我们始终致力于用最好的产品和服务,去丰富用户的生活。”

 

他同时评价继任者 Ternus:“他既有工程师的头脑,也有创新者的灵魂,更具备以正直和担当领导团队的品格。他在苹果 25 年的贡献难以计数,是带领苹果走向未来的最佳人选。”

 

Ternus 则表示:“能够接过这份使命,我无比感激。在苹果的职业生涯几乎贯穿了我整个工作人生,我有幸在 Steve Jobs 的时代成长,也在库克的指导下成熟。苹果改变了人与世界、人与彼此互动的方式,而我将继续推动这一使命向前。”

 

如果不是长期关注苹果的人,或许对 Ternus 的了解仅停留在“库克接班人”的热议标签上,但事实上,这位现年 51 岁的硬件工程高级副总裁在过去 25 年间,已深度参与了苹果几乎所有核心产品的硬件设计,从初代 Mac 显示器到 Vision Pro,他的足迹贯穿了苹果硬件工程的每一次重大跃迁。

 

Ternus 1975 年出生于美国加利福尼亚州,本科毕业于宾夕法尼亚大学机械工程专业,在校期间曾是校游泳队成员。他的技术生涯始于一家虚拟现实设备制造商——Virtual Research Systems,在那里担任了四年机械工程师,负责 VR 头显的硬件开发。这段早期经历后来在苹果的 Vision Pro 项目中发挥了重要作用。

 

2001 年,Ternus 加入苹果产品设计团队,最初从事 Mac 外部显示器的开发工作。

 

“永远假设你和房间里的任何人一样聪明,但绝不要假设你知道的跟他们一样多,”Ternus 在演讲中说。“秉持这种心态,你既能找到前进所需的自信,更重要的是,也能拥有提出问题的谦逊。”Ternus 曾在宾夕法尼亚大学的毕业演讲中回忆道,这段话也折射出他作为工程师与领导者的一种核心思维平衡:自信与谦逊并存。

 

Ternus 在苹果的晋升轨迹清晰而扎实。2013 年,他被擢升为硬件工程副总裁,成为时任硬件负责人丹·里奇奥(Dan Riccio)的核心副手。此后,他全面领导苹果的硬件项目超过十年,主导了 Mac 向自研芯片的过渡,并带领团队完成了 iPhone 12 系列硬件及 M1 芯片的设计工作。

 

2021 年 1 月,Ternus 晋升为硬件工程高级副总裁,正式加入苹果高管团队,全面负责 iPhone、iPad、Mac、Apple Watch、AirPods 以及 Apple Vision Pro 等全线产品的硬件工程团队。自此,苹果每一款突破性产品的硬件工程背后,都有他的身影。

 

Ternus 职业生涯中最重要的功绩之一,是领导了 Mac 从英特尔芯片向苹果自研 M 系列芯片的历史性过渡。

 

2020 年,苹果正式官宣 Mac 产品线将告别英特尔 X86 架构处理器,转向 ARM 架构的自研芯片。这一决策起初并不被外界看好——无论是开发芯片还是转换电脑架构,都是庞大工程,需要大量研发投入和开发者支持。

 

然而,苹果的速度远超预期。三年后,Mac 几乎全部产品线完成了从 X86 架构到 ARM 自研芯片的转换。几乎每一次 M 系列芯片的更新,都意味着性能成倍的提升,不断推高 Mac 产品线的性能上限。

 

2023 年 WWDC 上,苹果发布了搭载 M2 Ultra 芯片的全新 Mac Pro,标志着 Mac 全线产品完成向自研芯片的过渡。

 

这一转型带来了显著的商业成果。搭载 M 系列芯片的 Mac 产品线实现了性能与功耗的双重突破,带动 Mac 销售额回升与市占率逐年提升,让该业务在面临 PC 市场衰退时仍能逆势增长。

 

这些成绩,为他后续接任苹果公司 CEO 打下了坚实的信任基础。

掌舵近十五载,库克给苹果带来了什么

 

董事会方面评价称,库克的领导“将苹果塑造成全球最优秀的公司之一”。

 

2011 年,当 Tim Cook 从 Steve Jobs 手中接过苹果时,外界的情绪并不复杂:怀疑,远多于期待。

 

乔布斯是创造时代的人,而库克,看起来更像是一个“守成者”。

 

但 15 年过去,历史给出的答案几乎是反直觉的——库克不仅守住了苹果,还把它带到了一个前所未有的高度。

 

从数据上看,库克的成绩几乎无可挑剔。

 

市值从 3500 亿美元到 4 万亿美元,增长超过 10 倍;收入接近翻四倍;设备装机量突破 25 亿。这些数字背后,是苹果从一家“伟大的产品公司”,转型为一家“结构极其稳定的全球商业体系”。

 

库克最核心的能力,不是“发明下一个 iPhone”,而在于系统性重构苹果的商业模型:

 

  • 把一次性硬件收入,转化为持续性的服务收入(Services)

  • 用 AirPods、Apple Watch 构建“围绕 iPhone 的生态护城河”

  • 推动自研芯片(Apple Silicon),把性能与成本控制权牢牢握在自己手中

 

他让苹果变得更可预测、更抗风险,也更像一家“现金流机器”

 

库克时代的另一个关键变量,是价值观。

 

他将“隐私是基本人权”写进苹果的产品逻辑,使其在广告驱动的互联网世界中形成鲜明对立。

 

他推动环保、无障碍设计、多元包容,这些在乔布斯时代并不核心的议题,被提升为公司战略。

这让外界对于苹果的定义不再局限于一家赚钱的公司,也是一家“有立场的公司”。

 

在全球监管趋严、科技公司信任危机加剧的背景下,这种战略为苹果换来了极高的品牌溢价和政策缓冲空间。

 

然而,问题恰恰也出在这里——库克掌舵下的的苹果,过于稳定了

 

当行业进入生成式 AI 浪潮时,苹果并没有像 OpenAI、Google 或 Microsoft 那样,成为叙事中心。

 

它依然在做芯片、做终端、做生态整合,但在“智能本身”这一层——也就是 AI 时代最核心的生产力——苹果显得谨慎,甚至保守。

 

某种程度上,这是库克路径依赖的结果:

 

  • 他更擅长优化已验证的系统,而非押注不确定性

  • 他更重视利润率,而非前期激进投入

  • 他更倾向“产品化落地”,而非“技术范式引领”

 

这使得苹果在 AI 时代,并没有形成类似 iPhone 那样的“定义性产品”。Vision Pro 试图开启空间计算时代,但它更像是硬件范式的延续,而不是 AI 范式的突破。

 

对于这种过于稳定的状态,几天前,在以“苹果公司成立 50 周年”为话题的一档访谈栏目中,苹果全球市场营销高级副总裁 Greg “Joz” Joswiak 和 Ternus 接受了 Tom's Guide 的独家专访。在这场对话中,他们二人回应了外界认为的苹果在人工智能竞赛中“表现平平”的担忧。

 

Ternus 在谈到 AI 时表示,不会用“十字路口”来形容,而是“早期局”。

 

Ternus 表示:“我们多年来一直在利用智能技术改进产品和功能。生成式 AI 让我们能做更多。但这绝不是冲刺,而是马拉松——我们将在智能领域持续投入数十年,而不是几个月或几年。”

 

Ternus 的言外之意是,苹果不急于短期目标,而要在长期竞争中持续发力

 

Joswiak 补充道:“苹果从不为了技术而发布技术。我们思考的是:如何利用技术为用户带来出色的产品、功能和体验?你们已经看到很多例子,比如 AirPods 上的实时翻译。我们希望技术来到你身边,让日常体验变得更好——无论你是否意识到自己在使用 AI。”

 

他回忆说,苹果最初甚至不用“机器学习”或“AI”这个词,而是叫“主动式”:“你的设备可以变得主动,因为它正在学习你的习惯。比如早上走到公交站,下滑屏幕,第一个出现的就是公交应用——它知道你几点、在哪里、需要什么。”

 

对于“AI 是否会杀死应用商店”的担忧,Joswiak 笑着回应:“应用商店生机勃勃,我们每天都收到大量优秀的应用提交。关于它死亡的传言被大大夸大了。”

 

从某种意义上说,库克将苹果打造成了一座空前庞大的商业帝国——它有着极致的供应链管理、精准的营销节奏与稳健的财务回报,但另一方面,库克也“封顶”了苹果。

 

为什么这么说?

 

一个相对冷静的结论是:他是科技史上最成功的“第二任 CEO”,但也可能是一个“无法开启第三幕的人”。

 

在他掌舵期间,他完成了三件极其重要的事情:

 

  1. 没有让苹果在乔布斯之后崩塌

  2. 把苹果带入一个规模化、系统化的商业巅峰

  3. 为苹果建立了一套稳固的全球秩序与价值体系

 

但与此同时,他也逐渐把苹果带入一种“最优解锁定”的状态——这家公司几乎没有短板,但也越来越难以产生真正的颠覆性跃迁。

 

换句话说,库克让苹果成为“最强的苹果”,但未必是“下一代苹果”。

 

这也是为什么,库克的接任者要是一位与库克完全不同类型的领导者。

为什么现在必须交棒?

 

从这次接任者 Ternus 的背景可以看出,苹果正在释放一个明确信号:重新回到“产品与工程驱动”。

 

Ternus 是典型的硬件工程领导者,长期负责核心产品线。这意味着苹果下一阶段,可能会更强调:产品层面的重新突破、硬件与 AI 的深度融合以及更激进的技术路线选择。

 

这与库克时代的“运营优化+生态扩张”形成明显对比。

 

过去十五年,苹果的成功建立在一个高度稳定的技术范式之上——以移动互联网为核心,通过芯片、自研操作系统与硬件整合能力,构建起牢固的生态闭环。在这一体系中,苹果几乎在每一个关键环节都占据优势地位,从 A 系列与 M 系列芯片,到 iOS 与 macOS,再到围绕 App Store 形成的开发者生态,构成了一套高度自洽的增长飞轮。

 

但大模型的崛起的速度太快了,快到苹果还没来得及反应过来,就已经被这股浪潮推远了。

 

以 OpenAI、Anthropic、谷歌以及 Meta 为代表的科技公司,正在围绕“大模型+算力+数据+入口”重构行业格局。

 

用户的使用路径开始从“打开应用”转向“直接对话”,应用本身被压缩为模型能力的一部分,传统意义上的操作系统边界正在被削弱。

 

这么一看,苹果确实反应太慢了。

 

苹果的 AI 策略更侧重于端侧推理与隐私保护,通过硬件能力提升本地模型运行效率,同时对是否构建超大规模云端模型保持谨慎态度。

 

这种路径延续了苹果一贯的产品哲学,但也在一定程度上限制了其在生成式 AI 浪潮中的存在感。相比之下,竞争对手正在迅速占领用户入口,将 AI 从功能升级为平台级能力。

 

更关键的变化在于,大模型正在动摇苹果长期以来赖以成功的商业结构。过去,苹果通过硬件销售获取高额利润,再通过生态绑定与服务收入形成持续增长。但在 AI 时代,用户越来越多通过统一的智能入口获取服务,而非依赖单个应用或设备。这意味着,一旦 AI 成为新的交互层,操作系统的重要性可能被上层智能代理所稀释,从而削弱苹果对用户关系的直接控制。

 

苹果下如此大的决心换帅,无非想向外界释放一个明显的讯号——苹果要靠产品和技术重回科技中心。

 

库克不是那种会留下传奇故事的 CEO。

 

他没有乔布斯那样的戏剧性,也没有马斯克式的张扬。但他用 15 年时间,完成了一项更困难的工作:在不确定的世界里,让一家巨头持续确定

 

他的离开,最合理的解释是:当一家公司被优化到极致,它就需要新的变量,而那个变量也必须由新任掌舵者来主导。

 

如果说 Steve Jobs 时代的关键词是“颠覆”,Tim Cook 时代是“秩序”,那么接下来的苹果,或许不得不重新回到一个更加复杂的阶段:在不确定中寻找方向,在风险中押注未来。

 

这或许才是这次交棒真正的意义。

 

参考链接:

https://www.apple.com/newsroom/2026/04/tim-cook-to-become-apple-executive-chairman-john-ternus-to-become-apple-ceo/

https://techcrunch.com/2026/04/20/who-is-john-ternus-the-incoming-apple-ceo/?ref=biztoc.com

https://www.youtube.com/watch?v=kkBudtxgor0

https://9to5mac.com/2024/10/21/iphone-roadmap-is-most-ambitious-in-the-products-history-per-john-ternus/

2026 年,智能体将在企业级应用中取得哪些实质性突破?点击下载《2026 年 AI 与数据发展预测》白皮书,获悉专家一手前瞻,抢先拥抱新的工作方式!

那种将数据目录仅视为记录系统的观念已经过时,随之消亡的还有为创建和维护该目录所需的纯手工劳动。在智能体、副驾驶与自主分析的时代,我们需要的是一个通用型人工智能目录——它内嵌于系统之中、具备互操作性、富有韧性,并且专为以机器速度进行推理而构建。

“通用型人工智能目录”并非一个花哨的流行词。“人工智能目录”指的是一种具备上下文知识的智能目录,能够使人机智能体工作得更快、更高效。而“通用型”则指向互操作性,其视野能够超越像 Snowflake、AWS 或微软这样的单一平台,覆盖整个数据资产生态系统。

通用人工智能目录的必要构成要素

一个通用人工智能目录的必要构成要素包括以下两大核心: 

  • 语义层:位于复杂原始数据(存储于数据库或数据湖)与需要调用这些数据的用户或 AI 智能体之间的业务友好型中间层;

  • 全域互操作性:指数据目录在面对跨平台、跨格式、跨引擎的碎片化数据资产时,能够统一实现治理、安全管控及元数据管理的能力,无论底层采用何种云平台、存储格式或计算引擎。

下文将对上述概念进行深入剖析,并阐释其必然的内在关联。

机器的语法体系:AI 智能体为何依赖语义层

机器智能的运行需依赖语境信息,而承载这一信息的关键组件即为语义层。传统数据目录仅提供列名等原始数据结构,面向 AI 的数据目录则通过语义层构建知识体系——即明确界定数据在具体业务场景中的真实含义。

人类可以从列名推测字段含义,但 AI 智能体在执行指令时具有字面理解与语境盲区。例如:智能体虽能识别“TX_LMT”为数值型字段,却无法判断其货币单位或所属地域;更严重的是,可能将其误读为“tax limit”(征税限额),而其实际含义却是“tax local municipal total”(地方市政税费总额),从而引发重大错误。语义层可为字段提供精确定义,如同设置刚性护栏,强制智能体与人类共同遵循既定的业务逻辑、语境及定义规范。

语义层的可靠性,完全取决于底层治理体系的完备程度。通过整合敏感数据保护、数据血缘追踪、数据质量监控,以及基于角色的访问控制(RBAC)与基于属性的访问控制(ABAC)等策略,数据治理将从静态限制演进为动态防护机制。这种融合确保了面向人类与机器的数据共享过程具备准确性、可追溯性,并在架构层面受到安全策略的约束——这些策略能够根据数据敏感等级实时调整权限配置。

一次治理,全域生效:为何缺乏互操作性的智能会力有不逮

语义层提供的是深度(即含义与知识),而通用互操作性提供的则是广度(即贯穿整个数据资产范畴的触达能力),二者共同构成了一个通用目录。若缺其一,你的 AI 战略要么是“有脑无体”,要么是“有体无脑”。

在通用 AI 目录中,安全策略(如数据脱敏、细粒度访问控制)已内嵌于可互操作的访问路径之中。当 AI 智能体通过第三方计算引擎访问数据时,目录所承载的语义智能会随之流动。智能体受目录中蕴含的知识所约束,因此无论使用何种工具,敏感数据都能始终受到保护。

当你将语义层与具备通用互操作性的目录相结合时,便拥有了企业的控制中枢,其优势包括:  

  • 规模化扩展:未来新增数据源或新 AI 模型时,无需从零开始重建治理体系;

  • 敏捷性:由于语义层贯穿整个目录,任何业务定义的更新均能即时在所有位置生效;

  • 可信赖性:你不再只是期望员工与智能体遵守政策,而是确切知晓他们在遵守—因为治理规则与它们所消费的数据已密不可分。

当前企业数据目录市场

当前企业数据目录市场发展至今已有十余年。传统企业数据目录的核心功能始终是集中管理元数据、构建业务术语表,并协助组织搜索可信数据,其目标是打造一个“数据领域的谷歌”,使分析师能够找到所需的数据表并明确其归属。

随着人工智能的兴起,重心已从人工浏览转向机器推理。许多传统数据目录难以完成这一转型,原因在于它们只能充当被动的存储库,而无法成为主动的智能控制平面。

一个组织若希望成功部署 AI 智能体,就必须摒弃这些孤立的资产清单,转向如 Snowflake Horizon Catalog 这类通用 AI 目录。该目录能够将安全控制措施嵌入每一次查询,从而主动降低风险。同时,它还能提升运营敏捷性,使组织在扩展数据源或更新 AI 模型时无需重建治理框架,从而确保企业在保持韧性的同时,始终具备创新就绪的状态。

Snowflake Horizon Catalog:面向全企业的通用 AI 数据目录

语义上下文层

传统数据目录擅长数据资产的记录与描述,但 AI 智能体所需的远不止现有数据的词汇表——它们需要真正的业务上下文。大语言模型在生成 SQL 方面表现出色,但在处理关系语义时往往力不从心,且在推断数据粒度、多跳连接、桥接表以及避免细微重复计算等方面,可靠性难以保证。一个查询在语法上可能完全合理,但在语义上却可能是错误的。

Horizon Catalog 提供了语义视图(semantic views),其功能超越了传统的描述性元数据。Snowflake 内置了一套编译引擎,能够识别实体、关系、指标、维度以及有效的连接路径,并在查询时强制执行这一结构。我们不再要求大语言模型从表名和外键中推断业务含义,而是为其提供明确且可管控的语义契约。这相当于为智能体配备 GPS 导航系统,而非一堆纸质地图:智能体沿着受管控的路径得出结论,始终处于安全边界之内——因为这些边界本身就是语义定义的一部分。

当您使用一个提升了治理水平的数据目录时,其功能将更加强大。Horizon Catalog 不仅利用基础元数据,还提供深度的数据血缘追踪以记录数据流向,并集成数据质量监控以确保数据完整性。数据安全并非附加功能,而是整个体系的基础层,配合信任中心以及易于使用的敏感数据保护功能,可有效降低未授权方接触个人身份信息(PII)的风险。通过结合基于角色的访问控制(RBAC)与基于属性的访问控制(ABAC),企业能够从僵化的人工权限管理转向灵活、上下文感知的策略管理。

近日,Snowflake 宣布加入开放语义交换倡议(Open Semantic Exchange Initiative)。该倡议旨在创建一个通用的语义数据框架,通过开放、供应商中立的技术规范,标准化企业内部碎片化的数据定义,从而为更加开放、可互操作且智能化的数据生态奠定基础。

市场上其他产品(如 Databricks)也拥有现有的语义模型概念,但这些模型往往需要大量人工介入。Snowflake 支持从已有上下文(如 BI 模型、SQL 查询)中自动创建语义模型,并提供 AI 驱动的建议以持续改进和演进模型。这种方式更加高效,使企业能够立即启动 AI 驱动的数据分析,并确保语义上下文随业务变化而不断演进。此外,Snowflake 还会根据查询历史和使用数据生成优化建议,帮助语义视图在实践中持续提升。

易于实施的治理能力,随数据在生态系统各处流转

传统的数据目录大多是针对碎片化数据资产构建的——需要将来自多种工具和环境的元数据拼凑在一起。这种模式默认数据是分散的,治理只能在事后进行聚合。

Snowflake 颠覆了这一局面。数据、计算、治理与目录在一个统一平台内,跨云、跨区域地实现整合。随着 AI 加速数据的创建、共享与协作,企业无法承受脆弱且松耦合的治理外挂层。它们需要的是一个能够随机器速度的数据交互同步扩展的统一智能层。

例如,Databricks Unity 在其自身生态系统中表现优异——这固然是其优势所在。但它缺乏 Horizon Catalog 那种通用的覆盖能力,后者兼容任意引擎、任意数据格式、任意位置——涵盖 Snowflake 原生对象、开放表格式(如 Iceberg、Delta)数据(可由任意引擎读写),以及关系型数据库(如 SQL Server、Postgres)中的数据。Horizon Catalog 还能在 AWS、Azure 和 GCP 之间一致运行,并提供极高的架构灵活性,支持随时迁移到 Apache Polaris 等开源目录。

相比之下,Snowflake Horizon Catalog 原生内置了 Apache Polaris 和 Iceberg REST API,以支持开放湖仓一体架构。凭借完全的双向互操作性——包括已正式发布的外部引擎读取能力,以及即将开启公测的外部引擎写入能力——治理策略可以跨云、跨引擎随数据流转。即使数据通过 Apache Spark 等外部工具访问,行访问控制、列掩码等数据保护策略也会被自动执行。

这意味着治理随数据而行——遍布整个生态系统。而且,您不再需要人工干预来保障这一点:通过 Cortex Code,您只需使用自然语言,即可在数分钟内发现敏感数据并应用策略,几乎不需要专业技术背景。只需指示 Cortex Code 扫描特定数据库中的 PII,或审计现有的掩码策略,治理实施便从绊脚石变为不费吹灰之力之事。

Cortex Code 支持您通过自然语言查找敏感数据,并在数分钟内完成策略应用,几乎无需专业技术背景。

统一控制平面:语义理解与策略执行的交汇之处

AI 的成功在一定程度上取决于信任,而信任的建立需要一套从架构层面始终融入的治理框架。像 Snowflake Horizon Catalog 这样的通用 AI 目录正承担了这一角色,作为连接复杂业务逻辑与多样、异构数据资产之间的纽带。

当语义深度与通用互操作性相结合时,您便超越了单纯的数据管理,进入了智能体编排的新领域。这些能力若彼此孤立,固然各有价值;但一旦整合协同,便构成了切实有效的 AI 战略的先决条件。

点击此处,进一步了解 Snowflake Horizon Catalog。

原文地址:https://www.snowflake.com/en/blog/universal-ai-catalog-data-governance/

 

点击链接立即报名注册:Ascent - Snowflake Platform Training - China更多 Snowflake 精彩活动请关注专区