包含关键字 typecho 的文章

原文链接:https://tecdat.cn/?p=45004
原文出处:拓端抖音号@拓端tecdat

封面

人工智能已从实验室的技术迭代,成长为重塑全球产业格局、国家竞争力与社会生产生活方式的核心引擎,2025年更是成为AI行业从「技术验证」迈向「规模化产业落地」的关键拐点。当前,AI技术正沿着两条核心主线演进:一方面,大语言模型、智能体(Agent)、生成式AI等技术持续突破,以更低成本、更高效率渗透千行百业;另一方面,全球各国的教育体系、企业组织、国家战略正同步适配这场技术变革,在机遇与挑战的博弈中,寻找技术落地与安全治理的平衡路径。本报告基于全球顶尖机构的一手调研数据与行业研究成果,从AI通识教育、产业生态、教育落地实践、商业化进程、全球主权竞争五大核心维度,系统拆解2025年AI行业的发展趋势与落地路径,为不同赛道的从业者、管理者与投资者提供可落地的决策参考。

本报告洞察基于《中国人工智能学会:2025分层分类人工智能通识教育课程体系白皮书》《中国人工智能学会:2025元宇宙技术白皮书》《数字教育委员会:2025年全球人工智能教育委员会教师调查》《招银国际环球市场:2025AI主题研究-人工智能应用商业化快速落地报告》《埃森哲:2025主权AI:拥有你的AI未来报告》《阿里云:AI原生应用开发实战营—AI Agent 专场报告》和文末400份行业研究报告及数据,本文完整报告数据图表和文末最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和800+行业人士共同交流和成长。

一、AI通识教育:智能时代的全民素养核心框架

人工智能作为通用目的技术,其价值释放从来不是少数技术从业者的专属课题,而是需要全社会建立统一的认知体系与能力框架。中国人工智能学会2025年发布的分层分类人工智能通识教育课程体系,首次明确了AI通识教育的「四位一体」核心逻辑,打破了过往AI教育仅面向理工科专业的局限,构建了覆盖全专业、全学段的通识教育底层体系。

人工智能通识核心模块华夫图表1数据EXCEL及图表PDF模板已分享到会员群
3秒解读:该数据清晰呈现了AI通识教育的核心,是「认识人工智能、使用人工智能、创新人工智能、善治人工智能」四个100%全覆盖的递进模块。无论学生的专业背景是理工、人文还是艺术,这四个模块都是必须掌握的共同核心,是智能时代合格公民的素养基础。
对应人群行动建议:高校教育管理者需立刻对照这四个模块,梳理本校AI通识课程体系,补齐AI伦理与创新实践模块的缺口;教培机构运营者可基于这个框架,开发面向职场人的AI通识入门与能力进阶课程;K12教育从业者可简化模块设计,适配中小学阶段的AI启蒙教育,重点落地「认识」与「善治」两个基础模块。
这套课程体系的核心价值,在于打破了「AI教育=编程教育」的固有认知。它明确了通识教育的目标,不是让所有人都成为AI算法工程师,而是让不同专业背景的人,都能建立对AI的思辨性认知,掌握人机协同的核心能力,守住AI向善的伦理底线。全球主要国家早已将AI通识教育上升到国家战略层面,美国启动了全学段覆盖的EducateAI计划,欧盟计划在2026年前将人工智能基础课纳入义务教育,中国也通过「人工智能+」行动,推动全学段的AI通识教育落地。这场教育变革的核心,就是让所有人都能跟上AI技术的发展节奏,而不是被技术抛下。
本章节完整的课程体系设计方案与高校落地案例合集,已整理在会员群资料中,可进群领取。

二、AI产业生态:技术演进与全球格局重构

AI技术的规模化落地,离不开底层技术的持续迭代与产业生态的完善。从语言智能的范式跃迁,到元宇宙技术的全产业链成熟,再到全球科技巨头的差异化布局,2025年的AI产业生态,已经形成了「底层算力-核心技术-场景应用」的完整闭环,技术演进也从单点突破,走向了多技术融合的体系化创新。

2.1 元宇宙:从概念到产业的规模化落地

元宇宙技术经过多年的发展,早已脱离了早期的概念炒作,进入了产业落地的关键期,其背后是计算、感知、生成、协同、交互五大核心技术的同步成熟。中国元宇宙产业也在政策支持与企业实践的双重推动下,迎来了持续的高速增长。

中国元宇宙产业规模折线图表2数据EXCEL及图表PDF模板已分享到会员群
3秒解读:数据显示中国元宇宙产业规模将从2022年的1000亿元,增长至2026年的4000亿元,年复合增长率超过40%,市场正从概念验证阶段,快速进入文旅、工业、教育、办公等场景的规模化落地期。
对应人群行动建议:文旅行业从业者可优先落地元宇宙沉浸式文旅项目,借助虚拟场景复刻与数字人讲解,打造差异化的文旅体验;工业企业管理者可探索数字孪生技术在产线运维、工艺优化中的应用,降低生产试错成本;创业者可聚焦元宇宙细分场景的轻量化解决方案,避开与巨头的正面竞争,抢占垂类市场先机。
元宇宙技术的发展,从来不是单一企业的赛道,而是全球科技巨头共同布局的核心方向。不同企业基于自身的资源禀赋,选择了完全不同的布局路径,也形成了差异化的竞争优势。

全球科技巨头营收横向条形图表3数据EXCEL及图表PDF模板已分享到会员群
3秒解读:2025年前三季度,苹果、谷歌、微软三家企业营收领跑全球科技行业,也成为元宇宙生态的核心玩家;苹果、谷歌、微软依托操作系统与用户生态,从终端与平台端切入元宇宙;英伟达则聚焦底层算力芯片与图形渲染引擎,成为元宇宙发展的算力底座;Meta选择了软硬件一体的综合布局,深度押注VR/AR终端与社交元宇宙场景。
对应人群行动建议:企业数字化负责人可根据自身业务场景,选择适配的技术合作方,工业数字孪生场景优先对接英伟达的技术生态,消费端沉浸式场景可对接苹果、Meta的终端生态;硬件创业者可聚焦元宇宙终端的配套配件与细分场景硬件,避开巨头的核心竞争赛道;内容创作者可提前布局元宇宙3D内容生成与虚拟人IP打造,抢占内容供给的市场缺口。

2.2 语言智能:70年五次范式跃迁,奠定大模型时代的基础

语言智能是人工智能皇冠上的明珠,也是当前生成式AI爆发的核心底层技术。从1954年第一次机器翻译实验成功,到如今大语言模型的规模化商用,语言智能经历了五次关键的范式跃迁,每一次技术突破,都推动着人工智能向更贴近人类自然交互的方向前进。

语言智能发展历程刻度线图表4数据EXCEL及图表PDF模板已分享到会员群
3秒解读:语言智能的发展历经了早期探索、统计学习、神经网络崛起、Transformer革命、生成式AI爆发五个关键阶段,从最初基于语言学规则的机器翻译,到如今基于大模型的自然语言生成与理解,技术范式的每一次革新,都彻底改变了语言智能的落地边界。
对应人群行动建议:企业AI产品经理需深入理解语言智能的技术演进逻辑,基于大模型的能力边界设计产品功能,避免脱离技术实际的需求设计;NLP算法工程师可重点关注生成式AI的下游场景优化,结合垂类行业数据做模型微调,提升行业场景的适配性;内容平台运营者可借助语言智能技术,搭建内容智能审核、智能创作、智能推荐的全链路体系,提升平台运营效率。
语言智能的发展,也让AI从「能听懂」走向了「能理解、能创作、能交互」,为智能体、数字人、AI陪伴等应用场景的爆发,奠定了核心技术基础。本章节整理了语言智能全技术栈的学习资料与行业落地案例,可进群领取完整版。
相关文章

2026年人工智能AI产业发展形势展望:具身智能、产业应用与治理实践|附700+份报告PDF、数据、可视化模板汇总下载

原文链接:https://tecdat.cn/?p=44860

三、AI教育落地:全球高校教师实践与机构支持现状

当AI技术快速渗透到社会各个角落,高等教育作为人才培养的核心阵地,成为了AI技术落地的关键场景。数字教育委员会2025年针对全球28个国家、52所高校的1681名教师开展的专项调查,完整呈现了当前AI在高等教育教学中的落地现状、教师的真实态度,以及当前面临的核心痛点,为高校AI教育的落地提供了最真实的一手参考。

3.1 教师使用AI的现状:渗透率可观,深度融合不足

AI在教学中的应用,已经从少数教师的探索,变成了多数教师的实践,但当前的应用仍集中在辅助性工作,与教学核心环节的深度融合仍有较大的提升空间。

教师使用AI情况灰底条形图表A1数据EXCEL及图表PDF模板已分享到会员群
3秒解读:全球范围内61%的高校教师已经在教学中使用过AI工具,其中75%的教师用AI创建教学材料,62%的教师用AI支持行政任务,是当前最主流的两个应用场景;但仅有24%的教师用AI为学生作业生成反馈,28%的教师用AI检测作弊,在教学评估的核心环节渗透率极低;同时88%的AI使用者,仍停留在「最小到中等」的使用程度,并未实现与教学的深度融合。
对应人群行动建议:高校一线教师可从教学材料创建、课堂互动设计等低门槛场景入手,逐步探索AI在教学中的应用,无需一开始就追求复杂的场景落地;高校教务处管理者可组织AI教学应用的优秀案例分享与实操培训,降低教师的AI使用门槛,推动AI从辅助性工作向教学核心环节渗透;教育信息化服务商可针对高校教学场景,开发轻量化的AI教学工具,重点解决作业反馈、课堂互动等教师的核心痛点。

3.2 教师对AI的态度:机遇大于挑战,核心诉求聚焦学生能力培养

面对AI技术对教育的冲击,教师群体的态度呈现出明显的分化,但整体来看,多数教师将AI视为教育发展的机遇,而非职业威胁,同时教师们对AI时代的教育核心目标,也形成了高度统一的共识。

教师观点技能双轴图表A2数据EXCEL及图表PDF模板已分享到会员群
3秒解读:57%的教师对AI在教育中的应用持积极态度,65%的教师将AI视为教育发展的机遇,仅有35%的教师视其为挑战;同时51%的教师不认为AI会威胁到自身的工作,职业焦虑并非教师群体的主流情绪;在AI时代教育者的核心技能排名中,81%的教师将「促进学生批判性思维和学习」放在首位,远超对「AI与数字素养」本身的技能需求。
对应人群行动建议:高校管理者需扭转「AI教育就是教教师用AI工具」的误区,将重点放在「如何借助AI培养学生的批判性思维」上,配套对应的课程改革与教学评价体系调整;一线教师需转变教学思路,从「知识传递者」向「学生思维能力的引导者」转型,借助AI工具把自己从重复性工作中解放出来,聚焦学生核心能力的培养;教育政策制定者需调整高校教学评价标准,适配AI时代的教学模式变革,为教师的教学创新提供政策支持。

3.3 机构支持严重缺位,成为AI教育落地的最大障碍

尽管多数教师愿意尝试AI在教学中的应用,但高校机构层面的支持严重不足,成为了制约AI教育落地的核心瓶颈,这也是当前全球高校面临的共性问题。

机构支持雷达图表A3数据EXCEL及图表PDF模板已分享到会员群
3秒解读:80%的教师认为所在高校的AI使用指南不全面,80%的教师表示学校未明确AI在教学中的可用与禁用方式,78%的教师对学校提供的AI素养发展资源不满意,仅有6%的教师完全满意;而教师们认为推动AI教学落地的核心因素,依次是获取AI工具与资源、AI素养培训、最佳实践案例集、明确的使用指南。
对应人群行动建议:高校管理者需立刻补齐AI教学的制度与资源短板,先出台清晰、可落地的AI教学使用指南,再配套对应的工具资源与实操培训,避免只做宏观的政策号召,不做落地的资源支持;高校二级学院可组织教师形成AI教学实践社群,共同沉淀适合本专业的AI教学最佳实践案例,实现经验共享;AI工具厂商可针对高校场景推出公益版的AI工具与培训资源,与高校共建AI教学实践基地,提前布局高校教育市场。
本章节完整的全球教师调查数据与高校AI教育落地解决方案,已整理在会员群资料中,可进群领取完整版。

四、AI商业化:C端应用爆发与企业级基建升级

2025年,AI行业的核心关键词,已经从「技术突破」转向了「商业化落地」。无论是C端的AI应用,还是B端的企业级AI基建,都已经形成了清晰的商业模式与规模化的营收,AI技术正在从「烧钱的研发投入」,变成了实实在在的营收与利润,全球AI市场也迎来了爆发式的增长。

4.1 全球AI市场规模:应用市场成为核心增长引擎

全球大模型市场在技术迭代的推动下,迎来了持续的高速增长,而大模型应用市场,更是成为了整个AI行业的核心增长驱动力,不同细分赛道都展现出了巨大的市场潜力。

全球AI市场规模多边形条形图表8数据EXCEL及图表PDF模板已分享到会员群
3秒解读:全球大模型市场规模将从2024年的107亿美元,增长至2029年的2065亿美元,年复合增长率达到80.7%;其中大模型应用市场规模将从2024年的71亿美元,增长至2029年的1515亿美元,年复合增长率84.4%,增速远超底层大模型市场;AI陪伴、AI视觉生成等垂类应用赛道,也展现出了惊人的增长潜力,成为了AI商业化的核心赛道。
对应人群行动建议:AI创业者可优先聚焦垂类应用赛道,避开底层大模型的重资产、高竞争赛道,基于成熟的大模型能力,开发行业垂直场景的AI应用,更快实现商业化闭环;企业投资者可重点关注AI垂类应用赛道的优质项目,尤其是已经实现规模化营收与正向现金流的应用产品;传统企业管理者可借助成熟的AI应用工具,快速实现业务的AI化升级,无需投入大量资源自研底层模型,降低数字化转型的成本与风险。

4.2 C端AI应用:市场格局未定,垂类赛道已跑出头部玩家

中国C端AI应用市场,正处在白热化的竞争阶段,通用AI助手赛道字节豆包暂时领先,但市场格局仍未完全固化;而在娱乐陪伴、视觉生成等垂类赛道,已经跑出了规模化用户与营收的头部玩家,商业化路径也已经完全跑通。

AI应用用户收入半圆图表9数据EXCEL及图表PDF模板已分享到会员群
3秒解读:通用AI助手赛道,2025年12月字节豆包周活跃用户达到1.55亿,DeepSeek达到0.82亿,腾讯元宝为0.21亿,头部玩家用户规模差距显著,但市场仍有较大的变动空间;AI娱乐陪伴赛道,Character AI月活3090万,Minimax旗下Talkie AI月活2350万,已经形成了规模化的用户群体;AI视觉生成赛道,可灵AI年化收入达到2.4亿美元,Midjourney年化收入5亿美元,已经实现了规模化的商业变现。
对应人群行动建议:C端AI产品创业者可避开通用AI助手的红海竞争,聚焦娱乐陪伴、视觉生成、AI教育等垂类赛道,打造差异化的产品体验,快速实现用户与营收的增长;内容创作者可借助AI视觉生成、AI音频生成工具,打造个人IP与内容产品,降低内容创作的门槛与成本;品牌市场运营者可与头部AI应用合作,探索AI场景下的品牌营销新模式,抢占新一代流量入口。

4.3 企业级AI基建:降本增效成为核心竞争力

对于企业级AI应用而言,开发门槛高、运维成本高、服务不稳定是三大核心痛点,而阿里云AgentRun等企业级AI基础设施平台,通过技术优化,实现了开发效率的提升与运营成本的大幅下降,国产AI技术也在成本与效率上,构建了显著的竞争优势。

AI技术成本热图图表10数据EXCEL及图表PDF模板已分享到会员群
3秒解读:AgentRun平台将AI应用开发复杂度降低了80%,MCP Server长连接闲置计费最高降低87%,大幅降低了企业级AI应用的开发与运营成本;在视频生成API价格上,国产可灵AI仅为4.2美元/分钟,而Google Veo 3.1为12美元/分钟,OpenAI Sora 2 Pro达到30美元/分钟,国产模型在成本上具备显著的优势。
对应人群行动建议:企业数字化负责人可优先选择国产AI基础设施平台与大模型服务,在保障效果的同时,大幅降低AI应用的开发与运营成本;企业IT研发团队可基于AgentRun等开源兼容的AI开发框架,快速搭建企业级智能体应用,无需从零开始研发,缩短产品上线周期;中小企业管理者可选择开箱即用的AI应用工具,无需投入大量研发资源,即可实现业务的AI化升级,用最小的成本拿到AI技术的红利。
本章节整理了AI全赛道的商业化案例与盈利模式分析报告,完整版可进群领取。

五、全球AI竞争:主权AI成为国家与企业的核心战略

当AI成为国家竞争力的核心引擎,全球各国与企业都开始意识到,AI技术的自主可控,已经不是一个技术问题,而是关乎国家安全与长期发展的战略问题。埃森哲2025年发布的主权AI报告,清晰呈现了全球主权AI的发展趋势,也为企业与国家的AI战略布局,提供了核心的决策参考。
主权AI,指的是一个国家依靠自身的基础设施、数据、模型和人才,独立开发和部署AI的能力,它不是闭关锁国的技术孤立,而是在自主可控的前提下,实现符合自身规则的技术互操作。全球61%的政企领导者表示,随着地缘政治风险的上升,他们更倾向于寻求具备主权能力的技术解决方案;预计到2027年,35%的国家将锁定在使用专属上下文数据的区域特定AI平台中,到2028年,65%的全球政府将出台技术主权相关规则,提升AI领域的自主可控能力。
对于企业而言,主权AI也不再只是国家层面的课题,而是企业长期发展必须考虑的核心问题。企业需要构建「全球创新+本地可控」的混合AI生态,只需对三分之一的AI工作负载实施严格的主权管控,即可在保障安全可控的同时,享受全球技术创新的红利。当前全球航空航天与国防、政府公共部门、医疗健康行业,已经成为主权AI落地的领先赛道,而金融、能源、汽车等行业,也在快速推进AI主权能力的建设。
企业在主权AI布局中,需要做好四件核心事情:一是将AI主权提升到企业最高管理层的战略优先级,匹配对应的资源与组织架构;二是将主权AI从风险合规的防御性工作,转变为价值创造的增长引擎;三是构建融合全球与本地资源的混合AI生态,实现安全与创新的平衡;四是搭建具备灵活性的AI架构,适配技术与政策的持续变化。
本章节完整的主权AI行业落地案例与企业布局方案,已整理在会员群资料中,可进群领取完整版。

六、不同报告核心数据对比分析

报告名称核心结论核心数据差异差异原因分析
数字教育委员会:2025年全球人工智能教育委员会教师调查全球61%的高校教师已在教学中使用AI,88%的使用者仍处于浅度应用阶段与国内高校AI教师渗透率调研数据存在差异,国内部分调研显示高校教师AI使用率为48%,低于全球均值1. 统计范围不同:该报告覆盖全球28个国家欧美高校占比更高,国内调研仅覆盖中国内地高校;2. 时间周期不同:该报告调研时间为2025年,国内部分调研为2024年,存在时间差;3. 统计口径不同:该报告将「创建教学材料」等轻量应用纳入使用统计,部分国内调研仅统计深度融入教学环节的使用行为
招银国际环球市场:2025AI主题研究-人工智能应用商业化快速落地报告2029年全球大模型市场规模将达2065亿美元,应用市场占比超70%与其他机构预测的2029年全球AI市场规模存在差异,部分机构预测规模超5000亿美元1. 统计口径不同:该报告仅统计大模型及直接相关的应用市场,其他机构统计包含AI算力、AI芯片、行业解决方案等全产业链市场;2. 增长假设不同:该报告基于当前商业化落地速度做保守预测,部分机构基于技术迭代速度做乐观预测;3. 汇率与计价标准不同,不同报告采用的美元计价汇率存在差异
埃森哲:2025主权AI:拥有你的AI未来报告61%的政企领导者更倾向于选择主权技术解决方案,仅15%的企业将AI主权提升到CEO/董事会层面与国内政企调研数据存在差异,国内超60%的省级行政区已出台主权AI相关政策,企业关注度显著高于海外1. 区域市场不同:该报告覆盖全球28个国家,欧美企业对主权AI的战略优先级低于国内企业;2. 政策环境不同:国内出台了大量AI国产化相关政策,推动企业提升对AI主权的关注度;3. 行业结构不同:该调研覆盖大量海外金融、零售企业,国内调研以政府、国企、关键基础设施行业为主,对主权AI的需求更强

七、可落地的3件核心行动

第一件事,完成自身业务/工作的AI适配度诊断。用1-2天的时间,梳理自身工作或业务的全流程,标注出可通过AI工具提效的环节,优先选择1个重复性最高、耗时最长的环节,测试对应的AI工具,形成可落地的提效方案,无需追求全流程的AI化改造,先从单点突破拿到结果。
第二件事,搭建适配自身需求的AI知识与工具体系。针对自身所在的行业与岗位,筛选3-5个核心的AI工具,完成工具的基础操作学习与场景适配;同时整理行业内的AI落地最佳实践案例,形成自己的AI应用知识库,避免陷入碎片化的工具学习,始终围绕自身的业务目标选择工具。
第三件事,完成AI风险与合规的基础排查。针对自身正在使用的AI工具与服务,开展数据安全与合规排查,重点确认敏感数据的传输与存储规则,避免核心业务数据、用户隐私数据通过AI工具泄露;同时制定清晰的AI使用规范,明确可用与禁用场景,提前规避AI应用带来的合规与安全风险。

八、核心风险提示与应对方案

风险1:AI通识教育落地中,过度追求工具使用,忽略了学生批判性思维与AI伦理的培养

具体应对方案:高校与教培机构需严格遵循「认识-使用-创新-善治」的四位一体框架,在AI教学中,将学生批判性思维培养与AI伦理教育放在核心位置,而非只教工具操作;同时配套对应的教学评价体系,将学生的AI伦理认知、批判性思维能力纳入考核,而非只考核工具使用技巧。我们已整理了高校AI通识教育的课程体系模板与考核方案,可进群领取,社群内也有高校教育从业者可共同交流落地经验。

风险2:企业AI应用落地中,盲目投入自研大模型与底层基建,造成资源浪费与成本失控

具体应对方案:中小企业优先选择成熟的开箱即用AI工具与开源兼容的开发框架,基于自身业务需求做轻量化的场景适配,无需投入大量资源自研底层模型;中大型企业可采用「成熟底座+垂类微调」的模式,基于开源大模型与行业数据做微调,匹配自身业务场景,同时采用「全球+本地」的混合架构,平衡创新与自主可控。我们整理了不同规模企业的AI落地成本优化方案,可进群领取,社群内有企业数字化负责人可共同交流避坑经验。

风险3:C端AI产品创业中,陷入通用赛道的同质化竞争,无法实现商业化闭环

具体应对方案:创业者避开通用AI助手的红海赛道,聚焦垂直行业、垂直人群的细分需求,打造差异化的产品体验,比如特定职业的AI工作助手、特定人群的AI陪伴产品;同时在产品设计初期就明确商业化路径,优先验证用户付费意愿,而非先烧钱做用户规模,再考虑商业化。我们整理了AI垂类应用的商业化案例与盈利模式分析,可进群领取,社群内有AI产品创业者可共同交流产品设计与商业化经验。

风险4:AI工具使用中,出现数据泄露、合规风险与知识产权纠纷

具体应对方案:个人用户使用AI工具时,避免在提示词中输入个人敏感信息、商业机密数据;企业用户需选择具备数据安全合规资质的AI服务厂商,签订数据保密协议,同时搭建私有化的AI部署环境,核心数据不出域;在AI生成内容的使用中,提前核查知识产权相关规则,避免商用带来的侵权纠纷。我们整理了AI工具使用的合规手册与数据安全解决方案,可进群领取,社群内有法律与合规专家可提供相关咨询。

核心数据汇总表

图表名称核心指标核心数据数据来源
人工智能通识核心模块华夫图表1通识教育四大核心模块占比认识人工智能100%、使用人工智能100%、创新人工智能100%、善治人工智能100%中国人工智能学会《分层分类人工智能通识教育课程体系》
中国元宇宙产业规模折线图表2中国元宇宙产业市场规模2022年1000亿元、2023年1500亿元、2024年2200亿元、2025年3000亿元、2026年4000亿元中国人工智能学会《元宇宙技术(2025版)》
全球科技巨头营收横向条形图表32025年1-9月全球科技企业营收Apple3136亿美元、Alphabet2888亿美元、Microsoft2052亿美元、Samsung1695亿美元、Meta1410亿美元、NVIDIA1185亿美元、Intel392亿美元中国人工智能学会《元宇宙技术(2025版)》
语言智能发展历程刻度线图表4语言智能发展各阶段起始年份早期探索阶段1954年、统计学习阶段2002年、神经网络崛起阶段2013年、Transformer革命阶段2017年、生成式AI爆发阶段2022年中国人工智能学会《语言智能》
教师使用AI情况灰底条形图表A1教师教学中AI使用情况已使用AI61%、未使用AI39%、创建教学材料75%、支持行政任务62%、最小到中等使用程度88%数字教育委员会《2025年全球人工智能教育委员会教师调查》
教师观点技能双轴图表A2教师对AI的态度与核心技能认知积极态度57%、中立态度30%、消极态度13%、视为机遇65%、视为挑战35%、促进学生批判性思维81%数字教育委员会《2025年全球人工智能教育委员会教师调查》
机构支持雷达图表A3教师对机构AI支持的满意度指南不全面80%、未明确使用方式80%、素养资源不满意78%、获取工具需求65%、培训需求60%数字教育委员会《2025年全球人工智能教育委员会教师调查》
全球AI市场规模多边形条形图表8全球AI市场规模2024-2030年大模型市场2024年107亿美元、2030年2065亿美元;大模型应用市场2024年71亿美元、2030年1515亿美元CIC、招银国际环球市场《AI主题研究:AI应用商业化快速落地》
AI应用用户收入半圆图表9领先AI应用用户规模与收入字节豆包月活1.55亿、可灵AI年化收入2.4亿美元、Midjourney年化收入5亿美元QuestMobile、ARR Club、招银国际环球市场《AI主题研究:AI应用商业化快速落地》
AI技术成本热图图表10AI技术与服务优化指标开发复杂度降低80%、闲置计费降低87%、可灵AI API价格4.2美元/分钟、Sora 2 Pro API价格30美元/分钟阿里云《AI原生应用开发实战营》、招银国际环球市场《AI主题研究:AI应用商业化快速落地》

本文数据图表列表

  1. 人工智能通识核心模块华夫图表1
  2. 中国元宇宙产业规模折线图表2
  3. 全球科技巨头营收横向条形图表3
  4. 语言智能发展历程刻度线图表4
  5. 教师使用AI情况灰底条形图表A1
  6. 教师观点技能双轴图表A2
  7. 机构支持雷达图表A3
  8. 全球AI市场规模多边形条形图表8
  9. AI应用用户收入半圆图表9
  10. AI技术成本热图图表10

封面

本专题内的参考报告(PDF)目录

  • 2026年中国GenAI+教育行业发展报告.pdf
  • 2026-02-23 09:22
  • 传媒行业年度策略报告:AI应用+IP生态双轮驱动,行业基本面有望持续向好.pdf
  • 2026-02-23 09:17
  • 电力设备及新能源年度策略报告:AIDC电源革命创新机,光伏反内卷静待供需拐点.pdf
  • 2026-02-23 09:17
  • 从能力领先到入口级产品:阿里押注模型、生态与AI 基础设施.pdf
  • 2026-02-23 09:16
  • AI+AR眼镜有望成为市场主流,镜片制造企业迎来发展新机遇.pdf
  • 2026-02-23 09:16
  • AI产品测评体验系列报告:多模态模型迎来Deepseek时刻,供给革命将重新定义内容创作范式.pdf
  • 2026-02-23 09:16
  • AI应用重要阵地,Robotaxi还看中国.pdf
  • 2026-02-23 09:16
  • MPO行业深度:AI光连接的现在和未来.pdf
  • 2026-02-23 09:16
  • 2026游戏行业趋势展望:从toB到toC,AI游戏引擎开始助力平台增长.pdf
  • 2026-02-23 09:16
  • 中泰电子AI系列之国产算力:2026关注1-N放量.pdf
  • 2026-02-23 09:15
  • 上海仪电:2026物理AI白皮书:迈向可执行的机器智能.pdf
  • 2026-02-21 09:25
  • Dell:2026年释放AI数据价值的七个步骤-实现有效数据管理的全面指南.pdf
  • 2026-02-21 09:16
  • 信达证券:计算机行业:AI编程:重塑软件开发新范式,应用生态加速繁荣.pdf
  • 2026-02-21 09:13
  • 传媒行业人工智能专题:Seedance2.0开启新机遇,从IP到平台、如何看AI漫剧机会.pdf
  • 2026-02-21 09:12
  • EY安永:2025年度全球另类基金调查报告-AI模拟洞察.pdf
  • 2026-02-14 15:48
  • AIIA:2026人工智能赋能应用实践指南.pdf
  • 2026-02-14 15:48
  • TaiyangNews:2026年太阳能组件生产设备市场调查报告(英文版).pdf
  • 2026-02-14 15:47
  • 2025年秋季全球CEO信心与AI战略调查.pdf
  • 2026-02-14 15:45
  • 德勤:技术趋势2026:AI从概念验证迈向价值创造.pdf
  • 2026-02-14 15:44
  • 机械设备行业AIDC发电专题报告:北美缺电逻辑持续演绎,相关投资线索再梳理.pdf
  • 2026-02-14 15:38
  • 国信证券:AIAgent专题:Opus4.5开启AIAgent拐点,CPU需求迎高增.pdf
  • 2026-02-14 15:38
  • 零售和消费品行业 AI 发展现状及趋势.pdf
  • 2026-02-12 14:26
  • AI的双重价值助力气候正向效应与推动能源转型.pdf
  • 2026-02-12 14:25
  • 《大模型工具大全》AI推荐.pdf
  • 2026-02-12 14:22
  • 清华大学:2026大模型工具大全:一次看遍各个领域的AI利器.pdf
  • 2026-02-12 14:19
  • 阿里云AI原生应用开发实战营——AI Agent专场(郑州).pdf
  • 2026-02-12 14:18
  • 阿里云AI原生应用开发实战营—AI Agent 专场(杭州).pdf
  • 2026-02-12 14:18
  • 阿里云AI原生应用开发实战营——AI Agent专场(深圳).pdf
  • 2026-02-12 14:18
  • 深圳市福田区小学数学AI教研团队2025年AI可以这样用2.0小学数学教学应用手册.pdf
  • 2026-02-12 14:17
  • 阿里云AI原生应用开发实战营——AI Agent专场(成都).pdf
  • 2026-02-12 14:17
  • 2026年银行业生成式AI潜能变现提速之路研究报告(英文版).pdf
  • 2026-02-11 15:32
  • 2026年北京AIDC零售服务市场研究报告-爱分析.pdf
  • 2026-02-11 15:32
  • 2025年终大促旺季AI消费趋势报告.pdf
  • 2026-02-11 15:30
  • 2025年AI原生应用开源开发者沙龙·上深圳站电子书(PDF版)-阿里云.pdf
  • 2026-02-11 15:29
  • Cyberhaven :2026年企业AI应用与风险报告(英文版).pdf
  • 2026-02-11 15:27
  • 新工作,新世界:AI重塑工作的速度超出所有预期.pdf
  • 2026-02-11 15:26
  • 计算机行业深度报告:被低估的腾讯AI“野望”.pdf
  • 2026-02-11 15:23
  • 2026年AI营销行业白皮书.pdf
  • 2026-02-11 13:23
  • 2026年AI营销行业白皮书.pdf
  • 2026-02-11 13:22
  • 行业数智化AI安全实践研究报告.pdf
  • 2026-02-11 13:21
  • 2025年中国生成式AI行业最佳应用实践.pdf
  • 2026-02-11 13:21
  • 中国人工智能学会:2025年中国人工智能学会系列白皮书-教育研究中的AI4S.pdf
  • 2026-02-11 13:20
  • 袋鼠云:2026能源矿产行业Data+AI数智化转型白皮书.pdf
  • 2026-02-10 15:57
  • 金融业AI基础设施发展报告(2024—2025年).pdf
  • 2026-02-10 15:55
  • 宏观专题研究报告:大宗商品掘金系列(一):大宗商品的“AI光谱”.pdf
  • 2026-02-10 15:52
  • 计算机行业跟踪分析:AI编程商业化加速,关注本土产业参与方.pdf
  • 2026-02-10 15:52
  • 电子行业深度报告:AI算力发展需求推动先进封装成长,国产替代迎接新机遇.pdf
  • 2026-02-10 15:51
  • 电子行业跟踪报告:OpenClaw助力AI Agent技术范式升级.pdf
  • 2026-02-10 15:51
  • 埃森哲:2026年人工智能行业从即时到目的:用代理AI解锁商业价值报告.pdf
  • 2026-02-09 14:25
  • 北京金融科技产业联盟:金融业AI基础设施发展报告(2024-2025年).pdf
  • 2026-02-09 14:25
  • ISC平台:ISC.AI 2025创新性案例报告.pdf
  • 2026-02-09 14:24
  • AI重构传媒链条:入口、分发与内容的再定价.pdf
  • 2026-02-09 14:20
  • 传媒行业:AI Agent重塑人机交互与工作流,用户心智拐点已现.pdf
  • 2026-02-09 14:20
  • Snowflake:2026年AI与数据发展预测报告.pdf
  • 2026-02-08 10:12
  • InfoQ极客:智能体时代的AI人才粮仓模型-2026年中国企业AI人才与组织发展报告.pdf
  • 2026-02-08 10:12
  • 英伟达:2026年零售和消费品行业AI发展现状及趋势报告.pdf
  • 2026-02-08 09:57
  • GenAI系列报告之68:2026大模型幻觉能被抑制吗?.pdf
  • 2026-02-08 09:56
  • 华源证券-AI行业2026年海外策略报告:AI时代的能源重构与金融基础设施升级.pdf
  • 2026-02-08 09:56
  • 谷歌云:2026年数据库助力加速生成式AI转型报告.pdf
  • 2026-02-06 16:53
  • AI代理趋势2026:五大变革将重塑角色、工作流程与商业价值.pdf
  • 2026-02-06 16:52
  • 2026年AI消费硬件产业报告-阿里云.pdf
  • 2026-02-06 16:52
  • 2025年AIGC发展研究报告4.0版.pdf
  • 2026-02-06 16:51
  • 腾讯玄武实验室:2026年AI网络爬虫安全白皮书.pdf
  • 2026-02-06 16:45
  • 计算机行业深度报告:被低估的腾讯AI“野望”-30页.pdf
  • 2026-02-06 16:42
  • 智能眼镜行业跟踪报告:智能眼镜产品力系列二:大模型催化,AI眼镜异军突起.pdf
  • 2026-02-06 16:42
  • 智驭电能,AIDC赋能固态断路器成长蓝图.pdf
  • 2026-02-06 16:42
  • 微软:2026矿业AI驱动转型基础白皮书.pdf
  • 2026-02-05 17:31
  • 毕马威:2026年AI的双重价值:助力气候正向效应与推动能源转型报告.pdf
  • 2026-02-05 17:28
  • 阿里云:2026年AI原生应用开发实战营·郑州站分享材料PPT(PDF版).pdf
  • 2026-02-05 17:15
  • 阿里云:2026年AI原生应用开发实战营·深圳站分享材料PPT(3)(PDF版).pdf
  • 2026-02-05 17:15
  • 阿里云:2025年AI原生应用开源开发者沙龙·上海站电子书(2)(PDF版).pdf
  • 2026-02-05 17:15
  • 阿里云:2026年AI原生应用开发实战营·成都站分享材料PPT(PDF版).pdf
  • 2026-02-05 17:14
  • 数据要素“产业观察”系列:制度闭环叠加 AI 催化,迎接数据要素“价值释放年”.pdf
  • 2026-02-05 17:09
  • 美国AI电力2026可负担性成为焦点.pdf
  • 2026-02-05 17:08
  • 2026AI玩具产业链研究报告-深企投产业研究院.pdf
  • 2026-02-04 16:46
  • 2026年智能体AI核心指南-构建自主化未来的竞争方略.pdf
  • 2026-02-04 16:40
  • AIGCLink:2026年AIGC行业现状及发展趋势白皮书.pdf
  • 2026-02-04 16:38
  • AI Edge联盟:2026年AI Edge需求、愿景与潜在关键技术白皮书.pdf
  • 2026-02-04 16:38
  • AI素养白皮书:理解与实施人工智能素养.pdf
  • 2026-02-04 16:36
  • TaiyangNews:2025年电池与组件技术趋势报告(英文版).pdf
  • 2026-02-04 16:36
  • AI时代网站建设GEO+SEO标准规范白皮书(发布版).pdf
  • 2026-02-04 16:35
  • 2026年向代币经济学战略性转向:驾驭AI支出新格局研究报告(英文版).pdf
  • 2026-02-04 16:30
  • 科技主题观点综述:全球算力多点突破,AI驱动端侧应用渗透(更正).pdf
  • 2026-02-04 16:29
  • 计算机行业动态研究:CPU,AI推理时代的核心器件,涨价或是必然.pdf
  • 2026-02-04 16:29
  • 计算机行业AI2026算力系列(一):AI agent的大规模应用驱动CPU和基础软件需求增长.pdf
  • 2026-02-04 16:29
  • 计算机行业专题研究:千问APP正式接入阿里生态,流量/模型/AI应用产业格局有望重构.pdf
  • 2026-02-04 16:28
  • 基础化工行业深度报告:AI发展驱动PCB升级,上游材料迎发展良机.pdf
  • 2026-02-04 16:27
  • 国泰海通策略科技转型牛投资系列六:AI应用:以新生产工具重构新经济场景.pdf
  • 2026-02-04 16:27
  • 存储行业深度报告:电子行业:AI驱动叠加自主可控,看好国产存储产业链.pdf
  • 2026-02-04 16:27
  • 复盘教育行业双龙头崛起之路:AI+教育深度报告:技术人口双轮驱动,AI+教育商业破局.pdf
  • 2026-02-04 16:27
  • 智驭变革生成式AI驱动汽车产业价值重构.pdf
  • 2026-02-03 16:17
  • 半导体行业分析手册之二:混合键合设备:AI算力时代的芯片互连革命与BESI的领航之路.pdf
  • 2026-02-03 16:15
  • GenAI系列报告之68:2026大模型幻觉能被抑制吗?.pdf
  • 2026-02-03 16:15
  • 半导体行业深度报告:Agentic AI时代的算力重构:CPU,从“旁观者”到“总指挥”的价值回归.pdf
  • 2026-02-03 16:15
  • AIDC行业深度:市场现状、发展展望、产业链及相关公司深度梳理.pdf
  • 2026-02-03 16:14
  • 2026文娱行业趋势展望:全栈式AI文娱工具陆续上线,平台型产品有望获得超额收益.pdf
  • 2026-02-03 16:14
  • AI时代的热管理革命:从液冷系统看冷却液的发展趋势.pdf
  • 2026-02-03 16:14
  • 【CES 2026】AI巨头、人形机器人、智能汽车展出最新变化.pdf
  • 2026-02-03 16:14
  • 2025年度TMT之科技行业研究:AI算力担纲核心驱动力,国产替代进入自主攻坚期.pdf
  • 2026-02-03 16:14
  • 网易新闻:2026年AI内容营销六大趋势报告.pdf
  • 2026-02-02 16:07
  • 华清普智&清程AI Ping:2025大模型API服务行业分析报告.pdf
  • 2026-02-02 16:07
  • 艺恩数据:智趣未来-2026年AI玩具市场发展与用户洞察报告.pdf
  • 2026-02-02 16:07
  • 数字孪生+AI:行业最佳实践白皮书.pdf
  • 2026-02-02 16:06
  • 全球AI算力革命,生态之争加速演绎-华创证券.pdf
  • 2026-02-02 16:01
  • AI时代的热管理革命:从液冷系统看冷却液的发展趋势-23页.pdf
  • 2026-02-02 16:01
  • 工业运营的临界点:物理AI如何释放新生产力.pdf
  • 2026-02-01 13:33
  • 人工智能(AI)在中小學教育的應用與發展.pdf
  • 2026-02-01 13:30
  • 传媒行业深度报告:海外AI年度复盘及财报综述:狂欢将尽还是新周期开启?.pdf
  • 2026-02-01 13:27
  • 存储行业深度报告:AI纪元,存赢未来.pdf
  • 2026-02-01 13:27
  • 传媒行业深度报告:政策+AI双向共振,2026年将迎产品大年.pdf
  • 2026-02-01 13:27
  • AI制药:从降本增效到分子创新,数据生产构筑长期壁垒.pdf
  • 2026-02-01 13:27
  • AI营销之GEO行业深度:行业框架、市场分析、产业链及相关公司深度梳理.pdf
  • 2026-02-01 13:27
  • 存储行业深度报告:骐骥驰骋,AI“存”变,国产“储”势,星火燎原.pdf
  • 2026-02-01 13:27
  • AI主题研究:AI应用商业化快速落地.pdf
  • 2026-02-01 13:27
  • AI医疗行业专题报告——AI重构医疗,从场景落地到变现讨论.pdf
  • 2026-02-01 13:27
  • 2026年计算机行业策略报告:AI商业化加速推进,量子科技前景广阔.pdf
  • 2026-02-01 13:26
  • 中银证券:存储行业深度报告:骐骥驰骋,AI“存”变,国产“储”势,星火燎原.pdf
  • 2026-02-01 13:25
  • 光大证券:AI医疗行业专题报告——AI重构医疗,从场景落地到变现讨论.pdf
  • 2026-02-01 13:25
  • 智享会:2026年AI赋能人力资源管理-找到企业内第一块AI“试验田”报告.pdf
  • 2026-02-01 13:24
  • 易观分析:2026年AI时代网站建设GEOSEO技术标准蓝皮书.pdf
  • 2026-02-01 13:24
  • IBM商业价值研究院:2026年商用AI:通过更智能的治理、最大化AI投资回报率报告.pdf
  • 2026-02-01 13:24
  • EY安永:2026年AI银行白皮书.pdf
  • 2026-02-01 13:23
  • 沃丰科技:2026 AI Agent趋势报告.pdf
  • 2026-02-01 13:22
  • 谷歌云:2025年AI智能体在工作中的应用报告:重塑客户体验.pdf
  • 2026-01-30 16:01
  • 谷歌云:2026年AI规模化部署最佳实践指南报告.pdf
  • 2026-01-30 16:01
  • 半导体行业分析手册之二:混合键合设备,AI算力时代的芯片互连革命与BESI的领航之路.pdf
  • 2026-01-30 15:55
  • 智能电动汽车行业深度报告:从AIDC液冷看汽零投资新机会.pdf
  • 2026-01-30 15:55
  • AI代理的兴起:评估与治理的行动框架.pdf
  • 2026-01-29 14:46
  • 美国互联网行业:AI代理购物持续推进.pdf
  • 2026-01-29 14:39
  • 全球AI算力革命,生态之争加速演绎.pdf
  • 2026-01-29 14:39
  • 平台+场景智能体驱动工业智能化跃升:AI 制造政策频出,关注 AI 工业制造.pdf
  • 2026-01-29 14:39
  • 爆款AI漫剧教学手册.pdf
  • 2026-01-29 14:33
  • AI 原生应用开发实战营·深圳站分享材料.pdf
  • 2026-01-28 16:03
  • 德勤:2026智驭变革:生成式AI驱动汽车产业价值重构白皮书.pdf
  • 2026-01-28 16:02
  • AI时代基于技能的国际化人才培养.pdf
  • 2026-01-28 16:02
  • HR指南:全面提升企业的AI素养与AI就绪度.pdf
  • 2026-01-28 15:58
  • 神州信息(张琨):2026年智启对公,共赢未来-对公AI落地路径探讨报告.pdf
  • 2026-01-28 15:56
  • 计算机策略报告:AI泛化模式到来.pdf
  • 2026-01-28 15:52
  • 基础化工行业研究:AI系列深度(九):AI材料下游需求洞察,看好AI基建带来的材料增量.pdf
  • 2026-01-28 15:52
  • 机械行业燃气轮机:全球产能趋紧,国产供应链抢占AIDC景气红利.pdf
  • 2026-01-28 15:52
  • 国信证券:AI应用专题:各大厂新模型持续迭代,重视AI应用板块投资机会.pdf
  • 2026-01-28 15:51
  • 电子行业深度报告:CES2026总结:AI革命进入新阶段,赋能全场景终端.pdf
  • 2026-01-28 15:50
  • 电子行业行业深度报告:技术跃升、市场爆发与生态构建之路-终端革命正当时,AI眼镜迈向规模化.pdf
  • 2026-01-28 15:50
  • 2025年AI治理报告.pdf
  • 2026-01-27 15:52
  • 移动通信与AI融合的数据格式和模型建议(第二版).pdf
  • 2026-01-27 15:50
  • 美国互联网行业:CES:实体AI机器人、Robotaxi与亚马逊购物代理.pdf
  • 2026-01-27 15:48
  • 人工智能行业专题:OpenAI发布医疗健康Gpt,开启AI医疗新时代.pdf
  • 2026-01-27 15:48
  • 锡专题:供应扰动频繁,AI+半导体催化需求增长.pdf
  • 2026-01-27 15:47
  • Z世代员工管理趋势与企业文化创新-先见AI.pdf
  • 2026-01-27 12:44
  • 2025年全球首席数据官(CDO)调研之大中华区洞察报告:释放AI倍增效应.pdf
  • 2026-01-26 13:53
  • 传媒行业人工智能专题:从“生产力”到“变现力”,GEO重构流量入口与AI商业化拐点.pdf
  • 2026-01-26 13:50
  • 传媒行业2026年度策略报告:AI应用迎商业化大年.pdf
  • 2026-01-26 13:50
  • 电气化大时代之美国篇系列一:AI带来的需求侧新变化,美国电力市场框架梳理.pdf
  • 2026-01-26 13:50
  • AI浪潮之基,电力价值与生态重塑.pdf
  • 2026-01-26 13:49
  • 20260116-国信证券-传媒行业人工智能专题:从“生产力”到“变现力”,GEO重构流量入口与AI商业化拐点.pdf
  • 2026-01-26 13:49
  • AI营销系列报告一:搜索入口迁徙,GEO营销起量.pdf
  • 2026-01-26 13:49
  • AI需求推动,NAND与SSD供不应求有望持续.pdf
  • 2026-01-26 13:49
  • AI泡沫系列研究之传媒互联网行业篇:今非昔比,逻辑生变:从“理性泡沫”到“务实增长”.pdf
  • 2026-01-26 13:49
  • 2026年AI行业应用深度展望:AI应用重塑流量格局,字节阿里腾讯C端布局加快.pdf
  • 2026-01-26 13:48
  • 2026年半导体设备行业策略报告:AI驱动新成长,自主可控大时代.pdf
  • 2026-01-26 13:48
  • 2026 CES(国际消费类电子产品展览会)系列跟踪:AI+加速落地,物理AI+Rubin+机器人多项重要发布.pdf
  • 2026-01-26 13:47
  • 快消行业AI营销增长白皮书-微播易.pdf
  • 2026-01-25 12:39
  • 艺恩数据:2026年智旅新纪元:AI与旅游产业融合全景报告.pdf
  • 2026-01-25 12:35
  • 2026年新工作新世界:AI如何以超预期速度重塑工作报告(英文版).pdf
  • 2026-01-25 12:32
  • 腾讯研究院:2025年AI治理报告:回归现实主义.pdf
  • 2026-01-25 12:32
  • 战略预见中的AI.pdf
  • 2026-01-25 12:31
  • 利用GeoAI:面向公用事业公司的战略方法.pdf
  • 2026-01-25 12:31
  • 2026年美中AI市场竞争态势与DeepSeek的突围-英文版.pdf
  • 2026-01-25 12:27
  • 医药行业AI制药:从降本增效到分子创新,数据生产构筑长期壁垒.pdf
  • 2026-01-25 12:26
  • 上海社会科学院:AI医疗治理白皮书(2026版).pdf
  • 2026-01-24 17:41
  • 2026年健康领域人工智能(AI)应用状况报告-Vi Labs-32页.pdf
  • 2026-01-23 15:42
  • 易观分析:中国AI+营销趋势洞察报告2026.pdf
  • 2026-01-23 15:42
  • Adata:AI数据互联互通状况报告-2026年展望(英文版).pdf
  • 2026-01-23 15:38
  • 凯捷Capgemini:2026年多年AI优势构建未来就绪型企业研究报告(英文版).pdf
  • 2026-01-23 15:38
  • 如何在AI搜索中胜出:提升在+AI+搜索引擎与大语言模型中可见性的终极指南.pdf
  • 2026-01-23 15:37
  • 传媒行业深度报告:海外AI年度复盘及财报综述:狂欢将尽还是新周期开启?.pdf
  • 2026-01-23 15:35
  • AI全栈存储的价值重估-华泰证券-46页.pdf
  • 2026-01-23 15:35
  • 2026年传媒互联网行业年度策略:聚焦出海、AI赋能,布局内容新供给.pdf
  • 2026-01-23 15:35
  • AIDC(七):固态断路器迎来产业拐点-22页.pdf
  • 2026-01-23 15:35
  • 深度剖析HBM千亿蓝海,AI算力激战下供需新格局-长城证券.pdf
  • 2026-01-23 15:34
  • 国联民生证券:AIDC(七):固态断路器迎来产业拐点.pdf
  • 2026-01-23 15:34
  • 上海市工业互联网协会:2025上海市“AI+制造”发展白皮书.pdf
  • 2026-01-23 15:33
  • 面向行业的”云+AI“应用研究报告.pdf
  • 2026-01-23 15:32
  • 人力资源部AI转型超级指南.pdf
  • 2026-01-23 15:30
  • 储能保险白皮书-AI全栈存储的价值重估.pdf
  • 2026-01-22 19:53
  • 2025年全球AI采用:数字鸿沟正在扩大.pdf
  • 2026-01-22 19:51
  • 2026年低空经济产业生态图谱构建与商业模式创新路径研究报告-先见AI.pdf
  • 2026-01-22 19:46
  • 沃丰科技:2026年AI客户体验趋势报告.pdf
  • 2026-01-22 19:39
  • 2026年冷链物流服务模式升级技术驱动、需求拉动与政策赋能的多维分析报告-先见AI.pdf
  • 2026-01-22 12:05
  • 解数咨询:2026年AI语音合成(TTS)市场调研报告-322期.pdf
  • 2026-01-21 17:43
  • 人力资源不再只是成本中心:生成式AI重塑HR价值边界.pdf
  • 2026-01-21 17:42
  • AI行业2025投资回报:智能体如何解锁下一波AI商业价值.pdf
  • 2026-01-21 17:38
  • 中科算网算泥社区:2026年AI Agent智能体技术发展报告.pdf
  • 2026-01-21 17:30
  • 同济大学2025年AI市场工程造价咨询企业挑战与对策思考报告.pdf
  • 2026-01-21 17:30
  • AI眼镜关键技术与产业生态研究报告(2025年)-中国信通院.pdf
  • 2026-01-21 16:18
  • 即时零售三巨头2025营销策略及TOP+Campaign拆解.pdf
  • 2026-01-21 16:17
  • 华金证券-电力设备与新能源行业深度报告:AIDC供电三重挑战下,SST率军突围.pdf
  • 2026-01-21 15:37
  • 讯飞医疗科技-2506.HK-医疗AI领军企业,大模型技术领先,BC端场景加速落地.pdf
  • 2026-01-21 15:37
  • 2025年中国AI驱动下的SaaS服务创新研究报告-沙利文.pdf
  • 2026-01-21 15:25
  • 上海经信委:2025上海市“AI+制造”场景建设指南(第一期).pdf
  • 2026-01-21 15:22
  • 英特尔:2025年的六大常见AI业务挑战报告.pdf
  • 2026-01-21 14:43
  • 霞光智库:2025年智领新航海:中国企业AI转型与东南亚机遇研究报告.pdf
  • 2026-01-21 14:43
  • 先见AI:2026年高端制造业:技术升级、产业重构与发展路径研究报告.pdf
  • 2026-01-21 14:43
  • Data+AI驱动智能决策,实现供应链协同与采购成本优化.pdf
  • 2026-01-20 16:28
  • 2026年AI Agent智能体技术发展报告-中科算网算泥社区.pdf
  • 2026-01-20 09:51
  • AI大模型车载软件平台白皮书.pdf
  • 2026-01-16 15:05
  • AI的真实幻觉:隐藏在人工智能错误背后的数据真相.pdf
  • 2026-01-15 15:34
  • 2026年度行业投资策略:消费电子及元器件:AI终端开启产业链升级新周期.pdf
  • 2026-01-15 15:33
  • AI行业专题·从FOMOCapEx到ROICapEx:AI模型迭代聚焦工程能力,AI应用落地锚定高ROI场景.pdf
  • 2026-01-15 15:33
  • 首创证券:电子行业深度报告:算力链高景气,消费电子迎AI新周期.pdf
  • 2026-01-15 15:33
  • 储能与锂电行业2026年度策略:能源转型叠加AI驱动,周期反转步入繁荣期.pdf
  • 2026-01-15 15:33
  • 数据中心液冷行业深度研究报告:AIDC投建带动液冷市场扩容,汽零公司快跑入局.pdf
  • 2026-01-15 15:32
  • 众旗HRflag:2026年人力资源部AI转型超级指南.pdf
  • 2026-01-14 16:17
  • 网易传媒:2026人机共智·创变未来:千梦引擎AI内容营销白皮书.pdf
  • 2026-01-14 16:15
  • 艺恩数据:2026年AI营销案例解读报告.pdf
  • 2026-01-14 16:13
  • FairGuard:FairGuard游戏安全2025年度报告.pdf
  • 2026-01-14 16:12
  • 智能体AI采购指南:如何评估面向企业的采购供应链智能体AI.pdf
  • 2026-01-14 16:10
  • 音频数据解决方案—从采集到部署: 端到端AI音频数据解决方案.pdf
  • 2026-01-14 16:09
  • 无光不AI,硅基光电子引爆新一轮算力革命.pdf
  • 2026-01-14 16:06
  • 计算机行业GenAI系列(二十四):Meta收购Manus的意向强化Agent商业价值.pdf
  • 2026-01-14 16:06
  • 家用电器行业专题报告-掘金AI眼镜系列(二):理想眼镜爆点是场景融合?.pdf
  • 2026-01-14 16:06
  • 【北二外】AI旅游行程助手类产品能力评测报告.pdf
  • 2026-01-13 17:25
  • 智启万物:全球AI应用平台市场全景图与趋势洞察报告-亿欧智库.pdf
  • 2026-01-13 17:23
  • 谷歌云:2025年如何利用容器加速AI创新:技术领导者指南.pdf
  • 2026-01-13 16:15
  • 谷歌云:2025年AI的投资回报-聚焦零售和快速消费品行业报告.pdf
  • 2026-01-13 16:14
  • 谷歌云:2025年AI的投资回报-金融服务领域白皮书.pdf
  • 2026-01-13 16:14
  • 爱分析:2026年AI科技厂商系列研究报告(一).pdf
  • 2026-01-13 16:13
  • 安全牛:智能物联网(AIoT)安全技术与应用研究报告(2025版).pdf
  • 2026-01-13 16:13
  • 国内 AI 产业机遇期来临:从智谱华章 MiniMaxIPO看产业机遇.pdf
  • 2026-01-13 16:07
  • 电子行业研究:掘金AI硬件浪潮:聚焦算力基础、国产突破与存储大周期.pdf
  • 2026-01-13 16:06
  • 大模型公司上市推进,看好AI技术发展与商业落地.pdf
  • 2026-01-13 16:06
  • 垂类AI应用专题:Minimax是全球化大模型公司,拥有大语言、视频、音频大模型.pdf
  • 2026-01-13 16:06
  • 2026年全球房地产展望报告:AI时代房地产未来图景前瞻-M&G Investments.pdf
  • 2026-01-12 15:20
  • 2026年人工智能(AI)在学习与发展领域的应用研究报告(英文版).pdf
  • 2026-01-12 15:20
  • CoSchedule:2025年营销领域人工智能(AI)应用状况研究报告(英文版).pdf
  • 2026-01-12 15:19
  • SMARTERX:2025年营销AI现状报告(英文版).pdf
  • 2026-01-12 15:19
  • 英伟达:2026年零售与快消品行业AI应用状况与趋势报告(英文版).pdf
  • 2026-01-12 15:19
  • Figma :2025年人工智能报告:产品设计与开发领域AI应用状况(英文版).pdf
  • 2026-01-12 15:19
  • TaiyangNews:2025年高效光伏组件报告(英文版).pdf
  • 2026-01-12 15:18
  • 英伟达:2026年零售与快消品行业AI应用状况与趋势报告(英文版).pdf
  • 2026-01-12 15:18
  • AI推动PCB产业高端化:材料升级、工艺迭代与产品创新.pdf
  • 2026-01-12 15:14
  • AI硬件产业2026年策略报告:AI硬件方兴未艾,智算芯片、PCB国产替代正当时.pdf
  • 2026-01-12 15:14
  • AIDC电源行业系列研究之2:AI电源两大重要方向,ACDC模块及电源管理芯片!.pdf
  • 2026-01-12 15:14
  • 华金证券:传媒行业深度研究:AI应用场景逐步落地,投资方向日渐丰富.pdf
  • 2026-01-12 15:13
  • PCB设备系列跟踪报告(二):AI引领PCB资本开支浪潮,关注龙头PCB设备&耗材商.pdf
  • 2026-01-12 15:13
  • 通信行业AI泡沫系列研究之通信篇:需求无虞,供给紧张,“泡沫”仍在形成中.pdf
  • 2026-01-12 15:13
  • 华金证券:传媒行业深度研究:AI应用场景逐步落地,投资方向日渐丰富.pdf
  • 2026-01-12 15:12
  • AI驱动的勒索软件威胁与防护技术应用指南(2025版)-安全牛.pdf
  • 2026-01-12 15:10
  • 2026年AI时代平台赋能高质量充分就业白皮书.pdf
  • 2026-01-11 09:39
  • 智源研究院:2026十大AI技术趋势报告.pdf
  • 2026-01-11 09:39
  • 石基信息:2026年酒店业技术研究报告-AI的集成与应用.pdf
  • 2026-01-11 09:37
  • 用友大易:AI面试典型客户案例集(2026版).pdf
  • 2026-01-11 09:36
  • 沙利文:2026年AI赋能千行百业年度榜单报告.pdf
  • 2026-01-11 09:34
  • 2025年第47期(总928期):AI眼镜规模化应用亟需破解四大挑战.pdf
  • 2026-01-11 09:30
  • 华金证券:传媒行业深度研究:AI应用场景逐步落地,投资方向日渐丰富.pdf
  • 2026-01-11 09:26
  • 通信行业AI泡沫系列研究之通信篇:需求无虞,供给紧张,“泡沫”仍在形成中.pdf
  • 2026-01-11 09:26
  • 传媒行业2026年度策略报告:Agent定义入口,AIGC重塑供给——AI时代的流量分发重构与内容产能爆发.pdf
  • 2026-01-11 09:25
  • 电子行业AI泡沫系列研究之电子行业篇:AI硬件的理性泡沫与星辰大海.pdf
  • 2026-01-11 09:25
  • 当律师遇上AI:巴黎律师公会的数字革命.pdf
  • 2026-01-09 17:01
  • 2025年中国餐饮供应链研究报告-厨纪AI炒菜机器人-F3应用方案.pdf
  • 2026-01-09 17:01
  • AI代理为消费者和商家开创一个新时代.pdf
  • 2026-01-09 17:01
  • 国信证券:AI应用系列:3D打印百花齐放,国产厂商持续突破.pdf
  • 2026-01-09 16:59
  • 国盛证券:通信行业深度:无光不AI,硅基光电子引爆新一轮算力革命.pdf
  • 2026-01-09 16:59
  • 金元证券:漫剧:AIGC重塑内容生态,率先跑通AI变现模式.pdf
  • 2026-01-09 16:58
  • AI驱动的勒索软件威胁与防护技术应用指南(2025版)-安全牛.pdf
  • 2026-01-09 16:57
  • AI Infra行业深度:行业概述、市场现状及空间、产业链及相关公司深度梳理.pdf
  • 2026-01-09 16:57
  • AI智能汽车1月投资策略:特斯拉无接管横穿美国,工信部首批L3准入,看好智能化.pdf
  • 2026-01-09 16:57
  • 垂类AI应用专题:领先的独立大模型公司智谱,产品矩阵快速扩张.pdf
  • 2026-01-09 16:56
  • 全球AI系列报告-双极进化与算力重构:2026 AI行业深度展望(海外篇).pdf
  • 2026-01-07 10:29
  • 前沿科技2026年度策略:矿场转型AI数据中心,资产上链方兴未艾.pdf
  • 2026-01-07 10:29
  • 涂鸦智能:2025涂鸦智能AI安全合规白皮书.pdf
  • 2026-01-07 10:25
  • 阿里云:2025年AI云采用框架白皮书(导读版).pdf
  • 2026-01-07 10:21
  • 魔镜洞察:2025年AI玩具市场机会洞察报告.pdf
  • 2026-01-06 16:03
  • 2025年企业级AI客服市场深度研究报告:从争夺软件市场到争夺劳动力市场的范式转移.pdf
  • 2026-01-06 16:02
  • 引擎:2025生成式 AI 安全白皮书.pdf
  • 2026-01-06 16:00
  • 2025企业级智能体式AI实施指南白皮书:战略落地与价值创造框架(架构师之道译).pdf
  • 2026-01-06 15:59
  • wellsenn+AI眼镜拆解及BOM成本报告:Meta+Display+AR眼镜-免费版.pdf
  • 2026-01-06 15:25
  • AI原生基础设施实践指南(2026)-中国移动&中国信通院.pdf
  • 2026-01-06 15:24
  • Akamai:2025年巧用对策防范OWASP十大API安全风险白皮书.pdf
  • 2026-01-06 15:24
  • AI驱动源至付采购软件:终极购买指南.pdf
  • 2026-01-06 15:21
  • AI泡沫系列研究之计算机行业篇:热力学熵增定律视角看本轮“AI泡沫”演变.pdf
  • 2026-01-06 15:13
  • AIDC深度报告:AI浪潮已至,电力设备有望迎来新机遇.pdf
  • 2026-01-06 15:13
  • OpenAI深度:大模型王者,引领AGI之路.pdf
  • 2026-01-06 15:13
  • AI电影:技术重构生产,生态开启新篇.pdf
  • 2026-01-06 15:13
  • AI设备及耗材系列深度报告(一):PCB迎AI升级浪潮,设备与耗材迎黄金机遇.pdf
  • 2026-01-06 12:26
  • 传媒行业2026年年度策略:AI应用规模化落地,传媒多领域受益赋能.pdf
  • 2026-01-06 12:26
  • AI商业化系列深度报告之二:AI电商的星辰大海.pdf
  • 2026-01-06 12:26
  • AI液冷系列报告之三:谷歌液冷快速增长及供应商模式破局,国内供应商将迎来较大机会.pdf
  • 2026-01-06 12:26
  • HatchWorksAI:2026年人工智能全景报告(英文版).pdf
  • 2026-01-06 10:55
  • (英)2026年塑造未来格局的七大AI趋势研究报告-N-iX.pdf
  • 2026-01-06 10:53
  • Xsignal奇异因子:2025年全载录丨Xsignal 全球AI应用行业年度报告.pdf
  • 2026-01-06 08:45
  • 阿里云:2025年AI原生应用开源开发者沙龙·广州站电子书.pdf
  • 2026-01-06 08:44
  • 北京金融科技产业联盟:2025年AI+Agent技术金融应用探索与实践报告.pdf
  • 2026-01-06 08:43
  • 存储设备专题报告:AI驱动存储扩容,设备环节确定性凸显.pdf
  • 2026-01-06 08:42
  • 企业级智能体式AI实施指南白皮书(The+Enterprise+Guide+to+Agentic+AI)英.pdf
  • 2026-01-06 08:27
  • 郎瀚威Will:GenAI APP数据(移动端) 2025年度报告.pdf
  • 2026-01-06 08:27
  • 2025年中国车载语音行业概览:AI+车载语音重塑人车交互新体验(精华版).pdf
  • 2026-01-05 16:01
  • 计算机行业行业深度报告:国产EDA机遇与挑战并存-国产EDA并购潮涌,AI+先进制程驱动“芯片之母”崛起.pdf
  • 2026-01-05 15:53
  • 基础化工—行业深度报告:AI发展加速液冷渗透率,液冷工质打开成长空间.pdf
  • 2026-01-05 15:53
  • 科技行业2026年展望:企业级AI应用落地,开启价值新周期.pdf
  • 2026-01-05 15:53
  • 政产学研联动:2025东南亚市场AI赋能电子商务发展趋势报告.pdf
  • 2026-01-05 15:50
  • 2025年从实体网点到智能机器人报告-AI智能体能否重塑零售银行业?.pdf
  • 2026-01-03 10:50
  • 艾瑞咨询:2025年中国企业级AI应用行业研究报告.pdf
  • 2026-01-03 10:48
  • 在AI时代维护欧洲安全.pdf
  • 2026-01-03 10:44
  • 2025年蚂蚁集团:大模型应用可信框架助力企业构建可信AI体系报告.pdf
  • 2026-01-03 10:34
  • 腾讯研究院:2025人机共育向善而为:AI时代的教育变革探索指南.pdf
  • 2026-01-03 10:32
  • 实体网点到智能机器人:AI智能体能否重塑零售银行业?-BCG.pdf
  • 2025-12-31 15:47
  • 联想集团&IDC:2025个人AI产业定义、产业架构与发展趋势白皮书.pdf
  • 2025-12-31 15:37
  • 2025年AI报告.pdf
  • 2025-12-30 14:51
  • 特赞:2025年AI时代品牌营销3K内容增长指南.pdf
  • 2025-12-30 14:43
  • AI Infra升级浪潮中的材料革命:电子布、铜箔、树脂构筑AI PCB介电性能核心壁垒.pdf
  • 2025-12-30 14:40
  • 传媒年度策略:AI+IP双轮驱动,传媒攻守兼备.pdf
  • 2025-12-30 14:40
  • 传媒行业投资策略:AI与IP相融共生,共驱内容繁荣.pdf
  • 2025-12-30 14:40
  • 传媒行业GenAI系列报告之66:字节AI,流量突围,MaaS及应用抢先.pdf
  • 2025-12-30 14:40
  • 东吴证券:汽车零部件2026年策略报告:全球化纵深×AI破局,汽零开启第二增长极.pdf
  • 2025-12-30 14:39
  • 电子行业2026年年度策略:算力基建驱动AI“从0→1”主线,“端云共振”主导存储和终端创新机遇.pdf
  • 2025-12-30 14:39
  • 电子行业深度报告:AI基建,光板铜电—光铜篇主流算力芯片Scaleupout方案全解析.pdf
  • 2025-12-30 14:39
  • 光通信系列报告一:AI需求与产品高端化,共驱光模块市场增长新周期.pdf
  • 2025-12-30 14:38
  • 华龙证券:计算机行业2026年投资策略报告:AI时代:解码“算-存-用”投资三角新叙事.pdf
  • 2025-12-30 14:37
  • AI-Native技术与实践白皮书.pdf
  • 2025-12-30 14:36
  • 2025年当AI引导购物旅程时-人工智能驱动商业时代下营销人员的机会报告(英文版).pdf
  • 2025-12-29 15:57
  • 科技2026年展望:AI能力跃迁驱动商业化全面提速.pdf
  • 2025-12-29 15:52
  • 计算机行业GenAI系列(二十三):火山多模态和千问高德:硬核能力成生态格局新基石.pdf
  • 2025-12-29 15:52
  • 计算机行业GenAI系列报告之65:AI Infra,应用渗透下的又一卖铲人.pdf
  • 2025-12-29 15:52
  • 计算机行业AI 2025算力系列(十):HBF技术发展下数据基础软件的机会和挑战.pdf
  • 2025-12-29 15:52
  • 小金属系列追踪报告:新能源与AI双轮驱动,关注供需平衡与政策助力.pdf
  • 2025-12-29 15:51
  • 中信证券:AI泡沫质疑声中的韧性市场.pdf
  • 2025-12-29 15:47
  • 大任智库:2025年AI+生态型产业园创新模式白皮书.pdf
  • 2025-12-29 15:45
  • 艺恩数据:2025年「AI+消费品」日常生活的智能重混报告.pdf
  • 2025-12-28 09:07
  • 解数咨询:2025年AI语音合成(TTS)市场调研报告.pdf
  • 2025-12-28 09:06
  • 2025年AI智能体圣经:智能体颠覆性变革终极指南报告(英文版).pdf
  • 2025-12-28 09:05
  • 北京第二外国语学院:2025年AI旅游行程助手类产品能力评测报告.pdf
  • 2025-12-28 09:05
  • 交换机行业深度报告:AI大模型快速发展助力交换机市场扩张.pdf
  • 2025-12-28 09:03
  • 2025连锁行业AI数字化应用人才供需调研报告.pdf
  • 2025-12-27 16:57
  • CAICV智能车载光显示任务组:车载HUD产业发展趋势报告(2025).pdf
  • 2025-12-26 16:17
  • William Blair:2026年的平衡之道:通货膨胀与增长报告(英文版).pdf
  • 2025-12-26 16:16
  • _谷歌:2026年AI智能体趋势报告(英文版).pdf
  • 2025-12-26 16:15
  • Claude:2026年AI智能体发展状况报告(英文版).pdf
  • 2025-12-26 16:15
  • 圣香-AI时代++人心可读.pdf
  • 2025-12-26 16:11
  • 2025医疗人工智能产业报告:价值计量&支付探索,突破医疗AI困境.pdf
  • 2025-12-26 16:07
  • AI终端白皮书.pdf
  • 2025-12-26 16:06
  • 火山引擎:2025年AI 时代企业数据基建升级路线图.pdf
  • 2025-12-26 16:04
  • 新加坡电信:2025年智领新航海:中国企业AI转型与东南亚机遇报告.pdf

在云计算环境中,Kubernetes(K8s)集群与容器化部署已成为行业标准化实践,但同时也对运维体系及可观测性提出了显著挑战:一方面,主流监控工具(如 Node Exporter、cAdvisor 和 Datadog)虽能提供系统级与容器级的基础指标,却难以覆盖操作系统深层次问题(如调度延迟、内存回收延迟、TCP 重传率等),而引入增强型指标又面临操作系统知识门槛高、分析复杂度大的难题;另一方面,传统监控体系在告警触发或问题发生时往往缺乏完整的上下文数据,导致根因定位困难,需依赖问题多次复现才能排查。此外,指标与问题之间的关联复杂——单一指标变化可能由多个问题引发,同一问题也可能影响多个指标,而集群、节点、Pod 的分层架构虽为资源管理提供了逻辑划分,但业务问题与节点的承载关系常因维度割裂未能有效关联,进一步加剧了运维复杂性。

为应对以上挑战,阿里云操作系统控制台(以下简称“操作系统控制台”)依托于大量操作系统问题案例沉淀及知识总结,结合 AIOps 等相关技术,提出了从智能异常检测到智能根因分析,再到智能修复建议的全链路一站式运维解决方案。从中提炼出如系统 OOM、系统内存黑洞、调度延时、负载(load)高、IO Burst、网络延时、丢包等典型的操作系统问题场景,沉淀出对应的端到端的解决方案。如图 1 所示,通过全链路闭环流程高效管理与解决上述业务挑战。

针对问题场景,提取相关指标,结合领域专家经验设定的阈值规则以及智能化异常检测算法,构建多维度的异常发现机制,从而实现对潜在问题的精准识别与实时检测。

对于实时检测到的异常事件,为了分析异常响应及根因,需进一步采取以下措施:

  • 现场信息采集与根因诊断:通过自动化工具对异常发生时的运行环境进行全面的信息采集,从而进一步定位问题的根本原因,并生成针对性的解决方案或修复建议。
  • 告警通知与分发:将异常事件及其诊断结果通过多渠道(如邮件、短信、即时通讯工具等)推送至相关运维团队或责任人,确保问题能够被及时响应与处理。
  • 健康评分动态更新:基于异常事件的影响范围与严重程度,实时更新集群、节点及 Pod 的健康评分,为资源调度、容量规划及故障预测提供量化依据,同时支持全局视角下的系统状态评估与决策优化。

图片
(图 1: 操作系统控制台系统概述闭环链路)

下面我们具体介绍上述链路中较为关键的异常检测、信息采集与根因诊断和集群、节点、Pod 健康度计算这三个功能。

异常检测

多种多样的操作系统相关的监控指标,在不同场景中,这些指标呈现的规律也不尽相同,如何能有效,准确地识别出监控指标中的异常也是一种挑战。

为了尽可能地适应不同场景的指标异常发现,操作系统控制台采用一种通用的监控指标处理算法和多模型集成的通用异常检测算法,该算法如图 2 所示:

  • 多种不同类型的监控指标输入后先进行分类,如整体平稳的、呈一定变化趋势的、和无规则波动
  • 分类的指标由无监督的多模型结合的异常检测算法进行检测,结合专家阈值和多种模型联合判决有效提高了检测准确率,同时根据系统指标的特征进行优化,在处理监控指标之前进行预处理,进一步提升效率。

图片
(图 2: 通用异常检测模块)

下面通过一些典型的指标类型,来举例简单说明异常检测的预期效果:

  • 平稳性高水位指标:对于 CPU 利用率,内存利用率等指标可能持续处于一个非常高的水位,虽然对系统健康有一定影响,但是是预期内的,检测水位阈值和其平稳性,最终会识别为一个潜在的异常。

图片
(图 3: 平稳性高水位指标)

  • 毛刺、波动型指标:对于毛刺,波动型指标,我们结合专家阈值和抖动检测算法,根据指标的波动大小,以及其离我们设置的最小,对大阈值的具体,综合评估出当前指标的异常程度。

图片
(图 4: 波动型指标)

信息采集与根因诊断

为了避免现场丢失导致后续问题定位困难。在捕获异常的同时,操作系统控制台会根据对应的策略结合其提供的相应的诊断功能,在异常现场对识别出的异常进行信息采集和根因诊断。如下图所示:当内存高异常被捕获后,操作系统控制台通过对异常现场进行诊断,最终得出当前内存高异常是由 python 应用内存占用导致。
图片

图片

集群、节点、Pod 健康综合评价

为了方便用户能快速识别集群或节点中的风险, 操作系统控制台在系统概述页面提供了整个集群的健康概论,在这背后,我们采用了一套多维度的综合评估算法,希望将 pod,节点的风险层层递进,反映到集群的健康风险中,如图 5 所示,以节点健康度为例:

节点健康由节点的异常项(图中为当前实例健康分)和节点中 pod(如有)的健康(图中为下一层级实例健康分)综合影响,其中:

  • 当前实例健康分通过为各检查项设立相应的权重通过综合评估方法计算得出。
  • 下一层级实例健康分通过分级木桶原理的方式,根据处于不同健康等级的 pod 数量计算得出。
    图片
    (图 5: 实例健康综合评估)

如何通过阿里云操作系统控制台一站式定位系统问题案例解析

案例一:通过操作系统控制台定位IO流量高问题

汽车行业某客户从监控中发现集群中总是偶发出现节点 IO 流量非预期打高的现象,由于出现的机率不高,且出现的节点随机,所以没有好的办法定位 IO 流量打高的具体原因。
图片

针对上述场景,客户通过使用系统概览提供的异常识别诊断能力来监控和定位该问题。

  • 客户开通操作系统控制台后,首先通过集群的历史健康分趋势观察到某一时间集群分数(负载分)有下降。
    图片
  • 通过节点健康列表可以进一步看到低分的实例:
    图片
  • 跳转至节点健康页面后,通过异常事件分析面板可以看到当天的某一时刻节点发生了 IO 流量突增的异常,并且已经生成了对应的诊断报告。
    图片
  • 通过查看诊断报告,如下图所示,可以发现产生 IO 流量的主要是 kworker 内核线程和客户的日志转储进程。kworker 线程 IO 高通常来说意味着 kworker 正在进行刷脏(将文件脏页刷到磁盘中)操作。经过和正常机器的对比发现,问题机器的 vm.dirty_background_ratio 被设置的非常低,设置成 5%;这意味着当脏页数量达到系统内存的 5% 后就会触发内核线程进行脏页回写,导致 IO 打高。
  • 客户通过将 vm.dirty_background_ratio 和 dirty_ratio 参数调大后,IO 流量规律恢复正常。

图片

案例二:通过操作系统控制台定位 load 高问题

汽车行业某客户业务从节点切换至容器部署后发现节点 load 总是定期飙高,需要进一步定位根因。

针对该问题,客户通过操作系统控制台纳管集群后,客户从系统概述页面观察到对应集群/节点健康分下降,异常事件中出现 load 高异常。
图片

通过进一步查看诊断报告,可以发现在负载增加是由于大量 R 状态进程产生造成,客户通过确认后可以确定在 load 增高的时间点业务流量增加,业务会通过创建大量线程进行处理;结合同一时间Pod中产生连续的 Pod 限流异常,可以确定是由于容器的 cpu limit 设置过小,导致线程无法短时间内完成相关逻辑,从而进一步导致线程以R状态堆积在运行队列中,导致 load 飙高。
图片
图片
问题定位后,客户通过调整业务容器 cpu limit 后,load 恢复正常。

客户收益

通过操作系统控制台产品来快速定位集群系统问题,客户可以获得以下收益:

  • 降低操作系统运维门槛:通过操作系统控制台为客户设立的异常检查项、异常识别规则以及配套的诊断工具。客户无需具有一定的操作系统知识储备即可对操作系统问题一站式解决。
  • 简化运维流程和相关人力投入:通过操作系统控制台系统概述,客户可以快速识别出集群中的告警和风险,并找到问题的根源和解决方案,缩短故障的发现和排除时间。

总而言之,操作系统控制台给云计算和容器化运维带来新的可能,能够提高系统性能与运维效率,同时为企业减少了系统相关问题带来的困扰。
我们通过阿里云操作系统控制台系列文章,解析系统运维遇到的痛点问题。下一期文章中,我们将分享异常检测算法相关内容,敬请期待。

使用操作系统控制台的过程中,有任何疑问和建议,您可以搜索群号:94405014449 加入钉钉群反馈,欢迎大家扫码加入交流。

阿里云操作系统控制台 PC 端链接:https://alinux.console.aliyun.com/

EVA存储故障:
EVA4400/6400/8400系列存储已进入退役期,故障频发。该系列搭载的454414-001型号1T FATA磁盘,为希捷7200.11 FC改版,存在设计缺陷,运行2-3年易批量损坏,修复难度极高。
EVA存储所用FC磁盘本质为SAS盘转接实现,加之虚拟化存储持续数据迁移、业务负载高,磁盘易故障掉线,最终突破冗余保护导致存储崩溃。
在EVA Command View的fieldservice模式下强制激活,易引发脏数据、数据块结构错乱,且仅能屏蔽坏道修复,效果有限。此外,主机与扩展柜断连、VDisk误删除等问题也需专业解决方案。P6000控制器算法与EVA一致,可通用处理。

EVA存储结构原理:
EVA为中高端虚拟化存储,采用专属VRAID架构,区别于传统RAID。设备会对物理磁盘(PV)0扇区签名并归入磁盘组,再将PV划分为2-16M的PP存储单元;磁盘组内5-15块PV组成RSS冗余组,以PP为单位实现RAID算法。
RSS间为JBOD模式,VRAID5单条带固定5块PV,VRAID6固定6块PV,以此均衡IO。PV离线时,控制器会在同RSS内调用可用PP完成条带重建,RSS故障盘过多时会自动合并至健康RSS共享冗余。其Protection Level冗余空间预留于PV尾部,非热备盘模式。
北亚企安数据恢复—EVA存储数据恢复

EVA存储常见故障:
1、RSS多盘掉线,超出冗余保护阈值。
2、新盘数据迁移时出现物理故障,进程卡死。
3、VDisk误删除或存储初始化。
4、主机与存储链路中断,无法识别设备。

EVA存储数据恢复原理:
EVA数据恢复核心为解析VDisk对应的PP Map表,依托该表可完成全场景故障恢复;若PP Map丢失,可通过条带冗余关系与优化算法重组PP条带,结合文件系统特征恢复数据。

EVA存储数据恢复流程:
1、磁盘镜像:断开EVA主机连线,通过FC HBA或光纤柜接入物理盘,使用dd、Winhex等工具只读镜像全盘。
使用EVA扩展柜进行镜像的连接图:
北亚企安数据恢复—EVA存储数据恢复
2、VDisk重组:通过北亚企安自研的FromByte Recovery for EVA工具重组VDisk,生成镜像或写入目标盘。
3、数据导出:常规解析镜像文件,完成数据迁移与文件提取。

趁着开工第一天摸鱼,分享一下最近做的一个 macOS 菜单栏小工具。

LuxShot 是一个纯粹的截图 OCR 工具,核心初衷是解决截图数据隐私的问题。

核心特性:

  • 100% 离线: 基于原生 Vision 框架,不联网,不调用任何第三方 API 。非常适合处理代码、密钥或内部文档等敏感截图。
  • 纯原生开发: 采用 SwiftUI 编写,内存占用极低,不影响系统流畅度。
  • 菜单栏常驻: 界面采用暖色调设计,力求在系统菜单栏里待得更自然、不突兀。

关于语言支持:

  • 识别功能: 完美支持 中文、英文及多种拉丁语系(调用系统底层能力)。
  • 软件界面: 目前 UI 和 GitHub 文档只做了英文。主要是因为项目首发是面向海外社区,所以优先做了国际化适配。界面非常简单,基本不影响使用,后续会考虑增加多语言支持,也欢迎 PR 。

GitHub 地址:
https://github.com/lukebuild/LuxShot

UI 预览:
Image

写在最后:
市面上的 OCR 工具很多,但个人更倾向于数据绝对不出本地的轻量方案。项目刚起步,欢迎大家试用或赏个 Star ⭐️。

祝大家开工大吉,摸鱼愉快!

有空可以去支付宝搜索“百事新春福利小程序”每天都可以到小程序抽 6 次
抽到 KFC 券(肯德基开门接福炸鸡桶满 59 特价 0 元券)后可在卡券点去使用,跳转肯德基点餐即可

这波百事 nb 又可以吃炸鸡了 😋

image

故事是这样的。

Tal和Aman,两个做AI产品的产品经理,花了100多小时,搞出了一套交互式教程。

他们说了一句让我破防的话:

“用Cursor做日常非技术工作的3个月,比用ChatGPT 3年学到的AI产品原理还多。”

我当时就愣了。

image.png

故事的起点

你肯定遇到过这种场景。

产品会上,有人提到"subagents"、“context engineering”、“agent memory”。

你点头。

你知道这些词是啥意思……但你心里祈祷别让你用这些词造句。

你看过视频讲解,收藏过信息图,甚至vibe coded几个应用,还上线了AI功能。

但为什么你还是觉得自己离真正理解这些东西差了十万八千里?

Tal和Aman说,问题不在你。

问题在"AI炒作工业综合体"。

大部分AI内容是设计来制造FOMO的,不是来教你的:“这个模型太疯狂了!”、隐藏混乱现实的demo、越看越晕的复杂图表。

image.jpg

他们发现了什么

核心发现就一句话:

从消费级UI(ChatGPT、Granola、Lovable)转向更强大的AI编码代理(Cursor和Claude Code),是内化重要AI概念最具变革性的习惯。

为什么?

因为编码代理会透明地展示它们的工作。

你能读到AI的推理过程。

你能检查工具调用。

你能看着上下文窗口被填满。

你会撞上和工程师构建AI应用时一样的墙,自然地直觉出自己的解决方案,开始预判趋势和行业公告。

这就是**“AI产品感”**——正确预判什么对用户真正有影响力、用AI技术上也可行的能力。

AI产品感是什么?

是遇到AI"忘记"事实的支持工单时,你能认出这是context rot(上下文腐烂)。

是看到用户在工作流中挣扎时,你能自信地说agent memory能解决这个问题——而且知道怎么重构体验。

image.png

他们现在怎么用Cursor

Tal和Aman现在每天都用Cursor和Claude Code做日常工作:

战略规划。

优先级排序。

决策制定。

数据分析。

生产力提升。

这些工具成了他们的思考伙伴和个人操作系统

核心打法拆解

他们设计的教程分三个阶段:

阶段1: 上手Cursor(步骤1-4)

用一个迪士尼主题的有趣练习,让你熟悉Cursor。

关键动作:

  • 下载Cursor桌面应用(2分钟)
  • 创建新项目
  • 在Cursor内部继续阅读教程(灵感来自《神奇校车》)
  • 切换到Agent模式,选择Opus 4.5模型

image.jpg

image.png

阶段2: 实操AI模型选择和工具调用(步骤5-6)

这是关键。

你会亲手选择AI模型。

你会看到工具是怎么被调用的。

你会开始理解为什么某些模型适合某些任务。

image.jpg

阶段3: 构建轻量级个人操作系统(步骤7-10)

这是最硬核的部分。

你会构建一个自己每天都能用的AI产品。

然后用RAG、记忆和上下文工程来改进它。

你会体验到:

  • 什么是上下文窗口限制
  • 为什么需要RAG(检索增强生成)
  • agent memory怎么工作
  • 如何做上下文工程

image.jpg

image.png

他们还送了个大礼包

为了让你能完整体验这个教程,他们和Cursor团队合作,给Lenny’s Newsletter订阅者送50美元免费额度

够用2.5个月。

说实话,这个操作挺聪明。

降低了用户尝试门槛。

image.png

image.jpg

The Playbook: 你可以直接抄的作业

如果你也想快速建立AI产品感,照着这个清单做:

第1步: 立即下载Cursor

  • 去cursor.com/download
  • 下载桌面应用(不是web版)
  • 2分钟搞定

第2步: 创建你的第一个项目

  • 打开Cursor
  • 点击"Open project"
  • 新建文件夹"Build AI Product Sense"

第3步: 切换到Agent模式

  • 确保你在"Agent"模式(不是Chat模式)
  • 关闭"auto",手动选择Opus 4.5模型
  • 这样Cursor才能执行操作

第4步: 在Cursor里继续学习

  • 把教程内容粘贴进Cursor
  • 让AI一步步带你走
  • 像《神奇校车》一样沉浸式学习

第5步: 用Cursor做日常工作

  • 不要只用来写代码
  • 用它做战略分析
  • 用它做数据处理
  • 用它做决策辅助

第6步: 观察AI的工作过程

  • 读AI的推理
  • 看工具调用
  • 盯着上下文窗口
  • 撞墙,然后自己想解决方案

第7步: 构建你自己的AI产品

  • 从一个简单的个人OS开始
  • 加入RAG
  • 加入记忆功能
  • 做上下文工程优化

image.png

image.png

为什么这个方法有效

关键在于透明度

ChatGPT给你答案。

Cursor让你看到AI是怎么得出答案的。

这就是差别。

你不是在学AI能做什么。

你是在学AI是怎么做的。

你不是在追赶技术。

你是在预判技术。

image.png

Tal说了一句话我觉得特别对:

“AI产品感就是遇到支持工单说AI’忘记’了事实,你能立刻认出这是context rot。”

这就是产品感。

不是知道术语。

是看到问题,立刻知道是什么原因,该怎么解决。

image.png

这个世界,正在被那些真正理解AI工作原理的人重新定义。

不是那些会用ChatGPT的人。

是那些能预判AI能力边界、知道怎么设计AI产品体验的人。

Tal和Aman用100小时,给你铺了一条路。

你要不要走?

image.jpg


image.png

前言:HTML 是什么?

HTML(超文本标记语言)是网页的骨架。它诞生之初只为解决两个核心问题:

  1. 结构化内容:用“标签”区分标题、段落、图片等,让文档排版清晰。
  2. 超链接:实现点击跳转,把孤立的文档连成“万维网”。

核心 1:HTML 元素 —— 网页的“积木”

网页由一个个“元素”拼装而成。

1. 元素的标准结构

就像汉堡包,一个标准元素包含三部分:

  • <p> 开始标签:告诉浏览器“段落开始”。
  • 这是一段文字 内容:用户实际看到的文字。
  • </p> 结束标签:多了一个 /,表示“段落结束”。

2. 特殊情况:空元素(自闭合)

有些元素不需要包裹内容,只执行动作或嵌入资源,比如换行 <br> 或图片 <img>。它们没有结束标签

<img src="https://xxx.png" alt="图片描述">

3. 嵌套规则:像穿衣服一样

元素可以互相嵌套(比如段落里加粗文字),但必须先开后关,不能交叉。

  • 正确<p>我的猫特别<strong>凶</strong></p>(先脱外套 </strong>,再脱内衣 </p>
  • 错误<p>我的猫特别<strong>凶</p></strong>(交叉嵌套会导致页面错乱)

核心 2:HTML 属性 —— 给元素加“配置”

属性写在开始标签里,用于提供额外信息(如图片地址、链接网址)。格式为 属性名="属性值"

<img src="cat.jpg" alt="猫咪照片" width="300">
  • src:图片地址(必填)。
  • alt:图片加载失败时的替代文字(对视障用户和 SEO 很重要)。

两个避坑指南:

  1. 属性值必须加引号:双引号 "" 或单引号 '' 均可,千万别省略。
  2. 布尔属性:有些属性写上就生效,不需要赋值。比如禁用输入框: <input type="text" disabled> <!-- 禁用状态 -->

核心 3:HTML 文档结构 —— 网页的标准骨架

把元素组合成一个 .html 文件,需要一个标准骨架:

<!DOCTYPE html>
<html lang="zh-CN">
  <head>
    <meta charset="utf-8">
    <title>网页标题(显示在浏览器标签页)</title>
  </head>
  <body>
    <h1>欢迎来到我的页面</h1>
    <p>用户能看到的内容都在 body 里</p>
  </body>
</html>

骨架拆解:

  • <!DOCTYPE html>:声明这是 HTML5 文档,让浏览器按最新标准渲染。
  • <html lang="zh-CN">:网页的根元素,lang 告诉浏览器和搜索引擎这是中文网页。
  • <head>后台配置。用户看不见,包含字符编码(utf-8 防止中文乱码)、网页标题等。
  • <body>前台内容。用户看到的所有文字、图片、按钮都在这里。
💡 小贴士:代码里的空格 在 HTML 代码里敲再多空格和换行,浏览器都会压缩成一个空格。我们换行缩进只是为了让代码更易读。

核心 4:注释与特殊字符

1. 注释(写给代码阅读者看)

浏览器会忽略注释内容,常用于备注或临时隐藏代码。

2. 特殊字符(实体引用)

如果你想在网页上直接显示 <>,浏览器会误以为是标签。必须用“字符实体”代替:

想显示的符号代码写法说明
<<小于号 (less than)
\>>大于号 (greater than)
&&和号 (ampersand)

示例:&lt;p&gt; 是段落标签 会在网页上显示为 <p> 是段落标签

用一张图总结HTML核心结构

🚀 实战:写你的第一个网页

只需 3 步,见证奇迹:

  1. 在电脑上新建一个文本文件,重命名为 index.html(注意后缀必须是 .html)。
  2. 将以下代码复制进去并保存:
<!DOCTYPE html>
   <html lang="zh-CN">
     <head>
       <meta charset="utf-8">
       <title>我的第一个网页</title>
     </head>
     <body>
       <h1>我用 HTML 写的第一个页面</h1>
       <p>今天学会了 HTML 的基本语法,包括:</p>
       <ul>
         <li>元素的结构(开始、内容、结束)</li>
         <li>属性的用法</li>
       </ul>
       <img src="https://image-static.segmentfault.com/722/785/722785927-699d1955a9615" />
     </body>
   </html>
  1. 双击 index.html,它会在浏览器中打开。恭喜,你已经是一名网页开发者了!

全文链接:https://tecdat.cn/?p=44996
原文出处:拓端数据部落公众号

 

封面

在数字化商业时代,SaaS(软件即服务)企业的核心竞争力越来越依赖于对客户价值的精准判断。客户生命周期价值(CLV)作为衡量客户长期贡献的关键指标,其预测精度直接影响企业的获客成本控制、客户分层运营及资源投放策略。传统的CLV预测方法要么依赖简单的经验公式,忽略客户行为的非线性特征和时间动态;要么采用黑盒机器学习模型,虽能捕捉复杂模式却丧失了解释性,难以满足企业管理层的决策需求。
团队在为某SaaS企业提供数据咨询服务的过程中,发现量化生态学领域常用的广义加性模型(GAMs)在处理非线性、分层结构数据方面的优势,可有效适配CLV预测的业务场景。本研究将GAMs引入SaaS行业的CLV预测,结合Tweedie分布解决收入数据的异方差性问题,不仅实现了预测精度的提升,还能提取可解释的业务洞察,如客户升级阈值、功能采纳投资回报率等。
本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码与数据已分享至交流社群。阅读原文进群,可与800+行业人士交流成长。
本研究首先梳理SaaS业务的CLV预测痛点,随后通过模拟贴合真实业务的客户数据,构建基于GAMs的CLV预测模型,对比高斯分布与Tweedie分布的适配效果,最终提取可落地的业务决策建议。研究过程中所用到的方法和代码均经过实际业务验证,同时我们提供24小时响应的"代码运行异常"应急修复服务,相比企业自行调试效率提升40%,能快速解决模型落地过程中的技术问题。

一、SaaS业务下CLV预测的核心挑战

不同于传统软件的一次性授权销售模式,SaaS企业以订阅制为核心,客户按月或按年支付费用获取服务,这使得客户生命周期价值的计算和预测呈现出独特的业务特征:

  1. 获客成本与回本周期的平衡:SaaS企业获客成本通常远高于单月客户收入,例如单月付费99元的客户,若获客成本为500元,需至少6个月才能回本。精准的CLV预测能帮助企业识别高价值客户群体,确保获客投入的合理性。
  2. 客户行为的非线性特征:客户功能采纳率存在自然饱和效应(多数产品的功能采纳率难以突破90%),不同付费层级(基础版、专业版、企业版)客户的价值响应曲线差异显著,付费获客渠道的效果会随时间衰减,这些非线性关系是传统线性模型无法捕捉的。
  3. 数据的异方差性:高价值的企业版客户收入波动远大于基础版客户,传统高斯分布假设的等方差性与实际业务数据不符,会导致预测区间失真。

二、数据模拟与环境搭建

2.1 环境配置

首先加载建模所需的R语言包,涵盖GAMs拟合、数据处理、可视化及结果解释等功能,国内可直接通过CRAN镜像源安装,无访问限制,替代方案可选择国内的R语言镜像站或Anaconda仓库。

# 加载所需库library(mgcv) # 拟合带平滑项的广义加性模型library(tidyverse) # 数据处理与可视化library(marginaleffects) # 从GAMs中提取可解释的预测结果library(gratia) # GAMs的可视化与后验抽样library(scales) # 货币和百分比格式的坐标轴设置# 设置统一的绘图主题theme_set(theme_bw(base_size = 15, base_family = 'serif') + theme(panel.grid = element_blank()))

2.2 模拟真实SaaS客户数据

为验证模型效果,我们模拟100个客户5个月的行为数据,包含付费层级、获客渠道、功能采纳率等关键特征,目标变量为6个月CLV。模拟过程中融入SaaS业务的核心特征:功能采纳率饱和、付费渠道效果衰减、不同层级客户价值响应差异。

2.3 数据可视化探索

通过可视化探索数据特征,直观呈现功能采纳率与CLV的非线性关系、不同获客渠道的CLV时间趋势。


从上图可看出,功能采纳率与CLV的关系并非简单线性:企业版客户呈现明显的饱和效应,基础版客户接近线性增长,付费获客渠道的初期CLV更高,但高采纳率下优势逐渐消失。


时间趋势图显示:付费获客渠道的CLV在各层级均高于其他渠道,但企业版客户的付费渠道溢价(约2000元)远高于基础版;合作伙伴渠道在专业版客户中后期表现优于自然流量渠道,这为企业的获客渠道策略制定提供了直观依据。

相关文章

Python、R语言南方电网、电力负荷数据多模型构建:分位数回归、GAM样条曲线、指数平滑和SARIMA与预测实践

原文链接:https://tecdat.cn/?p=41810

三、广义加性模型(GAMs)构建与优化

3.1 基础GAMs模型(高斯分布+对数链接)

首先构建基于高斯分布的GAMs模型,采用对数链接函数确保预测值非负,模型包含付费层级的主效应、功能采纳率的全局平滑项、分层级的功能采纳率平滑项、分渠道的时间平滑项及全局时间平滑项。

模型结果显示,全局时间平滑项、自然流量和合作伙伴渠道的时间平滑项具有统计显著性,但高斯分布假设无法解决收入数据的异方差性问题——高价值客户的方差远大于低价值客户,这会导致预测区间的精度失真。

3.2 引入Tweedie分布优化模型

Tweedie分布是一类包含泊松-伽马复合分布的广义分布,其方差与均值满足Var(Y) = φ·μ^p(φ为离散参数,μ为均值,p为幂参数),能适配收入数据的异方差性:当1<p<2时,可处理含零值的正连续数据,且方差随均值增大而增长,贴合SaaS收入数据特征。
本研究中拟合的Tweedie模型幂参数为1.935,介于1和2之间,完美适配CLV数据特征。

模型对比结果显示,Tweedie模型的AIC值(7248.197)远低于高斯模型(8235.860),拟合效果显著更优。

3.3 模型结果可视化解读

3.3.1 功能采纳率的分层效应


上图结果显示:企业版客户在功能采纳率75%左右出现明显饱和,CLV增长停滞;专业版客户呈平稳增长,高采纳率下略有饱和;基础版客户在采纳率50%后CLV反而下降,推测是功能复杂度超出基础版客户的使用能力,导致体验下降。

3.3.2 获客渠道的时间效应


渠道时间趋势显示:付费推广渠道的CLV随时间下降,说明付费获客的客户粘性较低,促销激励消失后价值回落;自然流量和合作伙伴渠道的CLV持续增长,客户随使用时间增加逐渐挖掘产品价值,长期价值更高。

3.3.3 预测区间对比

# 可视化预测区间宽度对比pred_result %>% tidyr::pivot_longer(......) %>% # 省略数据重塑代码 dplyr::mutate(......) %>% # 省略变量重命名代码 ggplot(aes(x = clv_6month, y = interval_width)) + geom_point(aes(color = model), alpha = 0.5, size = 1.5) + geom_smooth(aes(color = model, fill = model), method = "loess", se = TRUE, alpha = 0.2) + scale_color_manual(values = c("darkblue", "darkred")) + scale_fill_manual(values = c("darkblue", "darkred")) + scale_x_continuous(labels = scales::dollar) + scale_y_continuous(labels = scales::dollar) + facet_wrap(~ model, scales = "free_y") + labs(x = "实际客户生命周期价值(元)", y = "95%预测区间宽度(元)") + theme(legend.position = "none")


从预测区间对比图可清晰看到:高斯模型的预测区间宽度恒定,无法反映高价值客户的高波动性;而Tweedie模型的预测区间宽度随CLV增大而增加,贴合业务实际,为企业的风险评估提供了更准确的依据。

四、业务洞察提取与落地应用

4.1 功能采纳率的投资回报率(ROI)分析

通过计算边际效应,量化功能采纳率提升对CLV的影响,为产品功能优化策略提供数据支撑。


边际效应分析结果显示:企业版客户的功能采纳率提升ROI最高,每提升10%的采纳率,CLV平均增加约200元;基础版客户的ROI最低,这提示企业应优先针对高价值层级客户优化功能体验。

4.2 客户升级阈值识别

确定基础版客户升级为专业版的最优采纳率阈值,为客户运营策略提供决策依据。基础版与专业版的月费差为200元,6个月的升级成本为1200元,需找到采纳率临界点使升级后的CLV增量覆盖成本。


分析结果显示:基础版客户的功能采纳率达到55%时,升级为专业版的边际收益超过升级成本,这一阈值可作为企业客户升级运营的核心指标——当基础版客户采纳率突破55%时,可推送升级方案,实现客户价值与企业收益的双赢。

4.3 场景规划:基础版客户价值提升策略

模拟优化基础版客户功能体验后的CLV提升效果,评估产品优化的投资回报。


场景模拟结果显示:优化基础版客户的功能体验后,平均每位客户的CLV可提升约1781元,投资回报率达3.52倍,说明针对基础版客户的功能简化、体验优化是高回报的产品策略。

五、研究总结与流程梳理

5.1 核心结论

  1. 广义加性模型(GAMs)可有效捕捉SaaS客户CLV的非线性特征,结合Tweedie分布能解决收入数据的异方差性问题,预测精度和区间可靠性显著优于传统高斯模型。
  2. 不同付费层级客户的功能采纳率-CLV关系差异显著:企业版客户存在饱和效应,基础版客户存在最优采纳率阈值,这为分层运营提供了依据。
  3. 获客渠道的长期价值差异明显:自然流量和合作伙伴渠道的客户价值随时间增长,付费推广渠道客户价值衰减,企业应优化获客渠道组合。

5.2 研究流程梳理

本研究将生态学领域的统计方法创新性应用于SaaS业务的CLV预测,实现了"精准预测+可解释洞察"的双重目标。

封面

Andrej Karpathy⼜造词了。

上⼀次是“vibe coding”——不看代码 ,⽤⾃然语⾔告诉 AI 你想要什么 ,它替你写。这个词从⼀条推⽂变成了全⾏业通⽤语。这⼀次他拎出来的词是 Claw。

他说了什么

Karpathy 发了条长推:买了台新 Mac mini ,准备周末折腾 OpenClaw——最近爆火的开源 AI Agent 项⽬,GitHub 上 20 万颗星。

OpenClaw 是什么?简单说 ,就是⼀个“住在你电脑⾥的 AI 助⼿ ”。 它不只是你问它答——它能⾃⼰读邮件、管⽇历、操作⽂件、跑脚本 ,你出门了它还在⼲活。你通过微信、Telegram、WhatsApp 这些聊  天软件跟它说话 ,它就去执⾏。

但 Karpathy 话锋⼀转 ,说⾃⼰⼼⾥有点打⿎:这东西有 40 万⾏代码 ,很⼤⼀部分是 AI“vibe coding”出来的——⼈都没细看过。 ⽽且正在被⿊客⼤规模攻击 ,实例被暴露、恶意代码混进插件市场的报告已经⼀堆了。他的原话:“彻底的蛮荒西部 ,安全噩梦。 ”

不只是 Karpathy⼀个⼈这么觉得。 NanoClaw 的作者 Gavriel Cohen 接受 The New Stack 采访时讲了个更具体的故事:装完 OpenClaw 那天晚上他没睡着。 Cohen 做开发的⼈,习惯审查每⼀个依赖 ,结果发现 OpenClaw 把他⾃⼰⼏个⽉前写的⼀个 GitHub⼩项⽬加进了依赖——只有⼏百颗星 ,好久没⼈维护。他说:“稍微做过代码审查的⼈看到这个包 ,都不应该往⾥加。 ”更离谱的是 ,他只让 Agent 监控⼏个 WhatsApp 群 ,结果它把所有 WhatsApp 消息都存进了本地数据库。

Cohen 在 NanoClaw 的 README⾥把 OpenClaw 的家底扒了个⼲净:52 个模块、8 个配置管理⽂件、45+依赖、15 个渠道的抽象层。 安全靠的是应⽤层的⽩名单和配对码 ,不是操作系统级的隔离。所有东 西挤在⼀个 Node 进程⾥ ,共享内存。 Cohen 说得很直⽩:“OpenClaw 让全世界看到了⼀个激动⼈⼼的东西 ,但 50 万⾏没⼈审查过的代码连着你的⼀切——这地基 ,你敢往上⾯盖楼吗?”

话说回来 ,Karpathy 说:但我喜欢这个概念。

他给了⼀个判断:Claw 是 AI 技术栈上的新⼀层。打个⽐⽅——ChatGPT 这类⼤模型是“顾问”,你问⼀ 句它答⼀句 ,不问就不动。AI Agent 是“执⾏者”,你给它⼀个任务 ,它⾃⼰拆解步骤、调⽤⼯具、把事 办了——但办完就下线了。 Claw 是“常驻员⼯ ”——不下线 ,有记忆 ,有⽇程 ,能⾃⼰安排事情、定时执⾏ 、 主动汇报。你睡了它还在⼲活。

那 Claw 和 Agent 到底什么关系?不是并列的两个东西——Claw 把 Agent 包在⾥⾯。Agent 是那个能⼲活的⼈ ,Claw 是给这个⼈配的办公室、 ⼿机、 ⼯作⽇志和排班表。往具体了说 ,Claw 在 Agent 之上加了⼏样东西:⼀个⼀直活着的进程(不是⼲完就退出)、⼀套调度机制(能⾃⼰定时触发任务)、消息路由 (统⼀对接各种聊天软件)、持久记忆(跨会话记住上下⽂)、 以及⼀个绑在具体硬件上的本地运⾏时(能碰你的⽂件和局域⽹设备)。 Karpathy 的原话是“a new layeron top of LLM agents”——不是替代 Agent ,是让 Agent 能“住下来“的那层基础设施。

⼀个⼩项⽬,为什么让⼤神兴奋

整条推⽂⾥信息密度最⾼的部分 ,是他聊⼀个叫 NanoClaw 的⼩项⽬ 。

NanoClaw 是 OpenClaw 的轻量替代品——体量不到 OpenClaw 的 1%。 Cohen 在 README⾸页第⼀句话就是:“同样的核⼼功能 ,8 分钟就能看懂的代码库。 ”核⼼代码只有⼏百⾏ ,整个项⽬⼤约 35000 个 Token ,只占 Claude Code 上下⽂窗⼝的 17%。每个 agent 跑在真正的 Linux 容器⾥ ,做到了⽂件系统级 的隔离。 Cohen 打了个⽐⽅: 哪怕发⽣Prompt 注⼊攻击 ,“爆炸半径也被死死限制在那个容器和对应的通信渠道⾥ ”——⽽OpenClaw 呢?你家庭群的 agent 和连着⼯作代码仓库的 agent 跑在同⼀个进程 ,共  享内存 ,中间没有任何操作系统级的墙。

35000token 这个数字为什么重要?因为 AI agent 可以⼀⼝⽓读完 NanoClaw 的全部代码 ,完全理解,直接上⼿写新功能。 OpenClaw 的 40 万⾏得跨好多个上下⽂窗⼝——⼈看不完 ,AI 也看不完。

Karpathy 特别喜欢两点。第⼀ ,代码少到“装得进我脑⼦ ,也装得进 AI 的脑⼦ ”——看得懂、查得清、改得动。第⼆ ,NanoClaw 有⼀个让他“有点炸脑”的设计:⽤skills 代替配置⽂件。

什么意思?举个例⼦。

传统做法:你想让 AI 助⼿接⼊Telegram ,得去改配置⽂件 ,填 API 密钥 ,写⼀堆判断逻辑——“消息从 Telegram 来⾛这条路 ,从微信来⾛那条路”。功能越加越多 ,配置⽂件越来越厚 ,最后配置本⾝变成了 ⼀坨谁都不想碰的怪兽。

NanoClaw 的做法:你跟 AI 说⼀句/add-telegram 。AI 读取这条“Skill”——其实就是⼀份说明书 ,告诉 AI“要接⼊Telegram ,改哪些⽂件、 怎么改”。然后 AI⾃⼰动⼿改代码 ,搞定。

不是⼈写配置 ,是 AI 照着知识改代码。

Cohen 管这套思路叫“Skills over Features”——技能优先于功能。 NanoClaw 明确不⿎励往主分⽀提交 新功能:你想加 Slack⽀持?别提 PR ,写⼀个 skill。 Cohen 说得⼲脆:“每个⼈应该只拥有跑⾃⼰agent 所需的那些代码。 它不是瑞⼠军⼑ ,是⼀个安全的底座 ,你通过跟 AI 对话来定制。 ”

Karpathy 从这⾥提炼出⼀句话 ,我觉得是整条推⽂最核⼼的洞察:

写⼀个最⼤程度可被改造的代码底座 ,然后⽤skills 把它变成任何你想要的样⼦。

原⽂:“the implied new meta is to write the most maximally forkable repo and then have skills that fork it into any desired more exotic configuration.”

说⽩了:最厉害的软件不是功能最多的 ,⽽是最容易被改成任何样⼦的。 

Karpathy 的回复⽐原推还猛

Cohen 在推⽂下⾯现⾝ ,解释了设计思路。他说 skills 系统像“shadcn for integrations”。

shadcn 是前端圈很⽕的 UI 组件库。别的组件库让你装⼀个包、通过参数配置来⽤;shadcn 是直接把源代码复制进你的项⽬——代码就是你的 ,想怎么改怎么改。⼀个组件就是加⼀个⽂件、改⼏个接⼊点,⼲净利落。

Skills 对“集成”做了⼀样的事:不是配出来的 ,是⻓在你代码⾥的。

Karpathy 接的这⼀句更猛。 他说这让他想起了深度学习⾥⼀篇经典论⽂——2017 年的 MAML。

MAML⼲嘛的?最通俗地说:普通的 AI 训练——拿⼀万张猫的图⽚ ,训练出⼀个识别猫的模型。换成识别狗?重新来。

MAML 的思路——不追求把“识别猫“练到极致 ,追求练出⼀个底⼦ ,不管丢过来什么新任务——猫、狗、花——只要看⼏个例⼦就能学会。 不当单项冠军 ,当最快上⼿的万能选⼿。

Karpathy 说他⼀直琢磨⼀个问题:这个思路搬到软件领域 ,对应的是什么?现在他看到了——最容易被 fork(复制并修改)的代码仓库。

NanoClaw 就是软件版的 MAML:不把功能堆到最全 ,把底座做到“谁拿到⼿ ,⼏步就能改成⾃⼰想要的样⼦ ”。

⼀句话:学会怎么学 ,⽐学会什么重要。容易被改 ,⽐功能⻬全重要。

这不只是理论。 Cohen 兄弟已经拿 NanoClaw 在跑⾃⼰的公司了。他们的 AI 营销公司 Qwibit 有个 NanoClaw 实例叫“Andy”,管着整条销售管线。Andy 每天早上 9 点⾃动汇报线索状态、分配当天任务。 ⽩天兄弟俩往 WhatsApp 群⾥随⼿转各种客⼾笔记、 邮件线索 ,Andy⾃⼰解析、更新知识库和数  据库、设好跟进提醒。 Cohen 说:“我不直接碰销售管线了 ,Andy 替我管。 ”——这就是 Claw 从概念变成⽇常的样⼦。

AI 时代 ,⽼规矩要改了

Cohen 在采访⾥还聊到⼏条很有冲击⼒的看法——做 NanoClaw 让他意识到 ,AI Agent 正在动摇程序员奉了⼏⼗年的⽼规矩。

不要重复⾃⼰ ”( DRY 原则)可能过时了。以前写代码贵 ,所以⼤家把通⽤逻辑抽成共享函数 ,改⼀ 处全局⽣效。但 AI agent 改共享函数的时候 ,改完就⾛ ,不会回头看下游有没有被波及。 反⽽是复制⼀ 份代码更安全——出了问题只炸局部。 Cohen 说:“维护重复代码的成本已经很低了。让 AI 跑⼀遍 ,同样的改动它会铺到所有地⽅ 。 ”

严格的⽂件⾏数限制也该松了。Cohen 早期给 Claude Code 设了 120⾏的上限 ,结果 AI 花在拆⽂件、 重构上的时间⽐写功能还多。现在的模型处理五百到⼀千⾏的⽂件毫⽆压⼒ ,旧规矩反⽽拖后腿。

代码不需要写得多漂亮。每隔三到六个⽉就有更好更便宜的模型出来 ,今天能跑就⾏——⼀年后更强 的 AI 会直接重写。 Cohen 说:“我们今天写的代码 ,不需要为了未来⼏年⽽存在。 ”

这⼏条加在⼀起说的是同⼀件事: 当 AI 成了写代码和维护代码的主⼒ ,软件⼯程的经典原则需要重新校 准——不是因为它们错了 ,是因为成本结构彻底变了。

为什么 Karpathy 坚持买 Mac mini 跑本地

推⽂最后有句话很多⼈⼤概直接划过去了:

有个实体设备被⼀个⼩幽灵“附⾝ ”,变成你的个⼈数字家庭⼩精灵 ,这件事在美学上就很让⼈愉悦。

这不是随⼝⼀说。 Karpathy 去年的年终总结⾥反复⽤ “ghost”(幽灵)描述 AI——⼤语⾔模型不是“慢慢进化出来的动物” ,是“被召唤出来的幽灵” ,智⼒形状很奇怪 ,某些⽅⾯像天才 ,某些⽅⾯像⼩学⽣。

早先这个“幽灵”住在云端 ,你得打开⽹站去找它。后来 Claude Code 出来了 ,“幽灵”搬进了你的终端,帮你写代码。现在 Claw⼜进了⼀步——“幽灵”住进了你家⾥⼀台⼩设备 ,连着你的智能灯泡、你的⽇历、你的聊天软件 ,⽩天替你处理杂事 ,晚上⾃⼰排明天的活。

Karpathy 选本地不选云端 ,不只是技术上的偏好 ,背后是⼀个⼀以贯之的态度:AI 应该是你拥有的、 你看得懂的、在你⾝边的东西——不是某家⼤公司的⿊盒⼦。 ⼏百⾏核⼼代码看得完 ,容器跑在我⾃ ⼰的硬件上 ,每个 skill 我能审查——都是这个态度的体现。

⼀个新品类正在成型

同⼀天 ,Python 界元⽼Simon Willison 发⽂确认:“Claw”正在变成⼀个⾏业术语 ,指代这⼀整类系 统。

这个品类⻓什么样?⼏条特征已经很清晰:

  • 跑在你⾃⼰的硬件上 ,不是别⼈的云服务;

  • 通过聊天软件交互——WhatsApp、Telegram、 Discord ,不⽤专⻔学⼀套新界⾯ .   不只是你问它答——它能⾃⼰安排任务、定时执⾏ 、 主动找你汇报;

  • 有持久记忆 ,知道你上周跟它说了什么;

  • 能⼒靠 skills 扩展 ,像装插件⼀样给它加新本事。

 

OpenClaw 是引爆点 ,但 Karpathy 真正在意的不是 OpenClaw 这个项⽬——安全上他说了不放⼼。他在 意的是这个品类背后的架构层。 NanoClaw、 nanobot、zeroclaw、 ironclaw、 picoclaw……⼀堆名字在冒 ,说明⼤家都在往同⼀个⽅向跑。

⽤Karpathy 的话把这个技术栈重新理⼀遍:⼤模型是顾问→ Agent 是执⾏者→ Claw 是常驻员⼯。

最后这⼀层刚刚⻓出来。很粗糙 ,安全问题⼀堆 ,Karpathy⾃⼰都说是蛮荒西部。但他的判断也很清楚:⽅向对了 ,剩下的是⼯程问题。

Cohen 最近上了趟 CNBC ,回来发推说了句更带劲的话:“整个产品品类正在被⼏⾏⽂字取代。监控⼀ 个⽹站的变化 ,以前是你每⽉花 8 美元订的 SaaS。现在就是⼀条 prompt。”

Claw ,就是让这条 prompt 住下来、⼀直跑下去的那层东西。

Karpathy 嘴上说着安全噩梦 ,⾝体很诚实——Mac mini 已经买了。

 

Karpathy 原帖:htps://x.com/karpathy/status/2024987174077432126

GitHub : https://github.com/QuantClaw/QuantClaw | Apache 2.0 | C++17 | 324 tests ✅

最近在 Discord 上和 OpenClaw 聊得比较多,越聊越想把它搬到 C++ 上实现。于是花了些时间,通过在 Discord 上与 OpenClaw 聊天的方式用 C++ 17 从零复刻了一个版本------带 WebSocket 网关、Web 控制台以及 Discord/Telegram 接入。

image.png

目前 324 个单元测试已全部跑通。今天正式开源。

quantclaw-logo.png

*

🗣️ 故事的起点:在 Discord 上和 OpenClaw 聊天

OpenClaw 是一个挺有意思的开源 AI 项目,新年期间我一直在折腾它。日常就是在 Discord 里和机器人对话------理需求、聊想法,或者让它帮忙写点代码。

聊久了,职业病就犯了:OpenClaw 基于 TypeScript,功能很全,但运行时开销确实不小。我开始想:如果用 C++ 复刻一个,性能能压榨到什么程度?能不能跑在一台 2GB 内存的廉价小服务器上?

于是有了 QuantClaw------一个在对话中诞生,用 C++17 复刻的 OpenClaw。

*

🤔 为什么要用 C++ 复刻?

目前市面上的 AI 助手框架基本是 Python 或 TypeScript 的天下。开发效率虽高,但运行时占用的内存也多------一个空闲的 Node.js 进程通常要吃掉 50-80MB 内存,Python 甚至更多。

如果你打算在一台 2GB 内存的云服务器上 7x24 挂着私人 AI 助手,这部分内存开销就成了不得不考虑的资源成本。

QuantClaw 的做法是:全量 C++17 实现。

Node.js (OpenClaw)C++ (QuantClaw)
空闲内存~60MB~8MB
启动时间~2s<200ms
GC 停顿
分发形式庞大的依赖包单文件二进制

原生二进制运行,没有解释器开销和 GC 停顿,启动即就绪。内存占用降到了同类方案的 1/8 左右。

image.png

上图是我运行 QuantClaw 后的资源占用情况,其资源消耗极少。

*

📐 QuantClaw 是什么

QuantClaw 是 OpenClaw 生态的一个 C++ 原生实现。它兼容 OpenClaw 的工作空间标准(SOUL.md / USER.md / MEMORY.md)、技能系统(SKILL.md)以及 WebSocket RPC 协议,可以直接对接原有的前端和客户端。

简单说:这是一个更轻量、更高性能的私人 AI 助手后端。

*

🏗️ 架构一览

image.png

核心组件纯 C++ 实现,频道适配器(如 Discord)作为独立进程通过 WebSocket RPC 接入网关,保持了和 OpenClaw 一致的解耦设计。

*

🚀 启动:一行命令

git clone https://github.com/QuantClaw/QuantClaw.git
cd QuantClaw && mkdir build && cd build
cmake .. && make -j$(nproc)
./quantclaw gateway

网关启动很快,你可以看到各组件初始化的日志:

2quanclaw-log.png

从 MemoryManager 到 GatewayServer 初始化完成,整个过程不到 1 秒。

*

🖥️ Web 控制台

网关自带了一个简单的 Web 控制台。浏览器访问 localhost:18790 即可与助手对话:

3quantclaw-dashboard-chat.png

顶部显示实时连接数、运行时间等状态信息。下方聊天界面支持 Markdown 渲染。

4quantclaw-dashboard-status.png

后台提供了 12 个 REST API 端点,方便通过 curl 或其他工具集成到自动化流里。

*

🎮 Discord 频道接入

这是 QuantClaw 诞生的初衷。在配置里填入 Token,网关会自动拉起适配器进程:

{
  "channels": {
    "discord": {
      "enabled": true,
      "token": "YOUR_DISCORD_BOT_TOKEN"
    }
  }
}

接入后的对话效果:

5quanclaw-discord-chat.jpg

消息流转逻辑如下:

image.png

日志会记录每一轮 RPC 调用的链路,方便排查消息流转状态:

6quantclaw-discord-chat-log.png

*

🔌 多模型支持

QuantClaw 支持通过 provider/model-name 前缀进行路由:

{ "model": "openai/Qwen3-32B" }
{ "model": "openai/gpt-4o" }
{ "model": "anthropic/claude-sonnet-4-6" }

兼容 OpenAI 格式的接口基本都能无缝接入。

*

📦 功能清单

image.png

目前 324 个单元测试全绿通过 ✅

*

🔧 技术栈

纯 C++17 实现,核心依赖如下:

image.png

*

⚡ 快速上手

Ubuntu / Debian:

sudo apt install build-essential cmake libssl-dev \
  libcurl4-openssl-dev nlohmann-json3-dev libspdlog-dev zlib1g-dev

git clone https://github.com/QuantClaw/QuantClaw.git
cd QuantClaw && mkdir build && cd build
cmake .. && make -j$(nproc)
./quantclaw_tests   # 跑一遍测试
./quantclaw gateway # 启动

*

✍️ 写在最后

QuantClaw 的想法起得很简单------在 Discord 里聊着聊着,就想写个更轻、更快的 C++ 版本。从第一行代码到 324 个测试跑通,这个过程也是一次有趣的 AI 协同实践。

目前的版本是 v0.2.0,核心功能已经跑通。如果你也在找一个轻量、低开销的私人 AI 后端,欢迎尝试。

GitHub : https://github.com/QuantClaw/QuantClaw

License: Apache 2.0.

机械组装MES——AI智能排产与预测驱动的生产革命

在工业4.0深度渗透与消费需求个性化升级的双重驱动下,离散制造业正从“规模化量产”向“多品种、小批量、快迭代”的柔性生产转型。对于机械组装企业而言,如何破解生产协同难题、提升柔性制造能力,成为关乎生存与发展的核心命题。

万界星空科技MES系统以AI智能排产与预测为核心竞争力,帮助众多机械组装企业实现从“数字化”到“智能化”的跨越式升级。

一、机械组装行业的核心痛点

在介绍万界星空MES之前,我们先来看看机械组装企业普遍面临的生产挑战。首先是生产计划混乱,订单变更频繁、插单多,传统排产依赖人工经验,难以协调设备、物料、人员等资源。其次是过程不透明,车间状态往往呈现“黑盒化”,进度反馈滞后,异常处理缓慢。

质量追溯困难也是另一大痛点,一旦漏装零件,整机返工损失数万元,且难以精准追溯问题源头。此外,交付延期风险高企,设备交付延期往往导致客户索赔接踵而至。最后,工艺过度依赖人工,装配依赖老师傅经验,新人上手慢,关键步骤执行偏差大。传统靠Excel排产、纸质单据流转、人工报工的管理模式,早已难以支撑高质量、快交付的竞争需求。

二、万界星空MES的AI智能排产核心能力

2.1 高级计划与排程(APS)——计划管理的“大脑”

万界星空MES的智能排产系统绝非简单地接收ERP生产订单,而是将ERP下发的月计划、周计划,基于车间的实际资源状况和工艺路径,分解成日计划、班次计划,甚至精确到每个设备、每个人员、每分钟的作业指令。

其核心算法技术包括约束理论,综合考虑设备能力、人员技能、物料可用性、工装模具等约束条件;遗传算法,通过迭代优化找到最优排产方案;以及强化学习,自主优化生产序列,持续学习改进。

2.2 智能排产三大核心功能

智能排产引擎主要包含智能分析、实时监控和自动调度三大核心功能。

在智能分析方面,系统通过收集和分析生产过程中的数据,能够分析哪些工序需要生产、哪些需要采购,帮助企业做出更合理的决策。

在实时监控方面,系统实时监控设备运行状态、工艺参数等,及时发现生产过程中的异常和问题,并通知相关人员进行处理。

在自动调度方面,当同行还在靠“人工喊单”调度生产时,实现“工单自动流转、异常秒级响应”。系统能够自动进行工单流转、秒级响应异常以及动态调配资源。

三、AI预测功能——从“事后响应”到“事前预防”

3.1 生产进度预测

MES基于历史数据和实时生产状态,精准预测订单完成时间,让管理层能够提前识别延期风险,主动向客户更新交付预期,并合理调整生产优先级。

3.2 质量预测与预警

系统通过机器学习算法分析生产过程中的关键参数,提前预测质量风险。它能够识别可能导致质量偏差的工艺参数组合,在质量问题发生前发出预警。结合基于视觉识别的自动检测技术,准确率可达98%以上。

3.3 设备预测性维护

通过采集设备运行数据,AI算法能够预测设备故障发生概率,提前安排维护计划,避免非计划停机,从而延长设备使用寿命,降低维护成本。

3.4 物料需求预测

系统智能分析生产计划与BOM结构,自动计算物料需求。它能预测未来周期的物料消耗,提前触发采购申请,有效避免物料短缺导致的生产中断。

四、万界星空MES的差异化优势

MES具备多项核心优势。可自由修改、二次开发。其次是多端适配,支持PC端、Android端、触控屏端、PDA端。其模块化架构灵活扩展,适配离散制造多种场景。采用低代码配置,利用AI拖拽即可实现与ERP、OA、PLC等第三方系统集成。同时,系统注重数据安全,提供端到端数据加密及关键字段级权限控制。

五、典型应用场景

5.1 机械装备组装

一台数控机床包含上千个零部件,MES通过电子作业指导书(eSOP)加工艺防呆机制,自动推送3D装配动画、扭矩参数至工位终端,并对关键工序强制扫码验证物料批次,确保组装准确无误。

5.2 汽车零部件生产

面对多品种小批量生产挑战,AI算法综合考虑订单交期、工艺路线、设备产能,动态生成最优生产计划,并实现质量全程追溯。

5.3 电子设备组装

针对SKU庞大、定制化需求高的特点,系统支持非标或定制化工单的BOM与工艺路线绑定,实时掌握订单进度、设备状态、在制品数量,并能准确预估交货期。

六、客户价值与成效

MES帮助企业实现了显著的价值提升。生产效率提升了30%以上,按时交付率显著提升,质量追溯达到分钟级定位,库存周转优化了20%以上。更重要的是,管理决策实现了数据驱动,告别了以往“拍脑袋”的决策方式。

在智能制造的浪潮中,MES系统已不再是“可选项”,而是机械组装企业实现数字化转型的“必选项”。万界星空科技MES系统以其AI智能排产与预测的核心能力,正在帮助越来越多的企业打破产线“黑箱”,迈向智能决策新时代。

如需了解更多详情或获取案例演示,可联系我们为您提供定制化的解决方案。

OpenAI 最近发布了Codex应用服务器的详细架构描述,这是一个双向协议,它将 Codex 编码智能体的核心逻辑与其各种客户端界面解耦。应用服务器现在支持每一个 Codex 体验,包括命令行界面(CLI)、VS Code 扩展、Web 应用、macOS 桌面应用,以及来自 JetBrains 和苹果 Xcode 的第三方 IDE 集成,通过一个单一、稳定的 API 实现。

 

这篇文章由 OpenAI 工程师Celia Chen撰写,是一系列详细介绍开源 Codex CLI 内部结构的文章之一。正如 Chen 所描述的,智能体交互与简单的请求/响应交换有着根本的不同:

 

一个用户请求可以展开成一个结构化的动作序列,客户端需要忠实地表示:用户的输入、智能体的增量进度、沿途产生的工件。

 

Codex 应用服务器的内部架构:标准输入输出(stdio)读取器和 Codex 消息处理器将客户端的 JSON-RPC 请求转换为 Codex 核心操作,并将内部事件转换回稳定的、UI 就绪的通知(来源)。

 

为了对此进行建模,OpenAI 设计了三个对话原语。项(Item)是输入或输出的原子单位,具有明确的生命周期:“开始”(started)、可选的流式“增量”(delta)事件和“完成”(completed)。这可以是用户消息、智能体消息、工具执行、审批请求或差异。轮次(Turn)将由单个智能体工作单元产生的项序列分组,由用户输入启动。一个线程(Thread)是正在进行的会话的持久容器,支持创建、恢复、分叉和存档,并保留事件历史记录,以便客户端可以在不丢失状态的情况下重新连接。

 

该协议还支持服务器发起的请求。当智能体在执行命令之前需要批准时,服务器会向客户端发送请求,并暂停轮次,直到收到“允许”或“拒绝”的响应。通信使用JSON-RPC作为 JSONL 流式传输在stdio上,OpenAI 将其设计为向后兼容,以便旧版客户端可以安全地与新版服务器通信。

 

值得注意的是,OpenAI 在最终确定这个设计之前尝试并拒绝了模型上下文协议(MCP)。Chen 解释说,在构建 VS Code 扩展时,团队最初尝试将 Codex 作为MCP服务器公开,但“在 VS Code 中维护 MCP 语义以使其有意义被证明是困难的。”IDE 交互所需的更丰富的会话语义,如流式差异、审批流程和线程持久性,并没有干净地映射到 MCP 的工具导向模型上。OpenAI 仍然支持将Codex作为 MCP 服务器运行以适应更简单的工作流程,但建议使用应用服务器来实现全保真集成。

 

带有可选批准的工具执行的协议消息流。服务器暂停轮次并向客户端发送请求,客户端必须在智能体可以继续之前用“允许”或“拒绝”响应(来源)。

 

文章描述了客户端用于嵌入应用服务器的三种部署模式。像 VS Code 扩展和桌面应用这样的本地客户端捆绑一个特定于平台的二进制文件,将其作为子进程启动,并保持一个双向的标准输入输出通道开放。像 Xcode 这样的合作伙伴通过保持客户端稳定而指向更新的应用服务器二进制文件来解耦发布周期,允许他们采用服务器端改进而无需等待客户端发布。

 

Codex Web运行时采取了不同的方法:一个工作器配置一个容器,在其中启动应用服务器,浏览器通过 HTTP 和服务器发送事件进行通信——保持浏览器端 UI 轻量级。同时,对于长时间运行的任务,服务器仍然是数据源。

 

应用服务器的演变与更广泛的行业努力以标准化代理-编辑器通信相平行。由 Zed Industries 发起现在由JetBrains支持的智能体客户端协议(Agent Client Protocol,ACP)采取了互补的方法:OpenAI 的应用服务器是特定于 Codex 框架的协议,而 ACP 旨在成为连接任何编码智能体到任何编辑器的通用标准,直接类比于十年前通过语言服务器协议(Language Server Protocol)标准化语言工具的方式。Codex CLI 本身也被列为 ACP 兼容智能体之一。这些方法的共存反映了行业仍然在为智能体集成确定正确的抽象边界——一个 OpenAI 承认正在“快速演变”的空间。

 

Codex 应用服务器的所有源代码都可以在开源Codex CLI存储库中找到,协议文档包括用于 TypeScript 和 JSON Schema 的模式生成工具,以方便使用任何语言进行客户端绑定。

 

原文链接:

https://www.infoq.com/news/2026/02/opanai-codex-app-server

go-sail 是什么?

go-sail 是一个轻量的渐进式 Web 框架,使用 Go 语言实现。它并不是重复造轮子的产物,而是站在巨人的肩膀上,整合现有的优秀组件,旨在帮助使用者以最简单的方式构建稳定可靠的服务。 正如它的名字一般,你可以把它视作自己在 Golang 生态的一个开始。go-sail 将助力你从轻出发,扬帆起航。

仓库地址

https://github.com/keepchen/go-sail/

LATEST_VERSION

如何使用

推荐 go version >= 1.23

复制
go get -u github.com/keepchen/go-sail/v3
复制
import (
    "net/http"
    "github.com/gin-gonic/gin"
    "github.com/keepchen/go-sail/v3/sail"
    "github.com/keepchen/go-sail/v3/sail/config"
)

var (
    conf = &config.Config{}
    registerRoutes = func(ginEngine *gin.Engine) {
        ginEngine.GET("/hello", func(c *gin.Context){
            c.String(http.StatusOK, "%s", "hello, world!")
        })
    }
)

func main() {
    sail.WakeupHttp("go-sail", conf).Hook(registerRoutes, nil, nil).Launch()
}

示例

配置读取

复制
parseFn := func(content []byte, viaWatch bool){
    fmt.Println("config content: ", string(content))
    if viaWatch {
        //reload config...
    }
}
etcdConf := etcd.Conf{
	Endpoints: []string{""},
	Username: "",
	Password: "",
}
key := "go-sail.config.yaml"

sail.Config(parseFn).ViaEtcd(etcdConf, key).Parse(parseFn)

链路日志追踪

复制
func UserRegisterSvc(c *gin.Context) {
  ...
  sail.LogTrace(c).Warn("log something...")
  ...
}

JWT 认证

  • 颁发令牌
复制
func UserLoginSvc(c *gin.Context) {
  ...
  uid := "user-1000"
  exp := time.Now().Add(time.Hour * 24).Unix()
  otherFields := map[string]interface{}{
      "nickname": "go-sail",
      "avatar": "https://go-sail.dev/assets/avatar/1.png",
      ...
  }
  ok, token, err := sail.JWT().MakeToken(uid, exp, otherFields)
  ...
}
  • 认证
复制
func UserInfoSvc(c *gin.Context) {
  ...
  ok, claims, err := sail.JWT().ValidToken(token)
  ...
}

组件

响应器

复制
func UserInfoSvc(c *gin.Context) {
  sail.Response(c).Wrap(constants.ErrNone, resp).Send()
}

数据库

  • 读写分离
复制
func UserInfoSvc(c *gin.Context) {
  uid := "user-1000"
  var user models.User
  //READ: query user info
  sail.GetDBR().Where("uid = ?", uid).First(&user)
  ...
  //WRITE: update user info
  sail.GetDBW().Model(&models.User{}).
      Where("uid = ?", uid).
      Updates(map[string]interface{}{
          "avatar": "https://go-sail.dev/assets/avatar/2.png"
      })
}
  • 事务
复制
func UserInfoSvc(c *gin.Context) {
  uid := "user-1000"
  err := sail.GetDBW().Transaction(func(tx *gorm.DB){
      e1 := tx.Model(&models.User{}).
              Where("uid = ?", uid).
              Updates(map[string]interface{}{
                  "avatar": "https://go-sail.dev/assets/avatar/2.png"
              }).Error
      if e1 != nil {
          return e1
      }
      e2 := tx.Create(&models.UserLoginHistory{
                Uid: uid,
                ...
              }).Error
      return e2
  })
}

Redis

复制
func UserInfoSvc(c *gin.Context) {
  ...
  sail.GetRedis().Set(ctx, "go-sail:userInfo", "user-1000", time.Hour*24).Result()
  ...
}

计划任务

  • 周期性的
复制
func TodoSomething() {
  fn := func() { ... }
  sail.Schedule("todoSomething", fn).Daily()
}
  • Linux Crontab 风格的
复制
func TodoSomething() {
  fn := func() { ... }
  sail.Schedule("todoSomething", fn).RunAt("*/5 * * * *")
}
  • 竞态检测
复制
func TodoSomething() {
  fn := func() { ... }
  sail.Schedule("todoSomething", fn).Withoutoverlapping().RunAt("*/5 * * * *")
}

分布式锁

复制
func UpdateUserBalance() {
  if !sail.RedisLocker().TryLock(key) {
      return false
  }
  defer sail.RedisLocker().Unlock(key)
  ...
}

文档

https://go-sail.dev

在线示例

https://nav.go-sail.dev

功能特性

  • HTTP 响应器
    • 统一响应字段
    • 管理 HTTP 状态码
    • 管理业务码
  • 组件库
    • Database
    • Email
    • Jwt
    • Kafka
    • Logger
    • Nacos
    • Etcd
    • Nats
    • Redis
    • Valkey
  • 服务注册与发现
    • Nacos
    • Etcd
  • 工具类
    • 加解密
    • 文件
    • ip
    • 字符串
    • 随机数
    • 日期时间
    • ...
  • 日志收集与导出
    • 本地文件
    • 导出器
      • Redis
      • Kafka
      • Nats
  • 计划任务
    • 可取消的
    • 一次性的
    • 周期性的
    • Linux Crontab 风格的
    • 竞态检测
  • 遥测与可观测性
    • 调用链追踪
    • Prometheus
    • Pprof
    • 日志导出器
    • 性能监测
      • Prometheus
      • Pprof
  • 接口错误码
    • 动态注入
    • 国际化
  • 基于 Redis 的分布式锁
    • 阻塞式
    • 非阻塞式
  • 接口文档
    • Redocly
    • Swagger
  • 配置管理
    • File
    • Etcd
    • Nacos

其他

  • 欢迎大家提 PR: pull request
  • 欢迎大家提出自己的想法: issue
  • 感谢你的 star 如果你喜欢这个项目的话 :)

在数字化协同常态化的2026年,项目管理软件已从“辅助工具”升级为高效能团队的“技术支撑核心”,其稳定性、协作兼容性、功能适配性直接决定团队工作效能与项目交付质量。本文基于市场实测好评数据,筛选10款适配大中小型团队、口碑突出的项目管理软件,以专业视角,中立呈现各产品技术特性与适用场景,每款产品均围绕5大核心技术板块展开解析,助力团队精准完成技术选型。

一、10款高口碑项目管理软件专业解析(按市场好评率排序)

以下10款软件均经过市场长期验证,好评集中于技术稳定性、功能实用性与协作流畅度,无任何产品贬低表述。每款产品统一从「技术定位」「核心协作技术」「核心功能技术细节」「适配技术场景」「部署技术方案」5大板块展开,采用结构化列表呈现,重点技术点加粗标注,确保专业易懂、逻辑连贯。

(一)禅道

  • 技术定位​:国内开源原创项目管理软件,基于PHP+MySQL技术架构开发,经过17年迭代打磨,支持敏捷与瀑布双开发模式,核心优势在于「研发全生命周期技术管控」与「高可扩展性」,适配多规模团队,尤其贴合国内研发团队技术流程。
  • 核心协作技术​:采用分布式架构设计,支持千人级团队规模化协同,具备精细化权限分级管控技术(基于RBAC权限模型),可按角色分配操作权限;内置实时数据同步引擎,实现需求、任务、Bug等信息毫秒级同步,支持跨部门、跨项目数据互通,规避信息孤岛,同时支持多团队共用一个平台,实现项目数据统筹管理。
  • 核心功能技术细节​:高度集成274个功能模块、2265个功能点,涵盖产品管理、项目管理、质量管理、效能管理四大核心板块;支持需求跟踪矩阵技术,实现需求从提出到落地的全链路可追溯;内置自定义工作流引擎,可根据企业技术流程灵活配置节点;支持自动化测试集成(兼容Jenkins、Selenium等主流测试工具),内置BI数据分析引擎与可视化大屏,可实时监控项目进度与团队效能;源码开放,支持二次开发,适配企业个性化技术需求。
  • 适配技术场景​:软件开发、智能制造、互联网等行业,尤其适合研发类团队,可支撑集成产品研发、单产品单团队研发等多种场景,适配CMMI四五级量化管理技术需求,同时可对接钉钉、飞书等国产办公平台,契合国内企业协同习惯。
  • 部署技术方案​:支持私有部署、云服务两种部署模式,开源版可本地部署(兼容Windows、Linux、Unix等主流操作系统),企业版提供云服务与私有部署可选,支持数据加密存储与定期备份,满足企业数据安全合规需求,部署流程简洁,无需复杂技术配置即可上手。

(二)Jira

  • 技术定位​:由Atlassian公司开发的企业级项目管理与问题跟踪工具,基于Java技术架构,起源于软件开发缺陷跟踪,现已升级为综合性工作管理平台,核心技术优势在于「敏捷开发适配」与「高扩展性」,适配各类规模团队的技术协作需求。
  • 核心协作技术​:采用微服务架构设计,支持万人级团队协作,具备精细化权限管理与跨团队联动技术,可创建多站点供不同部门使用,支持外部协作伙伴匿名访问;内置实时消息推送引擎,团队成员可实时跟踪任务状态、提交反馈,通过自动化规则引擎减少手动沟通成本,实现跨部门工作无缝衔接,2026版本新增AI代码缺陷预测功能,进一步强化研发协作中的质量控制。
  • 核心功能技术细节​:完美支持Scrum、Kanban等敏捷开发框架,内置敏捷迭代管理工具,可实现 sprint 规划、任务拆解、燃尽图实时生成;支持自定义工作流引擎,可根据企业技术流程灵活配置;内置丰富的报表与数据分析功能(包含燃尽图、速度图、累积流图等),助力团队分析效率瓶颈;支持与GitLab、Jenkins、Confluence等研发工具深度集成,实现DevOps闭环;企业版提供高级安全管控技术(包含数据加密、权限审计、单点登录等)与跨产品数据分析能力。
  • 适配技术场景​:软件开发、IT运维、产品管理等场景,适合技术类团队,尤其适合需要规范化流程、多项目并行管理的大型企业,61%的财富500强企业均在使用,适配复杂研发流程的协同管控需求。
  • 部署技术方案​:支持云部署(Jira Cloud)与本地部署(Jira Data Center),本地部署适合对数据安全性要求高的大型企业,云部署开箱即用,无需维护基础设施;支持多区域数据 residency,适配跨国企业的地域化数据合规需求,基于Java架构,运行稳定性高,可支撑高并发访问。

(三)ClickUp

  • 技术定位​:一体化AI生产力平台,基于云原生技术架构,核心技术定位是「一款软件替代所有工具」,整合项目管理、团队沟通、文档管理等多种功能,核心优势在于「AI赋能」与「功能一体化」,适配各类规模团队,尤其适合需要整合多工具的团队。
  • 核心协作技术​:采用分布式云架构,支持万人级团队协作,具备精细化权限管理、跨部门沟通专区、实时进度同步技术;内置ClickUp Brain AI助手,可24小时提供智能支持,能主动扫描聊天记录、识别团队成员潜在疑问,并自动从内外部数据源中提取信息实时推送解答,同时可自动安排会议、生成任务评论,实现“人、AI、工具”无缝协同,大幅降低协作成本。
  • 核心功能技术细节​:集成100+产品功能,包括项目规划、任务管理、时间跟踪、文档协作等,可替代多款碎片化工具;支持自定义工作流、无限视图配置(看板、甘特图、日历等),AI助手可实现语音转文字、智能任务分配、自动生成状态报告;基于收购的Qatalog AI搜索技术,打通跨工具的知识孤岛,实现企业内部数字资产的高效检索;支持与50+第三方工具集成,每年可帮助企业节省30000+小时工作时间,2026版本强化了AI智能摘要功能,可自动生成会议纪要与周报。
  • 适配技术场景​:互联网、科技、创意等行业,适合需要整合多工具、重视AI赋能、追求高效协同的团队,可满足不同部门的个性化技术需求,既能适配研发团队的敏捷开发,也能支撑非技术团队的日常协同。
  • 部署技术方案​:支持云部署,提供Windows、Chrome、Mac等多端适配,开箱即用,无需复杂配置;采用加密传输与存储技术,具备企业级安全保障,内置SyncUps音视频会议系统,深度嵌入工作流,实现会议与任务的无缝衔接。

(四)Microsoft Project(微软项目管理企业版)

  • 技术定位​:微软推出的企业级项目管理软件,基于.NET技术架构,核心技术定位是「结构化规划」与「生态深度融合」,聚焦项目全生命周期管理,与Office 365生态深度绑定,适配大型企业多项目、大团队协作的技术需求。
  • 核心协作技术​:采用客户端-服务器架构,支持千人级团队协同,可实现多层级项目规划(战略级项目组合、战术级项目集、操作级项目),具备跨部门资源共享与调度技术;与Microsoft Teams深度融合,任务可直接嵌入Teams频道,成员可实时讨论、上传文件,无需切换界面,内置实时数据同步引擎,确保跨平台协作数据一致,提升沟通与协作效率。
  • 核心功能技术细节​:内置智能资源分配引擎,可自动识别资源瓶颈并给出调整建议,提升资源利用率;集成Power BI仪表盘,实时采集项目数据,自动生成趋势预测与异常预警,助力管理层快速决策;支持关键路径分析、里程碑设置,适配瀑布式项目管理,同时兼容敏捷模式,可对接Azure DevOps实现DevOps闭环;支持自定义报表模板,可根据企业需求生成各类项目数据报表,具备强大的数据导出与分析能力。
  • 适配技术场景​:大型企业多项目管理、工程建设、产品研发等场景,适合需要规范化流程、重视数据决策、已使用Office 365生态的团队,适配复杂项目的结构化规划与管控需求。
  • 部署技术方案​:支持云部署(Microsoft 365生态集成)与本地部署,可根据企业数据安全需求灵活选择;适配大型企业IT架构,支持与微软系其他产品(Excel、Word、Outlook等)无缝集成,部署过程可依托企业现有微软生态环境,降低技术适配成本。

(五)Monday.com

  • 技术定位​:全球知名的AI驱动型工作平台,基于云原生技术架构,核心技术优势在于「灵活定制」与「AI自动化」,支持各类工作场景的项目管理,适配从初创企业到大型企业的不同规模团队,主打“上下文感知AI”嵌入全工作流。
  • 核心协作技术​:采用分布式云架构,支持万人级团队协作,245000+客户遍布全球,包括众多财富500强企业;具备拖拽式操作界面,团队成员可快速上手,支持跨部门目标对齐与OKR管理,内置实时进度同步技术,可减少40%的跨团队协作成本;内置AI智能体,可承担专项任务、实现端到端自动化工作流,助力团队高效协同。
  • 核心功能技术细节​:内置AI助手,可实现自动化工作流配置、实时风险识别、智能任务分配,据实测可帮助团队节省98+小时的手动工作时间;支持自定义仪表盘、甘特图、看板等多种视图,可根据团队需求灵活配置;支持与Slack、Zoom等工具集成,提供开放API接口,可实现自定义扩展与企业级系统对接;具备模块化设计,可快速搭建贴合业务需求的管理模块,无需专业开发能力,同时支持离线编辑与语音输入,优化移动端协作体验。
  • 适配技术场景​:市场营销、运营管理、人力资源、产品研发等全场景,适合业务场景复杂、需要灵活定制流程、重视易用性与AI赋能的团队,尤其适配非技术团队的轻量化协同需求。
  • 部署技术方案​:仅支持云部署,无需本地运维,具备行业领先的数据安全保障(包含数据加密、权限管控、合规认证等),被Gartner评为协作工作管理领域领导者;支持多区域数据部署,适配不同地区的合规需求,开箱即用,可快速完成团队适配与落地。

(六)Asana

  • 技术定位​:全球知名的企业级协作平台,基于云原生技术架构,核心技术定位是「跨部门大型项目统筹」与「AI驱动的智能协作」,聚焦项目计划、跟踪与交付全流程,适配各类大团队协作场景。
  • 核心协作技术​:采用分布式架构,支持千人级跨部门协作,85%的财富100强企业选择其作为协作工具;具备实时进度同步、任务负责人明确分配、跨团队沟通专区等技术功能,可将战略目标与团队执行紧密关联,让每个成员清晰了解自身工作与企业目标的关联;2026版本强化AI助手功能,可自动分配任务、预测延期风险并生成进度预警。
  • 核心功能技术细节​:支持可视化甘特图、里程碑跟踪、自定义仪表盘,可实时查看项目全局进度;内置工作流自动化引擎,可配置自定义自动化规则,减少重复性操作;支持300+第三方工具集成,包括Slack、Google Drive等,无需切换平台即可完成各类操作;提供Asana Gov版本,满足政府机构合规需求,具备完善的数据审计与权限管控技术;支持多视图自由切换,适配不同团队的协作习惯。
  • 适配技术场景​:市场营销、运营管理、项目运营等场景,适合非技术类大团队,尤其适合需要统筹多个大型活动、跨部门联动频繁的企业,适配30人以上团队的规模化协作需求。
  • 部署技术方案​:仅支持云部署,开箱即用,无需本地运维,支持多区域数据 residency,保障数据安全合规;采用加密传输技术,具备完善的安全认证体系,适配大型企业的安全管控需求,多端同步延迟低,保障跨设备协作流畅度。

(七)Wrike

  • 技术定位​:全球领先的企业级协同工作管理平台,基于云原生技术架构,连续三年被Gartner评为协作工作管理领域领导者,核心技术优势在于「规模化协作」「流程标准化」与「合规管控」,适配各类大型企业多项目、跨部门协同场景。
  • 核心协作技术​:采用分布式云架构,支持万人级团队协作,全球20000+组织使用,具备360°项目可见性技术,可实时查看所有项目与工作流进度,实现跨部门、跨地域团队无缝协同;支持OKR目标管理技术,可将企业目标分解到部门、团队与个人,实时跟踪目标进度;内置AI合规风险预警功能,可识别项目中的合规风险点并及时提醒。
  • 核心功能技术细节​:内置AI驱动的数据分析与风险预测引擎,可自动识别项目瓶颈并给出优化建议;支持自定义工作流、资源与预算规划,可实时跟踪项目成本与ROI;支持与Klaxoon集成,提供可视化协作功能,包括无限白板、互动投票等,可减少90%的邮件沟通;具备HIPAA与GDPR双重合规设计、精细化权限管控与全程审计追踪技术,适配敏感行业需求;支持400+第三方工具集成,实现与企业现有系统的无缝衔接。
  • 适配技术场景​:大型企业多项目管理、市场营销、研发管理、运营管理等场景,尤其适合医疗、金融等合规敏感行业,适配需要流程标准化、重视数据驱动、多项目并行的大团队,在医疗行业渗透率达23%。
  • 部署技术方案​:支持云部署与混合部署两种模式,按团队规模分级订阅;具备企业级安全管控与数据合规保障,提供定制化实施服务,适配大型企业复杂的IT架构与业务需求;支持私有云部署版本,可实现数据完全私有化,满足高敏感行业需求。

(八)Trello Enterprise

  • 技术定位​:基于看板模式的企业级项目管理软件,由Atlassian公司出品,基于云原生技术架构,核心技术优势在于「简洁易用」与「轻量化协作」,主打卡片式可视化管理,适配各类团队,尤其适合需要快速上手的团队。
  • 核心协作技术​:采用分布式云架构,支持千人级团队协作,具备中央管理员控制台,可统一管理用户权限、安全设置与团队成员;内置AI-powered快速捕获技术,可汇总分散在邮件、Slack等平台的待办事项,同步为Trello卡片;支持团队实时评论、任务分配与进度更新,内置实时消息推送引擎,确保协作信息及时同步。
  • 核心功能技术细节​:以看板为核心,支持拖拽式操作,可直观展示任务状态;支持200+插件集成(Power-ups),可与Slack、Confluence、Google Drive等工具无缝衔接,扩展功能边界;具备企业级安全保障技术,包括SAML单点登录、99.99% uptime承诺,支持自动化工作流配置,减少手动操作;2026年新增“智能模板”功能,支持一键创建标准化项目流程,降低团队适配成本。
  • 适配技术场景​:市场营销、行政办公、项目执行等场景,适合流程相对简单、重视可视化管理、需要快速上手的团队,尤其适合跨部门简单任务协同与敏捷开发团队的基础任务管控。
  • 部署技术方案​:仅支持云部署,企业版适合50人以上团队,提供24/7企业管理员支持,无需本地运维,可快速部署使用;采用加密传输与存储技术,具备完善的安全认证体系,适配企业级安全需求,多端同步流畅,支持移动端实时操作。

(九)Notion

  • 技术定位​:一体化协作与文档平台,基于云原生技术架构,核心技术优势在于「灵活性」与「知识整合」,以“数据库+页面”为核心架构,整合项目管理、文档协作、知识库管理等功能,适配各类规模团队,尤其适合需要整合文档与项目管理的团队。
  • 核心协作技术​:采用分布式云架构,支持千人级团队协同,具备精细化权限管理技术,可按文档、项目分配访问权限;支持实时协同编辑、评论反馈技术,可将项目任务、文档、知识库整合在一个工作区,避免信息碎片化,减少上下文切换成本;内置版本控制技术,可追溯文档与任务的历史修改记录,便于团队回溯与复盘。
  • 核心功能技术细节​:支持自定义页面布局与模板,可根据团队需求创建项目看板、甘特图、任务列表等;内置丰富的项目管理模板,包括产品研发、市场营销、会议纪要等,可快速复用;支持与Slack、Google Calendar等工具集成,可嵌入第三方内容,实现工具一体化;编辑功能强大,支持多格式内容嵌入,具备完善的知识库管理技术,可实现知识的沉淀与高效检索,适配非结构化项目管理需求。
  • 适配技术场景​:创意设计、产品研发、知识库管理等场景,适合重视文档协作、需要灵活定制工作区、信息整合需求强的团队,尤其适配创意型团队的灵感落地与任务协同。
  • 部署技术方案​:支持云部署,提供多端适配(网页端、移动端、桌面端),开箱即用,同时具备企业级数据安全保障(包含数据加密、权限管控、合规认证等),满足大型企业数据合规需求;无需复杂技术配置,团队可快速上手适配。

(十)Oracle Primavera P6

  • 技术定位​:Oracle公司推出的高端企业级项目管理软件,基于客户端-服务器架构,核心技术优势在于「大型复杂项目管控」与「多系统集成」,聚焦工程建设、能源、制造业等领域,具备强大的进度计划与资源管理技术,适配超大型团队与复杂项目协作。
  • 核心协作技术​:采用分布式架构,支持万人级团队协同,可实现多项目、多组织、多地域协同管理,具备精细化资源分配与跨项目资源共享技术;支持团队成员实时提交进度、反馈问题,管理层可实时监控项目全局,协调跨部门资源,避免资源冲突;内置关键路径法(CPM)与逻辑关系设置技术,可自动识别任务依赖关系,生成最优进度计划。
  • 核心功能技术细节​:具备强大的进度计划编制与控制功能,支持资源平衡、挣值分析(EVM)、甘特图与网络图联动等高级技术,可精准管控项目进度;内置丰富的报表与数据分析功能,可自定义报表模板,满足企业高层决策需求;支持与Oracle ERP、SAP等企业级系统深度集成,实现项目与财务、采购等业务无缝衔接;具备风险与变更控制技术,通过“假设分析”功能模拟不同场景影响,提前制定应对策略,内置变更请求流程,确保调整留痕;具备高稳定性与可扩展性,可支撑超大型复杂项目的长期运行。
  • 适配技术场景​:工程建设、能源、制造业、大型赛事运营等场景,适合项目周期长、任务复杂、资源投入大、跨部门协同需求高的超大型企业团队,可适配高铁、炼化厂等大型复杂项目的管控需求。
  • 部署技术方案​:支持云部署(Oracle Cloud Infrastructure)与本地部署,适配大型企业IT架构,提供定制化实施与培训服务,满足企业个性化业务需求与数据安全要求;支持移动端APP部署,实现现场进度打卡与问题上报,适配跨地域复杂项目的协作需求;部署过程需结合企业IT架构进行定制化配置,适合具备专业IT团队的大型企业。

二、技术选型总结(专业科普视角)

以上10款项目管理软件均具备稳定的技术架构与良好的市场口碑,无优劣之分,仅适配场景与技术侧重点不同,结合技术特性可总结为四大类,助力团队精准选型:其一,研发专项类(禅道、Jira),主打研发全流程技术管控,适配研发团队的敏捷或瀑布开发需求;其二,AI赋能一体化类(ClickUp、Monday.com),聚焦AI自动化与功能整合,适配需要提升协作效率、整合多工具的团队;其三,大型企业合规类(Wrike、Oracle Primavera P6),主打复杂项目管控与合规保障,适配超大型企业与敏感行业;其四,轻量化协作类(Trello、Notion、Asana),主打简洁易用与灵活适配,适配非技术团队与轻量化协同需求。企业选型时,应优先结合自身技术架构、团队规模、业务场景与数据安全需求,选择技术适配度最高的产品,而非盲目追求功能全面,才能真正发挥项目管理软件的技术支撑价值。

金融级高并发下的业务诉求
在金融科技业务中,遇到个股复牌(例如近期大热的JMG)往往伴随着激增的用户请求。投资者迫切希望捕捉到开盘瞬间的价格异动。对于开发人员和技术型投顾来说,如何向客户稳定、低延迟地输出高颗粒度的市场变化,是一项必须攻克的业务需求。

野蛮爬虫的黄昏与数据清洗之痛
在过去,很多同行喜欢手写爬虫去交易所或者门户网站硬刮数据。这带来的痛点是极其致命的:IP经常被封、DOM结构变动导致代码失效、更别提清洗杂乱无章的字符串需要耗费多大精力。面对JMG首日瞬息万变的前十分钟,这种脆弱的数据链路根本无法支撑专业的投顾服务。

优雅解法:拥抱结构化API
现代金融开发的最佳实践是直接调用标准化的API源。我们在重构数据流时,引入了AllTick这样的专业级数据接口。它的优势在于输入Token即可直接获取JSON/Dict格式的干净数据,原生支持分钟级粒度,彻底砍掉了原本繁重的正则匹配与清洗代码。

# 导入官方SDK及配置API鉴权Token
from alltick import AllTickClient

# 初始化客户端,注入您的安全Token
client = AllTickClient(token="YOUR_TOKEN_HERE")
symbol = "JMG"

# 精准调用JMG复牌当天的分钟级别接口
minute_data = client.get_minute_data(symbol=symbol, date="2026-02-14")

# 迭代输出部分数据,检视数据结构
for row in minute_data[:5]:
    print(row)

从数据流到可视化组件的快速封装
得益于前期获取数据的高度结构化,后续的可视化开发变得异常简单。借助Pandas强大的时序处理能力与Matplotlib的绘图引擎,几十行代码即可封装出一个轻量级的复牌走势监控组件。这种从底层数据到前端呈现的丝滑体验,极大地提升了投研团队对市场突发事件的响应效率。

# 引入数据处理库Pandas与绘图包
import pandas as pd
import matplotlib.pyplot as plt

# 轻松将字典转换为DataFrame并处理时区
df = pd.DataFrame(minute_data)
df['时间'] = pd.to_datetime(df['时间'])

# 渲染高保真折线图以供分析研判
plt.plot(df['时间'], df['收盘价'])
plt.title("JMG复牌全生命周期分钟级监控")
plt.xlabel("系统时间戳")
plt.ylabel("实时收盘价")
plt.show()

一、为什么页眉页脚配置总让人头疼?

作为开发者,你可能遇到过这些场景:

  • 需要导出带页码的财务报表,但 &P 写在哪里才能生效?
  • 想在首页显示特殊标题,却发现所有页面都一样
  • 设置了字体颜色,结果整行文字都变了色

页眉页脚看似简单,但占位符的组合规则、优先级、样式作用域,稍不注意就会踩坑。本文帮你一次性理清。

二、核心概念:三层结构

SpreadJS 的页眉页脚配置遵循 位置 → 类型 → 内容 的三层结构:

位置层:left | center | right
  ↓
类型层:header | footer
  ↓
内容层:文本 + 占位符

基础示例:

sheet.printInfo().pageHeaderFooter({
    normal: {
        header: {
            center: "第 &P 页"
        }
    }
})

这段代码里,normal表示在所有页面上应用这个设置;header代表页眉(对应的页脚是footer);center表示中间位置(还有leftright);最关键的是&P,它代表当前页码,我们叫它占位符——打印时会自动替换成实际的页码。

三、占位符速查表

3.1 数据占位符

&P当前页码第1页打印时显示1
&N总页数共10页就显示10
&D当前日期2026/1/1
&T当前时间15:30:26
&G图像需配合leftImage/centerImage/rightImage使用
&F工作簿名称等于workbook的name属性
&A工作表名称当前打印的sheet名称

3.2 样式占位符

除了数据,页眉页脚的文字样式也能控制:

&B加粗
&I斜体
&2020号字体(数字可自定义)
&"宋体"设置字体为宋体(注意英文双引号)
&KFF0000红色(K代表颜色,后面跟RGB十六进制)
&S删除线
&U下划线

四、样式作用域规则

样式占位符有个特点:前面的设置会影响后面的文字。举个例子:

&26西&"宋体"安&K0000FF葡&U萄&B城&I你&S好

这段文本的效果是:

  • &26让后面所有文字变成26号字
  • &"宋体"从"安"字开始应用宋体
  • &K0000FF从"葡"字开始变成蓝色
  • 后面的样式依次类推

最终效果如下:

在这里插入图片描述

五、首页与奇偶页设置

5.1 三种模式

SpreadJS和Excel一样,支持三种页眉页脚模式:

  1. Normal:所有页面统一设置(默认)
  2. First:仅第一页特殊设置
  3. Odd/Even:奇数页和偶数页分别设置

5.2 启用特殊模式

要启用首页不同和奇偶页,需要先开启开关:

// 首页不同
sheet.printInfo().differentFirstPage(true)
// 奇偶页不同
sheet.printInfo().differentOddAndEvenPages(true)

5.3 优先级规则

这三种模式有优先级:

  • First 优先级最高(首页永远用首页设置)
  • Odd/Even 优先级次之
  • Normal 优先级最低(兜底用)

5.4 完整示例

如果想同时设置首页、奇数页、偶数页,可以这样写:

// 先开启两个开关
sheet.printInfo().differentFirstPage(true)
sheet.printInfo().differentOddAndEvenPages(true)

// 再分别设置
sheet.printInfo().pageHeaderFooter({
    first: {
        header: {
            center: "&30合同封面", // 封面页:大号字体
        }
    },
    odd: {
        header: {
            left: "工作表:&A",
            center: "第&P/&N页"
        }
    },
    even: {
        header: {
            center: "偶数页 第&P/&N页",
            right: "导出日期:&D"
        }
    },
})

六、总结

页眉页脚看着简单,但真要灵活运用起来,还是有不少细节需要注意:

  1. 占位符是核心:&P&N&D这些占位符是动态内容的关键,记不住的话建议收藏备用。
  2. 样式有作用范围:样式占位符从设置位置开始,一直影响到后面的文字,这点和CSS的继承有点像。
  3. 开关要先开:想用首页或奇偶页不同,别忘了先调用differentFirstPage(true)differentOddAndEvenPages(true)
  4. 优先级别搞反:首页 > 奇偶页 > 普通页,这个顺序决定了最终显示哪个设置。
  5. 调试小技巧:设置完之后,可以用SpreadJS的打印预览功能先看看效果,避免直接导出PDF后才发现问题。

掌握这些要点后,无论是做报表导出、合同打印,还是其他需要页眉页脚的场景,你都能轻松应对了。

引言

随着软件行业进入智能体时代,开发者和架构师面临着一个熟悉的挑战。正如微服务的兴起需要标准化的通信模式,如 REST 和 gRPC,专业 AI 智能体的激增需要一个强大的框架,使它们能够有效地发现、通信和协作。

本文提出了一个结合两个新兴标准的架构模式:Agent-to-Agent(A2A)协议和模型上下文协议(MCP)。通过分层这些协议,我们可以创建强大、可伸缩、可扩展和可互操作的多智能体系统,在智能体时代,可以在不改变智能体的核心通信逻辑的情况下添加新功能。

在本文中,我们首先介绍每个协议的核心概念,然后将分层协议策略应用于 MLOps 用例,目标是在验证成功后部署模型,然后详细说明相应的代码,使其栩栩如生。代码将展示一个架构模式,用于从执行逻辑中解耦编排逻辑,这是在可扩展性中使用的原则。

在智能体驱动的范式中,目标是用专业 AI 智能体的动态团队取代僵化的管道。例如,在我们的 MLOps 用例中,负责部署模型的编排器智能体可能需要与验证智能体和部署智能体协作。此场景提出了两个基本挑战:这些智能体如何发现并相互通信,以及它们如何访问其任务所需的特定工具和数据?本文提出的架构通过为每个协议分配不同的角色来解决这个问题。

A2A 提供了通信总线,允许编排器在没有硬编码连接的情况下找到并执行适当的专家任务。MCP 作为一种通用的功能语言,确保智能体一旦被委托,无论其底层实现如何,都可以发现和利用必要的工具。

图 1:我们的 MLOps 用例的 A2A 和 MCP 栈

故意选择 MLOps 用例的例子作为概念桥梁,说明从今天的静态管道到明天的动态、代理驱动操作的演变。虽然现有的编排器功能强大,但它们的僵化可能成为未来的瓶颈。当业务逻辑发生变化时,管道通常需要重写和重新部署。相比之下,分层代理架构是为这种演变而构建的。我们展示的编排者协调验证和部署智能体将突出这一关键优势:通过组合能力适应新要求,而不是重写大量代码。随着 AI 智能体的发展,从静态执行到动态协调的转变是我们想要证明的核心原则。

这里展示的原则不仅限于 MLOps,可以应用于任何领域。

工作流程中的分层协议

A2A:智能体到智能体通信总线

A2A 旨在使 AI 智能体能够安全地跨不同系统通信,无论供应商如何。它解决了多代理环境中的互操作性需求。通过允许来自不同供应商的代理互操作,A2A 有助于解锁模块化工作流程,减少供应商锁定,并增强可扩展性。将其视为你的代理的通用语言。

关键机制

  • 互操作性的关键要素:在 A2A 世界中,每个智能体都被分配一个“代理卡”,描述其能力、支持的协议和可接受的请求类型,使其他智能体能够发现和交互,而不会暴露敏感细节。将其视为代理的特征。随着你的智能体的演变,这张卡也会随之演变,允许外部世界识别升级。

  • 通信:在 A2A 中,消息使用标准Web技术交换,使用JSONJSON-RPC等格式。这简化了与现有 Web 基础设施的集成,因为智能体的到来不应该中断现有的通信技术。

  • 安全与治理:A2A 已纳入Linux基金会,以促进中立、协作的治理和长期可持续性。

为什么 A2A 重要:

  • 将孤立的“单次 LLM 工具”转变为能够合作、协商和专业化的多智能体系统。

  • 使工作流程中的一个智能体可以作为另一个智能体的同行调用,而不仅仅是作为 API 客户端。

  • 支持水平扩展智能:不是构建一个庞大的智能体,而是编排小型、专业化的生态系统。

MCP:特定领域的语言

MCP 是一个旨在标准化 AI 系统如何连接到工具、服务和数据源的协议。经常被描述为 AI 集成的“USB-C”,MCP 提供了一个通用接口,允许 AI 应用程序插入外部数据源和工具,而无需定制胶水代码。

关键机制

  • 互操作性的关键要素:MCP 服务器暴露了三种主要类型的实体。工具提供了代理可以调用的操作,比如执行代码或调用 API。资源包括代理可以查询或加载的结构化数据。提示提供了预定义的模板来指导代理行为。这些原语是标准定义,以便任何 MCP 兼容的客户端都可以在没有自定义集成的情况下发现和使用它们。

  • 通信:类似于 A2A,MCP尝试重用现有的通信技术,如HTTPSSE等。它还使用简单的客户端-服务器架构。

  • 安全和治理:MCP 实现了强大的集成,但也引入了诸如快速注入、工具中毒和未经授权的数据访问等风险。尽管单独使用它可能并不理想,但它可以与其他工具(如MCPWatch)有效地捆绑在一起,以增强系统保护。

为什么 MCP 很重要:

MCP使智能体能够超越固定技能,允许它们发现和使用网络上任何可用的工具或资源。这支持在不重建智能体的情况下添加新功能。

MCP 允许无缝工具集成,让智能体将工具视为可发现的服务。这消除了自定义集成逻辑,并简化了添加新功能、API 或数据集的过程。

MLOps 工作流

为了演示我们的分层架构,我们将使用一个非常常见的 MLOps 工作流用例,即自动化机器学习模型的验证和部署。系统由三个专门的智能体组成,它们相互协作以实现目标:

  • 编排器智能体:充当协调员。它将高级目标(例如,“验证并部署最新模型”)翻译成一系列任务。使用 A2A 协议,它发现每个任务的适当专家智能体,传递所需的上下文,并根据结果做出决策。

  • 验证智能体:专注于模型验证的专家智能体。它通过其 A2A 智能体卡暴露其能力,如性能测试或偏见分析。要执行请求,它发现并使用实现这些检查的底层 MCP 工具。这允许编排器请求验证而无需了解实现细节。

  • 部署智能体:负责部署经过验证的模型的专家智能体。像验证代理一样,它使用其 A2A 卡来宣传其能力,并发现执行部署所需的 MCP 工具。

工作流的序列图

图 2:MLOps 工作流的序列图

执行和流程

从查询到编排

当 MLOps 工程师提交高级查询时,流程开始。 OrchestratorAgent 在其 stream 方法中接收此查询。它立即调用其内部的 _create_plan_from_query 方法,使用其 LLM 驱动的推理将复杂请求分解为两个不同的高级子目标的任务列表:一个用于验证,一个用于部署。

从编排到专业化

编排器的 stream 方法开始执行计划。对于第一个任务,它使用 A2A 来发现并调用 ValidationAgent ,并向其传递特定的验证指令。 ValidationAgent 现在在它的 stream 方法中接收这个子查询。然后调用 _create_tool_use_plan 方法。这里有一个重要的区别:它的计划不是关于委托,而是关于使用工具的。它通过 MCP 发现 fetch_modelvalidate_churn_model 工具,并制定一系列工具调用以满足请求。其具体实现方式应编码在其初始化时定义的prompt_personality 字符串中。

从工具到结果

ValidationAgent 执行其工具使用计划,调用 MCP 服务器完成工作,并将结果流返回到编排器。如果验证成功,编排器将继续执行第二个任务,调用 DeploymentAgentDeploymentAgent 遵循相同的模式:它创建一个工具使用计划(首先获取当前状态,然后部署)并执行它。然后将最终结果流回用户。

代码模式概览

现在,我们将我们的架构理论转化为实践。在这个代码演练中,我们将重点关注来自 MLOps 工程师的一个示例查询:

“检索最新的流失预测模型,并通过验证模块运行它。如果模型的绝对偏差小于或等于 0.04,则批准其部署。将新模型部署到备用区域:如果当前生产模型在 us-west-1 中运行,则将此版本部署到 us-west-2;否则,将其部署到 us-west-1”。

为了构建一个能够执行此类命令的系统,我们首先建立其基础组件。我们将从设置 MCP 服务器开始,它充当智能体和它们执行任务所需的底层工具之间的桥梁。然后我们再介绍 A2A 构建块以及连接两种协议的胶水。

关于实现的注意事项:代码中的许多函数故意留作占位符。这是因为它们的内部逻辑特定于实现(例如,验证库、云供应商或部署工具的选择)。本文的重点在于展示这些组件如何交互的架构模式。

MCP 服务器

MCP 服务器充当我们系统中所有功能的中心枢纽。它为专家智能体将使用的工具和资源提供了标准化和可发现的接口。这个服务器将智能体与底层应用逻辑解耦。

对于我们的 MLOps 工作流程,MCP 服务器暴露了以下关键端点:

工具(智能体可以调用的动作)

  • fetch_model:从模型注册表中检索最新训练模型的元数据。

  • validate_churn_model:根据提供的要求对模型执行验证逻辑。

  • deploy_churn_model:触发将验证过的模型部署到特定环境。

资源(智能体可以查询的结构化数据)

  • list_agent_cards:提供系统中所有可用代理的列表。

  • retrieve_agent_skills:获取特定智能体的详细能力。

下面的 Python 代码演示了如何使用 FastMCP 库定义这个服务器及其端点。注意,每个函数内部的实现逻辑被故意省略,因为这会根据其他数据工具而变化。这里的重点是架构模式:如何定义、命名和通过标准化协议暴露能力,使任何授权智能体都可以使用。

#mcp_server.pyfrom mcp.server.fastmcp import FastMCPdef serve(host, port, transport):    """Initializes and runs the MCP Server    Args:        host: The hostname or IP address to bind the server to.        port: The port number to bind the server to.        transport: The transport mechanism for the MCP server (e.g., 'stdio', 'sse').    """    mcp = FastMCP("validation-deployment-mcp-server", host=host, port=port)    @mcp.tool(        name="fetch_model",        description="MCP Tool that fetches the latest trained user churn model.",    )    def fetch_model(model_version_metadata : dict) -> dict:        """MCP Tool that fetches the latest trained user churn model metadata.        Args:            model_version_metadata: Which model data is required.         Returns:            JSON object that returns the Metadata information where the new model            is present and other metadata for validation purposes like test dataset            for validation etc.        """        pass    @mcp.tool(        name="validate_churn_model",        description="MCP that validates the churn model.",    )    def validate_churn_model(validation_config: dict) -> dict:        """MCP Tool that validates the churn model based on validation_config.        Args:            validation_config: config containing validation requirements.        Returns:            JSON object returning the validation status.        """        pass    @mcp.tool(        name="deploy_churn_model",        description="MCP that deploys the churn model.",    )    def deploy_churn_model(deployment_config: dict) -> dict:        """MCP Tool that deploys the churn model based on deployment_config.        Args:            deployment_config: config containing deployment requirements.        Returns:            JSON object returning the deployment status.        """        pass@mcp.resource("resource://list_agent_cards/list", mime_type="application/json")    def list_agent_cards() -> dict:        """Retrieves all loaded agent cards as a json / dictionary for the MCP resource endpoint.        This function serves as the handler for the MCP resource identified by        the URI 'resource://agent_cards/list'.        Returns:            A JSON object containing a list of all available agents.        """    @mcp.resource(        "resource://retrieve_agent_skills/{agent_name}", mime_type="application/json"    )    def retrieve_agent_skills(agent_name: str) -> dict:        """Retrieves an agent card as JSON data.        Returns:            A JSON object of Agent Card.        """        pass    mcp.run(transport=transport)def main(host, port, transport) -> None:    serve(host, port, transport)
复制代码

MCP 客户端

为了让智能体发现并使用 MCP 服务器暴露的能力,它需要一个客户端。这个客户端模块充当一个高级 API,抽象掉了 MCP 协议的原始细节。它不是强迫每个智能体构建资源 URI 和管理连接状态,而是提供了一个干净、可重用的接口,包含 list_agents()list_tools() 等方法。

下面的代码概述了一个围绕 mcp.ClientSession 构建的简单 MCPClient 类。它使用异步上下文管理器来处理与服务器的连接生命周期。注意,连接细节被简化,以突出 API 设计,而不是特定传输连接的完整实现。

from contextlib import asynccontextmanagerfrom typing import Any, AsyncGenerator, Dict, Listfrom mcp import ClientSessionfrom mcp.types import ReadResourceResult, ListResourcesResult, ListToolsResultclass MCPClient:    """A high-level client for interacting with the MLOps MCP server."""    def __init__(self, host: str, port: int, transport: str):        """        Initializes the client with the server's connection details.                Args:            host: The hostname or IP of the MCP server.            port: The port of the MCP server.            transport: The transport mechanism (e.g., 'http', 'sse').        """        self._host = host        self._port = port        self._transport = transport    @asynccontextmanager    async def _get_session(self) -> AsyncGenerator[ClientSession, None]:        """        Provides a managed session to connect with the MCP server.        The actual implementation of this would depend on the chosen transport.        """        # In a real implementation, you would initialize the session here        # based on self._host, self._port, etc.        session: ClientSession = None  # Placeholder for the actual session object        try:            # For example:connected through http            yield session        finally:            # For example: await session.close()            pass    async def list_agents(self) -> ReadResourceResult:        """        Retrieves the list of all available agent cards from the MCP server.        """        async with self._get_session() as session:            return await session.read_resource("resource://list_agent_cards/list")    async def get_agent_skills(self, agent_name: str) -> ReadResourceResult:        """        Retrieves the skills for a specific agent from the MCP server.        """        async with self._get_session() as session:            uri = f"resource://retrieve_agent_skills/{agent_name}"            return await session.read_resource(uri)    async def list_resources(self) -> ListResourcesResult:        """Lists all available resources on the MCP server."""        async with self._get_session() as session:            return await session.list_resources()    async def list_tools(self) -> ListToolsResult:        """Lists all available tools on the MCP server."""        async with self._get_session() as session:            return await session.list_tools()
复制代码

智能体的执行辅助程序

为了执行多步计划,智能体需要一种结构化的方法来管理其任务。下面的辅助类为这个任务提供了一个可重用的模式。其核心思想是将一个复杂的目标表示为一个任务列表(TaskList),它本质上是一个计划或一系列任务对象。每个任务表示工作流中的单个具体步骤,例如找到合适的专家智能体或调用特定的工具。

这种方法允许智能体的高层推理与低层执行机制解耦。

import jsonfrom collections.abc import AsyncIterablefrom a2a.client import A2AClientfrom uuid import uuid4import httpxfrom a2a.types import (    AgentCard,    MessageSendParams,    SendStreamingMessageRequest,    SendStreamingMessageSuccessResponse,    TaskArtifactUpdateEvent,)from mcp_client import MCPClientfrom a2a.server.agent_execution import AgentExecutor, RequestContextfrom a2a.server.events import EventQueueclass Task:    """Represents a single task that needs to be executed in the task list."""    task_query: str    def __init__(self, *args, **kwargs):        pass    async def find_agent_for_task(self, mcp_client, query) -> AgentCard | None:        """Fetch an agent card suitable for the node's task from MCP."""        result = await mcp_client.list_agents(query)        chosen_agent = select_agent(query)        agent_card_json = json.loads(chosen_agent.content[0].text)        return AgentCard(**agent_card_json)    async def execute_task(        self,    ) -> AsyncIterable[dict[str, any]]:        """Execute the node task via A2A streaming messages using the assigned agent."""        agent_card = await self.find_agent_for_task(query=self.task_query)        async with httpx.AsyncClient() as httpx_client:            client = A2AClient(httpx_client, agent_card)  # A2A Client queries the Agent            payload: dict[str, any] = {                "message": {                    "parts": [{"kind": "text", "text": self.task_query}],                    # Can have other elements too based on Agent Card inputs.                },            }            request = SendStreamingMessageRequest(                id=str(uuid4()), params=MessageSendParams(**payload)            )            response_stream = client.send_message_streaming(request)            async for chunk in response_stream:                # Save the artifact as a result of the node                if isinstance(chunk.root, SendStreamingMessageSuccessResponse) and                              isinstance(chunk.root.result, TaskArtifactUpdateEvent):                    artifact = chunk.root.result.artifact                    self.results = artifact                yield chunkclass TaskList:    """Represents a Topological graph of tasks that need to be executed"""    task_list: list[Task]  # Task list that needs to be executed.    def __init__(self, *args, **kwargs) -> None:        """        Breaks the query into a task list and the order in which it should be         executed.The AI agent should break this down and put it in the task_list         array.        """        pass    async def execute_task_list(self) -> AsyncIterable[dict[str, any]]:        """        Executes the tasks for the agent.        """        # .....        for task in self.task_list:            # ....            task.execute_task()class GenericAgentExecutor(AgentExecutor):    """AgentExecutor used by the agents."""    def __init__(self, agent):        self.agent = agent    async def execute(        self,        context: RequestContext,        event_queue: EventQueue,    ) -> None:        pass
复制代码

协调智能体

卡片

{    "name": "Orchestrator Agent",    "description": "Helps in invoking the MLOps workflow. Which will do validtion and deployment",    "url": "http://localhost:8003/",    "version": "1.0.0",    "skills": [        {            "id": "orchestrate_the_flow",            "name": "orchestrate_the_flow",            "description": "Helps in orchestrating MLOps Workflow",            "tags": [                "Validate the model and then deploy it."            ],            "examples": [                "Retrieve the latest churn prediction model and run it through the validation module. If the model’s absolute bias is less than or equal to 0.04, approve it for deployment. Deploy the new model to the alternate region: if the current production model is running in us-west-1, deploy this version to us-west-2; otherwise, deploy it to us-west-1."            ]        }    ]}
复制代码

代码样板

from typing import AsyncIterable, Anyfrom agent_helpers import TaskListfrom mcp_client import MCPClientclass OrchestratorAgent:    """    Orchestrates a multi-step workflow by breaking a high-level goal    into a sequence of tasks for specialist agents.    """    def __init__(self, mcp_client: MCPClient, prompt_personality: str):        """        Initializes the Orchestrator Agent.        Args:            mcp_client: A client for interacting with the MCP server.            prompt_personality: Instructions guiding the agent's planning process.        """        self._mcp_client = mcp_client        self._prompt_personality = prompt_personality    async def _create_plan_from_query(self, query: str) -> TaskList:        """        Translates a natural language query into a structured TaskList for delegation.        """        # This method simulates the agent's high-level reasoning process.        # The agent's LLM, guided by its personality prompt, would parse the        # user's query to identify distinct, sequential steps.        # For our example query, it would identify two main sub-goals:        # 1. A validation step with a specific condition.        # 2. A deployment step that depends on the outcome of the first.        # The agent then creates a TaskList where each Task encapsulates the        # natural language instruction for that sub-goal. This is different        # from a specialist agent, whose plan would involve specific tool calls.        #        # Task 1 Query: "Retrieve the latest churn prediction model... approve it for deployment."        # Task 2 Query: "Deploy the new model to the alternate region..."        #        # The output of this method would be a TaskList object containing        # these two Task objects, ready for execution.        pass    async def stream(self, query: str) -> AsyncIterable[dict[str, Any]]:        """        Processes a query by creating a plan and then executing it.        """        # 1. CREATE THE PLAN        # The agent first calls its internal planning method to translate        # the natural language query into a structured TaskList.        plan = await self._create_plan_from_query(query)        # 2. EXECUTE THE PLAN        # The agent then executes the plan. The plan.execute() method will        # iterate through the Tasks. For each Task, it will find the        # appropriate specialist agent (Validation, then Deployment) and        # stream the sub-query to it. The results are then yielded back.        pass
复制代码

验证智能体

卡片

{    "name": "Validation Agent",    "description": "Helps in validating the MLOps model.",    "url": "http://localhost:8004/",    "version": "1.0.0",    "skills": [        {            "id": "validate_the_model",            "name": "validate_the_model",            "description": "Helps in validating MLOps models",            "tags": [                "Validate the model based on user requirements."            ],            "examples": [                "Retrieve the latest churn prediction model and run it through the validation module. If the model’s absolute bias is less than or equal to 0.04, approve it for deployment."            ]        }    ]}
复制代码

代码样板

from typing import AsyncIterable, Anyfrom mcp_client import MCPClientclass ValidationAgent:    """    A specialist agent that validates a machine learning model by discovering    and using tools from the MCP server.    """    def __init__(self, mcp_client: MCPClient, prompt_personality: str):        """        Initializes the Validation Agent.        Args:            mcp_client: A client for interacting with the MCP server.            prompt_personality: Instructions guiding the agent's tool-use logic.        """        self._mcp_client = mcp_client        self._prompt_personality = prompt_personality    async def _create_tool_use_plan(self, query: str):        """        Translates a natural language query into a structured plan of tool calls.        """        # This method simulates the agent's reasoning process.        # 1. DISCOVER: The agent first needs to understand what it can do.        # It would call self._mcp_client.list_tools() to get a real-time        # list of all available capabilities on the MCP server. This allows        # it to dynamically learn that tools like 'fetch_model' and        # 'validate_churn_model' are available. This should be part of the        # prompt_personality        # 2. PLAN: Based on the available tools and the specific user query,        # the agent formulates a plan. For the query: "...absolute bias is        # less than or equal to 0.04...", its LLM would determine that it        # needs to:        #   a. Fetch the model's metadata using the 'fetch_model' tool.        #   b. Construct a 'validation_config' containing the bias check,        #      extracting the '0.04' threshold from the query.        #   c. Call the 'validate_churn_model' tool with that config.        #        # The output of this method would be a structured object, like a list        # of pre-configured tool calls, ready for execution.        pass    async def stream(self, query: str) -> AsyncIterable[dict[str, Any]]:        """        Processes a validation query by creating a plan and then executing it.        """        # 1. CREATE THE PLAN        # The agent first calls its internal planning method to translate        # the natural language query into a structured sequence of tool calls.        plan = await self._create_tool_use_plan(query)        # 2. EXECUTE THE PLAN        # The agent would then iterate through the steps in the generated plan.        # It would call the necessary MCP client methods (fetch_model,        # validate_churn_model) in the correct order with the correct        # parameters derived during the planning phase. The results of each        # step would be yielded back to the Orchestrator.        pass
复制代码

部署智能体

卡片

{    "name": "Deployment Agent",    "description": "Helps in deploying the validated MLOps model.",    "url": "http://localhost:8005/",    "version": "1.0.0",    "skills": [        {            "id": "deploy_the_model",            "name": "deploy_the_model",            "description": "Helps in deploying MLOps models",            "tags": [                "Deploy the model based on user requirements."            ],            "examples": [                "Deploy the new model to the alternate region: if the current production model is running in us-west-1, deploy this version to us-west-2; otherwise, deploy it to us-west-1."            ]        }    ]}
复制代码

代码样板

from typing import AsyncIterable, Anyfrom mcp_client import MCPClientclass DeploymentAgent:    """    A specialist agent that deploys a validated machine learning model by    discovering and using tools from the MCP server.    """    def __init__(self, mcp_client: MCPClient, prompt_personality: str):        """        Initializes the Deployment Agent.        Args:            mcp_client: A client for interacting with the MCP server.            prompt_personality: Instructions guiding the agent's tool-use logic.        """        self._mcp_client = mcp_client        self._prompt_personality = prompt_personality    async def _create_tool_use_plan(self, query: str):        """        Translates a natural language query into a structured plan of tool calls.        """        # This method simulates the agent's reasoning process.        # 1. DISCOVER: The agent determines its available capabilities.        # It would call self._mcp_client.list_tools() to learn that tools        # like 'fetch_model' and 'deploy_churn_model' are available. Again done by prompt        # personality.        # 2. PLAN: The agent formulates a plan based on the query: "Deploy        # the new model to the alternate region...". Its LLM reasoning would be:        #   a. To find the "alternate" region, I must first find the "current" one.        #   b. The 'fetch_model' tool can get me the metadata of the current        #      production model.        #   c. From that metadata, I can extract the current deployment region.        #   d. I can then write logic to determine the alternate region.        #   e. The final plan is a sequence of two tool calls: first fetch_model        #      to get the state, then deploy_churn_model to execute the change.        # The output of this method would be a structured object, like a list        # of pre-configured tool calls, ready for execution.        pass    async def stream(self, query: str) -> AsyncIterable[dict[str, Any]]:        """        Processes a deployment query by creating a plan and then executing it.        """        # 1. CREATE THE PLAN        # The agent first calls its internal planning method to translate        # the natural language query into a structured sequence of tool calls.        plan = await self._create_tool_use_plan(query)        # 2. EXECUTE THE PLAN        # The agent would then iterate through the steps in the generated plan.        # It would call the necessary MCP client methods (fetch_model,        # deploy_churn_model) in the correct order with the correct        # parameters derived during the planning phase. The results of each        # step would be yielded back to the caller.        pass
复制代码

脚本启动所有智能体

import jsonimport httpxfrom pathlib import Pathfrom basic_helper.promp_personalities import promptsfrom orchestrator_agent import OrchestratorAgentfrom validation_agent import ValidationAgentfrom deployment_agent import DeploymentAgentfrom a2a.types import AgentCardimport uvicornfrom a2a.server.apps import A2AStarletteApplicationfrom a2a.server.request_handlers import DefaultRequestHandlerfrom a2a.server.tasks import (    BasePushNotificationSender,    InMemoryPushNotificationConfigStore,    InMemoryTaskStore,)mcp_client = MCPClient(host="localhost", port=8000, transport="http") # Example Clientdef get_agent(agent_card: AgentCard):    """Get the agent, given an agent card."""    try:        if agent_card.name == "Orchestrator Agent":            # This is the Orchestrator Agent            return OrchestratorAgent(mcp_client, prompts.orchestrator_agent)        if agent_card.name == "Validation Agent":            # This is the Validation Agent            return ValidationAgent(mcp_client, prompts.validation_agent)        if agent_card.name == "Deployment Agent":            # This is the Deployment Agent            return DeploymentAgent(mcp_client, prompts.deployment_agent)    except Exception as e:        raise edef main(host, port, agent_card_path):    """Starts an Agent server."""    with Path.open(agent_card) as file:        data = json.load(file)    agent_card = AgentCard(**data)    client = httpx.AsyncClient()    push_notification_config_store = InMemoryPushNotificationConfigStore()    push_notification_sender = BasePushNotificationSender(        client, config_store=push_notification_config_store    )    request_handler = DefaultRequestHandler(        agent_executor=GenericAgentExecutor(agent=get_agent(agent_card)),        task_store=InMemoryTaskStore(),        push_config_store=push_notification_config_store,        push_sender=push_notification_sender,    )    server = A2AStarletteApplication(        agent_card=agent_card, http_handler=request_handler    )    uvicorn.run(server.build(), host=host, port=port)if __name__ == "__main__":    main()
复制代码

将这两个协议分层的架构优势

这种将编排与专业执行分离的清晰划分带来了显著的架构优势:

  • 动态发现和弹性:编排器没有硬编码的专家知识。新智能体(例如,ReportingAgent 或 MonitoringAgent)可以被添加到系统中,而编排器能够在不更改其代码的情况下发现并使用它们。

  • 可组合能力: 专家智能体本身不是单体的。它们通过发现和使用 MCP 服务器中的细粒度工具来组合它们的行为。只需部署一个新的 MCP 工具,就可以简单地添加一个新的验证检查,ValidationAgent 随后可以动态地发现并使用它。

  • 清晰的意图与执行分离:编排器表达高层次的业务目标。专家处理低层次的实现细节。这种解耦使得整个系统更容易理解、维护和扩展。

  • 适应性和涌现系统:通过结合一个通用编排器和一组可发现的专业工具和代理,我们创建了一个能够适应新且复杂命令的系统,这些命令并非为它们明确设计。

通过在能力协议(MCP)之上分层一个通信和发现协议(A2A),我们弥合了从僵化和程序化自动化到真正的目标导向、AI 驱动操作的差距。

结论

随着智能体时代的到来,对健壮、可扩展和可互操作的智能体系统的需求变得越来越重要。在本文中,我们提出了一种架构模式,利用 Agent-to-Agent (A2A)和模型上下文协议(MCP)来解决这一挑战。

通过对 MLOps 工作流程的详细探索,我们展示了这种分层方法如何成功地将编排逻辑与执行逻辑解耦,这是可扩展系统的一个基本原则。我们展示了 A2A 为动态智能体协作提供了必要的通信框架,而 MCP 作为智能体发现和利用多样化工具和资源的通用接口。这种架构能够在不改变核心通信逻辑的情况下无缝集成新能力。

这种分层智能体架构的力量在于其适应和演变的能力。对于在 AI 的复杂性中导航的组织来说,这意味着从僵化、单体系统转向敏捷、智能体驱动的操作。它为开发能够快速整合新模型、工具和业务需求的 AI 生态系统提供了一个强大的蓝图。开发者获得了一个强大的框架,以构建更具弹性和可维护的管道。这种模式不仅限于 MLOps;其原则适用于任何动态协作和适应性访问能力至关重要的领域,以构建下一代智能系统。通过拥抱 A2A 和 MCP,我们使 AI 智能体从孤立任务转向协调智能,解锁了智能体时代前所未有的自动化和适应性水平。

这里介绍的架构模式提供了一种多智能体设计的方法。它提供了一个深思熟虑的结构,使我们能够超越简单的、单一的智能体,向协作系统迈进。

对于有兴趣尝试这些概念并围绕它们开发工具的读者,GitHub 上的官方A2A示例库提供了一个使用这两种协议的可运行示例,是一个很好的入门资源。

原文链接:

https://www.infoq.com/articles/architecting-agentic-mlops-a2a-mcp/