标签 数据基础设施 下的文章

撰稿:李文朋

编辑:王一鹏

这两年 AI 发展很快,很多企业遇到的瓶颈也在变化:不再是“算力不够”,而是“数据跟不上”。

2026 年 1 月,IDC 在《边缘进化:从核心到边缘驱动成功》报告中提到:已经部署生成式 AI 的企业里,超过 60%的“实时交互类应用的响应延迟比预期高”。

很多时候,这种延迟不一定是模型慢,也不一定是算力不够,而是数据散在企业内部各处,口径不统一,质量也不稳定,关键时刻更是“找不到、拿不出、对不上、流不动”。

金融行业感受特别明显。一位城商行做数字化建设的负责人公开表示:“我们目前不缺算力,也不缺模型。缺的是能让模型真正跑起来的数据。”

模型训练成本在下降,但把数据整理好、清洗好、能实时用起来的成本反而越来越高。

2026 年初,这个问题已经不只是“体验不好”,甚至会影响商业项目的成败。IDC 在 FutureScape 里提醒称:今年,50%的 AI 驱动应用将会因为数据基础薄弱,达不到原定 ROI 目标。

事实上,数据的重要性远不止如此,更长远一点看,甚至会关系到 AI 到底能走多远。

2025 年云栖大会上,阿里巴巴集团 CEO 吴泳铭谈过一个判断:AGI 大概率会出现,但只是开始。真正的下一步,是走向能自我迭代、持续变强的 ASI。他把过程分成三段:先学会推理,再学会使用工具辅助人类,然后连接现实世界的数据,能自己学习、自己迭代。

说得更直白一点:未来 AI 更像一个“持续在线的系统”,它得不断吃到最新的数据,并把这些数据变成新的能力。数据是否能高效、持续地进入系统,变得愈加重要。

正因如此,很多基础设施厂商开始关注“更适合 AI 使用的数据”方向。数据库不再是“存数据”,而是要让数据更容易被统一管理、被实时取用、被不同类型的模型和应用调用。

2026 年 1 月 20 日,阿里云在 2026 PolarDB 开发者大会上发布了 AI 就绪(AI-Ready)云原生数据库新标准。

它想解决的事情其实很简单:让数据系统不仅能存储、查询多模态数据,还将直接驱动 AI 智能决策,让数据进入模型与业务的路径更短、更稳定,以及更安全。

阿里云资深副总裁、数据库产品事业部负责人李飞飞表示:“未来,AI 原生数据库是技术演进的必然方向。从云原生到 Al 就绪,再到 Al 原生,PolarDB 将持续深化 AI 与数据库的融合创新,加快走向超级人工智能时代。”

从行业视角看,数据库已不只是业务系统的底座,开始逐渐变成智能应用能不能跑顺的关键部分。围绕“数据怎么被组织、被使用、被转化”的变革,已悄然上演。

第一部分:数据困境的背后:是新旧时代的“不兼容”

过去很多年,企业做数据治理的“沉淀逻辑”只有一个:让人更容易做决策。

业务员、分析师、管理层要看的数据,通常得“对得上”“能解释”“表格整齐”。于是传统数据团队投入大量成本做 ETL(清洗、转换、加载),把数据整理成一张张看起来清楚、口径一致的报表。

问题是,现在数据的“主要使用者”变了:很多数据不是给人看,而是给模型用。这就会出现一种情况:对人很友好的数据,不一定对模型有用。

一个常见例子是风控。在传统的数据整理过程中,为了让报表更稳定、更好讲,分析人员往往会把极端交易、可疑行为当成离群点删掉,觉得它们会影响整体判断。

但对模型来说,删掉这些样本的结果是:正常样本越来越多,异常样本越来越少;并导致欺诈、极端风险这些关键模式识别,几乎无法归纳学习。

换句话说,在 AI 时代,“干净数据”并不等于“高质量训练数据”。

今天很多企业说“数据资产不少,但模型效果一般”,背后往往是同一类问题——现有数据的组织方式,跟模型所需要的对不上——本质就是“兼容”问题。

例如,在结构方面,企业现有数据多数是二维表格,字段清晰,适合报表和人工分析。但很多模型更需要的是向量、图结构、时间序列这些形式,用来表达关系、上下文和变化。

传统数据的维度也不够。传统指标体系更强调“少而精”,字段要能解释能展示,但模型训练往往靠大量稠密特征。很多特征单看没什么意义,要组合起来才有价值。

传统数据更新速度也慢。很多系统按天、按周更新数据,这对复盘、报表够用,但推荐、风控、运营决策这类应用,往往希望输入尽量接近实时。

传统数据格式也较为分散,不少业务系统以结构化数据为主,图像、音频、视频、传感器流等数据通常分散在各自系统里,管理不在一起,调用也不在一起。

于是看上去数据资产很多,但真正能直接拿来训练、推理的数据,比例并不高。

大家越来越接受一个现实:2026 年,数据本身将决定 AI 模型的能力天花板。为了缓解上面的这些“对不上”问题,“AI 就绪数据”(AI-Ready Data)应运而生。

它想表达的不是一个新概念,而是一件很具体的事:数据要经过专门的整理、特征化和组织,以更小的工程成本直接用于训练、推理和决策。

AI 就绪数据,通常会包含几类要求:首先,特征要够用,不是“有数据”就行,而是要有足够细的维度,让模型有东西可学。

比如做用户行为建模,只保留“总次数”“总金额”通常不够,还需要时间分布、品类偏好、渠道差异、设备类型等细节等。

其次,标签也要准,需要监督学习的场景里,标签相当于“题目答案”。标签粗、标签不一致,都会拉低模型上限。这就要求,图像分割、文本抽取都要尽可能精确。

同时,样本要尽可能覆盖真实世界,因为现实业务不会只落在“平均值”上。所以实践中会强调覆盖长尾:高峰期、极端天气、罕见故障、少数群体、低频行为等。这些数据从报表角度不一定好看,但对泛化能力很重要。

最后,数据也要能跟着变化更新,很多传统的数据质量体系把数据当“静态资产”,但用于智能应用时,数据要像“动态输入”。常见要求包括:按合适频率引入新样本;对明显过时的数据标记或降权;根据线上表现迭代数据集。

过去两年,很多企业在数据库和数仓之外,再搭特征平台;要实时就接流计算;要多模态就加向量库、图系统;最后再用调度、同步、API 网关把这些拼在一起。

这种做法在试点阶段通常能跑起来,但场景一多、频率一高、数据类型一复杂,架构复杂度和运维成本就会上去。因此,越来越多的方法论开始强调:与其在旧框架上不断加组件,不如从底层重新规划面向智能应用的数据底座。

在产品层面,一些云数据库厂商正在调整定位:不只做“关系型数据库”,而是把自己当作智能应用的数据基础设施。

比如阿里云云原生数据库 PolarDB 的产品理念,就强调在云原生架构上,配合湖库一体等能力,去支撑结构化、半结构化以及非结构化数据的统一管理,为“AI 就绪数据”提供底层能力等。

PolarDB 还首次系统定义了“AI 就绪数据库”的 4 大核心支柱,分别是:多模态 AI 数据湖库、高效融合搜索能力、模型算子化服务,以及面向 Agent 应用开发的后端服务。

这是通过将多模态存储、搜索、推理和后端开发套件深度集成到数据库内核,满足企业多模态搜索、问答、数据处理、标注等需求,将复杂的异构架构简化为统一的智能化底座。

从这个角度看,AI 就绪数据会越来越像企业的“基础配置”:这不是为了追趋势,而是为了让后面的应用能更智能、更高效、更安全地跑起来、跑下去。

第二部分:行业正想尽办法,让数据处理实现加速

如果说“AI 数据就绪”解决了数据能不能用,那么“数据处理速度”则决定这些数据能否“实时”产生价值。

经过不少实践后,大家慢慢形成一个判断:同一份信息,发生在“刚刚”和“昨天”,对业务价值可能不是一两倍的差距,而是会差一个数量级。

以淘宝为例,数据显示电商运营数据的实时监控能够让决策效率提升 40%以上。某头部淘宝店铺通过自主搭建实时数据采集和分析系统,将数据延迟控制在 1-5 分钟后,运营效率和业绩直接提升 30%。

风控领域的收益更明显。一次异常交易判断窗口往往只有秒级:秒级识别,损失只是几百元;第二天发现,可能已经数百万。对金融机构来说,实时数据不是“体验优化”,而是成本。

问题在于:今天大多数企业的传统数据链路,并不是为“实时”设计的。最典型数据处理路径就是:从业务数据库,到 ETL,再到特征平台处理,进行特征缓存,最后供模型调用。

这条链路长、环节多,每一步都会带来延迟。所以这两年行业里出现一个变化:大家开始关注能不能少搬点数据,少绕几道弯。因为数据在系统之间来回搬运、复制、同步,本身就是时间和复杂度的来源。

从这个角度看,很多数据“新架构”绕来绕去,其实想解决的是同一件事:让数据尽量留在一个更统一的底座上,把处理、检索、计算尽量在同一套体系里完成,把链路缩短简化。

PolarDB 这次讲的“AI 就绪云原生数据库”,基本就是沿着这个思路在做。

过去几年企业反复提“湖仓一体/湖库一体”,说白了是因为两套系统各有短板:数据湖便宜、能存很多、数据类型也更杂,数据库查询强、事务能力好,可一旦规模大、成本就上来了,对大规模非结构化数据也不友好。

结果就是数据经常搬来搬去:为了分析,把业务数据抽到湖里;为了在线服务,又从湖里挑一部分加工后装回库或特征仓。每搬一次,就多一次复制、多一次同步、多一段延迟。

此次,PolarDB 发布的—AI 数据湖库(Lakebase)解决方案,就是专为实现“湖库—体”架构而设计的。

AI 数据湖库尝试把结构化、半结构化,以及非结构化数据,都放在同一个平台里统一存取和处理,减少来回同步,让链路变短。与此同时,它还配了缓存加速能力,针对不同场景做 I/O 和带宽的加速,让海量数据在底座里流转得更顺。

这让数据从“产生”到“能用”的时间缩短,很多场景能从小时级压到分钟级,甚至更低。

这是加速的第一步:少搬数据。但湖库一体更多解决的不止是“搬运成本”,还有个更隐蔽、也更容易被忽略的卡点:推理路径。

传统架构里,数据库只负责存储和查询,推理模型是独立的外部服务。这样做的结果是:应用需要先从数据库取特征,再送给推理服务推理,最后把结果写回或返回业务。

每一步看起来都不慢,但数据序列化、网络传输、排队等待加起来,延迟就会暴增。

PolarDB 这次的思路不太一样:它不是把推理当成“外挂”,而是希望把推理内化为数据库的原生能力。

它的做法是,通过多模态引擎与独有 In-DB 模型算子化的深度集成,开发者可以在 PolarDB 库内直接完成语义检索与推理加工,在效率显著提升的同时,确保数据不出域,保障隐私合规。

具体方面,通过 LLM SQL 接口封装阿里云百炼各类模型构建 PolarDB 模型算子,开发者在 SQL 里可以直接调用推理能力——不用数据出库,不用中间转换,一条查询就完成"找数据→检索语义→推理加工→返回结果"整个流程。

为了支撑这套库内推理,PolarDB 还对底层做了分层优化,创新性地融合了 KVCache、图数据库与向量技术,构建了兼顾长短期记忆与低算力消耗的检索方案。

换句话说,AI 数据湖库不再只是提供"看数据接口",而是变成"数据和模型直接对话的场所"。

当然,要让推理少绕路,还有个前提:数据库要顶得住 Agent 的高频访问。

Agent 在执行任务时,可能会发起大量查询来验证和规划,如果数据库是“存储和计算绑在一起”,高频查询的计算压力会直接拖垮存储稳定性。

云原生数据库 PolarDB 的设计是通过存算分离来解决这个问题:计算节点独立扩缩,高并发查询主要消耗计算资源,不会拖垮存储。遇到 Agent 高峰期的访问洪峰,可以独立扩计算而不用扩存储,成本和效率都会提升。

除了架构分离,PolarDB 还在应用和功能层做了专门设计。

PolarDB 新增 AgentMemory 能力,提供长短期记忆表结构模板,自动管理对话历史和上下文。开发者不需要自己拼 SQL、维护索引,Agent 每一轮对话都被自动记录,下一轮查询时自动成为上下文的一部分。

在执行层,PolarDB 提供自然语言工具调用(NL2SQL 自动解析与执行),Agent 可以用"问问题"的方式检索复杂知识。同时支持多模态数据融合,让 Agent 能在一次查询里实时融合文本、向量、图关系的检索结果。

结合基于 Supabase 的 Agent 统一部署与托管,PolarDB 为企业提供工业级 Agent 开发框架。从多租户隔离、Serverless 自动扩容、到运维自动化,所有工程复杂度都被打包进框架里,开发者只需专注定义 Agent 的行为和目标即可。

这样一来,开发者收获很明确:存算分离让高并发和性能更容易同时拿到,AgentMemory+NL2SQL+多模态融合让 Agent 的记忆、检索、推理更像是数据库原生支持的事;工程上的托管和 Serverless 减少了部署、扩容、监控这些杂事难题。

整体看下来,数据行业的这轮"加速"并不只是把某个指标做快,而是在做一件更底层的事:让数据少移动,让推理少绕路,让 Agent 的高频快速访问有专门架构支撑。

链路短了,实时能力才更容易稳定下来,也更容易规模化,不至于每个场景都要重新搭一套。

第三部分:当 AI 反哺“数据”,AI-Native 成为可能

从行业看,2026 年很可能会成为多 Agent 协同大规模落地的起点。

这不是因为单个 Agent 的能力突然跃升,而是因为多个 Agent 协同工作能够产生涌现效应——它们可以相互验证、相互纠正、共同规划复杂任务,从而完成单一模型难以胜任的工作。

当 Agent 大规模走向自主决策与协作时,可能在一秒内对数据库发起成千上万次查询——先查一遍,根据结果修正假设,再查一遍,调整策略,反复循环,直到找到满意的答案。

如果要承载 Agent 这种近乎“暴力”的访问模式,就必须引入一种全新的数据库形态——AI-Native 数据库。

AI-Native 数据库也需要从根本上改变与 Agent 的交互方式。最核心的转向是:从 SQL 的"精确匹配"扩展到"语义级检索与推理式访问"。

这意味着数据库不再仅仅回答"这个值是什么"的问题,而是要回答"这个值意味什么"、"这条数据与另一条数据在语义上有什么关联"、"基于这些信息,下一步应该怎么做?"。

而要做到这一点,AI 相关的数据能力不能只做成外挂,而要成为数据库的“内生智能”。例如在存储层支持向量索引,在查询层支持相似度检索,在优化层针对向量查询做专门优化等。

大会上,PolarDB 提出“AI 就绪的云原生数据库”的概念,就是为了推动数据库实现从“外挂式”集成 AI 到“内生智能”的进化,这也是走向 AI-Native 的过渡。

关于 AI-Native 数据库,另一个同样重要、却常被低估的变化,是对数据动态性的重新认知。

在 AI 时代,高质量数据并不是一次性定义出来就能长期使用的:今天仍然有效的数据集,可能因为新的应用场景或模型路线,变得不再匹配。这需要 Agent 持续学习、持续适应新环境,相应的数据特征也会随之变化。

很显然,传统数据仓库“每天一次、每周一次”的更新节奏明显跟不上,AI-Native 数据库需要支持更实时、更持续的数据优化。

好的一面是:被数据“喂养”的 AI,正在获得反过来“反哺数据”的能力。

过去的数据清洗、整理与验证高度依赖人工:工程师写脚本,分析师定规则,QA 定期抽检,流程慢且容易遗漏。现在,具备推理与决策能力的 Agent 已可以把一部分治理工作自动化。

比如,让 Agent 获得对数据库的“写权限”:把自己的思考过程、决策日志写入数据库,沉淀为训练样本;把推理中得到的新知识、新规律固化到数据层。更进一步,当 Agent 在执行任务时发现脏数据、明显错误或不一致,它可以自动触发修正流程,而不是等人工排查。

当这些机制形成闭环,数据库就能更快产出“最新、可用、被校正过”的数据,并把反馈链路压到更短的延迟。

可以想象一个场景:某个 Agent 在做客户风险评估时,发现了一类新的可疑交易特征。它把该特征写入数据库并触发检测规则;规则自动回扫历史数据,标注出相似交易;评分模型读取新标签,更新客户风险等级。整个流程自动闭环,同时数据一致性仍然受到约束与保障。

从更宏观的角度看,这意味着 AI+Data 正在形成一个自循环系统:AI 消费数据、理解数据、改写数据,数据再反过来塑造 AI 的行为与能力。

未来的超级智能(ASI)将不再是一个孤立模型,而更像是一个持续运转的系统:它既是数据的使用者,也是数据的生产者和优化者。数据不再只是被存放的资源,而是一种被不断加工、更新的运行态。

这个循环的速度越快、效率越高,整个系统的智能水平就越高。而承载这个循环的核心基础设施,一定是 AI-Native 的数据库系统。

回到 PolarDB 大会发布的一系列能力:AI 数据湖库(Lakebase)减少数据搬运,多模态多引擎融合扩展可管理的数据类型,模型算子化把推理拉回数据库内部,以及面向 Agent 应用开发的托管能力。它们看起来是分散功能,但放在一起更像一套完整路径——让数据库在 AI 时代重新站到系统中心。

这意味着一次更深的范式转移:从 2025 到 2026,数据库产品、数据架构与 AI 应用之间的边界在变得模糊。企业 IT 也可能从“多个专用系统拼装”转向“围绕一个 AI-Native 数据库组织数据、计算与决策”。

在这个背景下,未来谁能更快完成从云原生到 AI 原生的迁移,谁就更有机会在下一轮基础设施竞争中占据优势。

以下内容来源于DataforAI社区,作者Data for AI

当 AI 遇见数据:一场面向工程实践的技术交流

大模型并没有直接带来 AI 应用的成熟。真正决定 AI 能否规模化落地的,正在从模型本身,转移到数据、上下文与基础设施

与此同时,数据基础设施也正经历一轮深刻演进:从传统的数据湖仓,到多模态数据管理;从 SQL 查询引擎,到面向 AI 的数据解析与治理能力。这些变化,正在重新定义我们构建 AI 应用的方式。

1 月 24 日(周六)下午Data for AI 社区 将携手 ALC Beijing (Apache Local Community Beijing) 举办 Data for AI Meetup Beijing,邀请来自产业、开源社区与学术界的一线实践者,围绕 AI 时代的数据基础设施演进 展开深入交流。

本次 Meetup 汇聚了来自 字节跳动火山引擎 / Daft 社区、OceanBase社区、北京大学、Datastrato / Apache Gravitino 社区、Zilliz / Milvus 社区的技术专家,深度剖析 AI 时代数据基础设施的技术演进路径。

📍 本次 Meetup 核心看点

  • 多模态数据处理引擎实践:

    Daft 在 AI 数据预处理与训练加载中的工程经验

  • AI 原生元数据平台:

    Apache Gravitino 1.1.0 的关键能力与治理实践

  • Agent 数据基座设计:

    记忆、检索与数据统一的工程解法

  • Data-centric AI 方法论:

    面向大模型的数据准备与质量体系

  • 混合检索实践:

    向量 + 全文检索在真实业务中的优化路径

  • 开源探索:

    Skill 驱动的上下文工程平台化可能性

  • 圆桌讨论:

    下一代面向 AI 应用的数据基础设施如何设计与落地


多模态数据处理的新范式

AI 训练对数据处理提出了全新挑战。火山引擎 AI 数据湖服务架构师 琚克俭 将分享 Daft 在多模态数据处理上的工程实践,聚焦图像、视频、文本等异构数据在统一处理、预处理与训练加载阶段的性能与架构挑战。

这一分享直面当前 AI 工程的核心痛点:传统数据引擎已难以支撑多模态 AI 工作负载,而 Daft 通过全新的架构设计,在数据预处理和训练加载环节实现了显著的性能提升。

元数据治理进入 AI 原生时代

Datastrato VP of Engineering 史少锋 将深度解析 Apache Gravitino 1.1.0 的核心升级,包括 Lance REST 支持、Generic Lakehouse Catalog、Iceberg 安全增强等关键特性。

当 AI 团队需要在多个集群间管理训练数据、推理数据和模型元数据时,传统的元数据工具往往各自为政。Apache Gravitino 1.1.0 通过统一的元数据治理架构,让跨引擎、跨存储的数据协同变得标准化、可管理,大幅降低 AI 工程中的数据协同成本。

上下文工程:Agent 落地的数据基座

OceanBase 技术专家 汤庆 将深度解析当下最热的「上下文工程」话题。他指出,企业级 Agent 面临三大核心挑战:如何让 Agent 拥有可靠的「记忆」(记忆管理)、如何让 Agent「理解」复杂文档(知识检索),以及如何统一处理向量、文本、结构化数据(数据统一)。

这三款 AI 产品的协同设计给出了答案:PowerMem 基于艾宾浩斯遗忘曲线构建智能记忆系统并支持多智能体隔离,PowerRAG 提供多引擎 OCR 与向量 + 全文的混合检索能力,seekdb 则作为 AI 原生数据库统一管理多模态数据并兼容 MySQL 生态。这套方案的核心价值在于:用数据架构的确定性,对抗 Agent 行为的不确定性。

面向大模型时代的 Data-centric AI 基础设施

北京大学助理教授 张文涛 将从学术与工程结合的视角,系统阐述 AI 从「模型为中心」到「数据为中心」的范式转变。当大模型能力趋同,数据质量正在成为决定模型性能的关键变量。

张文涛团队主导开发的 DataFlow 数据准备系统已在大模型预训练、企业知识库构建等场景得到验证。本次分享将深入解析 LLM 数据工程的完整流程:如何获取数据(爬取、解析、合成、标注),如何处理数据(过滤、改写、配比),以及如何评估数据质量。这套开源工具链与方法论,正在为 AI 开发者降低数据工程的门槛。

从向量检索到混合查询:Context Engineering 实践

Zilliz 资深解决方案架构师 刘汉卿 将系统回顾从 Prompt Engineering 到 Context Engineering 的演进路径。随着 RAG 技术从单一向量检索发展到 GraphRAG 与全文检索的混合查询阶段,检索系统已经从「找到相似内容」进化到「理解查询意图并精准召回」。

在这个演进过程中,一个关键趋势是:用向量计算代替多轮LLM推理,通过检索层的优化来提升 AI 应用的性能与稳定性。刘汉卿将结合企业知识库、推荐系统、智能助理等场景,分享混合查询的工作流搭建经验,以及在金融、医疗、法律、教育等行业的实际落地案例。

上下文工程的平台化探索

独立开源开发者 袁怿(Sam Yuan)将从前瞻视角探讨 2026 年上下文工程的技术趋势。如果说 2025 是 Agent 元年,那么随着上下文工程的快速演进,一个关键问题正在浮现:上下文能力是否应该从「各自实现」走向「横向平台化」?

袁怿将上下文工程拆解为三个维度:工具调用(空间维度)、RAG(信息密度维度)与 Memory(时间维度)。他将以最近进入 AAIF 的 Skill 机制为切入点,对比 Skill 与传统 Function Call 的本质差异,并结合他在开源社区贡献的 StructuredContextLanguage 项目,展示以渐进式加载为代表的平台化思路——让 AgentOS 像操作系统管理进程一样,统一管理上下文资源。


圆桌论坛:下一代面向 AI 应用的 Data Infra 的设计和落地

从多模态数据处理到 AI 原生元数据平台,从上下文工程到混合检索系统——本次 Meetup 的所有分享指向同一个命题:在 Agent 时代,数据不再只是「被调用的资源」,而正在成为被理解、被约束、被治理的核心能力。

越来越多团队在实践中遇到相似挑战:Agent 需要访问的数据分散在不同系统中,权限、语义与上下文边界不清;模型可以生成「看似合理」的请求,却难以保证结果的安全性与一致性。这些问题往往无法通过 Prompt 或单点优化解决。

我们特邀到前 Apple 数据与机器学习平台负责人 谭涛(Kwaai AI Lab 顾问)、Datastrato 创始人 CEO 堵俊平、北京大学助理教授 张文涛 三位圆桌嘉宾,围绕三个核心问题展开讨论:

  • 意图与执行解耦:如何让 Agent 的数据请求既灵活又可控?
  • 访问规则原生化:能否在系统层面保证数据访问的安全性与一致性?
  • 上下文边界管理:如何让 Agent Builder 在不理解底层架构的前提下获取「该拿的数据」?

这些讨论并不立马给出最终答案,而是帮助我们勾勒下一代面向 AI 应用的数据基础设施轮廓——一个更开放、更可治理、也更适合 Agent 时代的技术底座。

活动信息

时间

2026 年 1 月 24 日(周六)13:10 – 18:00

地点

北京 · 原点学堂(东升大厦 A 座 10 层)(不提供线上直播)

立即报名:

👉 访问链接:https://www.huodongxing.com/event/3843480320400

⚠ 名额有限,需审核通过(请详实填写报名信息,并通过主理人的微信添加请求,确认审核状态)

这是一场面向 AI & Data 工程实践者的技术深度交流。

无论你是正在构建企业级 Agent 系统的架构师,

还是关注 Data-centric AI 的研发工程师,

都能在这里找到有价值的技术洞察和落地经验。

Community Over Code,期待与你在北京相聚。

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么