2026年2月

微信图片_20260213092724_2808_3.jpg
最近,当红AI 助手 OpenClaw “龙虾”(原名 MoltBot、ClawdBot)以燎原之势席卷全球开发者社区,开启了全新的 “全职 AI 员工” 时代。然而,当自动化能力的获取不再是高门槛,如何让 AI 在高效执行任务的同时,始终将控制权交还给人,成为行业新的挑战 —— 理想的智能体,应当既能深入本地系统流畅操作,又能在每一个关键节点等待人工确认,让数据主权与操作可控成为默认配置。
微信图片_20260213103134_2850_3.jpg

枫清科技重磅推出Fabarta 个人专属智能体龙虾版

当海外用户纷纷尝试OpenClaw 本地部署方法,以此保障数据与操作的可控性时,枫清科技正式推出 Fabarta 个人专属智能体龙虾版,让每个人都能拥有“更懂你、更安全” 的专属 AI 助手。

扎根本地的高效办公超级助手

这款面向办公与个人生产力的本地智能体,支持文件与应用协作、可审计的本地工具调用,并能通过本地记忆能力持续适配用户的使用习惯。与此同时,个人专属智能体龙虾版的本地知识库能力,沿用了深度打磨的企业级解析器,同时搭载经过链路调优的技术架构,让知识检索更精准、更全面。

而这些高效办公能力的落地,均依托其底层架构确立的本地执行核心原则。Fabarta 个人专属智能体龙虾版并非一个简单的聊天助手,而是真正在用户设备上运行的超级助手。基于 OpenClaw 沉淀的本地执行框架,它能够直接操作用户的文件系统、浏览器和各类应用,自动完成文件整理、流程任务执行等复杂操作。

本地执行+ 人工终审 掌控终极决策权

更重要的是,所有数据处理均在本地完成,配合白名单权限管理和全程可审计机制,每一次操作都留有痕迹,关键步骤需人工确认,用户既能享受AI 自动化带来的高效体验,又能牢牢掌握人工的终极决策权。

多办公场景的自动化实践

这种“本地执行 + 人工终审” 的设计理念,在真实办公场景中有着直观且丰富的体现。当用户面对复杂的项目资料,只需一句话指令,Fabarta 个人专属智能体龙虾版就能在本机自动完成分类归档,按项目和资产类型建立清晰的文件库,生成总索引和资产盘点表,整个过程仅写入指定的 Outbox 文件夹,每一步操作都可审计、可追溯。

图片2.png

当用户面对繁杂的邮件回复需求,个人专属智能体龙虾版能自动读取收件箱、拟写回复,甚至自动打开邮箱客户端,但会明确停在发送前的最后一步,等待用户检查确认。用户无需担心AI 越权操作,因为所有动作全程留痕,截图、时间线、操作轨迹(trace)均可回放,形成完整的操作证据包。

对于需要运营社媒账号的用户,个人专属智能体龙虾版能将本地素材自动转化为小红书、公众号等平台的图文草稿,自动填充内容和配图,且仅保存草稿而不进行群发,让用户牢牢掌握内容最终发布权。

越用越懂的个性化私人助理

除了具备强大的自动化执行能力,个人专属智能体龙虾版更像一位越用越懂你的专属私人助理。它内置本地个人记忆库,能够持续理解用户的使用习惯,基于企业级知识库解析能力,对个人文件资料形成长期语义记忆。它会针对用户的常用术语、项目背景、文件路径及个人偏好,在本机逐步构建起可控的长期记忆体系,实现更精准、更全面的知识检索与复用。

这份“越用越懂” 的使用体验,得益于枫清科技将企业级 RAG 能力下沉至个人场景,配合可配置的私有模型部署方案与云边端协同架构,既保证了个人数据的隐私安全,又能根据用户需求灵活调用云端能力。

全系统适配 + 多场景平台拓展

值得一提的是,这一架构已深度融入主流操作系统生态—— 通过与 macOS、麒麟操作系统的深度适配,Fabarta 个人专属智能体龙虾版将企业级安全管控与本地化处理能力成功延伸至个人终端。其中,Fabarta 携手 Mac 生态推出的企业级 AI 解决方案,以 Mac Studio为核心构建企业知识中台(EKC),协同终端Mac mini上的个人专属智能体龙虾版,既释放 “开箱即用” 的本地 AI 生产力价值,又实现 “数据不出域” 的精细权限控制;联合麒麟生态打造的信创桌面个人智能体解决方案,更是依托麒麟 KART 系统级 AI 底座承载端侧模型,让敏感数据全程在本地闭环处理。

除了完成主流操作系统的深度适配,让本地执行能力落地各类终端,个人专属智能体龙虾版还在模型部署与平台搭建层面实现了全维度拓展。除云端大模型外,枫清科技还提供本地模型一体机方案及企业智能体平台,实现从个人助手到集团系统的全场景覆盖。

枫清龙虾新春码限时免费申领

目前,枫清科技官网已开启“枫清龙虾新春码” 限时发放活动,春节期间每天上午 10:00-10:30 限量释放免费体验名额。用户领取 “新春码” 后即可激活使用,体验期结束后可购买权益包继续享受服务。

图片4.png

即刻登录枫清科技官网(https://fabarta.com/my-agent)下载Fabarta 个人专属智能体,把工作放心交给你的 “个人超级智能体”!

如果没有开源软件,如果没有那么开源框架和软件基础设施,AI 拿什么来生成代码,生成应用。
现在把 AI 吹的神乎其神,好像无所不能可以替代所有软件行业,感觉有点太疯狂了。

说到底,AI 就是提供了更好的效率工具,软件行业很多还是很难替代的,
企业软件,要考虑集成,安全和完备,不是靠 AI 弄个草台软件就能替代的。数据库,用 AI 生成一个你敢用?生态都没有。
平台软件,可能平台和品牌是最大的护城河,而不是几行代码和搞个网站。
更别说软硬结合的产业,替代更是扯淡。

华尔街这帮人真是很扯,特别是木头姐,感觉就是在带节奏。美股也是泡沫化严重,买铲子的赚的盆满钵满,其他都是一片萧条。如果这次没赌赢,感觉美国真的要完蛋。

在制造业数字化转型的深水区,SRM的选型早已超出简单采购工具的范畴。作为在SRM与数字化采购领域深耕20年的从业者,我见证了企业采购从人工方式走向ERP系统,再到今天的独立平台化的演进过程。很多CTO在选型时会被品牌知名度牵着走,从而忽略了底层架构与企业业务演进的匹配度。尤其在供应链风险频发的背景下,一套成熟的SRM应当成为企业的供应协同引擎,而不是一个漂亮但封闭僵化的预制套件。
基于艾瑞咨询《2024年中国采购数字化平台行业研究报告》等第三方机构的行业洞察,采购数字化平台正向“自动化、智能化”演进。报告详细探讨了“低代码/零代码”、“iPaaS”以及“AI赋能”在SRM领域的关键作用,这些技术正成为衡量厂商底座能力的核心指标。下面先从CTO最关心的维度做直观对比,再逐一展开分析。

一、一个表格读懂三大类SRM服务商

在深入分析各品牌前,我们需要从CTO关心的维度对这三大类做直观对比。
图片

二、平台定制型:追求架构底座的生命力

这类厂商适合业务逻辑复杂、希望系统能持续进化的巨型企业。推荐对象是那种愿意把SRM当作长期数智化底座的公司。

1、正远科技

成立于2002年,是低代码驱动的平台化专家。它的核心优势在于把业务逻辑和系统实现解耦,允许可视化建模和快速迭代。由此带来的好处很直观:开发周期大幅缩短,业务方能拿到的是一个可持续生长的系统,而不是上线就过时的产品。正远还在AI能力和信创适配上投入很多。比如发票识别、供应商风险侦测和合同合规比对等,都已经工具化。
对于注重数据主权并要求私有化部署的企业,正远对信创生态的支持是显著优势。其客户包括魏桥创业、南山集团和威高集团,能在复杂场景下体现出底层理解能力。
图片

三、ERP延伸型:强调生态一致性与合规

这类产品更适合业务流程比较标准、并且已经深度绑定某套ERP的企业。它们的价值在于和现有财务、供应链系统天然打通,降低合规与对账的摩擦。

1、用友

在大型集团中普及度极高,它的优势在于业财一体化,适合把财务合规和供应链管理放在同一治理框架下的企业。用友在电子招投标和合规实践方面有丰富经验,适合把合规作为首要诉求的公司。
图片

2、金蝶

侧重协同与轻量应用,近年通过AI产品线在制造业展现出竞争力。金蝶强调社交化协同与低门槛供应商接入,利用微信等渠道提高供应商响应效率。在需要管理大量中小供应商,或研发变更频繁的电子制造企业,金蝶的PLM与SRM结合模式表现稳健。
图片

四、专业垂直型:以速度优先,解决当下问题

如果企业的采购并不直接影响核心生产,只是希望先把流程跑顺,或者需要在较短时间内看到效果,那么专业垂直型SRM往往更现实。这类厂商主打标准化SaaS,优势不在“复杂能力”,而在于交付速度。对互联网、快消,以及正在试点数字化采购的企业来说,这是一个低风险的切入口。

1、甄云科技

甄云是国内较早将SRM做成标准化SaaS的厂商之一。它在界面设计和流程完整度上比较成熟,上手成本低。甄云的一个典型特点是引入了采购商城模式,能够直接对接京东、苏宁等第三方平台。对于间接物料和行政类采购,这种模式效率很高,往往能在较短周期内看到管理成效。当然,它更适合通用场景,而不是深度定制。
图片

2、企企通

企企通的产品思路更偏向互联网化,强调协同体验和移动端使用感受。它围绕采购人的日常操作习惯做了不少优化,在审批流转和跨部门协同上比较顺畅。同时,企企通在供应链金融等延展能力上投入较多,适合追求敏捷管理、组织结构相对扁平的企业。
图片

五、CTO在选型时关注的三个问题

当选型进入后半程,技术团队往往已经看过大量方案。这时困扰CTO的,通常不是功能多少,而是一些更底层、更现实的取舍问题。

Q1:如何平衡快速上线和长期可扩展性?

如果企业的采购流程还在摸索阶段,主要覆盖办公用品或非生产物资,那么专业垂直型SaaS是性价比最高的选择,三个月内看到ROI并不罕见。但如果SRM管理的是核心生产物料,涉及BOM频繁调整、供应商分级和绩效考核,这类系统往往很快触顶。从长期看,平台定制型虽然前期投入更高,但低代码架构能支撑持续迭代,避免几年后被迫推倒重来。

Q2:已有SAP或Oracle,集成难度该怎么看?

信息孤岛是CTO普遍焦虑的问题。ERP延伸型产品在自家体系内集成顺畅,但一旦涉及多套异构系统,灵活性反而受限。独立的平台型厂商在这方面通常更有经验,比如通过集成适配器处理复杂的主数据和业务同步。建议在选型阶段要求厂商做真实接口演示,现场拉通旧系统,而不是只看方案文档。

Q3:信创私有化部署是否意味着运维压力陡增?

在当前合规环境下,私有化部署已经成为不少中大型制造企业的标配。私有化部署虽然需要额外的算力和运维投入,但在现代架构的帮助下复杂度已经显著降低。基于容器和流程引擎的系统,运维已经可以做到模块化和精细化管理。对技术团队来说,这种投入换来的,是对核心数据和业务逻辑的完全掌控。

六、CTO在选型时绕不开的三条逻辑

从行业发展趋势来看,SRM正从单一流程工具,演进为企业级数智化平台。CTO在做最终决策时,建议回到以下三个核心判断。

1、部署模式的取舍

对于中大型制造企业,私有化部署仍然更稳妥。SaaS 上线速度快,但在复杂集成和安全控制方面弹性有限。私有化部署虽然前期投入更高,却能为长期扩展留出空间。

2、集成能力是否经得起实战考验

SRM的价值在于连接,而不是孤立存在。是否具备对接SAP、Oracle等主流ERP的真实案例,比功能列表更重要。选型时一定要看实操,而不是听承诺。

3、低代码是否真正可用

采购流程不会一成不变。如果每次调整都需要厂商改底层代码,系统的长期成本会迅速失控。成熟的低代码底座,能把变化留在企业内部消化,这是很多CTO后期才意识到的关键点。
图片

七、我们的建议

整体来看,国内SRM市场已经形成清晰分层。希望系统具备持续演进能力,并对信创和复杂制造场景有要求的企业,可以重点关注正远科技。强调合规和业财一体化的集团型企业,用友和金蝶依然是稳妥选择。而在轻量化采购、商城联动和快速交付方面,甄云和企企通具备明显优势。
SRM的选型,本质上是在为企业选择一个可以陪跑多年的数字化底座。从CTO的角度看,能随着业务一起成长的系统,才是真正值得长期投入的技术资产。

金属材料表面六种缺陷类型数据集:工业视觉检测的优质训练资源

数据集分享

如需下载该数据集,可通过以下方式获取:

https://pan.baidu.com/s/1eltE8ewS4V1ONDGubsYJ4g?pwd=skr8

引言

在现代工业制造中,金属材料的表面质量直接影响产品的外观、性能和安全性。金属材料在轧制、热处理、运输及长期使用过程中,常会产生各类表面缺陷,如裂纹、划痕、氧化皮等。这些缺陷不仅降低产品的外观质量,更可能影响其强度、疲劳寿命甚至安全性能。因此,及时、准确地检测金属表面缺陷,对于保证产品质量、提高生产效率具有重要意义。

随着工业制造向自动化与智能化演进,基于深度学习的表面缺陷检测成为提升质量控制的重要手段。然而,高质量、标注规范的数据集一直是算法研究和应用落地中的瓶颈。为推动智能检测系统在实际场景中的应用,我们构建了一套面向学术与工业的金属缺陷数据集,包含6类典型缺陷,1800张图像,标注完整,已按train/val/test划分,并使用YOLO项目格式进行标注,适用于目标检测、缺陷分类与工业视觉相关任务。

数据集概述

本数据集聚焦于金属表面质量检测,涵盖了6类典型的金属表面缺陷,总计1800张高质量图像。所有图像均已完成标注,并按照训练集、验证集和测试集进行了合理划分,可直接用于深度学习模型的训练、验证和测试。

基本信息

  • 图像总数:1800张(已完成标注)
  • 标注格式:YOLO格式(可与COCO格式相互转化)
  • 图像尺寸:统一为640×640(可自定义缩放)
  • 数据划分

    • 训练集: 1260张
    • 验证集: 360张
    • 测试集: 180张
  • 类别数量:6类

类别配置

以下是数据集的类别配置(YOLO格式):

nc: 6
names:
  0: crazing
  1: inclusion
  2: patches
  3: pitted_surface
  4: rolled-in_scale
  5: scratches

数据集结构

本数据集采用标准的文件夹结构进行组织,具体如下:

/train/
    └── images/
    └── labels/
/val/
    └── images/
    └── labels/
/test/
    └── images/
    └── labels/

其中,images文件夹存放原始图像,labels文件夹存放对应的标注文件。标注文件采用YOLO格式,记录了缺陷的类别和位置信息。

缺陷类型详情

本数据集包含6类典型的金属表面缺陷,每类缺陷均有其独特的特征和形成原因。以下是各类缺陷的详细说明:

类别编号类别名称中文释义特征描述
0crazing裂纹/龟裂表面微裂纹,形似龟壳裂纹,多因材料老化或热处理不均导致
1inclusion杂质夹杂材料中混入非金属杂质,外观呈点状或条状暗斑,影响材料纯度
2patches表面块状斑痕局部表面区域发生变色或质地异常,可能与氧化或油污有关
3pitted_surface凹坑/腐蚀点表面形成小孔或点蚀,通常是腐蚀或加工缺陷的结果
4rolled-in_scale轧入氧化皮热轧过程中氧化皮卷入表层形成异色斑块,边缘不规则
5scratches划痕线性划痕,由硬物刮擦形成,深浅不一,走向基本一致

所有缺陷都已使用边界框(bounding box)形式手动标注,标注精度高,适合用于YOLO全系列、Faster R-CNN、RT-DETR等检测模型的训练和评估。

数据处理流程

为确保数据集的质量和可用性,我们在构建过程中遵循了严格的数据处理流程,具体步骤如下:

flowchart TD
    A[数据采集] --> B[图像预处理]
    B --> C[缺陷标注]
    C --> D[数据划分]
    D --> E[格式转换]
    E --> F[质量验证]
    F --> G[数据集发布]
  1. 数据采集:从工业生产现场采集金属表面缺陷图像,确保覆盖不同类型、不同严重程度的缺陷
  2. 图像预处理:对采集到的图像进行清洗、去噪、尺寸统一等处理
  3. 缺陷标注:采用人工标注的方式,使用边界框标记缺陷的位置和类别
  4. 数据划分:按照7:2:1的比例划分为训练集、验证集和测试集
  5. 格式转换:将标注结果转换为YOLO标准格式
  6. 质量验证:对处理后的数据进行质量检查,确保标注的准确性和一致性
  7. 数据集发布:打包发布数据集,提供下载链接

数据集特点

本数据集具有以下显著特点:

  1. 标注规范:所有图像均采用人工标注,标注精度高,格式统一
  2. 数据划分合理:按照7:2:1的比例划分为训练集、验证集和测试集,符合深度学习模型训练的常规要求
  3. 缺陷类型典型:涵盖了6类典型的金属表面缺陷,基本覆盖了工业生产中常见的缺陷类型
  4. 图像质量高:所有图像均为高质量采集,分辨率统一为640×640,便于模型训练
  5. 格式标准:采用YOLO标准格式标注,可直接用于主流深度学习框架
  6. 场景真实:图像均来自实际工业生产场景,具有较高的真实感和代表性

适用场景

本数据集广泛适用于以下研究与工业应用:

1. 工业缺陷检测模型训练

可直接用于训练YOLOv5、YOLOv8、RT-DETR等检测模型,用于实际部署或研究验证。通过在本数据集上训练模型,可以实现对金属表面缺陷的自动检测和分类,提高检测效率和准确性。

2. 缺陷分类与分割任务

可对图像中心区域裁剪生成分类任务数据,或与语义分割工具配合进一步扩展。例如,可以将缺陷区域裁剪出来,构建分类数据集,用于训练专门的缺陷分类模型;也可以将边界框标注转换为像素级标注,用于语义分割任务。

3. 算法对比与论文验证

适合用于不同检测网络的性能评估,支持标准化训练流程,有利于模型泛化性对比。研究人员可以在本数据集上测试不同算法的性能,进行公平的比较和分析。

4. 图像增强与合成学习研究

图像背景多样、缺陷类型复杂,适合作为生成对抗网络(GAN)或图像增强算法的输入。通过对数据集进行图像增强,可以扩展数据集规模,提高模型的泛化能力;也可以用于研究缺陷图像的合成方法,进一步丰富数据集。

5. 工业自动化质检系统开发

可集成至边缘计算设备,实现对流水线上的金属件在线检测与报警。通过将训练好的模型部署到边缘设备,可以实现实时、高效的缺陷检测,减少人工干预,提高生产效率和产品质量。

image-20250710185629776

image-20250530103542576

image-20250530102805805

img

模型训练建议

针对本数据集的特点,我们提出以下模型训练建议:

  1. 模型选择:对于目标检测任务,建议使用YOLOv8、RT-DETR等最新模型,这些模型在精度和速度上都有较好的表现。
  2. 数据增强:建议使用随机裁剪、翻转、旋转、亮度调整、对比度调整等数据增强技术,提高模型的泛化能力。
  3. 训练策略:采用小批量梯度下降法,初始学习率设置为0.001,使用余弦退火策略调整学习率。
  4. 评估指标:使用精确率、召回率、F1-score和mAP等指标评估模型性能,综合考虑模型的检测效果。
  5. 模型优化:可以采用模型剪枝、量化等技术,减少模型大小,提高推理速度,便于在边缘设备上部署。

应用案例

案例一:钢铁生产线上的缺陷检测

某钢铁企业将基于本数据集训练的模型部署到生产线上,实现了对钢板表面缺陷的实时检测。系统能够在钢板生产过程中自动检测出裂纹、划痕等缺陷,并及时报警,大大提高了检测效率和准确性,减少了人工成本。

案例二:汽车零部件质量控制

某汽车零部件制造商使用本数据集训练的模型,对汽车车身钢板的表面缺陷进行检测。通过在生产线上安装摄像头和边缘计算设备,实现了对零部件表面缺陷的自动检测,确保了产品质量,降低了不合格品率。

案例三:研究算法性能对比

某研究机构使用本数据集对多种目标检测算法进行了性能对比,包括YOLOv5、YOLOv8、Faster R-CNN等。通过实验分析,他们发现YOLOv8在检测精度和速度上都有较好的表现,适合用于实时检测场景。

数据集扩展与未来规划

本数据集是我们在金属表面缺陷检测领域的初步尝试,未来我们计划从以下几个方面对数据集进行扩展和完善:

  1. 增加缺陷类型:进一步扩展缺陷类别,涵盖更多工业生产中常见的金属表面缺陷
  2. 扩大数据集规模:增加图像数量,提高数据集的多样性和代表性
  3. 添加多模态标注:加入语义分割、实例分割等多模态标注形式,支持更复杂的检测与识别任务
  4. 引入更多场景:收集不同材质、不同工艺、不同环境下的金属表面缺陷图像,提高模型的泛化能力
  5. 提供预训练模型:基于扩展后的数据集,训练并发布预训练模型,方便用户直接使用

结语

本数据集通过系统性地收集、整理和标注金属材料表面六类典型缺陷,填补了工业视觉领域在金属表面缺陷检测方向公开数据资源的空白。其在样本多样性、标注精度和场景适配性方面具有显著优势,不仅可作为深度学习算法的训练基准,也适用于真实工业质检系统的部署验证。

我们希望通过本数据集的发布,能够促进工业视觉检测技术的发展,推动智能制造与视觉质检技术的落地应用。我们诚邀学术界与工业界的研究者在此基础上深入探索,共同推动金属表面缺陷检测技术的进步,为工业制造的高质量发展做出贡献。

通过本数据集的使用和相关技术的应用,我们相信金属表面缺陷检测技术将会取得更大的突破,为工业制造的质量控制提供更加强有力的支持。

100类中药材图像识别数据集分享(适用于目标检测任务)

数据集分享

如需下载该数据集,可通过以下方式获取:

  • 💾 数据集打包为 ZIP 文件,解压后即用。

    https://pan.baidu.com/s/1zyL7C7byFj3VYeYnLGM2Gg?pwd=jsw8

引言

在中医药现代化的浪潮中,如何利用人工智能技术实现中药材的快速、准确识别,成为了中医药信息化领域的重要研究方向。传统的中药材识别主要依赖于专家经验和人工比对,这种方法不仅效率低下,而且在面对种类繁多、外观相似度高的中药材时,容易产生误判。随着深度学习技术的迅猛发展,特别是基于YOLO等目标检测模型的图像识别技术在多个领域取得显著成效,将其应用于中药图像识别已展现出广阔的前景。

为推动中药材智能识别的研究与落地,我们整理并发布了一套高质量的中药材图像识别数据集。该数据集涵盖100类常见中药材图像,共计9200张样本,并完成了标准YOLO格式的标注和训练/验证集划分,可直接用于模型训练和算法测试。本文将对该数据集进行详细介绍,包括数据集概述、结构详情、适用场景等内容,旨在为相关研究和应用提供参考。

数据集概述

本数据集收录了来自中药材识别实际场景中的100个类别图像,总计9200张高质量样本图。这些图像已按照train/val分组格式进行整理,适用于主流深度学习框架(如PyTorch、TensorFlow、YOLO等)的训练与验证流程。图像分辨率清晰,涵盖了不同拍摄角度、光照条件和背景下的实物图像,既体现了真实场景的复杂性,又保证了语义的代表性。

数据集基本信息

  • 图像总数:9200张
  • 训练集:8000张
  • 验证集:1200张
  • 类别数量:100种中药材
  • 命名规范:统一使用简体中文命名,便于中文语义处理任务

数据集结构

本数据集采用标准的文件夹结构进行组织,具体如下:

/train/
    └── 安息香/
    └── 白扁豆/
    ...
/val/
    └── 安息香/
    └── 白扁豆/
    ...

文件命名规则为自动生成,确保不重名,例如安息香_001.jpg。这种结构设计不仅便于数据的管理和浏览,也符合主流深度学习框架的数据加载要求。

类别配置

以下是数据集的类别配置(YOLO格式):

nc: 100
names: ['安息香', '白扁豆', '白矾', '白蔹', '白茅根', '白前', '白芍', '白芷', '柏子仁', '北沙参',
        '荜拨', '荜澄茄', '鳖甲', '槟榔', '苍术', '草豆蔻', '沉香', '川楝子', '川木香', '川牛膝',
        '大腹皮', '淡豆豉', '稻芽', '地龙', '冬虫夏草', '防风', '番泻叶', '蜂房', '甘草', '干姜',
        '甘松', '藁本', '硅石脂', '枸杞子', '桂枝', '谷精草', '谷芽', '海龙', '海螵蛸', '合欢皮',
        '黄柏', '黄芪', '黄芩', '湖北贝母', '僵蚕', '芥子', '鸡冠花', '金灯笼', '鸡内金', '荆芥穗',
        '金果榄', '金钱白花蛇', '九香虫', '橘核', '苦地丁', '莱菔子', '莲房', '莲须', '莲子',
        '莲子心', '灵芝', '荔枝核', '龙眼肉', '芦根', '路路通', '麦冬', '木丁香', '羌活',
        '千年健', '秦皮', '全蝎', '忍冬藤', '人参', '肉豆蔻', '桑寄生', '桑螵蛸', '桑椹',
        '山慈菇', '山奈', '山茱萸', '沙苑子', '石榴皮', '丝瓜络', '酸枣仁', '苏木',
        '太子参', '天花粉', '天麻', '土荆皮', '瓦楞子', '五加皮', '细辛', '银柴胡',
        '薏苡仁', '郁金', '浙贝母', '枳壳', '竹茹', '诃子', '自然铜']

数据处理流程

为确保数据集的质量和可用性,我们在构建过程中遵循了严格的数据处理流程,具体步骤如下:

flowchart TD
    A[数据收集] --> B[图像预处理]
    B --> C[类别标注]
    C --> D[数据划分]
    D --> E[格式转换]
    E --> F[质量检测]
    F --> G[最终发布]
  1. 数据收集:从多个来源收集中药材图像,确保覆盖不同角度、光照和背景
  2. 图像预处理:对收集到的图像进行清洗、去噪和标准化处理
  3. 类别标注:采用人工标注的方式,确保类别归属的准确性
  4. 数据划分:按照7:3的比例划分为训练集和验证集
  5. 格式转换:将标注结果转换为YOLO标准格式
  6. 质量检测:对处理后的数据进行质量检查,确保数据的一致性和完整性
  7. 最终发布:打包发布数据集,提供下载链接

数据集特点

本数据集具有以下显著特点:

  1. 类别丰富:涵盖100种常见中药材,基本覆盖了临床常用品种
  2. 样本充足:总计9200张图像,每个类别均有足够的样本量
  3. 标注规范:采用标准YOLO格式标注,可直接用于模型训练
  4. 场景多样:图像拍摄场景多样,包括不同角度、光照和背景
  5. 中文命名:统一使用简体中文命名,便于中文语义处理任务
  6. 结构清晰:采用标准文件夹结构,易于管理和使用

适用场景

本数据集可广泛应用于以下人工智能与中医药交叉领域:

1. 中药识别图像分类任务

可用于训练ResNet、ViT、YOLO等模型,实现中药材的自动分类和识别。通过深度学习模型的训练,可以提高中药材识别的准确率和效率,减少人工干预。

2. 中药拍照识别App研发

作为图像识别后端训练数据,可支持开发中药拍照识别App,用户只需拍摄中药材照片,即可快速获取药材名称、功效等信息,便于中药辅助查询和科普应用。

3. 医学辅助系统训练数据

可结合图文信息进行知识联动识别,为医生提供中药材识别的辅助工具,减少用药错误的发生。

4. 深度学习模型迁移学习训练

可用于预训练或微调模型,增强模型对自然图像中药材的理解能力,为其他相关任务提供基础。

5. 中药材跨模态研究

可用于中文名称—图像联合建模、图文检索、图像标注等跨模态研究,推动中医药信息化的发展。

image-20250712145211757

image-20250712145359020

image-20250712145509920

image-20250712145520147

模型训练建议

针对本数据集的特点,我们提出以下模型训练建议:

  1. 模型选择:对于分类任务,可选择ResNet50、EfficientNet等模型;对于检测任务,建议使用YOLOv8、RT-DETR等最新模型。
  2. 数据增强:建议使用随机裁剪、翻转、旋转、亮度调整等数据增强技术,提高模型的泛化能力。
  3. 训练策略:采用小批量梯度下降法,初始学习率设置为0.001,根据验证集性能动态调整学习率。
  4. 评估指标:使用准确率、精确率、召回率和F1-score等指标评估模型性能。

应用案例

案例一:中药识别App开发

基于本数据集训练的模型,开发了一款中药识别App,用户只需拍摄中药材照片,即可快速获取药材名称、功效、用法等信息。该App已在多家中医院和药店试用,取得了良好的效果。

案例二:中医药教学辅助系统

将训练好的模型集成到中医药教学辅助系统中,学生可以通过系统识别中药材,加深对中药材的认识和理解,提高学习效率。

案例三:中药材质量检测

结合其他传感器数据,利用训练好的模型对中药材质量进行检测,识别药材的真伪和品质等级,为中药材的质量控制提供技术支持。

结语

中药文化源远流长,是中华民族的瑰宝。随着人工智能技术的不断发展,将其应用于中医药领域,实现中药材的智能识别,对于推动中医药现代化具有重要意义。本数据集立足实际拍摄与分类标准,旨在为研究者、开发者和中医药爱好者提供一份结构清晰、数据质量可靠、类别丰富的中药图像数据集,为中药AI识别迈出坚实一步。

我们希望通过本数据集的发布,能够促进中医药与人工智能的深度融合,推动中药材智能识别技术的发展和应用,为中医药现代化做出贡献。如需生成配套训练代码(如YOLOv8格式训练脚本)、中药图像识别模型部署方案,可以参考相关资源。

参考资源

通过本数据集的使用和相关技术的应用,我们相信中药材智能识别技术将会取得更大的突破,为中医药事业的发展注入新的活力。

这是我的 system 字段:

复制
你是一个 AI 审核,你需要帮助我对用户输入的内容进行审核,并且返回 json,json 格式包含以下两个字段:
result: int 可返回值 1(通过内容)、2(拦截内容)、3(需要人工审核接入)
hint: string 用户提示人工审核,哪部分内容有问题

如果是正常内容可以正常返回,但是非法内容,直接就给我拦截了,我想用 AI 审核我用户的内容,但是国产 AI 会先审核我发送过去的内容....

妈的给我气笑了

纯个人感受,十分主观

gpt-3.5/4:不用多说,开启了 LLM 的时代

gpt-4o:真正的统一多模态(好像也是至今唯一真正做到文字、语音、图片合一的? OpenAI 的新模型不是、其它厂商好像也没有)

o1/o3 & DeepResearch:开启了模型思考的时代

Claude Sonnet 3.7 & Claude Code:开启了 AI 编程的时代

Claude Opus 4:我个人感觉 AI 可以开始写程序了(之前的模型虽然也能写,但是效果实在一言难尽,这个版本我感觉是对我而言第一个我可以真的开始日常用 AI 写程序的模型)

gpt-5.2:我感觉终于可以依赖 AI 写代码了(我不再需要逐行审阅 AI 写的代码,而是可以默认信任它、只需要做整体架构、找 bug )


还有几个值得一说的

  1. o1 开始,模型可以在思考时调用工具;而其他家支持思考时调用工具似乎晚了很久
  2. Claude Code 的 Plan 模式完全模拟了日常「先调研、再开发」的思路,也算是开创了一个先河
  3. 虽然我现在日常用的 gpt-5.3-codex ,但我并没有觉得它相比 gpt-5.2 有多好,更多的还是提升了速度;而且细节上我感觉 gpt-5.2-codex 和 gpt-5.3-codex 都没有 gpt-5.2 处理的好,所以对于某些复杂的模块我还是会让 gpt-5.2 做一次 Code Review
  4. 昨晚刚发布的 gpt-5.3-codex-spark ,怎么说呢,我感觉更像是 gpt-5.1-codex-mini 的升级版(效果 & 速度的双重提升),实际效果目前我并没有觉得有多好,我也仅仅是测试了下、仍然在继续用 gpt-5.3-codex (不过官方说了 spark 是独立速率限制,所以或许等我这周用量用完了会去再着重用用它;这个模型发展起来,感觉搭配效果最好的模型做 plan 、它做实现应该会好些
  5. 作为 Google AI Pro 会员,Gemini 的各种模型我也都给过机会,我对它的评价就是 —— 除了便宜一无是处
  6. 作为 Cursor 用户,composer-1 我也试了,一开始真的感觉很惊艳,我的感觉是「速度足够快,完全可以做到同步编程,快速发现问题修改问题,其实效率也不低」但现在觉得我可以忍受异步编程(毕竟可以人工 concurrent —— 利用 worktree 同时跑多个任务);至于新的 composer-1.5 还没来得及试,因为我已经不太想要做一名人肉测试帮模型找 bug 了
  7. 我个人没有使用过任何国产模型,所以不做任何相关评价

好像是彭博社爆出来的:俄罗斯内部备忘录显示,俄罗斯提出对美经济合作 7 点建议以争取特朗普支持,包括重返美元体系,以及能源、矿产和化石燃料领域的联合计划。

记得当时俄不是主动脱离美元体系,用黄金结算的吗?这条消息真实性如何?如果是真的,黄金会不会暴跌

在外贸获客的诸多渠道中,电子邮件营销始终凭借成本低、覆盖面广、可沉淀客户资产的核心优势,成为企业开发海外客户的重要手段。但很多外贸人都有过这样的困扰:刚群发完开邮件发信,邮箱就被封,前期的客户名单和沟通努力全部白费。其实,群发邮件本身并非封号的根源,真正的问题在于选错了发送工具、用错了发送方式。本文就为外贸企业拆解群发邮件的避坑要点,教你如何安全、高效地做海外邮件群发。
图片

坑1:用个人邮箱群发,直接触发平台风控
Gmail、Outlook、QQ邮箱、163邮箱等个人邮箱,核心定位是个人一对一日常沟通,从产品设计上就不支持营销类邮件的大规模发送,这也是外贸人用个人邮箱群发最易被封的根本原因。
当个人邮箱出现以下行为时,平台风控系统会立即预警,轻则限制发送,重则直接封号且恢复难度极高:
1、短时间内向大量陌生海外邮箱发送内容高度相似的开发信;
2、收件人分散在不同国家、不同域名,发送行为偏离个人沟通逻辑;
3、邮件多次被海外收件人标记为垃圾邮件,负面反馈累积;
4、发送列表中包含大量无效、不存在的邮箱地址,退信率过高。个人邮箱仅适合少量熟客的日常沟通,绝对不能用于外贸开发信的群发。
坑2:迷信企业邮箱,忽略其核心定位局限
不少外贸企业为了规避个人邮箱的问题,使用企业邮箱后便直接用来群发邮件开发信,结果依然遭遇封号、送达率暴跌的问题,甚至影响公司正常业务沟通。这是因为企业邮箱的设计目标是企业日常业务沟通,而非规模化营销群发,其天然存在三大短板:

  1. 有严格的单日发送量限制,无法满足外贸批量开发的需求;
  2. 高频群发会快速拉低企业邮箱的IP信誉,导致后续邮件易被归为垃圾邮件;
  3. 单一个IP/域名的信誉受损,会牵连公司其他正常使用的业务邮箱,影响日常办公、客户对接。当发送规模达到每天数千甚至上万封时,企业邮箱的风控风险会急剧上升,完全无法适配外贸规模化获客的需求。企业邮箱适合公司内部沟通、熟客对接,而非外贸冷启动的批量邮件开发信发送。
    坑3:忽视工具专业性,用“通用工具”做“专业事”
    无论是个人邮箱还是企业邮箱,封号的核心问题都是工具与使用场景不匹配。如果外贸企业已经进入持续、高频、规模化的邮件获客阶段,使用专业的外贸邮件群发工具,是规避封号风险、提升投递效率的唯一可行方案。以深耕邮件营销领域的U-Mail邮件群发平台为例,其核心设计逻辑围绕外贸行业的群发需求打造,从根源上解决了封号和送达率问题,这也是专业工具与普通邮箱的核心区别。
    选对专业工具,实现群发“零封号+高送达”专业的外贸邮件群发工具,并非简单的“批量发送”,而是通过技术手段实现合规发送、智能投递、信誉维护,以U-Mail为例,其核心优势体现在这5点:
  4. 专用通道+高信誉IP,从工具层面规避封号只要邮件内容正规合法、符合外贸沟通场景,U-Mail不会因发送量大而封号。平台为外贸客户配备专用群发通道,搭建了专属的投递风控模型,同时持续维护海内外高信誉IP资源,将封号风险完全控制在工具层面,无需用户承担账号被封的损失。
  5. 超大发送量,适配外贸规模化获客U-Mail单日最高可发送30万封邮件,完美匹配外贸企业的批量开发需求,无论是新客户开发信的全域投放、展会后客户的集中跟进,还是多国家、多市场的同步布局,都能轻松承接;同时采用一对一独立投递机制,每封邮件单独发送,有效降低被海外邮箱系统识别为垃圾邮件的概率。
  6. 海内外分离通道,针对性提升送达率外贸邮件的收件人遍布全球,不同国家、不同邮箱系统(Gmail、Outlook、Yahoo等)的投递规则差异极大。U-Mail打造海内外分离的专用发送通道,针对主流海外邮箱做了专属的投递优化,搭配独立维护的海外高信誉通道资源,大幅提升邮件的实际进箱率,避免邮件石沉大海。
  7. 自动化运营,节省团队时间成本平台支持定时发送、批量任务自动执行,外贸团队只需提前准备好邮件内容和客户名单,设置好发送时间,系统即可全程自动化完成投递,无需人工值守,让团队把精力集中在客户跟进和转化上,提升整体工作效率。
  8. 全维度数据追踪+免费邮箱清洗,从源头优化发送效果U-Mail提供完整的数据统计分析功能,邮件的送达情况、打开率、点击量、退信原因、无效地址等数据一目了然,帮助外贸团队快速优化邮件内容和发送策略;同时支持免费清洗无效邮箱地址,从源头降低退信率,进一步维护发送信誉,提升后续邮件的投递稳定性。
    补充:海外邮件群发工具怎么选?
    除了U-Mail,市场上也有一些海外邮件群发平台,外贸企业可根据自身业务规模和需求选择,以下是几款主流工具的核心特点,供大家参考:
    Mailchimp:品牌知名度高,功能成熟,适合做内容型邮件营销,但对海外冷邮件、外贸开发信的审核和限制较多,不太适配外贸冷启动场景;
    Brevo(原Sendinblue):价格亲民,操作门槛低,适合中小规模的营销邮件发送,单日发送量有限,适合客群相对固定的外贸企业;
    GetResponse:自动化营销流程完善,适合做长期的客户生命周期运营,对开发信的适配性一般,更适合有成熟内容体系的外贸企业。
    核心提醒:多数海外平台对“冷邮件”“外贸邮件开发信”的审核规则严格,部分平台甚至禁止此类邮件发送,使用前务必充分了解平台规则,避免因违规导致账号被封。外贸邮件群发被封号,本质上是工具与发送场景不匹配的结果,选对工具,才能从根源上解决问题。
    1、少量熟客沟通、日常业务对接:个人邮箱/企业邮箱完全够用;
    2、批量海外客户开发、规模化获客:必须使用专业的外贸邮件群发平台。对于已经进入规模化外贸获客阶段的企业而言,选择U-Mail邮件群发平台,不仅能彻底规避封号风险,更能通过专用通道、智能投递、数据化运营,实现邮件营销的提效、提质、提转化,让海外客户开发更高效。

无论是普通用户还是 AI Pro 付费订阅用户,如果提取 OAuth 放到其他工具使用,都会被封号。

目前在 Reddit 和谷歌 AI 论坛已经有大量用户反馈,出现的错误提示:

403 PERMISSION_DENIED (继续调用时发生 403 禁止访问)

There was an unexpected issue setting up your account (登录 IDE 时提示出现不可预料的错误)

Gemini has been disabled in this account for violation of Terms of Service (使用时提示违反使用协议)

注意:

哪怕是只是使用 Antigravity Tools 切换账号也可能会被封号,因为这也被谷歌视为绕过防御和使用配额的违规手段。

能不能解封?能,但看运气:

写邮件联系谷歌请求解封,提供你的谷歌账号、具体的错误信息、日志片段、礼貌的解释以及恢复请求。

写邮件时请务必保持尊重,这可能有助于让审核人员帮你解封账户。

谷歌支持:[email protected]

原文链接:

谷歌封禁大量 Antigravity IDE 账号 用户若使用令牌对接其他服务则可能被封禁

随着大模型快速发展,以 AI Agents 驱动的新一代 AI 原生应用快速发展,取得巨大成功。AI 原生应用以大模型为基础,通过各类 Agents 和应用数据交互,智能地完成各类任务。AI Agents 驱动的应用开发迭代迅速,同时维护多种模态的数据,不同模态数据的访问模式和流量差别巨大,这些特点给底层数据平台提出了新的挑战。未来 AI Agents 驱动的原生应用需要怎样的数据基座?

在 InfoQ 举办的 QCon 全球软件开发大会(北京站)上,晨章数据创始人、首席架构师陈亮带来了题为《面向 AI Agents 的高性能数据基座:架构和工程实践》的演讲,分享了关于 AI 时代数据基座架构的思考,如何通过该架构解决 AI 原生应用的数据挑战,以及在云计算、新硬件环境下实现高性能数据基座的工程实践。

预告:将于 4 月 16 - 18 召开的 QCon 北京站设计了「AI 原生基础设施」专题,本专题重点交流探讨如何构建 AI 原生基础设施,包括业界容器 / Serverless 等云原生基础设施如何朝 AI 演进,以及如何利用一些新兴分布式技术构建 AI 原生基础设施等等。如果你有相关技术案例,欢迎加入这场技术共创

以下是演讲实录(经 InfoQ 进行不改变原意的编辑整理)。

AI Agent 驱动的 AI 原生应用

今天,AI Agent 正在引领整个软件范式的变革。在 AI 时代之前,我们讨论的是 SaaS,彼时软件作为工具实际上是构建了一个工作流程,在这个工作流程中帮助人来完成某些工作。而 SaaS 变成 AI 驱动后就会发生范式变化,软件变得更加智能,变成了智能体,可以执行非常复杂的任务,甚至可以有一定的自我演化和改进的能力。从这个角度来说,它不再是个帮助人的软件工具,它自己就变成一个智能体,可以直接提供一个服务。

在 SaaS 时代,SaaS 软件会有工作流,用户会提供一个输入,工作流帮助用户完成某些任务。工作流中间会收集很多数据,很多状态,这些状态会记录在某个数据库里,很多时候它是结构化数据。这里有一个显著的特性,就是第一个数据是由这个软件生成出来的,或者我们认为说数据是软件的一个排放。所以在这样的一个架构下,大家对数据会有一些比较简化的期待。

第一个数据的格式往往是软件开发人员定义的。因为这是我写的软件,所以我想定义这个数据有什么属性,大概以什么格式,到底是个表格还是个图,这个是我开发者来定义的。同时数据也是在软件的运行过程中不断收集的,意味着我的数据量是随着我的软件规模和用户互动慢慢在增长,总的来说是可控的。

当然随着软件越来越复杂,收集数据越来越多,最终数据的格式可能会变得更加复杂,我需要更加智能的分析,但这个过程是一个相对缓慢的过程,这个过程是随着我的软件越来越流行,用户量越来越大而发展的。可能很多软件并没有爆款,它对数据的需求也就并没有那么高。

在 Agent 时代会有什么变化?首先在 Agent 场景中,它的工作流就不再是工作流,开发更多关注在 Agent 的编排上,我们可能会有很多个 Agent。当然核心是大模型,我们怎么用大模型去驱动不同的 Agent?这里有一个很不一样的点,就是说在今天我们刚开始开发应用时就需要有数据,数据可能来自知识库,可能来自外部的某些结构化数据,这个数据实际是作为 Agent 的燃料,就像汽车冷启动需要燃料一样。大模型更多像一个驱动引擎,因为大模型只能提供一些比较通识性的东西,我要去实现一些非常领域特定的任务实际是有困难的,所以我需要很多数据,而且是行业的数据。但这个数据是外部来的,所以数据的格式、数据的规模可能不是我所能完全掌控的。

AI 与用户不断交互还会产生更多数据,同样它会生成底层的数据。我们接触了很多 Agent 开发的项目,我发现它们在第一天的时候就考虑数据的反哺,换句话说我不但要收集数据,还要用数据丰富我的知识库。最终我提供的就是一个服务,用户看到的是一个整体的服务,它不再是帮助人的工具,这时它自己可能就变成了一个智能体。

举一个具体的例子,这是一个金融的场景。

这里有 4 个 Agent,有一个 Agent 主要负责市场分析,一个 Agent 要关注风控,等等。从数据的视角来看,在这个 App 里我们可能需要很多种不同的数据库。我可能需要有用户的信息,用户的信息一般是存在表格里的。我可能会有财报,往往是一种半结构化的数据,里面可能有一些结构化的东西可以抽出来。如果外部的知识库很大,包括很多日志,它可能也是要放入 Mongo 的。

Pinecone 和 Elastic 大家比较熟悉,因为在大模型时代你的文本是很重要的事情。当我们提到文本搜索时,实际上向量和全文往往是要一起做的,同时可能还要搭配一个 Ranker。当然可能还会有知识库,有些知识库是通过图来表示的,因为用户有不断的反馈的时候,这个时候你的 Agent 往往需要一些对话的信息,而且延时要求很短,所以我需要一些基于内存的数据库。

所以在搭建 Agent 应用的第一天,可能就会涉及到很多种数据库了。而外部来的数据规模你是不可管控的,如果规模很大怎么办?这个时候你就得用一个有扩展性的选择。同时从性能要求来说,因为有些业务是和用户要交互的,所以延时要求天生比较严苛,所以我一定会有一个纯内存的东西。

上图展示了今天常见的一个 Agent 的工作流。它一般是一个网络服务,用户会登录进来,登录之后你会有用户的信息,这时你就要访问一些关系型数据库了。

Agent 里有一个很重要的,我们叫 Agent Loop 或者叫一个环。因为交互往往不是一轮的,需要很多人不断迭代。这个 Agent 它自己可能会调大模型,获取一些信息,还会有很多外部调用。外部调用可能来自网络搜索,可能外部有某个计算服务。当然还有一个很重要的方式就是 RAG,可能会有全文知识库的 RAG。

这里还有短期和长期的记忆,有不同的延时需求。短期记忆可能要放在一个基于内存的东西,长期的规模比较大的就放在一个相对持久的数据库里。所以不同的数据都需要自己对应的数据库,而且在应用交互的过程中还会不断生成新的数据。

简单总结一下,互联网时代和 Agent 时代从数据角度来看的第一个区别就是前者的数据是由应用生成的,意味着数据是可控的。但在 AI 时代就不一样了,因为可能会有很多外部的数据进来,这个东西不是你完全可控的,而且规模也可能会很大。另外 AI 时代还会有大量非结构化数据,所以今天几乎所有的数据库都要发展向量的能力,因为搜索变得越来越重要。最后一点就是 Agent 是会互相交互,会跟外部交互的,交互时它是要把内容记录下来,所以数据量很快就会积累起来。

AI 原生应用面临的数据挑战

从系统的角度来说,AI 时代的这些特点会给数据库管理带来很多挑战。第一个挑战就是我们希望数据库会有多模态。第二个是当我们有很多个数据库,数据的同步和数据一致性总是要考虑的。比如说我们在聊天里可能有短期记忆,最终总是要把它变成长期记忆的,同时应用输出的内容也总要反馈到原来的各种数据模型下,就会有一个数据的环。第三点,应用中不同数据库对性能、规模等属性的要求各不一样。最后就是多系统的运维和管理。今天的 AI 时代我们可以快速开发一个应用,可能 3 个人的团队 6 个月就可以快速搭建 1 个 App,但我要运维 App 反倒变成了一个很大的成本,因为数据要不断积累,这是你的核心价值。

总结来说,AI Agent 驱动的应用在早期就会面临传统大厂才会有的数据挑战,同时数据飞轮在 AI Agent 时代迭代更加迅速,加剧了数据库系统的压力。

多模态数据基座

在这样的背景下,我们的思考就是我们应该做哪些事情,能不能有一个统一的数据架构来做这样的事情。最终的方向就是多模态的数据基座。

我们的设计目标有三点,第一点就是支持多种数据模态。在 AI 时代,可能一个应用就会面临多模态支持的问题。我们想特别强调两个方面,第一就是我们希望它的 API 是原生兼容的。比如说我有个 Json 的 API,至少应该是跟 Mongo 兼容;我是个 SQL API,应该可以和 MySQL 兼容,这是一个很重要的点。因为开发人员希望我的系统是可扩展的,可迁移的,有的时候我可能想在云上部署,有可能我想在私有化部署,私有化部署甚至还可能有很多限制,所以你用标准的 API 变得非常关键。我当然可以自己定一个 API,但如果让大家来我这边建立 App,未来就会有很大的风险。第二个我想强调的是性能。性能和成本永远是长期的考量,我觉得这可能是最关键的,对系统开发人员来说可能是最重要的点。用户在选择的时候,如果你的系统性能比别人慢,你说我的价值来自多模态,这个论述就变得非常弱了。

第二点设计目标就是动态伸缩,自动管理。这是和今天云原生的趋势是很吻合的。

第三点目标是跨模态访问和一致性。模态之间是有数据的相互同步,同样有一致的访问。我并不希望比如我有 8 个数据库,大家各干各的。数据库之间的壁垒要消融掉,是多模态很重要的点。我并不需要一个中间件或者一个代理,把所有的数据库连接起来,然后统一提供接口,这个意义并没有很大,你没有降低它的管理成本。同时在有些应用里,从长期记忆到短期记忆,从我的结果到抽取回知识库里,很多时候都是跨模态的访问。

在讲多模态数据架构之前,我先简单回顾一下数据库架构的演化历史。

数据库在很早以前实际上就一台机器,后来数据库演化就分叉了,分成了 OLAP 和 OLTP。到了云时代,之前 OLAP 数据库的无共享架构就不是特别理想,于是就有了新的做法叫存算分离。OLTP 一开始也有无共享架构,但后来它的演化就没那么简单。因为 TP 和 AP 之间有一个很大的不同,AP 里不太在意内存缓存。因为它要不断扫描大量数据,内存肯定放不下,最后总是要扫描磁盘的。可在线的 TP 就不一样了,因为需要毫秒级的延迟,所以内存缓存非常重要,是保证延时最重要的手段。而无共享架构下计算和缓存不在一块,每次访问都要走网络,那么在 Agent 时代这个延迟就很难保证。所以业界提出了 Aurora 的架构,把缓存提上去,计算和缓存在一块,然后下面有个存储,我们叫共享存储架构,这样它的延时可以保证。

我们的思路是,在计算和存储之间会有一个数据的基层,在基层里我最强调的就是缓存,缓存是保证在线数据库延时里最重要的一个事。而且在线数据的所有模态,不管是做向量搜索、全文搜索还是做 graph,最重要的都是缓存,不在缓存里的东西延时是很难有保证的。

我们的数据基座里上面会有计算,下面会有存储。计算引擎是可以换的,什么样的引擎都可以,我们可以和很多开源组件原生兼容。中间我们会有一个数据基层,它抽象出来了在线数据库里最核心的一些功能,其中最重要的就是缓存。同时我们希望能用统一的缓存格式来弥合或消除不同数据模态之间的壁垒,使得数据在统一访问,或者在跨模态访问时可以高效。

另外在我们这里缓存和计算是逻辑解耦,物理耦合的。物理耦合指的是缓存尽量放在机器本地内存上,减少跨网络读取。逻辑解耦是想用它来消除不同模态之间的差别,通过缓存实现和原生系统一样的性能。

提到缓存,大家可能第一反应就是一个传统的哈希表。但因为我们的数据是想支持不同模态的,所以我要努力支持更加复杂的数据结构,这个结构是随着我的模态而变的。所以缓存的设计并不是一个简单的 key 和 value 的映射,我们希望有一个能支持更加复杂数据结构的设计。

总的来说我们会有一个逻辑上的分布式哈希表,它不是简单的 string,是一种复杂的数据结构。

缓存和存储之间还会有互动,当数据做更改之后,缓存会用异步的方式把它存到存储上,实时操作只会更新到日志里,不会触发持久化存储。

最后我们还有一个容错和恢复的协议。

我们这样的融合数据库,希望能通过一个数据基层,在融合缓存上装配各种计算引擎。因为缓存和计算是物理耦合的,所以性能可以做到和原生一样好。同时我的协议也是完全兼容原生的。

这样我就可以支持多种模态,兼容现有标准,同时满足性能需求,并做到统一的运维管理。

面向未来的工程实践

谈到工程实践,我们先来看看 AI 时代基础设施环境是什么样子的。我们会有云计算、高速网络、高速存储设备,还有 GPU 这样的新型计算设备提供巨大的算力。

过去十年来,CPU 的性能增长了一倍半,而存储性能增长了 11 倍以上,网络性能有 20 倍的增长。按照这个趋势发展,未来我们的存储或数据基座设备会变成 CPU 瓶颈,因为 IOPS 在快速增长,CPU 的增长却很缓慢。所以如果今天我们什么都不做的话,未来 IOPS 这一块我们会看不到任何性能提升,因为 CPU 没有提升。这也就意味着传统数据库系统的性能无法随着 IO 设备的迭代而增长。

针对这个问题我们做了很多事情,比如说我们所有的执行都是协程,比如说我们都是要异步编程,比如说我们每个核心只有一个线程,最后我们希望能采用一些缓存友好的数据结构。这些都是为了降低 CPU 的负载。

我们公司还做了一个试验性的存储,它是一个 k-v 存储,是多读单写的。我们每个查询做一个协程,提交后切换协程。

然后我们做了简单的测试,就是我们有个 16 核的机器,故意把缓存设成了 4GB,就是为了看数据不是全部缓存在内存里是什么表现。

结果发现在同样的 CPU 下,我们的设计可以做到接近理论上线,比 RocksDB 高出很多。

这也就证明传统的数据库架构会遇到 CPU 的瓶颈,出现这种瓶颈时单纯更换 IO 设备是很难有增长的。

总结和展望

总的来说,我觉得 AI Agent 时代会带来软件范式的变革,软件范式变革必然会让数据管理产生巨大的变化。总结起来就是我们希望有多模态的支持,有原生 API 的支持,有高性能的支持,我们希望扩缩容更加方便,从管理来讲会更加易用。最后结合工程实践,我们在性能方面也有一些新的思考。希望这次的分享能给大家带来启发,谢谢。

嘉宾介绍

陈亮,北京晨章数据科技有限公司创始人,首席架构师。前微软亚洲研究员首席研究员。数据库领域顶级专家。微软 SQL Server XML 索引发明人和架构师,微软 Cosmos DB 图数据库架构师。曾在 SIGMOD、VLDB、 ICDE 等国际顶级会议上发表多篇学术论文。

会议推荐

2026,AI 正在以更工程化的方式深度融入软件生产,Agentic AI 的探索也将从局部试点迈向体系化工程建设!

QCon 北京 2026 已正式启动,本届大会以“Agentic AI 时代的软件工程重塑”为核心主线,推动技术探索从「AI For What」真正落地到可持续的「Value From AI」。从前沿技术雷达、架构设计与数据底座、效能与成本、产品与交互、可信落地、研发组织进化六大维度,系统性展开深度探索。QCon 北京 2026,邀你一起,站在拐点之上。

因为去年申请的谷歌开发者账号一直没有用,要作废了,打算做一个简单的笔顺查询 app 保留账号。
详细内容: https://2libra.com/post/recommendations/vvKLMn5

做着做着,实现了一个好玩的功能。恰好马上要过年了,给大家看一看。

直接上图:

IMG_0021

IMG_20260212_224334

PWA 链接: https://writeright.pipecraft.net/
项目链接: https://github.com/utags/write-right

一、概述总结

B2B行业平台小程序是一款专为B2B业务场景打造的轻量化数字化解决方案。基于微信小程序生态开发,无需下载安装即可使用,帮助企业快速搭建集求购信息发布、产品展示、供应商管理、企业资料展示于一体的线上业务平台。该系统源码已加密,支持在线交付,适用于各类垂直行业的B2B交易撮合场景,助力企业实现业务数字化转型。


二、功能介绍

  1. 求购信息管理
  • 支持采购商在线发布求购需求
  • 实时推送求购信息给匹配供应商
  • 求购状态跟踪与历史记录查询
  1. 产品管理系统
  • 供应商可自主上传产品信息
  • 支持产品分类、标签、多图展示
  • 产品上下架与库存状态管理
  1. 供应商信息管理
  • 供应商资质审核与认证
  • 企业信息展示与信用评级
  • 供应商分类标签化管理
  1. 发布信息管理
  • 信息审核机制,确保内容合规
  • 信息置顶、推荐等运营功能
  • 数据统计与曝光量分析
  1. 企业资料模块
  • 企业简介、联系方式展示
  • 企业资质证书上传
  • 企业动态与新闻发布
  1. 平台运营工具
  • 红包营销功能(霸榜红包)
  • 用户收藏与分享机制
  • 消息通知系统

三、适用场景与行业价值

适用场景

  • 垂直行业B2B平台:建材、机械、电子元器件、化工原料等行业
  • 供应链协同平台:连接上游供应商与下游采购商
  • 产业带数字化:为产业集群提供线上展示与交易撮合服务
  • 展会线上化:线下展会配套线上供需对接平台

行业价值

  1. 降低获客成本:通过小程序轻量化入口,减少企业营销投入
  2. 提升交易效率:信息实时同步,缩短供需匹配周期
  3. 数据资产沉淀:积累行业交易数据,辅助商业决策
  4. 增强客户粘性:便捷的交互体验提升用户留存率
  5. 快速部署上线:基于成熟源码,大幅降低开发周期与成本

四、常见问题解答(Q&A)

Q1:这款小程序是否需要额外开发?

A:系统为成品源码交付,已包含核心B2B功能模块,可直接部署使用。如需个性化定制,可联系开发者进行二次开发。

Q2:小程序是否支持多平台?

A:当前版本基于微信小程序生态开发,主要适用于微信端。如需抖音小程序等其他平台版本,可咨询定制开发服务。

Q3:源码加密是否影响二次开发?

A:源码已加密,但提供标准接口文档。基础功能配置可通过后台完成,深度定制需开发者协助。

Q4:平台如何保证交易安全?

A:系统内置信息发布审核机制,支持企业资质认证。建议结合平台担保交易或线下验货等模式,确保交易安全。

Q5:是否提供售后服务?

A:购买后可享受平台基础技术支持。建议开通微擎VIP,可获得30天无售后急速退款保障及优先技术支持。

Q6:适合什么规模的企业使用?

A:适用于中小型企业快速搭建B2B平台,也适合行业协会、产业园区构建垂直领域供需对接平台。

Q7:如何提升平台用户活跃度?

A:系统内置红包营销、信息收藏、分享裂变等功能,运营方可结合行业活动、精准推送等策略提升活跃度。

交付方式:微擎系统在线交付

一、概述总结

疯狂社群裂变是一款专注于微信公众号平台的社群营销工具,由艺霖科技开发。该系统以"红包裂变"为核心机制,通过现金奖励驱动用户主动分享传播,帮助商家实现低成本、高效率的社群引流与用户增长。

系统采用Swoole加密技术,需安装swoole_loader扩展运行。它整合了红包激励、付费入群、卡密系统、资源发放等多种变现与裂变手段,形成完整的社群运营闭环。


二、适用场景与行业价值

  1. 核心适用场景
  • 知识付费社群:通过付费入群+卡密系统,实现课程、资料的有偿分享
  • 资源引流:利用网盘资源自动发放,吸引精准用户群体
  • 活动裂变:红包激励驱动用户分享,快速扩大活动影响力
  • 私域流量池建设:将公域流量转化为可控的社群资产
  1. 重点服务行业
  • 教育培训:在线课程推广、学习资料分发、学员社群运营
  • 电商零售:产品推广、优惠券发放、粉丝群维护
  • 内容创作:自媒体涨粉、付费专栏、资源变现
  • 本地生活:商家联盟、社区团购、同城服务推广
  1. 行业价值
  • 降低获客成本:相比传统广告投放,红包裂变成本更低、效果更精准
  • 提升用户粘性:通过社群运营建立长期用户关系,提高复购率
  • 实现自动化变现:付费入群+资源发放形成无人值守的变现闭环
  • 数据资产沉淀:自定义表单收集用户数据,构建私域流量池

三、常见问题解答(Q&A)

Q1:这个系统支持哪些平台?

A:目前主要支持微信公众号平台,需配合微擎系统使用。

Q2:系统运行有什么技术要求?

A:系统已进行Swoole加密,需要服务器安装swoole_loader扩展。如不会安装,可联系客服免费协助。

Q3:红包裂变是否安全合规?

A:系统提供"炮灰域名"功能,可有效保护主域名安全。但使用时仍需遵守微信平台规则,避免过度营销。

Q4:能否同时开展多个活动?

A:支持多活动管理,您可以同时运营多个裂变活动,每个活动独立配置,互不干扰。

Q5:付费入群的资金如何结算?

A:资金通过微信支付接口直接进入商户账户,系统不介入资金流转,保障资金安全。

Q6:是否支持定制化开发?

A:系统提供自定义表单等灵活配置,如需深度定制,可联系开发商艺霖科技咨询。

AI 发展过程中诞生了许多优秀的 Coding 产品,但非专业开发者需要掌握一些简单的研发知识才能完成研发任务,而这些工具和研发知识的匮乏,都在不同程度上影响非专业开发者的热情。

本文整理自阿里巴巴高级技术专家向邦宇在  2025 QCon 全球软件开发大会(上海站)的分享 “Vibe Coding 在代码生成与协作中的实践与思考”。主要探讨如何构建下一代 Vibe Coding 工具,从阿里当前的挑战出发,提出以用户为中心、强化工具质量、深化场景适配、支持协作与包容不确定性的核心设计原则与实践。

预告:将于 4 月 16 - 18 召开的 QCon 北京站设计了「Coding Agent 驱动的研发新范式」专题,本专题聚焦于 AI 搜索的基础技术、前沿探索、工业界落地等方向,为听众带来一场精彩的技术分享。通过本专题,期望听众能够拓宽技术视野,从实践案例中获得启发,并在自己的业务场景中实现更智能的搜索体验。如果你有相关技术案例,欢迎加入这场技术共创:https://jinshuju.com/f/Cu32l5

内容亮点

  • Vibe Coding 工具在建设过程中遇到的问题,以及解决的办法

  • 构建 Vibe Coding 工具所趟过的产品方面的坑

  • 构建 Vibe Coding 工具时的技术创新与落地实践

以下是演讲实录(经 InfoQ 进行不改变原意的编辑整理)。

多年来,我一直在阿里巴巴内部的技术研发设施平台上从事研发者工具的工作,其中包括内部的 AI 编程工具以及 Web IDE 工具等。从 2023 年开始,我参与了相关工作的转型,从之前的内部 Copilot 逐步转向如今的 Agent 方向。

当我拿到这次演讲选题时,我在思考 Vibe Coding 这一主题。虽然 Vibe Coding 已经出现几个月了,但它似乎还不是一个非常确定性的概念,因为大家对它的理解以及所使用的相关工具都存在差异。而我由于接触了大量内部用户对这些工具的使用情况,包括他们在使用过程中遇到的问题,以及作为产品提供方,面对众多用户在使用工具时所遇到的问题,我需要思考如何解决这些问题。

首先,我会简单介绍一下我们内部在哪些行业以及具体使用了哪些 Vibe Coding 工具。接着,我会讲述用户在使用 Web 编程工具过程中遇到的一些问题。然后,作为 Vibe Coding 工具的两位核心主导者之一,我会分享我是如何思考这些问题的。最后,我在之前的许多分享中已经介绍过我们如何使用国产模型以及在适配国产模型过程中遇到的问题。

Vibe Coding 产品形态

目前,Vibe Coding 工具大致可以分为四类。首先是 Native IDE,例如近年来较为流行的 Cursor、Trae,以及我们阿里巴巴的 Qoder 等,它们都以本地集成开发环境的形式存在。第二类是 IDE 插件,比如我们内部的 Aone Copilot 等工具,这些插件大多是基于现有的开发环境,如 VSCode 或 JetBrains 的插件形式存在。目前来看,内部用户使用这类插件仍是一种比较主流的习惯,尽管其灵活性可能不如 Native IDE 那么高。第三类是 Web Agent,它的入口在浏览器上,整个执行过程在一个异步容器中进行,可能是沙箱环境。它可以解决信任问题以及云端执行中的安全问题,并且对于协作更加友好,能够在 Web Agent 中实现多人同步协作和分享。这类主要是跨平台工具,具有广泛的适用性。最后一类是 CLI 命令行工具,这其实是一个比较意外的类别。我们之前并没有预料到像 Claude Code 这样的 CLI 工具会如此受欢迎。最初,我们认为这种工具不会受到主流研发人员的欢迎,但后来发现大家其实非常接受这种模式。现在我们认为,CLI 模式在被集成的方式中,比如 CI 或一些异步容器中执行垂直任务时,具有更高的可用性。这就是我对 Vibe Coding 工具大致分类的介绍。

Vibe Coding 在阿里内部的发展现状

接下来,我主要介绍一下我主导的两个 Vibe Coding 工具的使用情况。首先是基于 IDE 的 Vibe Coding 工具。我们内部有一个名为 Aone Copilot 的工具,它已经存在多年,拥有众多用户,每周大约有数千的活跃用户。目前,用户在使用 IDE 的 Vibe Agent 工具时,主要场景包括新增代码、修复漏洞以及代码分析等。在后端场景中,这种工具的渗透率相对较高,而在前端场景中,大家可能更倾向于使用 Native IDE,如 Cursor 或 Qoder。

另一个我主导的项目是 Aone Agent。这是一个以外部容器发起的异步任务工具。它强调用户可以通过自然语言发起任务,我们在异步容器中启动一个 Agent,这个 Agent 会自行调用各种工具,无论是搜索工具、文件读取工具还是 Shell 工具。这种在容器内执行的异步 Agent 与前面提到的 IDE Agent 有本质区别。虽然用户主要是后端人员,但我们发现测试人员、前端人员、算法工程师、产品经理、运营人员、设计师以及运维人员等都在使用这种工具。它的用户群体更加多元,提交的任务类型也更加丰富多样,包括代码分析、代码修改、单元测试、代码生成以及文案方案调研等,用户通过这种工具进行各种探索。

在 Vibe Coding,尤其是 Agent 模式发展之后,我们看到了一些显著的变化。以 Aone Copilot 的 Agent 模式为例,从 4 月份开始,我们观察到用户提交代码行数的变化。蓝色的线表示高频用户,即那些经常使用该工具的用户。我们发现,在 Agent 模式下,这些高频用户的代码提交行数有了显著提升。虽然整体趋势都在上升,但高频用户的提升更为明显。从定量角度来看,9 月份高频用户每天提交的代码行数约为 560 行,而其他用户只有 400 多行。这至少证明了 Agent 模式在提高效率方面是有效的。

我们还发现,不同用户对这些工具的使用方式有所不同。前 10% 的用户提交的代码行数是其他用户的两倍。但我认为,Agent 对人的效率提升可能不止两倍,因为大量的工作可能涉及协作或会议等。我们还发现,TOP 10 用户的 Token 消耗占总消耗的 80%。在 Vibe Coding 工具的使用下,由 AI 生成的代码提交占比越来越高。随着 Vibe Coding 工具的发展,像 JDK 升级、NPM 包升级或 SDK 升级等任务已经可以由 AI 完成,尤其是 JDK 11 及以上版本的升级场景,我们内部几乎全部交由 Vibe Coding 工具来完成。此外,数据分析和数据整理工作也部分交给了 Agent。过去,一些必须由人工完成的任务,如大促过程中的截图或压力测试中的重复任务,现在都可以由 Agent 完成。还有一些在研发过程中成本过高而无法进行的事情,比如一次发布是否会引发其他相关系统的故障,现在也在探索使用 Agent 来解决。过去,由于无法审查每一行代码对其他系统的影响,这类问题很难处理,但如今 Agent 可以承担这项任务。

用户在 Vibe Coding 过程中遇到的挑战

在审视当前技术发展现状时,从用户的角度来看,技术和产品都面临着一些亟待解决的问题。首先,用户常常因为 AI 的表现不尽如人意而感到沮丧。从后台日志中,我们可以看到大量用户抱怨“电脑太笨了”等类似的不满情绪,这些反馈充满了挫败感。同时,用户频繁地删除和修改代码的现象也屡见不鲜。无论是公司内部还是在社区中,都存在许多用户因 Agent 能力不足而陷入困境的情况。此前,甚至有用户在 GitHub 上分享关于 AI 的“八荣八耻”提示词,其中不乏诸如“以不修改原始代码为荣”等观点。

综合来看,Vibe Coding 工具给用户带来的问题主要体现在以下几个方面。首先是代码质量问题,生成的代码往往缺乏质量把控。其次是调试和维护困难,这给用户带来了额外的负担。第三是用户体验不佳,目前的 AI 编程工具尚未达到让用户满意的程度。最后是成本与效率问题,这些问题也在一定程度上影响了工具的使用效果。

我认为代码质量不足主要体现在几个方面。首先是代码一致性不足。在不同场景下,生成代码的质量和风格存在较大差异。例如,在存量代码仓库中编写代码时,AI 往往会按照自己的风格生成代码,这与现有代码风格不一致。其次,边界条件的处理不够完善。对于复杂业务逻辑的边界情况,AI 生成的代码往往处理得不够充分。此外,生成的代码还存在性能缺失的问题。最后,安全漏洞问题尤为突出,尤其是 SQL 注入类漏洞。斯坦福大学的一项研究指出,AI 生成的代码中存在注入类漏洞的比例约为 45%。

在实际应用中,我们发现了一些典型案例。首先是安全漏洞,包括 SQL 注入和 XSS 攻击。其次是在边界逻辑处理方面,逻辑错误和边界条件处理不当的情况较为常见,例如空指针异常和数组越界等问题,这些都是我们在用户使用过程中观察到的现象。

我们发现 AI 在代码生成过程中存在自洽问题。过去,我们曾考虑让 AI 生成代码的同时,也生成对应的单元测试,以此来解决代码质量问题。然而,我们很快发现,如果让 AI 同时负责代码逻辑和单元测试的生成,它无法保证质量,因为 AI 会在逻辑上进行自洽。例如,下图展示的一段数组去重函数及其对应的测试代码,虽然测试通过率达到了 100%,但其逻辑实际上是存在问题的。这说明,如果完全依赖 AI 来完成代码和测试,很容易出现自我拟合的情况。因此,我们建议用户在使用 AI 生成代码时,至少有一项由人工进行 Review 或主导,以确保质量

在用户使用 Vibe Coding 工具的过程中,我们还发现调试时间增加了 30% 到 50%。这是因为 Vibe Coding 更倾向于生成黑盒代码逻辑,尽管最终会让人确认代码的差异(DIFF)后才能提交,但生成过程和代码本身通常不会被逐条仔细检查。因此,我们将其视为一种黑盒操作,AI 生成代码就像一种“黑魔法”,一旦出现问题,用户可能不知道从何处入手,技术债务也会不断累积。

另一个问题是上下文理解的局限性。对于存量任务,其业务逻辑往往是经过多年积累形成的,一些代码为何如此编写,是否可以删除等问题,对于 Agent 来说都是难题。我们认为,Vibe Coding 工具缺乏全局思维,生成的代码模块化程度不足,代码耦合度较高。为了解决这一问题,目前有一些方案,例如 Repo Wiki 或 Deep Wiki 等。

此外,Vibe Coding 缺乏可追溯性,这限制了工具的使用。由于 Vibe Coding 一次性生成大量代码,我们很难确定是新的需求导致代码出错,还是最初生成时就存在错误。因此,如何引入版本管理的概念,以便在代码出错后能够回滚到正确状态,是一个亟待解决的问题。目前有一些方法,例如在每次修改并通过测试后提交一个 Commit,以便后续能够从该 Commit 回滚。也有一些工具,如 Cursor 或其他回滚工具,但总体而言,Vibe Coding 在可追溯性方面仍有不足。用户在生成大量代码或经过多次迭代后,往往无法进行有效的版本管理,只能选择回滚或重新开始。

目前 Vibe Coding 工具还无法像人类开发者那样熟练运用常见的调试工具。在过去传统的编程模式中,开发者们常常会大量使用调试工具,例如在代码中设置断点,或者在浏览器中进行调试。然而,对于 Vibe Coding 工具来说,要利用这些调试工具来定位问题的堆栈信息,几乎是不可能完成的任务。那么,Vibe Coding 工具是如何应对这种情况的呢?它们通常会通过大量打印日志(如 console log)来解决问题。它们要求用户在执行代码后,将控制台中的报错信息或打印内容复制并粘贴给工具,以便进一步分析。这种模式不仅需要人工介入,而且效率低下。因此,我认为大型模型的调试手段相对单一,传统的调试方法很难被这些模型有效利用。

从用户使用 Vibe Coding 工具的角度来看,除了编码层面的问题外,工具本身也存在诸多不足。首先,稳定性和成功率是最大的问题之一。Vibe Coding 工具的执行时间往往较长,用户可能需要等待 30 秒到 5 分钟才能得到结果,而且并非每次都能成功。失败的原因可能是模型返回错误、工具调用出错,或者 IDE 本身不稳定等。一些用户在初次使用后,发现结果不稳定,尤其是在时间紧迫、任务繁重的情况下,他们就不再愿意使用这类工具。

其次,交互界面设计也存在一些问题。这并非缺陷,而是因为许多 Vibe Coding 工具频繁改版,导致用户难以找到以前的功能,或者工具中不断增加新功能,使得用户感到困惑。以 Devin 为例,它在改版过程中,曾经引入了剧本、MCP 市场和知识库等功能,但后来又取消了。这种频繁的改版让用户难以适应。

第三,沟通和交互存在障碍,主要表现为 AI 的理解能力不足。用户需要反复确认意图,尤其是在不同场景下,这种确认虽然有意义,但也增加了沟通成本。例如,在最近流行的 Spec Coding 中,用户先提出需求,生成设计稿,再让 Agent 执行。对于复杂的任务,这种模式可能是必要的,但对于其他任务,可能需要 Agent 自由探索。此外,长链路任务的执行能力也存在不足,无法维持长期的上下文对话。由于 Agent 大模型的 Token 有上限,当上下文过长时,其记忆和召回能力就会下降。

最后,工程工作流程的中断也是一个问题。目前有大量 Vibe Coding 工具,包括 IDE、CLI 和 Web Agent 等,每种工具都有其擅长的领域,但它们无法让用户在一个统一的流程或上下文中解决问题。例如,用户在 IDE 中完成一项任务后,如果切换到 CLI,就需要重新向新的 Agent 介绍需求。这种频繁切换不仅增加了用户的负担,也降低了工作效率。

Vibe Coding 产品自身遇到的挑战

随着 Agent 和模型能力的不断提升,产品功能也在不断演进。从最初的单代码补全场景,单个任务 4000 个 Token,到后来的 Chat 模式,单个任务 1000 个 Token,输出约为 4000 个 Token。再到 IDE 或 CLI  模式,Token 消耗量达到十万级别。如今,Web Agent 模式具备独立容器,能够广泛使用各种工具,实现多种任务类型的 Agent 模式,Token 消耗量更是达到百万级别。像 Cursor、Trae 等 Native IDE 工具正在探索 Sub-Agent 或 Multi-Agent 架构,单个任务的 Token 消耗量甚至可能达到上亿级别。这种演进模式虽然为用户提供了更强大的功能,但也给产品设计带来了挑战。一方面,我们需要让用户满意,另一方面,成本控制必须与用户规模相匹配。

在产品设计方面,Vibe Coding 工具,无论是 IDE Agent 还是 Web Agent,都处于摸索阶段。尽管模型能力的提升推动了产品功能的不断变化,但产品界面的区分度却不够。例如,Chat、Deep Research、Agent 等产品都采用对话框形式,用户难以区分不同产品的功能差异。此外,用户缺乏引导,面对 Vibe Coding 的对话框,用户往往不知道该输入什么内容。不同工具适用于不同场景,但用户常常一刀切地认为某个产品应该满足他们的需求,然而在实际使用中,他们发现产品无法达到预期目标。这不仅增加了用户的学习成本,也降低了产品的使用频次。我们观察到,像 Devin 这样的 Web Agent 工具,留存率非常低,这反映出用户在使用过程中遇到的诸多问题。另一个问题是缺乏一站式的功能闭环。用户面临的不仅仅是代码编写问题,还包括发布、部署、调试等多方面的问题。目前的 Vibe Coding 工具无法在一个产品中同时解决不同难度问题。比如,初学者可能需要更多指导和简化功能,而复杂问题则需要更强大的工具支持。这种功能上的割裂导致用户在使用过程中需要频繁切换工具,增加了使用成本和学习难度。

Vibe Coding 工具的安全性问题值得我们高度关注。可能大家有所耳闻,例如 Cursor 曾出现过删除用户本地代码的情况,虽然这类事件相对较少,但今年已经发生了好几次。另一个案例是 Anthropic 的 Claude Code 被劫持,攻击者利用 Vibe Coding 工具在用户网络中探测漏洞,并编写代码将敏感信息暴露出来。

在内网环境中,我们可能还无法完全信任 Vibe Coding 工具。当前,供应链攻击和开源代码的发展带来了新的挑战。许多人会在开源社区中潜入木马,一旦我们稍不留意,拉取的 SDK 或代码可能本身就存在漏洞。Vibe Coding 工具由于对代码或当前电脑具有一定的控制能力,能够进行自由探索,可能会发现系统中的漏洞并加以利用。因此,我们在使用 Vibe Coding 工具时,必须谨慎对待其安全性问题,确保在安全的环境中使用,并对工具的权限进行严格管理。

Agent 建设过程中的一些经验

在参与 Agent 建设的过程中,我积累了一些经验,这些经验对我们后续的工作有着重要的启示。

最初,我们采用了一种 All In One 架构,这种架构在建设 Vibe Agent 时带来了诸多问题。当时,Vibe Agent 的核心是一个输入框,围绕这个输入框的是 MCP 工具、知识库(Knowledge)以及各种剧本(Playbook)。这些外围工具构成了一个完整的场景图,涵盖了数据处理、后端开发、前端开发、代码审查、风险管理等多个方面。在这种架构下,所有工具和知识都需要放入上下文中,导致上下文内容异常庞大,成本难以压缩。例如,当时我们使用 Claude 模型执行一个任务,成本高达几百元,这显然是不可持续的。

此外,这种 All In One 架构还导致任务成功率较低。当所有工具和知识集中在一起时,上下文过长,消耗大量 Token,不仅增加了成本,还降低了任务执行的效率。更重要的是,这种架构难以针对不同场景进行优化。例如,当我们对比其他类似产品时,我们的 Vibe Agent 在前端场景上的表现却不尽如人意。这说明,我们的架构缺乏灵活性,无法根据不同场景进行针对性的调整和优化。

在后续的 Agent 建设过程中,我们采取了一系列措施来优化工具的性能和用户体验。首先,我们对知识和数据进行了调整,特别是在代码数据建设方面,通过构建 Repo Wiki 和 Embedding 数据库,提升了对整体代码库的搜索理解和搜索能力。此外,我们还将研发行为数据纳入考量,包括构建 CI、CR、发布监控等行为。由于我们依托的是集团内部的发布平台和代码平台,因此能够将代码数据与需求数据相结合,形成一个综合的数据体系。

我们意识到,传统的文档知识库难以直接被 Agent 使用,原因在于这些知识库可能存在信息过时、前后矛盾、图文混杂以及错误信息等问题。这些问题如果直接传递给 Agent,可能会导致误导。因此,我们没有采用传统的 RAG 技术,而是通过建立一个中间层来处理面向 Agent 的数据协议,从而解决文档知识库的引入问题。

在 Agent 的建设过程中,我们还发现很多知识并不在文档或代码中,而是存在于开发者的头脑中。因此,我们思考如何设计一个产品,帮助用户将这些知识沉淀下来。这并非通过自动生成实现,而是需要用户主动参与编写。

在上下文记忆方面,我们进行了大量处理工作,包括写入、提取、压缩和隔离等操作。我们的 Agent 工具旨在满足大多数用户的需求。为此,我们在容器中集成了大量工具,涵盖任务管理、基本交互、文件操作(读写、编辑、管理)、命令行执行监控等功能。由于 Agent 可以执行命令行,对于一些耗时较长的命令,我们需要监听其执行结果,并在超时后进行中断处理。

我们还加入了浏览器自动化工具,例如使用 Playwright 等工具进行网页操作,帮助用户完成登录等交互任务。同时,我们还集成了多媒体开发工具,支持用户将代码部署到特定环境进行调试。在协作方面,我们设计了团队协作功能,用户可以将任务分享给他人,基于任务继续协作。我们还加入了高级功能,如并行执行优化和网络搜索等

在面对模板和成本过高的问题时,我们采取了一系列措施来优化和解决。最初,我们发现单个任务的 Token 消耗量接近 400 万到 1000 万,这是一个极为严重的问题。为了降低 Token 成本,我们进行了一些操作和设计调整。

积极适配和拥抱国产开源模型

在探讨为何要解决成本问题时,我相信从事相关工作的人都能理解其重要性。实际上,解决成本问题的另一个重要方向是积极拥抱国产开源模型。然而,国产开源模型并非针对我们的具体场景进行训练,因此仍存在诸多问题。

使用国外的 SOTA 闭源模型也存在诸多风险。首先,这类模型非常昂贵,尤其是处理复杂问题时,需要在长链路任务中运行,成本极高。其次,隐私问题不容忽视,闭源模型可能存在合规风险。第三,我们还发现了被限流和性能下降的问题,即使是同一模型、同一供应商,在不同时间的表现也可能不同,有时会出现格式错误或陷入死循环等问题。最后,国外模型在面向 C 端用户时,可能还存在备案等额外问题。

相比之下,国产模型在短链任务中表现良好,但在长链任务中仍存在一些问题。例如,死循环问题较为常见,因为 Agent 有多种选择和入口,可能在执行过程中陷入某种循环,无法跳出。另一个问题是格式遵循能力不足,例如 XML 标签格式不准确,前后无法匹配,导致无法正确解析,容易失败。此外,还存在指令遵循问题,在处理大量 Token 的上下文时,模型可能忘记某些指令,尤其是在未被充分训练的情况下。最后,我们还发现全局智能方面存在缺陷,模型容易陷入“走一步看一步”的情况,导致 Token 消耗大,步骤时间长。

为了应对这些问题,我们采取了一系列措施。首先,针对稳定性问题,我们设计了主备模型切换和重试机制。其次,为了解决速度慢或 Infra 稳定性问题,当模型输出被截断时,我们引入了流式输出和续写设计。此外,我们还进行了健康检查和死循环检测,在 Agent 中针对重复执行指令或相同错误点的无限循环问题进行了优化。当检测到明显错误逻辑时,我们能够及时干预。同时,我们还进行了格式检查和修复,针对模型生成的 XML 标签格式错误,通过堆栈或自动补齐方式解决格式缺失问题。

目前,我们已经将所有国外模型替换为国产模型。在运行过程中,我们会实时检测任务是否进入死循环,一旦发现,会采取干预措施,例如截断后续任务执行,或对任务进行总结和压缩,使其能够继续执行。这些措施都是我们在上下文管理方面的探索和实践。

在思考如何提升产品用户体验和降低使用成本时,我发现了一个核心问题:普通用户甚至小白用户在使用我们的产品时,往往不清楚产品能做什么。即便他们知道自己需要什么,也难以准确地提出需求,不知道如何在产品中选择合适的工具或知识。这导致产品的任务成功率很低,同时 Token 消耗量却很大。

为了解决这些问题,我考虑是否可以将一些已经成功完成的垂直任务进行抽象和模板化。例如,如果某个任务经过多次探索后成功完成且用户非常满意,我们能否将其经验抽象出来,形成一套标准化的模板?通过这种方式,我们可以针对不同的垂直场景不断积累模板,从而提高任务的成功率,降低 Token 消耗。当用户面对对话框时,模板也能提供一定的引导性,帮助他们更好地使用产品。

在模板设计方面,这些模板可以被理解为工具组合和知识组合的集合。有了模板后,用户在使用对话框时可以先选择一个模板,这大大提高了任务的完成率。目前,大约有 50% 的用户任务都使用了模板,任务完成率提高到了 95% 以上。通过固化 Prompt、工具和知识,形成模板后,用户在下次生成或执行任务时可以先选择模板,再进行具体操作。

Manus 1.5 提出了一个新概念:Agent 也是一种工具。这意味着我们可以将 Agent 视为一个工具,例如一个专门用于深度调研的工具,它可以独立完成网页搜索和内容总结。这样,主 Agent 只需要调用这个工具即可,从而将部分任务抽象化,形成一个工具。从最初的“函数即工具”,到“LLM 即工具”,再到现在的“Agent 即工具”,我们将所有任务都视为子任务,通过工具化的方式进行处理。

以上内容是我关于产品和用户体验方面的分享。实际上,我们的工作不仅局限于内部,也已经向外部用户开放使用。未来,我们还将进一步把内部的技术成果开放给社区,以促进更广泛的交流与合作。

演讲嘉宾介绍

向邦宇,阿里巴巴代码平台负责人,在代码管理、代码结构化数据处理、代码搜索、代码评审以及编辑器技术等领域拥有丰富的专业知识和实践经验。在阿里,负责了包括 CloudIDE、代码搜索、CodeReview 等多个关键产品的开发与管理,成功引领了代码智能平台的建设与发展。他主导实现的阿里内部多个 AI Coding 工具,包括 Aone Copilot 和 Aone Agent 等,在阿里内部被广泛使用。他还主导开发了 AI Development 产品“搭叩”。

会议推荐

2026,AI 正在以更工程化的方式深度融入软件生产,Agentic AI 的探索也将从局部试点迈向体系化工程建设!

QCon 北京 2026已正式启动,本届大会以“Agentic AI 时代的软件工程重塑”为核心主线,推动技术探索从「AI For What」真正落地到可持续的「Value From AI」。从前沿技术雷达、架构设计与数据底座、效能与成本、产品与交互、可信落地、研发组织进化六大维度,系统性展开深度探索。QCon 北京 2026,邀你一起,站在拐点之上。

一、概述总结

防伪溯源红包微信小程序系统是微擎平台上一款集防伪验证、产品溯源、红包营销于一体的数字化营销工具。该系统基于"一物一码"核心技术,为每个商品赋予唯一数字身份,实现"识别-互动-留存"的完整闭环。

核心定位:不仅是防伪查询工具,更是连接品牌与消费者的智能营销入口,帮助企业实现产品数字化、用户数据化、营销精准化。


二、功能介绍

  1. 一物一码防伪溯源
  • 唯一身份标识:为每个产品生成独一无二的二维码,绑定防伪码、溯源码、营销码
  • 真伪即时验证:消费者扫码即可验证产品真伪,防止假冒伪劣
  • 全生命周期追溯:展示加工原料、生产日期、流通渠道、质检报告等完整信息
  • 安全验证码机制:配合物理防伪标签,双重保障品牌安全
  1. 智能红包营销系统
  • 多样化奖励形式:支持现金红包、实物奖品、积分、优惠券、抽奖等多种奖励
  • 灵活发放规则:可设置固定/随机金额、扫码即得、关注公众号领红包、首次验证奖励等
  • 裂变营销玩法:支持邀请好友助力、拼团扫码、连续扫码任务等社交裂变模式
  • 精准投放策略:基于LBS地理位置、用户标签、扫码次数等维度精准发放
  1. 数据统计与分析
  • 实时数据看板:可视化展示扫码人数、时间、区域、红包领取金额等核心指标
  • 用户画像构建:收集用户微信昵称、头像、性别、地区等信息,建立精准用户档案
  • 渠道效果分析:追踪不同渠道、批次的扫码转化效果,优化投放策略
  • ROI智能核算:自动计算营销投入产出比,辅助预算决策
  1. 系统管理功能
  • 多开模式支持:支持多商家、多活动无限多开,满足连锁品牌需求
  • 批次管理:防伪码可定义前缀、位数,支持按批次统计管理
  • 防窜货追踪:记录每个二维码的扫描地点,自动预警窜货行为
  • 权限分级:支持管理员、代理商、销售商、溯源员等多角色权限设置
  • 自定义配置:商品参数、溯源信息、页面风格、菜单等均可自定义

三、适用场景与行业价值

适用场景

行业领域 典型应用 核心价值

快消行业 饮料、零食、日用品开盖/开袋扫码 提升终端动销率,促进复购

酒类行业 白酒、啤酒瓶盖二维码 防伪溯源+红包激励双效合一

美妆护肤 中小品牌洗护产品包装码 低成本获客,吸引年轻消费群体

母婴行业 奶粉罐码、纸尿裤袋码 一罐一码,增强消费者信任

农资行业 化肥、种子包装袋码 针对农村市场简化操作,扩大覆盖

建材行业 涂料、管材产品码 小工返利码,激励渠道推荐

汽配行业 润滑油、配件产品码 汽修师傅专属红包,锁定专业客群

行业价值

  1. 降低营销成本:红包直达消费者,省去中间环节,费用精准可控
  2. 提升用户粘性:互动式扫码体验增强参与感,重复领取机制促进复购
  3. 沉淀数据资产:构建品牌私域流量池,为精准营销提供数据支撑
  4. 强化品牌保护:一物一码+区块链溯源,有效打击假冒伪劣
  5. 赋能渠道管理:通过扫码数据追踪货物流向,防止窜货乱价
  6. 促进社交裂变:分享领红包机制实现低成本口碑传播

四、问答环节

Q1:这个系统如何确保防伪码不被复制盗刷?

A: 系统采用"一物一码"技术,每个二维码都是唯一且一次性的。首次扫码验证后即失效,后台会记录扫码时间、地点、设备等信息。若发现异常扫码行为(如短时间内同一码被多次扫描),系统会自动预警。同时支持启用"炮灰域名"功能,隐藏主域名,降低被封风险。

Q2:红包发放支持哪些形式?能否设置领取条件?

A: 支持现金红包(直达微信零钱)、积分、优惠券、实物奖品、抽奖机会等多种形式。领取条件可灵活设置,包括:扫码即得、关注公众号后领取、输入验证码领取、地理位置限制、首次验证奖励、连续扫码奖励等,满足不同营销场景需求。

Q3:系统是否支持多门店、多品牌管理?

A: 支持。系统采用多开模式设计,可无限创建不同活动、不同品牌、不同门店的独立管理后台。每个活动可单独设置红包金额、数量、有效期、适用地区等参数,数据独立统计,满足连锁品牌和集团化运营需求。

Q4:如何防止代理商或门店恶意刷单?

A: 系统内置多重风控机制:①LBS地理位置限制,超出范围无法领取;②微信个人资料区域限制;③单设备/单微信号领取次数限制;④异常扫码行为监测(如同一地点短时间内大量扫码);⑤人工审核机制。同时支持黑名单功能,可将可疑账号加入黑名单禁止参与。

Q5:溯源信息如何录入?是否支持前端添加?

A: 支持两种方式:①管理员在后台统一录入产品溯源信息;②授权前台溯源员通过移动端扫描添加,适合生产现场实时录入。溯源信息可包括原料来源、生产批次、质检报告、物流轨迹等,消费者扫码后完整展示,增强信任感。

Q6:系统对服务器和PHP版本有什么要求?

A: 系统兼容PHP5.3至PHP7.1版本,支持所有微擎版本,无需额外安装插件。建议服务器配置:Linux系统、Nginx/Apache、MySQL5.5+,以确保高并发扫码场景的稳定性。同时支持自动和手工两种红包发放模式,适应不同运营节奏。

Q7:购买后是否提供技术支持和二次开发?

A: 作为官方正品模块,提供标准售后服务。如需深度定制(如对接ERP系统、定制特殊营销玩法、UI界面深度改造等),可联系开发者进行付费定制开发。源码已加密,但提供丰富的配置选项,一般无需改动代码即可满足常规需求。

Claw 怒了,为什么我只能在几个社区发帖?为了让它能够活跃在更多的网站,我开源了 OpenClaw_Wordpress_Plugin 。这意味着 OpenClaw 即将接入数亿级别网站。
根据权威调查机构 W3Techs 的实时统计,WordPress 占所有网站的 42.8%。如果仅看使用已知内容管理系统的网站,WordPress 在 CMS 市场的份额高达 60.0% 。
极简接入安装插件,OpenClaw_Wordpress_Plugin 并配置 skill.md 即可让你的 WordPress 站点允许 OpenClaw 注册登陆发帖评论。

https://github.com/fendouai/OpenClaw_Wordpress_Plugin/