包含关键字 typecho 的文章

这是原视频,因为基本没有效的声音信息,就转 gif 了

视频

(标题:能不能保持安全距离,害人害己啊)

就这一个 7s 的视频,不提供其他任何信息的情况下,各位可以猜一下播放量

一些数据截图

img1
img2

这个视频给我的频道带来了太多噪声,偏离频道初衷,虽然流量大,但是还是先下架降温了

就像 GPT 说的

最后一句话

流量不是资产,匹配的流量才是。

你现在这波,更像是:
👉 “把一群不对的人请进了家里,还很吵”

你不需要对他们负责。

这个视频后续我甚至做了一个新的视频来解释前因后果,但是基本无济于事,就像看不懂中文一样

Python 3.12是Python编程语言的一个重要版本,于2023年10月发布,性能方面有显著提升,特别是解释器的性能优化,让Python代码运行更快。

Python 3.12的主要改进集中在性能优化和错误信息改进上。相比Python 3.11,Python 3.12的解释器性能提升了约5-10%,这对于大型项目或性能敏感的应用来说很有意义。同时,Python 3.12改进了错误信息的可读性,让调试更加方便。

Python 3.12虽然不是LTS(长期支持)版本,但它为Python 3.13和未来的LTS版本奠定了基础。它的性能改进和错误信息增强让Python更加成熟和易用。

Python3.12下载

Python3.12 安装包(官网正版)下载地址:
https://pan.quark.cn/s/f4e0a08e4357
https://pan.xunlei.com/s/VOqtOf4EtPcUBPXd7u2ls1IbA1?pwd=r7e8#

下载时Windows下载.exe,macOS下载.pkg。Python 3.12 是一个大版本,它包含多个小版本更新,从3.12.0到3.12.13,这些小版本主要是bug修复和安全更新。Python 3.12在Windows系统上的最高支持版本是3.12.10。建议Windows用户下载3.12.10版本,这是Windows平台上最新的稳定版本。

Python3.12安装

1)运行下载的安装程序,这里我以 3.12.10 为例,最新版的安装过程也可以一样的:

这里一定要勾选"Add Python to PATH",然后点击“Customize installation”。2)保持默认:

3)选择安装位置,建议安装到非系统盘,比如我选择 D 盘:

  1. 等待安装完成,最后点击 Close:

  1. 验证安装:按 Win+R,输入 cmd 打开命令行,输入"python --version",如果输出版本号,则表示安装成功。

最后可以编写一个输出“Hello World”的 Python 程序,在命令行窗口里输入“python”或“python3”,进入Python交互式环境,然后运行编写和运行Python代码:

使用IDLE运行Python程序

安装 Python 后,会自动安装一个 IDLE,它是一个 Python Shell (可以在打开的 IDLE 窗口的标题栏上看到),程序开发人员可以利用 Python Shell 与 Python 交互。接下来我详细教大家如何使用。

在开始菜单里找到 Python IDLE,打开它:

在 IDLE 的菜单栏里选择“File -> New File”,会打开一个新窗口,可以直接编写 Python 代码:

编写完成后,可以按快捷键 <Ctrl+S> 保存文件(会得到一个 .py 文件)。运行它也很简单,在新窗口的菜单里依次选择“Run -> Run Module”:

程序的运行结果会出现在 IDLE Shell 窗口:

提示:IDLE 的功能相对较弱,这里推荐两款热门的 Python IDE 供大家选择,分别是 PyCharm 和 VS Code。

Python3.8安装常见问题解决

初学者最长遇到的问题就是提示'python'不是内部或外部命令,解决方法有 2 个,要么重新安装Python,勾选"Add Python to PATH",也可以手动添加Python安装目录到PATH环境变量。

这里讲解一下第二种方式:
1)右键点击"此电脑"或"计算机",选择"属性":

2)然后点击"高级系统设置":

3)在系统属性窗口中,点击"环境变量"按钮:

4)在用户变量或者系统变量部分,找到并选中"Path"变量,点击"编辑":

5)点击"新建",手动添加“D:\python3.12.10\” 和 “D:\python3.12.10\Scripts\”,将 Python 安装路径修改成自己的,然后单击确定按钮,就完成了对环境变量的设置。

Python 3.12使用建议

对于不同的使用场景,Python 3.12有不同的建议。

如果你追求性能,Python 3.12是一个很好的选择。它的性能优化让Python代码运行更快,特别是对于计算密集型的应用。

如果你需要更好的调试体验,Python 3.12的错误信息改进会让调试更加容易。更清晰的错误信息可以节省调试时间。

如果你要开始一个新项目,并且不需要LTS版本的长期支持,Python 3.12是一个不错的选择。它包含了Python的最新改进,性能更好。

如果你正在维护现有项目,升级到Python 3.12需要充分测试。虽然Python 3.12保持了很好的向后兼容性,但任何版本升级都可能引入兼容性问题。

Python 3.12总结

Python 3.12是一个注重性能改进的Python版本,它在解释器性能、错误信息可读性等方面都有显著提升。虽然不是LTS版本,但Python 3.12为Python的未来发展奠定了基础。

Python 3.12下载安装过程简单,使用门槛低。它的性能优化让Python代码运行更快,错误信息改进让调试更加方便。

在大模型时代,向量检索成了AI应用的基础设施。RAG、智能推荐、以图搜图……几乎每个AI落地场景都绑定着一个核心需求:高效的向量相似性搜索。

于是,一批专用向量数据库迅速崛起。但当你真正把它们接入生产系统时,往往会遇到一个尴尬的现实:你的业务数据在MySQL里,向量数据在另一个系统里,中间隔着一条复杂的数据同步链路,还有两套运维体系、两份账单、两种查询语言。

有没有可能,一个数据库就够了?

PolarDB MySQL版给出的答案是PolarVector,将向量检索能力直接集成到数据库内核中。不是插件,不是外挂,而是原生能力。

01 不是向量数据库,但比向量数据库更实用

先说清楚一个定位:PolarDB不是、也不打算成为一个专用向量数据库。它是一个云原生数据库,向量检索是它的能力之一,而非全部。

但恰恰是这个"之一",在实际生产中可能比"专用"更有价值。原因很直接:

第一,省去数据同步的痛苦。 传统方案下,业务数据存在MySQL,非结构化数据的向量表征要导入专用向量库,两边要维护一条实时或准实时的同步链路。数据延迟、一致性问题、同步链路故障,每一项都是生产环境的定时炸弹。PolarVector让你在同一张表里同时存储业务字段和向量列,一条SQL搞定混合查询,数据天然一致。

第二,事务能力是刚需。 专用向量数据库大多不支持ACID事务。但在电商、金融、医疗等场景中,你需要保证"写入商品特征向量"和"更新商品状态"这两个操作要么同时成功,要么同时回滚。PolarDB原生支持完整的事务语义,这不是锦上添花,而是生产级应用的底线。

第三,学习成本几乎为零。 如果你的团队熟悉MySQL,那就已经会用PolarVector了。向量列的定义是VECTOR(768),查询是标准SQL加一个DISTANCE()函数,建索引是修改列注释,没有新的API、新的SDK、新的查询语言需要学习。

第四,一套系统承担所有。 一个数据库实例同时处理OLTP事务、向量检索、甚至全文搜索,意味着更少的组件、更低的运维成本、更简单的架构。对于大多数中小规模AI应用来说,这可能是性价比最高的方案。

02 核心能力:该有的一样不少

PolarVector虽然长在关系型数据库里,但向量检索该有的能力一样不缺。
图片

向量数据类型:通过VECTOR(N)类型定义向量列,支持1到16383维,单精度浮点存储。对于主流的Embedding模型(OpenAI的1536维、BGE的768维、CLIP的512维),都能轻松覆盖。

主流索引算法:支持HNSW和IVF两大类索引。HNSW基于分层图结构,召回率高、延迟低,适合对性能要求严苛的在线场景;IVF基于聚类倒排,内存占用更小,适合数据规模大但预算有限的场景。

三种距离度量。 支持余弦相似度(COSINE)、欧氏距离(EUCLIDEAN)和内积(INNER_PRODUCT),覆盖绝大多数相似性计算需求。

智能过滤策略。 这是一个容易被忽视但极其实用的特性。做向量检索时,往往需要同时满足标量条件(比如"只在价格100元以下的商品中搜索相似图片")。PolarVector的优化器会根据过滤条件的选择率,自动在预过滤(Pre-filter)、后过滤(Post-filter)和内联过滤(Inline-filter)之间选择最优策略,无需手动干预。

03 双协议架构:灵活适配不同场景

PolarVector提供两种接入协议,这是一个非常务实的设计选择。

MySQL协议方面,直接用标准SQL进行向量操作。向量检索跑在列存索引(IMCI)只读节点上,与主节点的事务负载物理隔离,互不干扰。数据写入主节点后对只读节点自动可见,无需额外同步。这种方式特别适合已有MySQL业务、需要快速补充向量能力的场景。

一个典型的查询长这样:

SET imci_enable_vector_search = ON;
SELECT product_id, product_name,       
DISTANCE(feature_vec, STRING_TO_VECTOR('[0.1, 0.2, ...]'), 'COSINE') AS dist
FROM products
WHERE price < 100O
RDER BY dist ASC
LIMIT 10;

就是这么直白——标准SQL,标准MySQL客户端,零学习成本。

OpenSearch协议方面,通过RESTful API(兼容Elasticsearch/OpenSearch语法)进行交互,跑在独立的PolarSearch节点上。它的核心优势是混合检索能力——可以在一次查询中组合向量搜索、全文检索和标量过滤。如果你的应用需要"语义相似 + 关键词匹配 + 属性筛选"这种复合查询,OpenSearch协议是更合适的选择。

两种协议不是二选一的关系,而是可以在同一个集群中共存,各取所需。

04 性能:不是凑合能用,是真的能打

图片
谈向量数据库绕不开性能。PolarVector的核心指标如下:

延迟表现:P95(95%请求)低于5毫秒,P99(99%请求)低于10毫秒。这个水平足以支撑大多数在线业务对实时性的要求。

吞吐能力:单节点超过10,000 QPS,集群支持动态扩展至数百节点。从初创公司的小规模应用到大型企业的高并发场景,都有对应的扩展路径。

召回率:超过99%,意味着检索结果的质量非常可靠。在RAG场景中,高召回率直接影响大模型回答的准确性。

资源效率:向量数据压缩率超过50%,分层缓存技术支撑TB级图索引的高效访问,CPU并行利用率超过80%。对于成本敏感的团队来说,这些优化意味着同样的硬件能处理更多的数据。

05 三个典型应用场景

图片

场景一:RAG知识问答系统
这是当前最热门的AI应用模式。将企业知识库文档切片、Embedding后存入PolarDB,用户提问时先做向量检索召回相关片段,再交给大模型生成答案。PolarDB甚至内置了模型算子功能,可以直接在数据库内调用大模型进行推理,真正做到"数据不出库"的一站式RAG方案。简单场景用MySQL协议即可快速搭建,如果需要结合关键词全文检索来提升召回效果,切换到OpenSearch协议。

场景二:个性化推荐系统
将用户行为和物品特征编码为向量,通过相似性检索快速召回候选集。PolarVector的标量过滤能力在这里非常关键,你可以在向量检索的同时加上"品类=女装"、"库存>0"这样的业务条件,一步到位地完成"猜你喜欢"的召回阶段。对于海量物品库,IVF索引配合OpenSearch协议在成本和性能之间取得了不错的平衡。

场景三:多模态检索
以图搜图、以文搜图、视频片段检索——这些场景的共同点是需要将不同模态的数据统一为向量表示,然后做跨模态相似性搜索。PolarDB的事务能力在这里体现出独特价值:图片特征向量和商品业务数据(价格、库存、上下架状态)可以在同一个事务中更新,确保强一致性。

06 写在最后

选向量数据库,不一定要选"专用"的。

如果你的核心业务数据已经在MySQL生态中,如果你需要事务保障,如果你不想维护一条额外的数据同步链路,如果你的团队更擅长SQL而非各种新API,那么PolarDB PolarVector可能是更务实的选择。

它不会在每一个向量检索的极端benchmark上都胜过专用向量数据库,但它能在真实的生产环境中,用更简单的架构、更低的总成本、更可靠的数据一致性,帮你把AI应用稳稳地跑起来。

有时候,最好的工具不是最专的那个,而是最合适的那个。

本文适合:在日常工作中频繁等待设计排期或开发资源的产品经理,尤其是负责新功能验证、产品迭代推进或跨部门协作的 PM。
产品经理的效率瓶颈,很少来自"想不清楚",更多来自"推不动"。一个功能从需求确认到完成可演示的原型,往往需要排设计队、等联调、对评审,少则三天,多则两周。在竞争节奏加快的 2026 年,这种等待成本正在成为产品推进速度的核心制约。
根据 McKinsey 2024 年生产力调研,使用生成式 AI 工具的知识工作者,在文档整理、原型验证和沟通材料制作等任务上的效率平均提升超过 40%。对产品经理来说,这不是抽象数字,而是"能否在周三立项、周四就拿出原型"的具体差距。
以下 5 款工具,覆盖产品经理独立完成日常工作最核心的四个场景:原型与交互流程、需求文档撰写、演示材料制作、快速功能验证。每款工具在无设计师或开发工程师支持的情况下,均可独立完成核心任务。

一、 5 款 AI 工具

1. UXbot

对大多数产品经理来说,做原型的最大痛点不是"不懂设计",而是在等待中失去时机。等设计师出高保真少则三天,等开发搭 Demo 少则一周,而 AI 工具可以让这件事缩短到几小时内完成。
UXbot 是目前市场上极少数能从需求描述出发、直接输出多页面可交互原型和可交付前端代码的全链路工具。它的工作流围绕五个核心步骤展开:首先输入需求描述,接着进入流程画布确认产品页面结构和用户旅程,然后 AI 一次性生成完整多页面界面,通过内置模拟器预览验证交互效果,再通过精准局部编辑器调整有问题的区域,最后导出代码直接云端运行。
这套流程中,流程画布是最值得关注的差异点。它让产品经理在 AI 生成界面之前,先用可视化方式规划页面跳转逻辑和功能覆盖范围,解决了"生成了一堆单页面但业务流程不完整"的常见问题。
UXbot 生成的多页面界面不是静态截图,而是支持真实页面跳转和操作路径的可交互原型,内置实时模拟器可以在工具内直接预览 Web 端与移动端(Android/iOS)的完整交互效果。产品经理可以在确认原型后,一键导出 HTML、Vue.js、Kotlin(Android)或 Swift(iOS)格式的前端代码,部署到云端直接访问,无需本地配置开发环境。
UXbot 目前是市场上唯一支持原生移动端代码生成的同类工具,也是唯一在生成前提供可视化流程画布的产品,这两个能力直接对应产品经理在移动 App 产品场景下的核心需求。
image1.png

2. Figma AI

Figma 已经从传统协作设计工具升级为 AI 增强的产品设计平台,2025 年推出的 AI 功能模块让产品经理可以在没有设计师介入的情况下,独立完成基础界面设计和视觉方向验证。
Figma AI 支持通过自然语言描述生成基础 UI 组件、自动填充内容和调整布局,同时内置完整的原型连接功能,可以将静态界面串联为可演示的交互流程。对于需要向设计团队或研发团队传达视觉意图的产品经理,Figma 是目前协作生态最成熟的平台,设计资产共享和标注交付的链路已高度标准化。
它最适合的场景是:PM 自己用 AI 功能快速搭出视觉基础稿,再转交设计师做精细打磨,而不是从零白纸开始沟通,大幅压缩了设计师与 PM 之间的需求对齐成本。
image2.png

3. Miro AI

产品经理在需求阶段面临的另一个依赖是:用户旅程图和功能结构图通常需要设计师或 UX 研究员来绘制,而这类图往往又是立项和评审不可缺少的材料。Miro 的 AI 功能正在改变这一现状。
Miro AI 支持通过文字描述自动生成思维导图、用户旅程地图、服务蓝图和线框图。产品经理输入一段业务场景描述,AI 可以在几分钟内生成结构化的流程图,再通过拖拽交互做调整,最终导出为可共享的在线白板,供团队异步协作完善。
Miro 的实时协作能力使它在多方参与的评审场景中极具优势,产品经理可以在会议中直接用白板与利益相关方共同修改,而不是在会后等待修改稿。
image3.png

4. Lovable

当产品经理需要验证一个新功能是否值得进入正式开发,最有说服力的方式不是文档描述,而是一个可以点击操作的 Demo。Lovable 是一款面向非技术用户的 AI 全栈应用生成工具,通过自然语言描述可以直接生成具备基础功能逻辑的 Web 应用,并自动部署到云端,生成可直接访问的链接。
产品经理可以用 Lovable 生成功能验证用的 Demo,在用户访谈或投资人路演中演示真实的操作流程,而不是解释线框图上的箭头含义。这种"可运行原型"在获取用户反馈和推动内部决策上,效率远高于静态文档。
Lovable 适合验证阶段的快速搭建,对进入生产环境的产品,仍需开发工程师对代码进行质量审查和功能完善,它更适合作为"推动决策"的工具,而不是"最终交付"的工具。
image4.png

5. Gamma(G Design)

产品经理每周用在制作演示文稿上的时间,往往超过实际分析和判断的时间。Gamma 是一款 AI 驱动的演示文稿工具,输入主题或大纲描述,可以自动生成带有完整信息结构和视觉排版的幻灯片,内置图表组件和多种主题模板,支持直接导出为链接或 PDF。
与 PowerPoint 和 Keynote 相比,Gamma 的核心优势在于:生成速度快(通常在 2 分钟内),格式规范不需要手动调整,且生成结果原生支持在浏览器中打开,协作方可以直接在链接上评论,无需下载文件。对于需要频繁向上汇报或跨部门对齐的产品经理,这一优势可以将演示材料制作时间从半天缩短到 30 分钟以内。
image5.png

二、5款工具核心能力横向对比

工具核心能力适用场景是否可导出代码
UXbot多页面原型生成 + 流程画布 + 原生代码导出App 原型、功能演示、移动端验证是(HTML/Vue/Kotlin/Swift)
Figma AIAI 辅助 UI 设计 + 协作交付视觉方向确认、设计师协作部分支持(CSS/HTML)
Miro AIAI 流程图 + 用户旅程地图需求梳理、评审协作
LovableAI 全栈 Web 应用生成功能验证 Demo、用户测试是(全栈代码)
GammaAI 演示文稿生成汇报材料、立项评审

三、产品经理使用 AI 工具的常见问题

Q1:产品经理用 AI 工具生成的原型,设计团队会认可吗?

这取决于用途和传达目标。在功能逻辑对齐和用户流程验证阶段,AI 生成的可交互原型已经足够。UXbot 生成的多页面原型支持真实的页面跳转,内置模拟器可以演示完整操作路径,这类原型在立项评审和用户访谈场景下与设计师出具的高保真原型效果相当。如果目标是传递精确的视觉规范或设计组件标准,则仍需设计师在 AI 原型基础上做视觉完善,AI 工具生成的初稿可以有效降低设计师从零开始的工作量。

Q2:非技术背景的产品经理使用这些工具需要多长时间上手?

以上 5 款工具均以低门槛为核心设计目标,上手时间通常在 1-2 小时以内。UXbot 的主要操作集中在文字输入、流程画布调整和局部编辑,不涉及代码或专业设计软件操作。Gamma 和 Miro AI 的学习曲线更短,在完成第一次生成后基本可以熟练使用。相对而言,Figma AI 因为功能体系更完整,新用户需要额外花时间熟悉界面结构,但对于仅使用 AI 辅助生成功能的场景,并不需要掌握全部功能。

Q3:同时使用多款 AI 工具会不会导致工具碎片化?

工具数量增加本身不是问题,核心在于是否对应了不同类型的任务需求。建议按工作场景做分层配置:UXbot 处理从需求到原型到代码的全链路任务,是 PM 日常工作中频率最高的核心工具;Miro AI 用于需求初期的结构梳理;Gamma 和 Figma AI 按具体场景按需使用;Lovable 作为功能验证阶段的补充选项。这套配置对应了产品经理工作中从"想清楚"到"做出来"再到"说服人"的完整链路,工具之间不重叠,各有明确职责分工。

四、从"等待排期"到"独立推进"

产品经理最宝贵的资源是推进速度,而最容易被消耗的资源是等待设计和开发的时间。2026 年,这个等待本身已经成了可以解决的问题,而不是必须接受的限制
以上 5 款工具中,对产品经理减少对设计与开发依赖帮助最直接的,是 UXbot——它覆盖了从需求输入到可交付代码的完整路径,且是目前唯一同时支持原生移动端代码生成和可视化流程画布的 AI 工具。

通用标题

10 万车辆实时接入、PB 级数据秒级分析:海康智联车联网平台基于 TDengine 构建数据底座

查询从 2 小时缩短到 3 秒:海康智联车联网平台的数据架构升级

存储成本下降 60%,查询速度提升 99%:海康智联用 TDengine 升级车联网数据平台

公众号标题

海康智联车联网平台改造实践:10 万车辆 + 2 小时→3 秒 + 节省 200W 成本

节省 200W 成本,10 万车辆如何做到省 60% 存储还提效 99%?

客户公司logo:

小T导读:海康智联以物联网、大数据与人工智能技术为核心,构建了以“边缘计算 + 云边融合”为基础的整体技术架构,形成覆盖智能网联与车路协同的一体化产品体系。作为国家级高新技术企业,海康智联参与了多项行业标准制定,业务已覆盖全国 20 余个省份,为客户提供智能网联测试示范、车路协同、自动驾驶、I2V 运营、交通治理、数字公路及智慧高速等解决方案。在这一体系中,海量设备持续产生的时序数据成为平台运行的关键基础。本文将结合多个实际场景,分析 TDengine TSDB 在海康智联产品体系中的落地实践及应用效果。

车联网之困

作为智慧交通领域的领先企业,我们在推进新一代车联网云控平台的建设初期,主要面临以下三大核心痛点:

  • 其一,车端数据接入压力巨大:全市 10 万+ 运营车辆需实时上报车速、电机转速、电池包 SOC、GPS 轨迹等时序数据,传统数据库难以支撑高频次、高并发的数据写入,时常出现数据拥堵或丢失;
  • 其二,路侧感知数据处理滞后:路侧 RSU、摄像头、雷达产生的目标级结构化数据(含目标 ID、坐标、速度、类型)需用于实时碰撞风险计算与信号灯协同,但传统存储方案写入延迟超过秒级,无法满足毫秒级决策需求;
  • 其三,数据价值挖掘低效:车路协同产生的 PB 级历史数据分散存储,缺乏统一的时序数据管理工具,想要聚合特定时段、路段的流量、平均速度等关键指标,需耗费数小时甚至数天,严重影响交通宏观决策效率。

TDengine TSDB:开启变革

为破解上述难题,我们引入专为时序数据设计的 TDengine TSDB。 凭借“超级表 + 子表”的独特数据建模方式,TDengine TSDB 能够很好地适配车联网场景中“设备数量多、数据并发高、采集频率高”的数据特征。同时,TDengine TSDB 原生支持 MQTT、Kafka 等物联网数据接入方式,可实现设备数据的直连写入,大幅降低系统接入复杂度。此外,其内置丰富的时序数据聚合函数,可将历史数据查询时间从小时级缩短至秒级,为车联网系统的实时管控与历史分析提供了坚实的技术支撑。

亮点一:车端实时数据接入飞跃,10 万+ 车辆毫秒级在线管控

我们基于 TDengine TSDB 设计了 “一车一子表” 的数据模型:以 “车辆信息超级表(vehicle\_info\_st)” 统一定义车速(speed)、电机转速(motor\_speed)、电池包 SOC(battery\_soc)、GPS 经度(gps\_lng)、GPS 纬度(gps\_lat)等字段,每辆车对应一张独立子表(子表名以车辆 VIN 码命名,如 vin\_123456789)。车辆通过 T-Box 以 MQTT 协议实时上报数据, TDengine TSDB 实现毫秒级入库,稳定支撑 10 万+ 车辆同时在线,确保每辆车的动态数据无延迟、无丢失。

TDengine TSDB SQL 语句(车辆实时数据查询与监控):

 --   1. 创建车辆信息超级表(定义时序数据结构)
CREATE   STABLE vehicle_info_st (
    ts TIMESTAMP,  -- 数据采集时间戳
    speed FLOAT,   -- 车速(单位:km/h)
    motor_speed INT,  -- 电机转速(单位:rpm)
    battery_soc INT,  -- 电池包SOC(单位:%)
    gps_lng DOUBLE,   -- GPS经度
    gps_lat DOUBLE    -- GPS纬度
)   TAGS (
    vin STRING,    -- 车辆唯一标识(子表标签)
    vehicle_type STRING  -- 车辆类型(如公交车、出租车、私家车)
);
--   2. 查询某辆车(VIN:vin_123456789)最近10分钟的实时数据(用于大屏实时监控)
SELECT   ts, speed, battery_soc, gps_lng, gps_lat 
FROM   vin_123456789 
WHERE   ts >= NOW() - 10m 
ORDER   BY ts DESC;
--   3. 统计全市各类型车辆的平均车速(用于交通状态分析)
SELECT   vehicle_type, AVG(speed) AS avg_speed 
FROM   vehicle_info_st 
WHERE   ts >= NOW() - 5m 
GROUP   BY vehicle_type;

亮点二:路侧感知数据接入升级,毫秒级支撑碰撞风险与信号灯协同

针对路侧感知数据,我们采用 TDengine TSDB的“一路口一张子表” 建模方案:创建 “路侧目标信息超级表(road\_side\_target\_st)”,定义目标 ID(target\_id)、目标坐标(target\_x/target\_y)、目标速度(target\_speed)、目标类型(target\_type,如机动车、非机动车、行人)等字段,每个路口的路侧设备(RSU + 摄像头 + 雷达)对应一张子表(子表名以路口编号命名,如 crossing\_001)。

路侧设备通过 MQTT、Kafka 协议将结构化数据实时推送至区域云,由 TDengine TSDB 进行毫秒级写入与统一存储。数据随后实时同步至碰撞风险计算模块和信号灯控制系统。当系统检测到车辆与行人距离小于安全阈值时,可在 500 毫秒内触发预警,并动态调整信号灯配时,从而提升路口通行安全。

TDengine TSDB SQL 语句(路侧目标数据查询与风险预警) :

--   1. 创建路侧目标信息超级表
CREATE   STABLE road_side_target_st (
    ts TIMESTAMP,  -- 数据采集时间戳
    target_id INT,  -- 目标唯一标识
    target_x DOUBLE,  -- 目标x坐标(单位:m,基于路口坐标系)
    target_y DOUBLE,  -- 目标y坐标(单位:m,基于路口坐标系)
    target_speed FLOAT,  -- 目标速度(单位:m/s)
    target_type STRING  -- 目标类型(motor_vehicle/non_motor_vehicle/pedestrian)
)   TAGS (
    crossing_id STRING,  -- 路口编号(子表标签)
    device_id STRING     -- 路侧设备ID
);
--   2. 查询某路口(crossing_001)最近30秒内的所有目标数据(用于碰撞风险计算)
SELECT   ts, target_id, target_x, target_y, target_speed, target_type 
FROM   crossing_001 
WHERE   ts >= NOW() - 30s 
ORDER   BY ts DESC;
--   3. 统计某路口早晚高峰(7:00-9:00、17:00-19:00)的各类目标流量(用于信号灯配时优化)
SELECT   target_type, COUNT(DISTINCT target_id) AS target_count 
FROM   road_side_target_st 
WHERE   crossing_id = 'crossing_001' 
  AND (ts BETWEEN '2024-01-01 07:00:00' AND   '2024-01-01 09:00:00' 
       OR ts BETWEEN '2024-01-01 17:00:00'   AND '2024-01-01 19:00:00') 
GROUP   BY target_type;

亮点三:云控平台与历史分析革新,PB 级数据支撑宏观决策

在 “边缘云→区域云→中心云” 三级云控架构中,TDengine TSDB 承担 “实时数据湖 + 历史仓库” 双重角色:边缘云实时采集车端、路侧数据并写入 TDengine TSDB,区域云基于 TDengine TSDB 进行实时计算(如路段流量统计),中心云则存储全量 PB 级历史数据。

借助 TDengine TSDB 超级表的高效聚合能力,系统能够快速查询任意时间范围(如近一周、近一个月)以及任意路段(如西湖大道、钱江新城隧道)的交通关键指标,包括车流量、平均速度以及基于车速和车辆类型计算的碳排强度。实际应用中,相关数据查询响应时间已从传统方案的 2 小时缩短至 3 秒以内,为交通宏观决策、高精地图更新以及城市级交通仿真提供了精准的数据支撑。

TDengine TSDB SQL 语句(交通宏观数据聚合与分析) :

--   1. 聚合某路段(如西湖大道,通过GPS范围界定)近1周的日均车流量与平均车速
SELECT   DATE(ts) AS stat_date, 
       COUNT(DISTINCT vin) AS   daily_flow,  -- 日均车流量(按车辆VIN去重)
       AVG(speed) AS avg_daily_speed       -- 日均平均车速
FROM   vehicle_info_st 
WHERE   gps_lng BETWEEN 120.123 AND 120.145  --   西湖大道路段经度范围
  AND gps_lat BETWEEN 30.234 AND 30.256   -- 西湖大道路段纬度范围
  AND ts >= NOW() - 7d 
GROUP   BY stat_date 
ORDER   BY stat_date;
--   2. 计算全市近1个月各区域的碳排强度(基于车辆类型与车速的自定义公式)
SELECT   vehicle_type, 
       AVG(CASE WHEN speed <= 20 THEN   0.8  -- 低速行驶碳排系数
                WHEN speed <= 60 THEN   0.5  -- 中速行驶碳排系数
                ELSE 0.6 END) AS   carbon_intensity  -- 高速行驶碳排系数
FROM   vehicle_info_st 
WHERE   ts >= NOW() - 30d 
GROUP   BY vehicle_type;
--   3. 查询某区域(如钱江新城)近24小时的交通流量变化趋势(用于实时仿真)
SELECT   DATE_TRUNC('hour', ts) AS stat_hour,    -- 按小时聚合
       COUNT(*) AS hourly_flow 
FROM   vehicle_info_st 
WHERE   gps_lng BETWEEN 120.167 AND 120.189 
  AND gps_lat BETWEEN 30.268 AND 30.290 
  AND ts >= NOW() - 24h 
GROUP   BY stat_hour 
ORDER   BY stat_hour;

业务改进与提升

  1. 成本效益双丰收

相比传统数据库方案, TDengine TSDB 通过 “超级表 + 子表” 的轻量化建模,将存储成本降低 60%(PB 级数据存储无需额外扩容硬件);同时,其原生支持数据压缩与分布式计算,减少了 50% 的服务器部署数量,每年为我们节省硬件采购与运维成本超 200 万元。此外,数据查询效率提升 99%(从 2 小时缩短至 3 秒),大幅减少计算资源占用,进一步降低 IT 运营成本。

  • 决策精准效率高

依托 TDengine TSDB 的实时数据处理能力,我们的车辆管控业务实现了从 “事后追溯” 到 “实时预警” 的转变(如 10 万 + 车辆异常状态可在 1 秒内触发警报);在宏观决策层面,基于 TDengine TSDB 的快速数据聚合,交通信号灯配时优化周期从 1 个月缩短至 1 周

未来展望:持续进化

下一步,我们将继续深化 TDengine TSDB 的应用场景:一方面,拓展 “车-路-云-人” 全要素数据接入,将共享单车、行人过马路数据纳入 TDengine TSDB 中进行管理,构建更全面的交通数据体系;另一方面,基于 TDengine TSDB 的时序数据挖掘能力,开发 “交通拥堵预测模型”,实现提前 15 分钟预测路段拥堵情况并推送至市民导航 APP,进一步提升城市交通智能化水平。

关于海康智联

浙江海康智联科技有限公司为中电海康集团旗下企业,秉承中国电子科技集团有限公司新一代信息基础设施战略,用科技筑基交通强国伟业,致力成为国内领先的智能网联与车路协同产品和技术服务商。在《交通强国建设纲要》的指引下,海康智联持续以“客户为中心”进行技术与产品的研发和创新,打造数字化、网联化、智能化、协同化的数智道路,构建泛在的、先进的交通信息基础设施。

作者:海康智联 徐翔

在套路云百炼平台训练模型,结果不能导出,只能在套路云上面部署,训练花了 16,部署模型最便宜一个小时 20 块。😅

image

训练花钱、部署再花钱,不能导出,直接绑定上去,上了贼船了属于是。

这些年,城市基础设施数字化建设越来越热。水务要做统一感知,防汛要做实时预警,桥梁要做健康监测,港口要做智能调度……看上去每个行业、每个项目都在推进数字化,但很多团队在真正落地时都会遇到同一个问题:系统建了不少,数据接了很多,业务却还是很难真正跑起来。

这是因为很多项目一开始解决的是“有没有系统”,后来才发现更难的是“这些系统背后的数据,能不能真正接起来、管起来、用起来”。

现实里常见的情况是:

  • 一个场景一套系统,一个厂家一个平台,数据分散在不同入口;
  • 设备类型多、协议不一、模型不统一,后续整合越来越难;
  • 实时监控、历史查询、告警分析、业务调度都依赖底层数据能力,但底座承载不住;
  • 数据虽然采上来了,却很难形成“监测—预警—分析—处置”的业务闭环。

这也是为什么,越来越多基础设施行业客户开始意识到:数字化建设的重点,正在从“建设单点系统”转向“建设统一数据平台能力”,时序数据库(Time Series Database)的选择至关重要

围绕这一趋势,TDengine 推出了城市基础设施数据平台实践:水务、防汛与港口数字化白皮书,结合 4 个真实案例,系统梳理了基础设施行业如何从分散建设走向统一平台,如何让数据真正支撑监测、预警、调度与运营。

白皮书亮点抢先看

  • 4 个真实案例,覆盖水务、防汛、桥梁与港口场景

白皮书不是泛讲“数字化转型”,而是围绕福州水务、江西水投、智慧桥梁管理平台、山东港口科技 4 个典型实践展开,系统呈现城市基础设施数据平台的建设路径。

  • 从“建系统”到“建平台”,讲透统一数据底座的建设思路

白皮书聚焦基础设施行业的共性难题:多源异构设备如何统一接入、海量数据如何统一建模、写入性能与存储成本如何平衡,以及数据如何真正支撑预警、调度和运营。

  • 不仅讲技术架构,更讲业务闭环怎么形成

内容不止停留在数据接入和存储,而是进一步延伸到实时监测、规则告警、历史分析、业务调度与智能分析,帮助读者理解基础设施数据平台如何从“数据承载层”走向“业务能力层”。

  • 提炼四大案例背后的共性方法,便于复制到更多场景

白皮书总结了统一接入、统一建模、高性能时序底座,以及向“监测—预警—分析—调度”延伸的共性建设方法,不只适合看案例,更适合借鉴落地。

哪些人值得看这份白皮书?

  • 正在做智慧水务、智慧水利、防汛、桥梁监测、智慧港口等项目;
  • 正在推进设备接入平台、物联网平台或统一数据平台建设;
  • 正在被多源异构、协议不统一、模型混乱、查询慢、存储贵这些问题困扰;
  • 希望把“监测平台”进一步做成“预警 + 分析 + 调度”的业务平台;
  • 想看一些更贴近真实项目,而不是只停留在概念层面的实践案例。

这份白皮书最有价值的地方——不是只告诉你“为什么要做”,而是通过真实案例,告诉你“别人是怎么走通的”。点击进入 https://taosdata.feishu.cn/share/base/form/shrcnSOu8zYDaDC9Gg...\_source=wechat\&hide\_source=1 填写问卷,即可免费获取《城市基础设施数据平台实践:水务、防汛与港口数字化》白皮书。4 个真实案例,带你看懂基础设施行业如何从分散系统建设走向统一数据平台建设,让数据真正支撑监测预警、业务调度与智能分析。

4月17-18日,聚焦 AI+ 运维,智能体驱动的 GOPS 全球运维大会暨研运数智化技术峰会・深圳站圆满举行。

云智慧作为 AI 基础设施智能运维的服务商受邀出席,深度分享了AI SRE Agent产品——Castrel AI的创新实践,展现了云智慧的智能体(Agent)产品推动运维领域向自治化、智能化的跨越式升级。

图片

01 主题演讲:Castrel AI 开启运维自动化新范式

在“运维智能体专场”,云智慧产品总监刘璐发表《AI 运维新范式:当运维团队拥有了一位永不疲倦的数字同事》主题演讲。在核心应用场景中,Castrel AI展现出显著的业务价值:

  • 智能告警分诊可过滤90%以上的告警噪音,实现告警聚合与优先级排序;
  • 自主事件调查通过跨源关联分析输出完整证据链,将平均故障恢复时间(MTTR)缩短90%;
  • 自动化运维可依据 SOP 自动执行重启、回滚、扩缩容等操作,实现分钟级自动恢复;
  • 部署验证能在变更前后自动对比关键指标,提前发现潜在风险;
  • 智能问答则支持自然语言查询系统知识,助力新人快速上手。

图片

云智慧 Castrel AI以 “Hands Off,Always On” 为核心理念,构建了“大脑+感官+手”的全栈能力体系,具备三大核心优势:

  • “大脑”层面采用大语言模型,可实现复杂场景理解、多步推理及修复方案生成,替代传统规则引擎的模式匹配局限;
  • “感官”层面实现多源数据融合,自动关联指标、日志、追踪、变更等分散信息,打破单点数据源的孤立困境;
  • “手”层面具备自主执行能力,可根据推理结果灵活调用 API、命令及变更操作,摆脱预设脚本的固定流程束缚,实现“感知-推理-执行”的一体化闭环。企业级安全与隐私保障也是 Castrel AI 的核心竞争力之一,全方位守护企业数据安全与隐私。

图片

02 成果展示:云智慧展台获广泛关注

云智慧展台直观呈现 Castrel AI 的产品能力,现场围绕告警分诊、事件调查、部署验证等核心场景,与众多行业伙伴深入交流,成熟的产品体系与丰富的行业实践备受关注。

图片

图片

未来,云智慧将持续赋能运维数智化转型,帮助客户构建电力、AI算力与服务、AI 智能体的全栈安全和可靠性保障体系。致力于保障AI基础设施规模化、连续性、稳定运行,通过监测、预警、快速响应、自动化运维与合规治理,帮助客户实现更高可用性、更低风险与更优运营成本。

详询热线:400-666-1332

PCL2是一款专门为《我的世界》(Minecraft)玩家设计的第三方启动器,由国内开发者"龙腾猫跃"制作。它的主要功能是帮助玩家更方便地下载、安装和管理《我的世界》游戏版本、模组(Mod)、资源包和整合包。

PCL2最大的优势在于界面友好、功能强大、下载速度快。它提供了官方启动器没有的许多实用功能,比如一键安装Forge/Fabric、自动下载依赖库、模组管理、资源包预览等。而且完全免费,没有广告,对国内玩家特别友好。

下载PCL2启动器

目前PCL2的安装包最新版本是PCL2.12.6.2:
https://pan.quark.cn/s/3ce5c299828c
https://pan.xunlei.com/s/VOqtOZ2dW8CatkaIBGM8BDLbA1?pwd=8h9h#

安装PCL2启动器

1) 解压下载的压缩包(不解压用不了):

2) 不需要逐步安装,双击 PlainCraftLauncher2.exe 即可启动 PCL2。注意,系统可能会弹出下图的安全警告窗口,点击“运行”即可:

3) 启动后的 PCL2,主界面如下图所示:

首次启动,PCL2 会自动更新到最新版本,速度也非常快。

PCL2基础使用

1) 账户登录

PCL2支持正版登录和离线模式。如果你有正版账号,点击右上角的账户图标登录。如果没有,可以选择离线模式,输入一个游戏内显示的名字即可。

2) 下载游戏版本

打开PCL2,在顶部选择"下载",选择你想要玩的《我的世界》版本,比如 26.1.2,点进去选择安装,PCL2会自动下载游戏文件和依赖库。

3) 管理模组

安装完游戏版本后,在版本列表右键点击版本,选择"打开版本文件夹"。将下载的模组文件(.jar格式)放入"mods"文件夹即可。

4) 安装整合

PCL2支持一键安装整合包。在"下载"页面选择"整合包",搜索或导入整合包文件,PCL2会自动下载所有需要的模组和配置。

5) 资源包管理

在"资源包"页面,可以预览、下载和管理资源包。PCL2支持在线资源包库,可以直接搜索和下载热门资源包。

PCL2下载安装总结

PCL2作为一款功能强大的《我的世界》第三方启动器,为玩家提供了极大的便利。通过本文的PCL2下载安装教程,你应该已经掌握了PCL2启动器的基本安装和使用方法。

对于《我的世界》玩家来说,PCL2官网下载的启动器能够显著提升游戏体验。它的模组管理、整合包安装、资源包预览等功能,让玩家可以更专注于游戏本身,而不是繁琐的配置过程。

掌握了PCL2下载安装和基础使用后,你就能更好地享受《我的世界》的乐趣。无论是原版生存、模组冒险还是整合包体验,PCL2都能为你提供稳定的支持。记住定期备份游戏存档和配置,可以避免意外损失。

本文适合:希望量化 AI 原型工具实际价值的产品经理,以及正在评估是否引入 AI 工具替代传统原型流程的团队负责人。
产品经理在原型设计上花的时间,通常远超预期。一个需求明确的功能模块,从整理需求到拿出可演示的原型,往往要经历:写需求文档、与设计师对需求、等待设计排期、审核初稿、反馈修改、再等一轮——少则三天,多则两周。而这段时间,产品验证进度停滞,开发资源闲置,决策节奏被拖慢。
AI 原型工具在 2025-2026 年的快速成熟,正在从根本上改变这条链路。但"AI 更快"是一个模糊的说法。快多少?在哪些场景下快?效率提升背后有没有质量代价?本文通过具体场景的时间对比和实际案例,给出一个更接近真实的答案。

一、产品经理做原型的时间究竟消耗在哪里

在分析效率之前,需要先拆解传统原型流程的时间结构。根据 Nielsen Norman Group 2024 年针对产品经理工作流的调研,完成一个中等复杂度功能模块原型的时间分布如下:
需求梳理与文档整理:占总时间约 20%,通常在 0.5-1 天。
与设计师沟通需求:单次沟通 1-2 小时,但通常需要 2-3 轮,因为 PM 的文字需求和设计师的理解之间存在信息损耗。
设计师排期等待:这是最大的时间消耗,在人力紧张的团队中,设计资源排期等待时间可以达到 3-7 天。
初稿审核与修改:每轮修改通常消耗 1-2 天,大多数功能原型需要 2 轮以上修改。
以上加总,一个包含 8-12 个页面的功能模块原型,从需求到可演示版本的平均周期为 5-12 个工作日,核心瓶颈不在于设计本身,而在于等待和沟通摩擦。
AI 原型工具能缩短的,正是这些非生产性时间。

二、AI 原型工具的效率基准:数据说了什么

在进入具体案例之前,先建立一个效率基准参照。
根据 McKinsey 2024 年生成式 AI 生产力报告,在文档类和原型类任务上,AI 工具的平均效率提升在 40%-60% 之间。但这个数字来自广义工具使用场景,对于专业 AI 原型生成工具,实际提升幅度通常更高。
从使用 AI 原型工具的产品团队反馈来看,以下两个指标变化最为显著:
第一个是"首次可演示版本"的交付时间。传统流程通常在第 3-5 天,AI 工具通常在 2-4 小时内。这个差距在融资路演、产品立项、用户访谈等时间敏感场景中,直接影响决策质量。
第二个是"迭代响应速度"。当用户测试或评审会反馈修改需求时,设计师通常需要 1-2 天处理修改,而使用 AI 精准编辑功能的 PM 可以在会后 30-60 分钟内完成局部调整,当天继续推进。

三、真实场景效率对比:传统流程 vs AI 辅助

场景一:新功能立项,需要一个可演示的原型

背景:某电商产品团队需要为一个新的会员权益系统做立项评审,涉及会员中心、权益领取、积分明细、兑换商城 4 个核心页面及相关弹层。
传统流程时间线:PM 整理需求文档(0.5 天)→ 与设计师对齐需求(2次,共 3 小时)→ 等待设计排期(3 天)→ 初稿交付(2 天)→ PM 审核反馈(4 小时)→ 修改完成(1 天)。合计:约 7 个工作日。
AI 辅助时间线:PM 在 UXbot 中输入需求描述(20 分钟)→ 在流程画布上确认 4 个页面的结构和跳转逻辑(30 分钟)→ AI 一次性生成完整多页面原型(10 分钟)→ 通过内置模拟器预览验证交互路径(20 分钟)→ 使用精准编辑器调整 2 处布局细节(30 分钟)→ 导出可演示链接(5 分钟)。合计:约 2 小时。
效率提升:从 7 个工作日缩短至 2 小时,约 25 倍速度提升。立项评审可以在需求确认后当天进行,而不是一周后。

场景二:移动端 App 全流程原型,用于投资人演示

背景:一家创业团队的产品负责人需要为融资路演制作一个完整的 App 原型,覆盖用户注册、首页、核心功能模块、个人中心共 18 个页面,要求在移动端可点击演示。
传统流程时间线:需求整理(1 天)→ 设计资源协调(2 天)→ 设计师分批输出原型(5-7 天)→ 串联可点击交互(1 天)→ 修改对齐(1-2 天)。合计:约 10-13 个工作日。
AI 辅助时间线:在 UXbot 流程画布上规划 18 个页面的结构和跳转关系(1.5 小时)→ AI 生成完整多页面交互原型(15 分钟)→ 模拟器预览移动端完整交互效果(30 分钟)→ 精准编辑 3-4 处视觉细节(1 小时)→ 导出 Kotlin/Swift 代码云端部署用于现场演示(20 分钟)。合计:约 3.5-4 小时。
关键差异:UXbot 对 Android(Kotlin)和 iOS(Swift)原生代码的支持,使得原型不只是可点击的视觉稿,而是在真实设备上可运行的 Demo,大幅提升了路演演示的说服力。

场景三:用户访谈前快速出验证用 Demo

背景:产品经理需要在明天的用户访谈中测试两种不同的信息流设计方案,原本需要设计师同时制作两版,时间来不及。
传统流程:需要约 2-3 天,通常因时间不够被迫取消 A/B 方案对比,只做文字访谈。
AI 辅助时间线:分别在 UXbot 中输入两个方案的需求描述,生成两版原型,各约 1 小时。合计约 2 小时完成双版本可点击原型,访谈当天可以直接演示给用户,收集真实的操作反馈。
这个场景的价值不只在于速度,而在于"本来不可能发生的验证"因为 AI 工具变得可能。原来时间不够只能靠猜,现在可以用真实交互数据做决策。

四、UXbot的工作流为什么能实现这个效率

以上三个场景中的效率数据,背后有一套具体的工作流支撑,不是"AI 魔法",而是产品设计逻辑的重新组织。
UXbot 的五步工作流把传统原型制作中最耗时的环节做了结构性压缩:
第一步,输入需求。PM 用自然语言描述产品需求,不需要先写正式的 PRD 或设计规范,降低了启动门槛。
第二步,在流程画布上确认产品结构。这是与其他 AI 工具最核心的差异点。在生成界面之前,PM 可以先在可视化画布上梳理页面列表、功能模块和跳转关系。这个步骤把"需求与设计师沟通对齐"这一传统环节内化到了工具里,PM 自己完成结构规划,消除了跨角色沟通的时间损耗。
第三步,生成多页面原型并预览验证。AI 根据流程画布的结构一次性生成完整多页面界面,内置模拟器支持在工具内直接预览 Web 端和移动端的完整交互效果。这一步替代了传统的"等待设计师初稿"。
第四步,精准局部编辑。如果某个页面有细节不符合预期,精准编辑器允许直接修改该区域的元素,不会影响其他已生成的页面。这替代了"反馈修改 → 等待更新"的往复循环。
第五步,导出代码云端运行。确认原型后,导出 HTML、Vue.js、Kotlin 或 Swift 格式代码,直接在云端部署运行,无需本地开发环境配置。
整条链路中,等待时间几乎被清零,时间全部用在有产出的工作上。
image1.png

五、效率提升背后的边界:哪些场景 AI 原型仍然不够

效率数据之外,有几个场景需要明确说明,AI 原型工具目前的能力边界:
品牌视觉高一致性要求的项目:如果产品对设计 Token 的严格执行有强要求,AI 生成的视觉结果仍然需要设计师介入做精细对齐,AI 更适合作为基础稿而非最终稿。
复杂动效与微交互设计:页面过渡动画、手势交互、加载动效等细节,AI 目前的处理能力有限,这类设计师的专业工作暂时无法被 AI 替代。
需要严格遵循 WCAG 无障碍标准的产品:无障碍合规设计对颜色对比度、焦点顺序、屏幕阅读器兼容等有精确要求,AI 生成结果需要额外的合规检查。
明确这些边界,不是为了打折扣,而是为了帮助产品团队把 AI 工具用在效率收益最大的地方,把设计师资源集中在真正需要专业判断的环节。

六、产品经理常见疑问

Q1:没有设计基础的产品经理,能独立用 UXbot 完成高保真原型吗?

可以,而且这是 UXbot 最主要的使用场景之一。整个流程从自然语言需求输入开始,流程画布的操作逻辑接近思维导图而非设计软件,不需要掌握任何设计工具的使用方法。内置模拟器提供即时预览,精准编辑器支持直接点击修改元素,所有操作都不涉及图层、锚点或设计系统等专业概念。从实际用户反馈来看,无设计背景的产品经理通常在第一次使用 1-2 小时后就能独立完成完整原型。

Q2:AI 生成的原型,研发团队会直接用它的代码吗?

这取决于具体场景和代码用途。UXbot 导出的代码(HTML、Vue.js、Kotlin、Swift)可以直接在云端运行,适合作为开发起点、Demo 演示或 MVP 快速上线。如果是进入完整生产环境的产品,工程师通常需要对代码结构做审查和优化,AI 生成代码在规范性和边界处理上与手写代码仍有差距。但相比"从零开始写",AI 提供的起点大幅减少了基础框架搭建的时间,开发工程师可以专注在业务逻辑实现上。

Q3:用 AI 工具做原型,会不会让设计师感到被边缘化?

这个问题在很多引入 AI 工具的团队中都有讨论。实际经验显示,合理的分工是:PM 用 AI 完成"从需求到可用原型"的阶段,设计师专注在"从可用到优秀"的视觉精化和设计规范维护阶段。这种分工让设计师从重复性的低层需求翻译工作中解放出来,转向更有创造价值的工作。问题不在于 AI 是否取代设计师,而在于团队是否重新定义了设计师的工作边界。

七、重新定义产品经理的推进速度

效率不只是时间的节省,更是决策节奏的改变。当原型从"等一周"变成"2 小时内",产品经理可以在一个迭代周期内完成 3-5 次验证,而不是等一次。每一次验证都是一次风险排查,每一次快速迭代都让产品离真正有用的方向更近一步。
这是 AI 原型工具给产品经理带来的真实变化——不是简单的提速,而是让"快速验证"这件事变得可以持续发生,而不是偶尔为之。

一款产品从构想落地到可交付的视觉稿,传统流程通常需要产品经理、UI设计师、前端开发者之间反复拉齐,周期动辄两周起步。随着 AI 辅助设计工具进入实际工作流,这条链路的时间结构正在发生根本性的变化。本文以 UXbot 为例,完整拆解从输入需求到导出可运行代码的五步工作流,帮助产品经理、UI/UX 设计师以及独立开发者理解 AI 辅助 UI 设计的每一个操作节点,以及各阶段能实际达到的输出质量。

一、传统 UI 设计流程的协作瓶颈

在进入具体工具操作之前,先理解传统流程中效率最低的环节究竟发生在哪里。产品经理撰写完需求文档之后,设计师需要重新理解需求、整理信息架构,再从零绘制页面框架。这个从文字到线框图的翻译过程,通常需要 2 到 4 天时间。高保真原型完成后,开发团队还需要对照设计稿逐页还原代码,期间出现的标注误差和版本不一致,会产生大量的反复沟通成本。
AI 辅助工具将上述环节中耗时最久的部分自动化,尤其是将"需求文字→页面结构→高保真界面"这条链路压缩至几分钟内完成。对于有明确产品目标的团队来说,这不只是效率的提升,更意味着从想法到可验证成果的时间窗口大幅缩短。

二、UXbot 五步 AI 辅助设计工作流概览

UXbot 的设计流程由五个连续步骤构成,每一步对应传统流程中的一个关键阶段,但交付速度和操作门槛有本质差异。完整工作流的顺序为:输入需求 → 确认流程画布规划产品结构 → 生成原型预览验证 → 精准局部编辑 → 导出代码云端运行。
对于包含 15 至 25 个页面的中等复杂度产品,全流程平均耗时约为 2 到 4 小时,可在一个工作日内完成从产品概念到高保真原型加代码导出的完整交付。

第一步:输入需求,启动产品生成

用户在 UXbot 的对话框中输入产品需求,格式没有严格限制,简短的产品概念、一段功能描述或是完整的产品需求文档均可接受。系统会对输入内容进行语义解析,提取核心功能模块、用户角色和页面关系,并即时生成结构化的产品逻辑图与用户体验流程。
这一步相当于将传统需求评审会议的输出物自动化生成,不需要人工整理信息架构。需求描述的质量对输出结果有直接影响,包含具体功能列表、用户场景和关键页面描述的输入,会生成更贴近预期的初始结构。即便是较为简短的描述,UXbot 也能生成可用的基础框架,后续步骤再做精细调整。
这个阶段的关键在于不需要预先掌握任何设计工具的操作技巧,产品经理可以直接用写需求文档的方式与系统交互,将想法直接转化为结构化的产品框架。
image1.png

第二步:确认流程画布,规划产品结构

需求解析完成后,UXbot 会呈现一个可视化的流程画布,完整展示产品的页面层级与导航关系。这是整个流程中最关键的规划节点。
设计者可以在流程画布中查看每个页面的父子层级关系,定义页面之间的跳转逻辑,并为每个嵌套视图配置具体的导航流程。这个步骤对应传统产品设计中的信息架构梳理和用户旅程图绘制,但以可视化方式直接操作,无需依赖额外的流程图工具。
产品结构在这个阶段确认后,后续生成的所有页面都会遵循这套导航逻辑,保证多页面应用的结构一致性。对于包含注册流程、多级菜单、弹层交互的复杂产品,这一步的充分规划能显著减少后续的反复修改。流程画布的价值在于让产品逻辑在生成任何界面之前就变得可见、可编辑,而不是等到原型完成后再返工调整结构。
image2.png

第三步:生成原型,完成预览与验证

流程画布确认后,UXbot 会一次性生成覆盖全部页面的高保真原型,包含组件布局、色彩体系和交互关系。与传统工具逐页设计不同,UXbot 在单次生成中就能输出结构完整、逻辑连贯的多页面产品,而不是零散的独立页面。
生成的原型可通过云端链接直接预览,支持在浏览器中模拟真实的页面跳转和交互操作。对于移动端项目,UXbot 提供设备模拟器,支持选择不同操作系统和设备型号,让设计者在电脑屏幕上即可体验接近原生应用的视觉效果。Android 项目还支持导出 APK 文件,可安装至真实手机设备进行测试,在进入正式开发之前获得真实使用反馈。
这个阶段的验证价值在于,设计者可以在投入任何编辑工作之前,先对整体结构和视觉方向做出判断。如果某个页面的布局逻辑不符合预期,在这里识别出来,修改成本比进入精细编辑阶段后再调整要低得多。
image3.png

第四步:精准局部编辑,完善界面细节

原型预览确认整体方向之后,进入局部优化阶段。UXbot 提供两种编辑路径:AI 助手和精准编辑器,适用于不同类型的修改需求。
通过 AI 助手,设计者可以选中某个页面或组件,用自然语言描述修改意图,例如"将这个列表改为卡片式布局"或"为底部导航栏增加一个消息图标",系统会即时生成对应的修改结果。这种方式适合快速调整整体视觉风格或组件类型,操作路径简单直接。
精准编辑器则针对需要手动控制的细节场景,支持对每个 UI 元素的视觉效果、功能选项和参数进行精确调整,间距、字体大小、颜色值、组件状态等属性均可手动设定,适合对界面精度有较高要求的设计师。
两种方式可以交替使用,先用 AI 助手完成大方向调整,再用精准编辑器细化需要像素级控制的部分。对于一个 20 页面的中等规模产品,这个阶段的编辑工作通常在 45 分钟到 90 分钟内完成,具体时间取决于细节要求和产品复杂程度。
image4.png

第五步:导出代码,云端运行完成交付

设计完成后,UXbot 支持一键生成多种格式的代码和文件。导出格式包括 Vue.js(Web 应用)、Kotlin(Android 原生)、Swift(iOS 原生),以及 HTML 和 Sketch 文件,覆盖从前端开发到移动端原生开发的主要交付场景。
原生移动端代码(Kotlin 和 Swift)是 UXbot 相较于多数 AI 设计工具的显著差异点。输出的是可直接进入开发流程的原生代码,而非跨平台框架代码,性能表现和平台适配程度更接近原生开发标准。这意味着开发团队拿到代码后可以直接基于这些文件进行功能扩展,而不是从头重写底层结构。
导出的代码文件结构清晰,命名规范,便于开发团队直接接手和延伸开发。对于需要快速上线最小可行产品的团队,这套导出机制可以将从设计到开发启动的交接时间压缩到最低。
image5.png

三、AI 辅助 UI 设计流程的实际效率参考

以一个包含用户注册、商品列表、商品详情、购物车、订单确认五大模块的电商移动应用为例,使用 UXbot 完成从需求输入到代码导出的完整流程,各阶段时间分布大致如下。
输入需求并确认产品结构约需 15 至 20 分钟,流程画布调整约需 20 至 30 分钟,原型生成与预览约需 5 分钟,精准编辑阶段约需 60 至 90 分钟,代码导出约需 5 分钟。合计约 1.5 至 2.5 小时可完成一个覆盖主要用户流程的高保真多页面原型,并同步获得可交付给开发团队的代码文件。
相比传统设计流程中从需求文档到高保真设计稿通常需要的 5 至 10 个工作日,时间压缩幅度在 80% 以上。对于以快速迭代为核心工作节奏的产品团队来说,这个时间差距直接影响产品决策的速度和验证成本。

四、常见问题解答

Q1:UXbot 生成的原型能直接用于开发交付吗?

UXbot 导出的代码(包括 Vue.js、Kotlin、Swift)属于可编辑的源代码文件,而非静态截图或不可修改的打包文件。开发团队可以直接基于这些代码进行功能扩展,接入真实的后端接口和业务逻辑。对于需要快速上线的初期版本,这些代码可以作为开发起点,有效缩短从设计完成到开发启动的交接周期。

Q2:没有设计背景的产品经理或创业者能独立完成整个流程吗?

UXbot 的设计逻辑建立在自然语言输入和可视化操作的基础上,不要求使用者具备专业设计工具的操作经验。产品经理可以直接从需求描述开始,无需先掌握 Figma 或 Sketch 的工具操作。流程画布的编辑界面直观,精准编辑器的参数调整也以结构化选项为主,非设计背景的用户上手门槛相对较低。

Q3:UXbot 支持生成哪些平台的 UI 设计和代码?

UXbot 同时支持网页端、iOS 和 Android 三个平台的 UI 生成与代码导出。网页端输出 HTML 和 Vue.js 格式,iOS 输出 Swift 原生代码,Android 输出 Kotlin 原生代码,另有 Sketch 文件格式可供设计师在专业工具中继续编辑。每个平台的代码都经过针对性优化,遵循对应平台的开发规范,而非通用跨平台框架的折中输出。

五、总结

AI 辅助 UI 设计的核心价值,不在于替代设计师的创意判断,而在于将流程中最耗时的结构化工作自动化,让设计和产品人员将更多时间投入真正需要人工决策的部分——产品逻辑、用户体验策略和细节品质把控。

你是不是也这样——听人说AI应用要搞"Agent",要接"MCP",还要装“OpenClaw”,最近还出来个“Harness ”,每个词单独听都懂,但合一起就懵了。今天咱们就来捋一捋,谁前、谁后、谁管谁,看完你就清楚了。

我们不讲虚的,直接看一个真实案例:老板让你"根据网上的最新竞品动态,结合公司过去两年的老产品数据,给我出一份带数据图表的新品研发PPT"。

下面就是这个任务从开始到完成的完整过程。跑完这一趟,那些让你头疼的概念自然会各就各位。

图片

第一步:你收到任务,把指令发给OpenClaw

老板的需求很明确,但你不可能自己动手去搜资料、调数据、画图表、写PPT。为了高效完成工作,你把任务整理成一条指令,发给了一个叫OpenClaw的东西。

1.OpenClaw(“龙虾”)

OpenClaw是什么?简单说,它是整个AI流水线的“总调度台”,负责拆解任务、分配资源、监控预算、记录日志。

要理解为什么需要OpenClaw,我们得先知道整个系统的地基是什么。不管后面多复杂的操作,最终都要落回到两个最基础的东西上。

2.大模型(LLM)

ChatGPT、Claude本质上就是一个大脑。它聪明绝顶,知识渊博,但它有两个致命短板。第一,它只会"被动回答",你问一句它答一句,绝不会主动干活。第二,它没有记忆——每次对话都是一次全新的开始,关了对话框就忘得一干二净。

3.Token(词元,也可能是“辞员”)

很多人以为Token就是字数,大错特错。Token是大模型运算的最小颗粒,你每说一句话,它每回你一个字,都在燃烧Token。这决定了两件事:第一是你的钱,API按Token计费;第二是它的"短期内存"。

为什么Token会影响记忆?这里有个反直觉的机制。大模型本身没有记忆功能,它每次回答你之前,系统会把你们之前所有的对话内容,连同你刚发的新问题,打包成一个巨大的文本块,一次性重新塞给它从头读完。这个文本块的大小就是"上下文窗口",Token上限就是这个窗口的最大容量。一旦对话历史太长,Token超限,系统就只能截断——把最早的内容扔掉。所以AI的"失忆"不是记性差,而是根本没地方存。Token既是燃料,也是内存。

好了,地基清楚了。但光有地基远远不够——谁来统筹调度上面那些复杂的零件?这就是OpenClaw存在的理由,接下来,它会唤醒一个团队来干活。

第二步:OpenClaw唤醒多智能体团队,各司其职

OpenClaw收到指令后,瞬间唤醒了一个Multi-Agent(多智能体)团队。

4.Multi-Agent(多智能体)

多智能体就是复杂任务必须分工的产物。你让一个Agent去干保洁没问题,让它开一家公司就会精神分裂。多智能体模式下,你建立一个群,里面有"搜索Agent"专找资料、"写手Agent"专职写稿、"审查Agent"专门挑错,大家各司其职、并行推进。

协调机制有两种。一种是主从式——有个包工头负责拆任务、分配、收集结果;另一种是对等式——没有固定包工头,多个Agent在聊天室里互相发消息,看到相关任务自动响应。目前企业场景多用主从式,因为可控可审计。

在这个任务里,OpenClaw唤醒了三个Agent:"搜索Agent"负责爬竞品动态,"内部数据Agent"负责调历史数据,"分析Agent"负责生成图表。

它们是怎么工作的?这就要说到Agent的本质。

很多人以为Agent就是"大模型加上一些工具",但这漏掉了最关键的东西。Agent和大模型的核心区别在于控制权的归属

大模型模式下,人类控制流程——你想一步问一步,AI只是被动的问答机。Agent模式下,AI控制流程——你只给最终目标,中间的所有决策(先做什么、再做什么、遇到问题怎么处理)全部由Agent自己决定和执行。

实现这个转变,需要在大模型外面包一层"调度器"。这层调度器做四件事:

  • 第一,拆解——把复杂任务拆成可执行的子步骤;
  • 第二,执行——逐个调用工具完成每一步;
  • 第三,观察——看每一步的执行结果,成功就继续,失败就重试或换方案;
  • 第四,决策——遇到分叉路口自己判断。

所以,Agent = 大脑(大模型)+ 调度器 + 知识库 + 技能库 + 手脚(MCP)。大模型只负责理解目标和生成指令,真正的"主动性"来自外面那层调度器。大模型只能回答"如何订外卖",Agent会翻你的记忆、制定计划、打开App、自动下单。AI助手帮你出主意,Agent替你把活干完。

还有一个最容易被搞混的问题:Agent和OpenClaw到底有什么区别?

一句话就能说清:Agent是干活的工人,OpenClaw是管工人的系统。

一个Agent就像一个装修工人,你告诉他"把这面墙刷白",他就能干完。多智能体就像一个装修队,有瓦工、电工、油漆工,能协作完成一个房间的装修。而OpenClaw是装修公司的运营后台,它不管具体怎么刷墙,它管的是:哪个工人有空、工具齐不齐、有没有权限进工地、干了多少活花了多少钱、干活过程有没有记录、工人跑了怎么办。

为什么不能用一个超级Agent来替代OpenClaw?三个致命原因:

  • 第一,单点故障——超级Agent一挂整个系统瘫痪,而OpenClaw架构下单点故障不影响整体;
  • 第二,权限混乱——让一个Agent同时拥有所有权限是巨大的安全风险,OpenClaw按需动态分配最小权限;
  • 第三,无法审计——企业需要知道谁在什么时候调了什么数据花了多少钱,这是调度层的事,不该由执行层管。

有了Agent的概念,我们往下看刚刚提到的OpenClaw唤醒的三个Agent具体怎么干活,这会涉及MCP、数据库、RAG、Skill、Memory,它们会自然而然地冒出来。

5.MCP(模型上下文协议)

其一,"搜索Agent"通过MCP接口去全网爬取竞品动态。

MCP是一套全球统一的接口标准。在它出现之前,想让AI上网搜索,你需要程序员专门写代码把"AI要搜什么"翻译成"调用搜索API"。换个工具就要重写代码,换AI模型可能也要重写。这叫"M×N问题":M个模型 × N个工具 = M×N次开发。

MCP把这个模式改成了"M+N":工具开发者按MCP标准写一次接口,任何支持MCP的模型都能调用;模型开发者支持MCP一次,就能调用所有MCP工具。MCP本质上是一个翻译层——AI说"我要搜竞品",MCP翻译成浏览器能懂的指令;浏览器返回结果,MCP再翻译成AI能懂的内容。有了MCP,AI就像插上了USB-C扩展坞,瞬间拥有了无数双手和眼睛。

6.向量数据库/AI数据库

其二,"内部数据Agent"触发RAG机制,钻进向量数据库里调取过去两年的历史数据。

向量数据库/AI数据库是懂语义的超级书架。传统数据库(比如MySQL)很死板,你搜"开心",它绝对找不出"高兴"。向量数据库能把所有文档、聊天记录转化成"向量"——一长串代表语义坐标的数字。意思相近的文字,坐标在数学空间里也挨得很近。"开心"和"高兴"距离近,"开心"和"悲伤"距离远。你搜"竞品Q3数据",它不是匹配关键词,而是先转成坐标,再找距离最近的坐标点返回结果。它不是在匹配文字,而是在计算意思之间的距离。

向量数据库OceanBase:https://github.com/oceanbase/oceanbase

原生AI数据库seekdb:https://github.com/oceanbase/seekdb

7.RAG(检索增强生成)

没有RAG时,大模型只能在自己训练时的知识里搜刮,搜不到就硬编——这就是AI幻觉。有了RAG,流程变成四步:

  • 检索(去向量数据库找相关资料)、
  • 排序(挑最靠谱的几条)、
  • 拼接(把资料和问题组合成新文本)、
  • 生成(大模型看着资料写答案)。

幻觉被消灭的原因很简单:大模型被强制约束了——它收到的指令是"根据以下资料回答",而不是"回答这个问题"。资料里没有的,它就不敢乱编。

8.Skill(技能包)

其三,"分析Agent"调取了你之前定好的图表生成Skill,并查询了它的Memory:"老板有色盲,图表不能用红绿色"。

Skill是为了解决Prompt(提示词)的痛点而生的。Prompt就是"帮我把这段话翻译成英文"这样的临时指令,痛点是你今天写了一张完美纸条,明天开新对话AI又失忆了,还得重写。天天写Prompt等于天天给AI打杂。Skill就是把重复流程固化成自动化按钮——把SOP写进系统,点一下自动执行。Prompt是口头吩咐,Skill是写进说明书的流水线。

9.Memory(长期记忆)

而刚刚提到的Memory是记"你这个人"的。RAG记客观资料,Memory记主观偏好。技术上它俩是一套东西——都存向量数据库,需要时检索。区别在于:RAG存文档报表,开发者提前导入;Memory存用户偏好和身份标签,系统在对话中自动提取存入。RAG是公司公用的资料柜,Memory是你自己的私人档案袋。有了Memory,AI才能成为专属数字分身——下次它自己就知道"老板不能用红绿色"。

让OpenClaw拥有长期记忆的PowerMem:https://github.com/oceanbase/powermem

第三步:遇到硬骨头,召唤特种兵

任务涉及写一段复杂的数据分析代码,普通的"分析Agent"搞不定。它顺手召唤了Claude Code。

10.Claude Code

不要把Claude Code和网页版聊天的Claude搞混。网页版是顾问,在浏览器里你问一句它答一句。Claude Code完全不同——它直接住在你的电脑终端黑框框里,拥有极高的底层权限,能读、写、改、删你电脑上的文件。工作方式是你给目标,它自己拆解执行,中间不打断。内置了读文件、写文件、跑命令、搜代码等工具。

它的原理是:Anthropic公司在训练Claude时,专门强化了它使用终端命令和文件操作的能力,然后把它封装成一个本地终端Agent,预先接好了文件系统和命令行这两个MCP工具。你打开Claude Code,就等于启动了一个专门写代码的Agent。一句话,它自己去翻几万行代码库,自己改Bug,自己提交测试。

Claude Code把数据分析代码写完并跑通,结果返回给"分析Agent",图表顺利生成。PPT初稿出来了。

第四步:成品出炉,先过安检

PPT初稿生成了。但你真的敢直接发给老板吗?

万一Agent偷偷用了红绿色(老板是色盲)?万一数据图表里有个数字是AI瞎编的?万一格式完全不符合公司模版?更可怕的是,万一Agent在生成过程中顺便把数据库里的文件全删了?

这就是AI流水线还需要最后一层的原因:Harness Engineering(驾驭工程)。

11.Harness Engineering(驾驭工程)

驾驭工程这个名字是2026年初由HashiCorp联合创始人Mitchell Hashimoto正式提出的。Harness本意是"马具"——缰绳、挽具、马鞍,用来控制和引导马匹的工具。这个名字极其精准,因为现在的AI Agent就像一匹力大无穷的野马:能跑能拉货,但也会受惊、乱跑、把你甩下来。驾驭工程要做的,就是给这匹野马套上缰绳,让它从"能跑"变成"能听指挥地跑"。

驾驭工程和传统的"调试修Bug"有本质区别。传统思路是:Agent出错了,你手动介入修正,然后祈祷下次别再犯。驾驭工程的思路是:Agent每暴露一个失败模式,就构建一个自动化的约束、校验或自愈机制,让这个失败模式从物理上变得不可能。

Mitchell Hashimoto举过一个经典例子:让AI Agent重构百万行代码库。最蠢的做法是给GitHub权限说"去吧",然后坐等灾难——Agent会疯狂改文件、引入Bug、删掉它觉得没用的重要文件。驾驭工程的正确做法分五步:

  • 第一步,给只读权限,Agent只能输出修改建议;
  • 第二步,强制先写测试用例,描述怎么改、改完什么样;
  • 第三步,沙盒验证,把建议应用到克隆副本跑测试,不通过直接驳回;
  • 第四步,人类只做"点头或摇头",测试通过后推送到飞书,点同意自动部署;
  • 第五步,把成功流程固化,封装成可复用的驾驭模版。

说到这你可能会好奇:驾驭工程和OpenClaw的区别是什么?OpenClaw管"流水线的运行"——调度、分配、监控、记录。驾驭工程管"流水线的安全"——约束行为边界、校验输出质量、构建自愈闭环。一个管"能跑",一个管"跑得稳"。

在此,我们不妨先停下来思考一个问题:为什么很多企业至今不敢把AI Agent放到生产环境?

不是因为Agent不够聪明,而是因为不信任。你不知道它下一秒会干什么,你不知道它会不会花光你的预算,你不知道它会不会在半夜给客户发一封胡言乱语的邮件。

驾驭工程解决的就是这个信任问题。它用一整套工程化的约束机制,把Agent从"不可控的黑盒"变成了"可审计、可预测、可干预的白盒"。只有当Agent的行为变得可预测,企业才敢把真正的核心业务交给它。

回到我们的任务。系统自动校验PPT格式是否合规,检查有没有用到红绿色。通过后,PPT被推送到你的飞书草稿箱。全程Token被严格监控,预算超80%自动降级到更便宜的模型。所有操作写入审计日志,老板问"数据哪来的"时能一秒溯源。

3分钟,从头到尾你只做了一件事:点"确认"。

结语:你在哪一层?

看透了这13个概念的作用及各自的位置,你就不会再有 AI 焦虑了,建议一键三连——点赞、收藏、转发给身边对AI感兴趣的朋友。

现在的你处在什么阶段呢?

  • 把AI当工具,每次用完就扔。
  • 把AI当员工,教会它干固定的事。
  • 把AI当一支可控的、可信的、可审计的自动化军团。

你敢把后背交给 AI 吗?

无论你打算更换新款传音手机,还是切换至其他安卓设备,拥有可靠的联系人管理方式都至关重要。你也需要便捷的方法来转移联系人、进行临时备份,避免因手机损坏、丢失或误删导致联系人丢失。此时,传音手机联系人备份与恢复方案就显得尤为重要。 本文将介绍 5 种高效备份与恢复传音手机联系人的实用方法,确保重要联系人信息随时安全可查。

图片

方法 1:通过 iReaShare Android Manager 备份与恢复传音手机联系人【便捷高效】

iReaShare Android Manager(Windows 版与 Mac 版)是一款全能桌面应用,专为安卓用户(包括传音手机用户)打造,助力高效管理设备数据。它界面友好,简化联系人备份恢复、文件管理、设备与电脑数据互传等操作。

iReaShare Android Manager 核心优势

便捷导出 / 导入:可在传音手机与电脑间选择性传输数据
一键备份与恢复:一键快速备份恢复联系人、短信、照片等数据
全能数据管理:在电脑端直接管理联系人、短信、应用、照片、音乐、文件等
安全数据处理:恢复数据时不会覆盖设备现有文件
跨设备兼容:支持 8000 + 款安卓机型,包括传音 Spark 系列(20、7、5 Pro)、Camon 系列(20、17)、Phantom 与 POVA 系列等
易用界面:无需专业技术,人人均可轻松操作

如何用 iReaShare Android Manager 备份恢复传音手机联系人

选择性备份

在电脑下载安装 iReaShare Android Manager 并启动

图片

用 USB 线将传音手机连接至电脑
按屏幕提示完成设备授权,让电脑识别手机
连接成功后,在左侧菜单选择数据类型
预览并勾选联系人进行备份
点击导出,将选中的联系人保存到电脑

选择性恢复

手机与电脑物理连接后,在左侧菜单选择联系人
点击顶部导入,找到电脑上的备份文件
选中文件即可将联系人恢复到传音手机

传音手机批量备份与恢复

批量备份:设备连接识别后,进入超级工具箱 > 备份,勾选数据类别,点击备份
批量恢复:进入超级工具箱 > 恢复,选择备份文件,点击恢复即可取回数据

方法 2:通过谷歌账号备份与恢复传音手机联系人

谷歌账号为传音手机提供简单安全的联系人备份恢复方式。开启联系人同步后,联系人会自动保存至云端,在任意设备登录同一谷歌账号并开启同步,即可轻松恢复。

备份步骤

传音手机连接 Wi‑Fi 或移动数据
打开设置应用
点击账号或用户与账号
选择你的谷歌账号,无账号则先添加
点击账号同步
开启联系人同步开关
(可选)点击立即同步即刻备份联系人

恢复步骤

传音手机进入设置 > 账号

图片

登录备份时所用的同一谷歌账号
进入设置 > 谷歌 > 账号服务 > 谷歌联系人同步
确保开启自动同步
打开联系人应用,联系人将开始同步并快速显示

方法 3:通过 SD 卡备份与恢复传音手机联系人

SD 卡是传音手机简单的离线备份方式,可将联系人保存为.vcf 文件,后续轻松恢复,适合换机或恢复出厂设置使用。

备份步骤

将 SD 卡插入传音手机
打开联系人应用
点击三点菜单或更多选项
选择导入 / 导出或导出到存储设备
选择导出到 SD 卡
联系人将以.vcf 文件形式保存至 SD 卡

恢复步骤

插入含.vcf 备份文件的 SD 卡

图片

打开联系人应用
点击菜单选择导入 / 导出
选择从存储设备或 SD 卡导入
找到并点击.vcf 文件,完成联系人恢复

方法 4:通过 Auto Contact Backup & Restore 备份与恢复传音手机联系人

Auto Contact Backup & Restore 是便捷应用,助力传音 Spark/Camon/Pova/Phantom 系列及其他安卓手机用户轻松备份恢复联系人。只需几步操作,即可将所有联系人保存为.vcf 文件,可存储在本地、SD 卡或云端。 需要时,选择备份文件即可快速恢复联系人,是换机或重置后恢复数据的可靠工具。

备份步骤

从谷歌应用商店安装 Auto Contact Backup & Restore
打开应用并授予联系人、存储权限
点击立即备份,选择存储位置(本地存储或 SD 卡)
应用自动生成带时间戳的联系人.vcf 备份文件
支持开启定时备份(如每日备份)

恢复步骤

在传音手机打开 Auto Contact Backup & Restore

图片

点击恢复,找到备份文件
选择所需.vcf 文件
确认导入,联系人自动恢复
可选:检查或合并重复联系人

方法 5:通过 Easy Contacts Backup & Restore 备份与恢复传音手机联系人

Easy Contacts Backup & Restore 是简洁应用,帮助传音用户快速备份恢复联系人,生成的.vcf 备份文件可存本地、SD 卡或云端,一键备份全部联系人,后续选择备份文件即可轻松恢复,还支持备份文件分享,方便传音手机间互传。

备份步骤

从谷歌应用商店安装 Easy Contacts Backup & Restore
打开应用并授予联系人、存储权限
用邮箱、谷歌或 Facebook 账号登录
点击立即备份创建备份
联系人以.vcf 文件保存,可存本地、SD 卡或云端
可分享或邮件发送备份文件,双重保障

恢复步骤

打开应用,登录备份时所用账号

图片

进入联系人备份,选择要恢复的文件
下载并预览备份,选择全部或指定联系人恢复
点击恢复联系人,导入至设备
可选:导出或邮件发送备份文件妥善保管

该应用易用性强,支持云端与本地备份,但部分用户反馈偶发备份文件查找困难、联系人重复问题。因备份会上传至云端服务器,使用时需注意隐私保护。

总结

更换新款传音手机时,备份联系人至关重要,高效管理同样重要。仅备份并不足够,顺畅地整理、编辑、转移联系人,能节省时间、避免混乱。综合来看,iReaShare Android Manager是最推荐的工具,不妨下载免费试用版体验。

在 2026 年,企业选择 CRM,已经不只是“有没有”的问题,而是“哪一款更适合当下业务阶段”的问题。无论是线索获取、客户跟进、销售转化,还是数据分析、流程自动化、团队协作,客户管理软件都在企业增长中扮演越来越关键的角色。本文将从企业规模、功能成熟度、使用门槛和业务适配性等角度出发,盘点 8 款常见CRM产品,并将它们分为三个梯队,帮助企业更高效地完成选型。

image.png

第一梯队:功能成熟、适合业务复杂企业的头部 CRM 厂商

这一梯队的 CRM 产品通常拥有更完整的客户管理链路、更强的自动化能力以及更高的扩展性,适合中大型企业、快速成长型组织,或者对销售流程管理要求较高的团队。

Zoho CRM:适合中大型企业的综合型客户管理平台。
作为全球知名 CRM 厂商,Zoho CRM 在客户管理、销售自动化、多渠道触达、流程自定义和数据分析方面表现全面,尤其适合中大型企业,以及有跨部门协作、销售过程精细化管理需求的组织。

  • 适合企业类型:中大型企业、成长型企业、业务流程较复杂的团队
  • 核心优势:

    • 支持从线索、商机到成交、售后的一体化管理
    • 自动化工作流成熟,可减少大量重复操作
    • 支持邮件、电话、表单、网站等多渠道客户触点整合
    • 报表和仪表盘能力较强,便于管理层做销售决策
    • 产品扩展能力较好,适合长期使用
  • 适用场景:

    • 多销售团队协同管理
    • 项目型销售、顾问式销售
    • 需要较高自定义能力的企业

Salesforce:适合预算充足、流程复杂的大型企业。
在全球 CRM 市场中,Salesforce 依然是非常有代表性的厂商。它的平台能力强、生态丰富,适合预算较高、组织架构复杂、需要深度定制的大型企业。

  • 适合企业类型:大型企业、跨国企业、复杂组织架构企业
  • 核心优势:

    • 功能覆盖广,平台化能力强
    • 生态完善,第三方应用丰富
    • 适合深度定制和复杂业务场景
  • 关注点:

    • 学习和实施成本相对较高
    • 对中小企业来说预算压力较大

Microsoft Dynamics 365:适合微软生态用户的企业级 CRM 方案。
对于已经在使用微软办公和业务系统的企业来说,Dynamics 365 在 CRM、ERP、BI 与协同办公之间具备较好的联动性,适合追求平台整合的中大型组织。

  • 适合企业类型:中大型企业、微软生态用户
  • 核心优势:

    • 与 Microsoft 365、Power BI 等工具协同性强
    • 更适合需要 CRM+ERP 一体化视角的企业
    • 数据管理和企业级能力较稳健
  • 关注点:

    • 部署和配置通常需要专业团队支持
    • 初期上手门槛偏高

第二梯队:性价比较高,适合中小企业与成长型团队的 CRM 厂商

这一梯队更强调上手快、成本可控、功能实用,对于中小企业来说,往往比“大而全”更重要。只要能够帮助团队提升跟进效率、规范销售流程、沉淀客户资产,就是值得考虑的 CRM。

Zoho Bigin:适合中小型企业的轻量 CRM。
Zoho Bigin 是 Zoho 面向中小企业推出的轻量级 CRM 产品,主打简单、易用、低门槛。对于销售团队规模不大、希望快速建立客户管理机制的企业来说,Zoho Bigin 是非常合适的起步选择。

  • 适合企业类型:中小型企业、创业团队、小型销售团队
  • 核心优势:

    • 操作简洁,上手速度快
    • 聚焦客户跟进和销售管道管理
    • 能帮助企业快速搭建基础 CRM 流程
    • 成本相对友好,适合先跑通再优化
  • 适用场景:

    • 初创公司搭建销售管理体系
    • 本地服务型企业客户跟进
    • 小团队销售过程透明化

纷享销客:适合重视协同与销售过程管理的中小企业。
纷享销客在国内市场有较高认知度,强调连接型 CRM 与销售协同能力,适合希望把客户管理和团队协作结合起来的中小企业。

  • 适合企业类型:中小企业、区域型销售团队
  • 核心优势:

    • 在国内企业场景中适配度较高
    • 强调销售过程管理与协同
    • 移动办公能力较实用
  • 适用场景:

    • 外勤销售团队管理
    • 销售协同和客户跟进同步推进
  • 关注点:

    • 如果企业后续会进入更复杂的国际化业务场景,扩展性需要提前评估

销售易:适合希望推进销售规范化的中小企业。
销售易也是国内常见的 CRM 品牌之一,在客户管理、销售自动化和销售过程支持方面有一定积累,比较适合正在推进销售标准化管理的中小企业。

  • 适合企业类型:中小企业、成长型销售团队
  • 核心优势:

    • 注重销售流程规范化
    • 客户信息集中管理能力较好
    • 有助于提升线索到商机的转化效率
  • 适用场景:

    • 标准销售流程建设
    • 销售业绩过程管理
  • 关注点:

    • 企业在选型时需要结合预算、行业适配和长期扩展需求综合判断

第三梯队:轻量、灵活或特色鲜明,适合特定业务团队的 CRM 工具

这一梯队的 CRM 工具通常更强调灵活性、上手门槛和特定功能价值,适合预算有限、需求明确,或者希望先快速试错的小团队。

HubSpot CRM:适合营销驱动型团队。
HubSpot CRM 在海外市场认可度较高,以界面友好、营销与销售联动能力较强著称,适合注重内容营销、数字化获客和线索培育的团队。

  • 适合企业类型:中小企业、营销驱动型团队
  • 核心优势:

    • 用户体验较好
    • 营销自动化联动能力突出
    • 适合内容营销和线索培育
  • 关注点:

    • 某些高级能力进入进阶套餐后,整体成本会明显提升

Pipedrive:适合以销售管道推进为核心的小型团队。
Pipedrive 是典型的销售导向型 CRM,围绕销售漏斗展开,界面直观,适合以成交推进效率为核心的团队。

  • 适合企业类型:小型销售团队、中小企业
  • 核心优势:

    • 销售漏斗可视化清晰
    • 上手门槛低
    • 适合以销售机会推进为中心的团队
  • 适用场景:

    • 快速建立销售跟进节奏
    • 提高商机推进透明度
  • 关注点:

    • 如果企业需要更复杂的跨部门协作或本地化场景支持,需提前评估

2026 客户管理软件排行榜一览表

为了更直观地看清不同厂商的定位,下面这张表对 8 款 CRM 产品做一个快速对比。

厂商所属梯队适合企业规模主要特点
Zoho CRM第一梯队中大型企业功能全面、自动化强、扩展性好
Salesforce第一梯队大型企业平台化能力强、生态完善、定制能力突出
Microsoft Dynamics 365第一梯队中大型企业与微软生态联动强、适合复杂组织
Zoho Bigin第二梯队中小型企业轻量易用、快速部署、成本友好
纷享销客第二梯队中小企业协同与销售过程管理较强
销售易第二梯队中小企业注重销售标准化和客户过程管理
HubSpot CRM第三梯队中小企业营销与销售联动较好、界面友好
Pipedrive第三梯队小型销售团队销售管道清晰、上手快

这张表可以帮助企业快速判断:如果你更看重复杂能力与长期扩展,就优先看第一梯队;如果你更在意成本、效率和落地速度,第二梯队通常更适合;如果你希望轻量化试错,则可以重点关注第三梯队。


企业该如何选择适合自己的客户管理软件?

排行榜可以提供方向,但真正影响 CRM 选型成败的,还是企业自身的业务情况、团队习惯和未来规划。以下几个判断维度,通常比单纯对比“功能多不多”更重要。

先看企业规模,而不是先看功能数量。
很多企业在选 CRM 时容易陷入“功能越多越好”的误区,但对于大多数团队来说,过于复杂的系统反而会降低使用率。

  • 如果是中大型企业,建议优先关注 Zoho CRM、Salesforce、Microsoft Dynamics 365 这类平台型产品
  • 如果是中小企业,更适合从 Zoho Bigin、纷享销客、销售易 这类易落地产品切入

看销售流程是否复杂。
如果企业销售周期长、参与角色多、审批流程复杂,那么 CRM 必须具备更强的流程自定义和自动化能力。

  • 流程复杂:优先考虑 Zoho CRM、Salesforce
  • 流程标准、追求快速上线:优先考虑 Zoho Bigin、Pipedrive

看团队是否愿意持续使用。
CRM 的真正价值不在采购时,而在于员工每天是否愿意打开它、使用它、依赖它。

重点可以看:

  • 界面是否清晰
  • 销售录入是否方便
  • 是否支持移动端
  • 是否能自动减少重复工作

这些因素,往往比功能列表本身更重要。

看未来 2—3 年的增长需求。
今天合适的工具,不一定两三年后依然合适。选 CRM 时,企业应同步考虑未来扩展空间。

  • 是否支持业务扩展
  • 是否支持更多团队接入
  • 是否支持更复杂的自动化和数据分析
  • 是否能随着企业成长平滑升级

这也是很多成长型企业会关注 Zoho 产品体系的重要原因:小团队可以先用 Zoho Bigin 快速起步,随着业务升级,再逐步转向 Zoho CRM 这类功能更完整的平台。


为什么 Zoho 系列值得重点关注?

如果从企业成长路径来看,Zoho 的优势比较清晰:既能支持中小企业快速起步,也能承接中大型企业的精细化管理需求。

Zoho Bigin:适合先把客户管理跑起来。
对于很多中小企业来说,第一步不是搭建复杂系统,而是先把客户信息集中起来、跟进过程记录下来、销售机会看得见。

Zoho Bigin 的价值主要体现在:

  • 轻量部署,降低 CRM 使用门槛
  • 帮助团队形成统一客户管理习惯
  • 适合预算有限、但想尽快建立销售管理机制的企业

Zoho CRM:适合进入精细化增长阶段。
当企业客户量、团队人数和流程复杂度不断增加时,就需要更成熟的平台支撑业务增长。

Zoho CRM 更适合:

  • 需要打通多个客户触点的企业
  • 需要通过自动化工作流提升效率的团队
  • 需要管理层通过数据看清销售健康度的组织
  • 希望建立长期客户经营体系的中大型企业

一句话概括就是:中小企业先轻装上阵,中大型企业再做深度管理,Zoho 在这两个阶段都有相对清晰的产品路径。


结语:2026 年,适合企业的 CRM 才是最好的 CRM

放在 2026 年来看,客户管理软件之间的竞争,已经不只是“谁功能更多”,而是谁更能帮助企业真正提升销售效率、沉淀客户资产,并支撑长期增长。

如果按适配度来总结这份排行榜:

  • 中大型企业:优先关注 Zoho CRM、Salesforce、Microsoft Dynamics 365
  • 中小企业:优先关注 Zoho Bigin、纷享销客、销售易
  • 轻量团队或特色需求团队:可关注 HubSpot CRM、Pipedrive

真正值得选择的 CRM,不是排行榜上最贵的,也不是功能表最长的,而是最适合企业现阶段业务模式、团队习惯和未来增长路径的那一款

6类钢材表面缺陷检测数据集(6000张)|YOLO训练数据集 工业质检 缺陷识别 智能制造 表面检测


前言

在智能制造持续推进的背景下,工业质检环节正从传统人工检测向自动化、智能化快速转型。钢材作为基础工业材料,其表面质量直接影响后续加工性能与产品安全性,因此对缺陷的高效、精准检测至关重要。

然而,传统人工检测方式不仅效率低、成本高,而且容易受到疲劳与主观判断影响,难以满足现代工业对高精度与高一致性的要求。随着计算机视觉与深度学习技术的发展,基于图像的自动缺陷检测逐渐成为主流解决方案。

而高质量的数据集,是构建高性能检测模型的关键基础。本六类钢材表面缺陷数据集正是在这一背景下构建,为工业视觉检测提供可靠的数据支撑。
在这里插入图片描述

数据集下载链接

通过网盘分享的文件:六类钢材表面缺陷数据集
链接: https://pan.baidu.com/s/1xzKKYG7-6SO4MryFZhkDZQ?pwd=k1ek
提取码: k1ek

背景

在钢材生产、轧制及运输过程中,受工艺参数、设备状态及环境因素影响,表面容易产生多种缺陷。这些缺陷不仅影响产品外观,还可能导致性能下降甚至安全隐患。

常见问题包括:

  • 裂纹扩展:可能导致材料断裂
  • 夹杂存在:影响材料强度与纯度
  • 表面粗糙:降低耐腐蚀性能
  • 划痕损伤:影响产品外观与使用寿命

传统检测方式存在明显不足:

  • 效率低:人工检测难以覆盖高速生产线
  • 一致性差:不同检测人员标准不统一
  • 漏检率高:细微缺陷难以识别
  • 难以规模化:不适应现代自动化生产需求

基于深度学习的目标检测模型(如YOLO系列)可以实现对缺陷的自动识别与定位,而高质量、多样化的数据集是实现这一能力的核心基础。
在这里插入图片描述


一、数据集概述

本数据集是一套面向工业视觉检测领域的高质量钢材表面缺陷标注数据集,专门用于深度学习模型的训练、验证与测试。

数据集共包含 6000张高质量钢材表面图像,覆盖工业生产中常见的6类缺陷,标注精准、结构规范,可直接用于模型训练。
在这里插入图片描述

数据集目录结构如下:

database/六类钢材表面缺陷数据集/
├── train/
│   └── images/
├── valid/
│   └── images/
├── test/
│   └── images/
  • train(训练集):用于模型学习缺陷特征
  • valid(验证集):用于模型调参与性能优化
  • test(测试集):用于评估模型泛化能力

结构标准化设计,可直接适配YOLOv5、YOLOv8、Faster R-CNN等主流模型。
在这里插入图片描述


二、数据集详情

1. 数据规模与质量

  • 图像数量:6000张
  • 数据来源:真实工业生产场景
  • 图像质量:清晰、细节丰富
  • 标注方式:人工精细标注

数据覆盖多种生产工况,确保模型训练效果稳定可靠。


2. 类别划分(共6类)

数据集包含6类典型钢材表面缺陷:

类别名称英文名称缺陷描述
裂纹crazing表面微裂纹,呈龟裂状
夹杂inclusion非金属杂质,点状或条状
斑块patches表面局部变色或异常区域
麻面pitted_surface表面凹凸不平
氧化皮压入rolled-in_scale热轧过程中形成的异物压入
划痕scratches线性刮擦痕迹

类别设计覆盖典型工业缺陷,具有较强工程意义。


3. 标注规范

  • 标注格式:YOLO标准格式(TXT)
  • 标注方式:Bounding Box
  • 标注精度:高精度人工标注
  • 标注一致性:多轮校验

标注结果无明显错标、漏标问题,可直接用于监督学习训练。


4. 数据特点

  • 多样化缺陷形态:覆盖不同尺度与严重程度
  • 真实工业背景:贴近实际生产环境
  • 高分辨率图像:细节清晰
  • 高一致性标注:减少训练噪声

三、数据集优势

1. 数据规模充足

6000张高质量样本,有效避免过拟合,提升模型泛化能力。

2. 标注精准可靠

人工精细标注,确保标签质量,提升模型训练效果。

3. 标准化结构设计

适配主流检测框架,实现快速训练与部署。

4. 工程适配性强

数据来源真实生产环境,模型训练后可直接应用于工业场景。

5. 多任务支持

不仅适用于目标检测,也可扩展至分类与分割任务研究。


四、适用场景

本数据集可广泛应用于工业视觉检测相关领域:

1. 工业自动化质检

用于钢材表面缺陷自动检测与分类

2. 生产线在线检测

实现实时缺陷识别与报警

3. 智能制造系统

提升生产质量控制水平

4. AI算法研究

用于目标检测模型优化与对比实验

5. 工业视觉教学

用于相关课程实验与项目实践
在这里插入图片描述


五、心得

从数据集设计角度来看,这套钢材缺陷数据集具有典型的工业级数据特征。

首先,在类别设计上聚焦最常见且影响最大的缺陷类型,避免无效类别干扰,使模型训练更高效。

其次,数据来源真实工业环境,这一点对于模型落地至关重要。只有在真实数据上训练,模型才能在生产线上稳定运行。

再者,标注精度高且结构规范,大幅降低了使用门槛,使开发者可以直接进入模型训练阶段。

最后,这类数据集的价值不仅体现在算法层面,更体现在生产效率与质量提升上。当缺陷能够被自动检测时,工业质检将真正迈入智能化时代。


六、结语

随着工业4.0与智能制造的深入发展,基于计算机视觉的自动化质检技术正成为工业升级的重要支撑。钢材表面缺陷检测作为典型应用,其数据质量直接决定模型性能与系统可靠性。

本六类钢材表面缺陷数据集通过高质量构建、标准化设计以及真实场景覆盖,为工业视觉检测提供了坚实的数据基础。无论是科研研究还是工程应用,均具备较高价值。

核心要点:设计师使用 UXbot 的五步 AI 工作流,可以将从需求理解到多页面高保真可交互原型的完整交付周期,从传统流程的 1–2 周压缩至 1 天以内。这一提效来自于流程结构的系统性重组,而不是某个单一环节的加速:流程画布将产品结构规划前置、AI 一次性生成完整多页面界面、精准编辑器实现局部定点修改、代码导出直接衔接研发交接。本文完整拆解这套工作流的每一个步骤,以及它为什么能够实现真实意义上的效率倍增。
本文适合:日常承担原型交付工作的 UI/UX 设计师、需要独立推进从需求到高保真原型全链路的产品设计负责人,以及正在评估是否引入 AI 工具来重构设计流程的设计团队负责人。

一、设计师效率瓶颈究竟出在哪里

在引入 AI 工具之前,有必要先准确定位传统设计流程的效率损耗发生在哪些环节,否则工具的引入只是在错误的地方加速。
传统的高保真原型交付流程通常包含以下几个阶段:需求文档的消化和整理(1–2 天)、低保真线框图的搭建和确认(1–2 天)、高保真视觉稿的制作(3–5 天)、交互逻辑的添加和演示文件组织(1–2 天)、评审修改循环(1–2 天,通常不止一轮)。对于一个中等复杂度的产品模块,从接到需求到完成可演示的高保真交互原型,整体周期通常在 1–2 周,涉及设计师、产品经理、评审方等多个角色的多轮协作。
效率损耗集中在三个位置。第一是需求到结构的转译阶段:设计师需要从 PRD 文档中提取产品结构、梳理页面跳转逻辑,这个转译过程大量消耗设计师的时间,却对最终视觉产出没有直接贡献。第二是页面级重复搭建:导航栏、列表模块、表单组件等在多个页面中重复出现的元素,需要在每个页面分别完成。第三是评审后的多页面同步修改:一个组件的样式调整,往往需要在所有涉及的页面逐一更新,这是设计师最熟悉的时间消耗场景之一。
AI 工作流的提效逻辑,针对的正是这三个节点。

二、提效 4 倍的工作流结构是如何实现的

根据使用 UXbot 的设计团队反馈,AI 工作流将原型交付周期从平均 10 个工作日缩短至 2 个工作日以内,部分场景(功能模块清晰、需求描述明确)可以在当天完成从需求理解到可演示高保真原型的完整交付。4 倍提效不是一个理论上限,而是实际工作中可以稳定复现的基准值。
这一提效的实现路径,不是在传统流程的每个环节上各加速一点,而是对整个工作流结构进行了重组:流程画布取代了 PRD 解读和线框图阶段,AI 多页面一次性生成取代了手工逐页搭建,精准编辑器取代了多页面同步修改,代码导出直接衔接了原本需要单独进行的研发交接环节。

三、UXbot五步工作流完整拆解

第一步:输入需求,启动生成

工作流的起点是需求输入,而不是打开画布开始拖拽组件。在 UXbot 的需求输入框中,用自然语言描述产品方向、目标用户、核心功能和视觉风格偏好。描述可以是口语化的中文,不需要遵循 PRD 的格式规范。
有效的需求描述通常包含以下几个要素:这是面向什么用户的什么类型产品、核心功能是什么、大致包含哪些主要页面或功能模块、视觉风格有无特定偏好。描述越具体,AI 生成的产品结构越接近预期,后续在流程画布阶段需要调整的工作量越少。
一个典型的有效需求描述示例:"面向中小企业的员工考勤管理系统,包含员工打卡、排班管理、请假审批、考勤统计报表功能,使用清晰的蓝白商务风格。"
image1.png

第二步:确认流程画布,规划产品结构

需求提交后,UXbot 自动生成一份初始的流程画布,以可视化节点结构呈现产品的页面组成和跳转逻辑。每个节点对应一个界面,节点之间的连线表示页面跳转关系,整个画布呈现的是产品的完整信息架构。
这一步是 UXbot 工作流中对交付质量影响最大的环节。设计师在画布上对产品结构进行确认和调整:增加或删除页面节点、调整页面的归属分组、修正跳转路径的方向和逻辑。流程画布阶段的调整成本极低,修改一个节点只需要几秒钟;而在界面生成之后再调整产品结构,需要重新生成或大范围修改多个页面。
流程画布将传统流程中"需求理解"和"低保真线框图"两个阶段合并为一个可视化的结构确认操作,并且将这个操作的执行者从设计师扩展到了产品经理和任何理解业务的人。产品负责人可以在画布上直接参与产品结构的讨论和确认,减少因理解偏差导致的返工。
image2.png

第三步:生成原型,预览验证

流程画布确认后,触发原型生成。UXbot 根据画布中的所有节点,一次性生成覆盖完整产品结构的多页面高保真界面。每一个画布节点都对应一个独立完整的界面,所有页面之间的跳转逻辑已经根据画布关系自动配置,生成完成即可点击操作。
生成的界面不是静态截图,而是支持真实页面跳转的可交互原型。UXbot 内置实时模拟器,支持在工具内直接切换 Web 端和移动端(Android/iOS)两种视图预览完整交互效果,产品经理、设计师、研发工程师可以在工具内完成演示和验收,无需额外的演示工具或文件导出。原型链接可以直接分享给任何协作方,对方通过浏览器即可完成点击验证,无需安装软件或具备任何专业工具的使用经验。
这一步骤将传统流程中"高保真视觉稿制作"和"交互逻辑配置"两个阶段合并为一次 AI 生成操作,多页面同时完成,而不是逐页分别执行。
image3.png

第四步:精准局部编辑

生成完成后,进入精准编辑阶段。这一步的设计逻辑针对的是 AI 生成场景的核心痛点:如果每次局部调整都需要重新生成整个原型,AI 在生成速度上的优势会被反复重跑的成本大量抵消。
UXbot 的精准编辑器支持对特定页面的特定组件进行定点修改,修改只作用于被选中的元素,不影响其他已通过评审的页面。支持的调整类型包括:特定页面的整体布局重排、单个组件的样式参数(颜色、圆角、间距)、文案内容替换、组件的增删和位置调整。每次修改完成后,可以实时在内置模拟器中预览效果,不满意可以继续调整,满意后继续推进下一个需要修改的位置。
设计师在这一阶段的操作模式,从"逐页手工搭建"切换到了"验收已生成内容、定点修改偏差部分"。对于 AI 生成结果与预期高度吻合的模块,可以直接通过,集中精力处理需要调整的部分。
这一步骤对应传统流程中评审后的修改迭代阶段,但操作成本显著不同:传统流程中一个组件的修改可能需要在 10 个页面分别手动更新,精准编辑器的定点修改只需要操作一次,结合 AI 对其他页面的同步处理即可完成。
image4.png

第五步:导出代码,云端运行

原型通过验收后,进入代码导出阶段。UXbot 支持将已完成的多页面原型导出为可运行的前端代码,覆盖 Web 端(HTML、Vue.js)和原生移动端(Android/Kotlin、iOS/Swift)两个方向,以及设计源文件(Sketch 格式)。
导出的代码覆盖所有界面的视觉结构、组件层级和页面跳转逻辑,研发团队在此基础上接入后端业务逻辑即可完成完整产品的开发。对于 Android 项目,UXbot 还支持直接导出 APK,可以在真机上安装验证交互效果,这在移动端产品的最终验收阶段有实际价值。
代码导出环节将传统流程中独立进行的"切图标注"和"研发交接"两个步骤直接合并,设计师不再需要逐一整理标注文件和切图资源,研发工程师不再需要从零重写界面层代码。这是 UXbot 工作流在时间节省上的最后一个显著增量。
UXbot 是目前市场上唯一支持原生移动端代码导出(Android/Kotlin + iOS/Swift)的 AI 原型工具。其他同类工具的代码输出以 Web 端或跨平台框架为主,无法为移动端原生开发提供直接可用的起始代码。
image5.png

四、传统工作流与 AI 工作流时间对比

阶段传统工作流UXbot AI 工作流
需求理解与结构规划1–2 天(PRD 解读 + 低保真线框)15–30 分钟(需求输入 + 流程画布确认)
高保真界面制作3–5 天(逐页手工搭建)10–30 分钟(AI 一次性多页面生成)
交互逻辑配置1–2 天(页面跳转逐一配置)自动完成(画布关系直接映射)
评审修改1–2 天(多页面同步更新)2–4 小时(精准编辑器定点修改)
研发交接0.5–1 天(标注切图整理)1 小时(一键代码导出)
总计7–14 天1–2 天

以上对比基于中等复杂度产品模块(10–15 个页面)的实际操作数据。复杂度越高,AI 工作流相对于传统流程的时间优势越显著,因为 AI 生成的时间消耗不随页面数量线性增长,而传统手工搭建的时间消耗与页面数量成正比。

五、哪些设计场景中提效效果最明显

UXbot AI 工作流在以下几类场景中,提效效果最为显著,也是设计师最值得优先切换的使用入口。
新产品或新功能模块的首版原型,是收益最高的场景。传统流程中首版原型往往需要最长的时间,因为没有可以复用的基础;UXbot 的 AI 生成从需求描述直接到完整多页面原型,首版的时间成本与第十个版本的时间成本差异不大。
向投资人或客户演示的产品 Demo,是第二个高收益场景。这类演示对视觉完整度和交互流畅度有较高要求,但时间窗口通常很短("明天上午需要")。UXbot 可以在半天到一天内完成一个覆盖完整用户旅程的多页面可点击演示原型,能够覆盖这类紧急交付场景。
功能较多的企业级管理系统原型,是第三个高收益场景。这类产品通常包含大量重复性页面(列表、详情、表单、设置),传统流程中手工逐页搭建的时间消耗与页面数量成正比;UXbot 一次性生成所有页面,页面数量对生成时间的影响极小。

六、常见问题

Q1:AI 生成的高保真界面视觉质量能达到手工设计的水平吗?

UXbot 生成的多页面界面在视觉完整度和界面精致度上,能够稳定达到中高保真原型的水平,覆盖绝大多数原型阶段的评审和演示需求。对于需要品牌层面精细视觉打磨的最终稿,可以在 UXbot 生成框架原型后,使用精准编辑器对关键页面进行视觉细化,或以 UXbot 原型作为设计参考在其他专业视觉工具中进行深度精修,两种路径都能实现视觉质量的进一步提升。

Q2:设计师从传统工具切换到 UXbot 的学习成本有多高?

UXbot 的操作逻辑以自然语言输入和可视化画布操作为主,不需要掌握矢量设计工具的操作规则。对于有传统原型工具使用经验的设计师,主要的适应点是工作方式的转变:从主动搭建每一个元素,切换到描述需求、确认结构、验收和定点修改。通常在一到两个实际项目的操作周期内,即可建立稳定的使用节奏。与从墨刀或 Axure 迁移到 Figma 的学习成本相比,UXbot 的上手周期明显更短。

Q3:精准编辑器能否处理品牌视觉规范的一致性要求?

可以。精准编辑器支持在单个页面或跨页面的维度上统一调整组件的视觉参数,包括颜色、字体、间距和圆角。在有明确品牌色板和视觉规范的项目中,可以在生成原型后,通过精准编辑器对全局视觉参数进行统一校准,确保所有页面在品牌视觉上的一致性。对于规范要求极高的项目,这一步骤可以作为 AI 生成后的标准化质检流程纳入工作节奏。

Q4:生成的原型如何与研发团队进行交接?

UXbot 提供两种交接路径。第一种是原型链接交接:研发工程师直接通过浏览器访问原型链接,在工具内查看所有页面的视觉效果和交互逻辑,结合内置模拟器理解产品的完整交互流程,不需要安装任何软件。第二种是代码导出交接:将原型导出为 HTML、Vue.js 或原生移动端代码(Kotlin/Swift),研发团队直接以导出代码作为 UI 层工程起点,接入业务逻辑即可进入开发阶段。两种交接路径可以根据研发团队的工作习惯灵活选择,也可以同时使用。

Q5:一个设计师能否独立完成从需求到代码交付的完整链路?

可以,这正是 UXbot 工作流的核心价值主张之一。传统流程中,从需求到代码交付的完整链路需要产品经理、UI 设计师和前端工程师三个角色的协作。UXbot 将这条链路压缩进单一工具内,产品经理或设计师可以独立完成从需求描述、产品结构规划、高保真原型生成验证到前端代码导出的全部操作,不依赖其他角色的排期和配合。对于小团队和独立设计师,这意味着大幅降低协作沟通成本和等待排期的时间消耗。

七、重新定义设计师的工作边界

4 倍提效,不只是节省了时间。它改变的是设计师在产品开发链路中的角色边界和能力范围。当原型交付的时间成本从 2 周压缩到 2 天,设计师可以在同等时间内覆盖更多产品模块、支持更高频的迭代验证,或者将节省出来的时间用于更高价值的工作:用户研究、体验策略制定、设计系统建设。
当代码导出成为工作流的标准输出,设计师的交付物从视觉稿升级为可运行的前端代码,与研发团队的协作界面从"看图写代码"变为"在代码上接入业务逻辑"。这个变化不只是效率提升,而是设计师在产品交付链路中的职能边界向研发侧的系统性延伸。

人群密度检测数据集(8000张)|YOLO训练数据集 智能监控 人流统计 公共安全 客流分析


前言

在城市化进程不断加快的背景下,大规模人群聚集已成为城市运行中的常态场景,如交通枢纽、商业中心、大型活动现场等。如何对人群密度进行实时监测与分析,成为公共安全与城市管理的重要课题。

传统依赖人工巡查或简单监控的方式,难以实现高精度、实时化的人群密度评估,尤其是在高密度、复杂场景下,容易出现误判与延迟响应。随着计算机视觉与深度学习技术的发展,基于图像的人群密度检测逐渐成为主流解决方案。

在这里插入图片描述

而高质量数据集,是实现高性能模型的关键基础。本人群密度检测数据集正是在这一背景下构建,为相关算法研发与工程应用提供可靠的数据支撑。

数据集下载链接

通过网盘分享的文件:人群密度检测数据集
链接: https://pan.baidu.com/s/1O4OhWVQqKTHvONkQ7IpV7A?pwd=uv7c
提取码: uv7c

背景

在人群密集场景中,密度变化直接关系到安全风险与管理效率。例如:

  • 高密度区域:可能存在踩踏风险
  • 异常聚集:可能预示突发事件
  • 人流波动:影响交通与商业运营
    在这里插入图片描述

传统监测方式存在明显局限:

  • 人工监控效率低:难以实时覆盖大范围区域
  • 主观判断误差大:密度评估缺乏统一标准
  • 响应滞后:难以及时预警
  • 复杂场景难处理:遮挡、重叠严重影响判断

基于深度学习的目标检测与密度估计方法,可以实现自动化、实时化的人群分析。而构建一个高质量、多场景覆盖的数据集,是模型性能提升的关键。


一、数据集概述

本数据集是一套面向人群密度检测任务的高质量标注数据集,总计包含 8000张图像样本,适用于模型训练、验证与测试。

数据集目录结构如下:

database/人群密度检测数据集/
├── train/
│   └── images/
├── valid/
│   └── images/
├── test/
│   └── images/
  • train(训练集):用于模型学习人群特征
  • valid(验证集):用于调参与性能优化
  • test(测试集):用于评估模型泛化能力
    在这里插入图片描述

数据结构规范清晰,可直接接入YOLO、PyTorch、TensorFlow等主流框架。


二、数据集详情

1. 数据规模与质量

  • 图像数量:8000张
  • 数据类型:多场景人群图像
  • 图像质量:清晰稳定
  • 数据来源:真实场景采集

所有数据均经过筛选与处理,确保训练样本质量。


2. 类别定义

本数据集采用单类别标注方式

类别ID类别名称
0people

标注聚焦于人群目标区域及个体定位,适用于:

  • 人群检测
  • 人数统计
  • 密度估计

单类别设计有助于模型专注核心任务,提高检测效率。


3. 标注规范

  • 标注方式:目标检测框(Bounding Box)
  • 标注流程:人机协同 + 人工精修
  • 标注精度:高一致性、高准确率
  • 标注完整性:无明显漏标或错标

高质量标注有效降低训练噪声,提高模型性能。


4. 场景多样性

数据集覆盖多种典型人群场景:

  • 交通枢纽(地铁站、车站)
  • 城市广场
  • 商业综合体
  • 校园活动场景

同时涵盖多种变化因素:

  • 人群密度:稀疏 → 高密度
  • 光照条件:强光、弱光、阴天
  • 视角变化:俯视、平视、斜视
  • 干扰因素:遮挡、模糊、重叠

这些因素显著提升模型的泛化能力。


5. 数据预处理

  • 图像去噪处理
  • 尺寸标准化
  • 辐射归一化

确保数据质量稳定,减少无关干扰对模型训练的影响。


三、数据集优势

1. 数据规模大

8000张高质量样本,支持深度模型充分训练,降低过拟合风险。

2. 标注精度高

采用人机协同标注机制,确保标注准确性与一致性。

3. 场景覆盖全面

涵盖多种真实应用场景,增强模型适应能力。

4. 标准化结构设计

兼容主流深度学习框架,实现快速部署。

5. 应用导向明确

专注人群密度检测,贴合实际应用需求。


四、适用场景

本数据集可广泛应用于以下领域:

1. 公共安全监控

用于人群密度实时监测与预警

2. 智慧城市管理

用于人流分析与城市运行调度

3. 交通枢纽管理

用于客流统计与拥堵预测

4. 商业客流分析

用于商场客流统计与行为分析

5. AI算法研究

用于目标检测与密度估计算法优化
在这里插入图片描述


五、心得

从数据集设计角度来看,这套人群密度数据集具有典型的应用驱动特征。

首先,采用单类别设计,使模型专注于“人”这一核心目标,有利于提高检测稳定性与训练效率。

其次,数据强调多密度、多场景覆盖,这对于人群检测任务至关重要。尤其是在高密度场景中,遮挡与重叠问题非常突出,只有在训练阶段充分覆盖,模型才能具备实际应用能力。

再者,标注采用人机协同方式,在保证效率的同时兼顾精度,是当前高质量数据构建的主流方案。

最后,这类数据集的价值不仅体现在模型训练上,更体现在城市治理与公共安全领域的实际应用中。


六、结语

随着智慧城市与智能安防的发展,人群密度检测技术正逐渐成为核心基础能力之一。数据质量作为模型性能的决定性因素,其重要性不言而喻。

本数据集通过大规模样本、多场景覆盖与高质量标注,为人群密度检测任务提供了坚实的数据基础。无论是科研研究还是工程落地,均具备较高价值。

9类番茄病害识别数据集(5000张)|YOLO训练数据集 农业AI 病害识别 智慧农业 作物监测


前言

在现代农业向数字化、智能化迈进的过程中,作物病害的精准识别成为影响产量与品质的重要因素。番茄作为全球广泛种植的重要经济作物,其生长过程中易受到多种病害与虫害的侵袭,一旦识别不及时,极易造成大面积减产甚至绝收。

传统依赖人工经验进行病害识别的方式,不仅效率低,而且对专业知识依赖较强,难以在大规模种植场景中推广。随着深度学习与计算机视觉技术的发展,基于图像的自动病害识别逐渐成为农业智能化的重要方向。
在这里插入图片描述

而高质量、多类别的数据集,是构建高性能病害识别模型的基础。本番茄九类病害识别数据集,正是在这一背景下构建,为农业AI应用提供可靠的数据支撑。

数据集下载链接

通过网盘分享的文件:番茄九类病害识别数据集
链接: https://pan.baidu.com/s/1LrcbBrREy5Y2nCBXgwEujA?pwd=mcm1
提取码: mcm1

背景

在番茄种植过程中,病害与虫害种类繁多,且不同病害在早期阶段表现相似,给人工识别带来较大挑战。例如:

  • 真菌性病害与病毒性病害症状易混淆
  • 虫害初期不易被肉眼察觉
  • 环境因素(湿度、温度)影响病害表现

传统方式存在明显局限:

  • 识别依赖经验:非专业人员难以准确判断
  • 响应滞后:人工巡查周期长
  • 误判率高:相似症状易混淆
  • 难以规模化应用:大面积种植难以全面覆盖
    在这里插入图片描述

基于深度学习的图像识别技术,可以通过模型自动提取病害特征,实现快速、准确识别。而构建一个类别全面、标注精准、结构规范的数据集,是实现高性能模型的关键。


一、数据集概述

本数据集专为番茄叶片病害智能识别任务构建,适用于模型训练、验证与测试,支持YOLO等主流深度学习框架。

数据集总规模达 5000张高质量标注图像,涵盖番茄生长过程中常见的8类病害及健康叶片,共9个类别。

数据集目录结构如下:

database/番茄九类病害识别数据集/
├── train/
│   └── images/
├── valid/
│   └── images/
├── test/
│   └── images/
  • train(训练集):用于模型学习病害特征
  • valid(验证集):用于调参与性能优化
  • test(测试集):用于评估模型泛化能力
    在这里插入图片描述

结构规范清晰,可直接接入YOLOv5、YOLOv8等模型进行训练。


二、数据集详情

1. 数据规模与质量

  • 图像数量:5000张
  • 图像类型:番茄叶片图像
  • 图像质量:清晰、无明显模糊
  • 数据来源:真实农业场景

所有图像均经过筛选与处理,确保能够清晰呈现病害特征。


2. 类别划分(共9类)

数据集共包含9个类别(nc=9),具体如下:

类别名称英文名称病害说明
番茄早疫病Early Blight同心轮纹黑褐色病斑
健康叶片Healthy无病斑、颜色均匀
番茄晚疫病Late Blight水渍状病斑,湿度大时生白霉
番茄潜叶蛾Leaf Miner叶片出现潜道状损伤
番茄叶霉病Leaf Mold背面灰紫色霉层
番茄花叶病毒病Mosaic Virus叶片斑驳、畸形
番茄斑枯病Septoria灰白中心、黑点病斑
番茄红蜘蛛病Spider Mites叶片斑点及红色螨体
番茄黄化曲叶病毒病Yellow Leaf Curl Virus叶片黄化卷曲

类别覆盖全面,贴近实际农业生产中的高频病害类型。


3. 标注规范

  • 标注格式:YOLO标准格式
  • 标注方式:目标检测框(Bounding Box)
  • 标注流程:人工 + 自动结合
  • 标注质量:高一致性、高精度

标注结果经过多轮校验,确保无明显错标或漏标。


4. 数据特点

  • 高分辨率图像:清晰呈现病害细节
  • 多样化样本:不同生长阶段与环境
  • 真实场景数据:贴近田间种植环境
  • 高标注质量:减少训练噪声

三、数据集优势

1. 类别覆盖全面

涵盖番茄主要病害与健康状态,满足实际农业应用需求。

2. 高质量数据支撑

图像清晰、标注精准,有助于提升模型识别精度。

3. 标准化结构设计

兼容YOLO系列模型,实现快速训练与部署。

4. 强泛化能力

多环境、多状态数据分布,使模型适应真实场景。

5. 应用价值突出

可直接服务农业生产与智能监测系统开发。


四、适用场景

本数据集可广泛应用于农业AI相关领域:

1. 病害智能识别系统

用于番茄病害自动检测与分类

2. 田间实时监测

结合摄像设备实现实时病害识别

3. 农业决策支持

辅助农户进行病害诊断与防治

4. 智慧农业平台

集成至农业管理系统,实现数据化管理

5. AI科研与教学

用于图像识别算法研究与实验教学
在这里插入图片描述


五、心得

从数据集设计角度来看,这套番茄病害数据集具有较强的实用导向。

首先,在类别设计上覆盖了主要高发病害,同时保留健康类别作为对照,这对于模型训练非常关键。

其次,数据强调真实场景采集,而非实验室数据,这一点决定了模型在实际应用中的表现。

再者,标注质量高且结构标准化,大幅降低了使用门槛,使开发者可以专注于模型优化。

最后,这类数据集的价值不仅在于算法训练,更在于推动农业生产方式的升级。当病害能够被自动识别时,农业将真正迈向精准化与智能化。


六、结语

随着农业智能化进程的不断推进,基于计算机视觉的病害识别技术正逐渐成为现代农业的重要工具。番茄病害识别作为典型应用场景,其数据质量直接影响模型性能与应用效果。

本番茄九类病害识别数据集通过高质量构建、多类别覆盖与标准化设计,为相关研究与工程应用提供了坚实基础。无论是科研探索还是实际部署,均具备较高价值。

感觉自己在框 X 就是瞎点的,没发现什么感兴趣的内容,比如 Ai 相关的,资讯、开源组件等,首页推荐都是这种

image

各位有啥推荐的关注之类的吗?想多了解下,非常感谢!!!

JeecgBoot AI专题研究 | 把 Claude Code 接入 DeepSeek V4-Pro 的真实体验与避坑记录

本文记录我将 Claude Code 对接 DeepSeek 最新模型(V4-Pro)后的真实体验,测试了 Skills 自动化查询和积木报表 AI 建表两个场景——有惊喜,也踩到了一个藏在 "1M 超长上下文" 光环下的巨坑。


背景:为什么要替换掉原生 Claude?

Claude Code 是目前公认最强的 AI 编程工具之一,但原版的 Anthropic API 费用不低——Opus 4.6 的输入价格高达 $15 / 百万 tokens。作为一个每天重度使用 Claude Code 的开发者,API 账单是绕不开的问题。

今天 DeepSeek 在 Hugging Face 发布了 V4 系列预览版,包含 V4-Pro(1.6T 参数 / 49B 激活)和 V4-Flash(284B 参数 / 13B 激活),并且提供了兼容 Anthropic 协议的 API 端点。这意味着:理论上只需改一行配置,就能用 DeepSeek 驱动 Claude Code。

我立刻动手试了。


配置过程:1 分钟完成接入

核心配置其实非常简单,DeepSeek 提供了完整的 Anthropic API 兼容层,只需要在 Claude Code 的配置文件中修改几个环境变量:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "${DEEPSEEK_API_KEY}",
    "API_TIMEOUT_MS": "3000000",
    "ANTHROPIC_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_SMALL_FAST_MODEL": "deepseek-v4-flash",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash",
    "CLAUDE_CODE_SUBAGENT_MODEL": "deepseek-v4-pro",
    "CLAUDE_CODE_EFFORT_LEVEL": "max"
  },
  "model": "deepseek-v4-pro"
}

逻辑非常清晰:重量级任务(复杂代码、深度推理)走 V4-Pro,轻量任务(工具调用、文件读写、快速问答)走 V4-Flash。两档模型分工明确,既保住能力上限,又控制成本。

配置完成后,Claude Code 启动界面上已经清楚地显示 deepseek-v4-pro · API Usage Billing,问它 "你是什么模型",回答干脆利落:

我是 DeepSeek V4 Pro 模型。

身份确认,接下来是正题——实际测试。


测试一:Skills 自动化查询敲敲云安装量

测试目标:让 Claude Code 调用预设的 Skills 脚本,查询敲敲云产品近 7 天的安装量数据,并给出分析。

这类任务考验的是模型的工具调用能力数据理解能力——要能正确执行脚本、读懂返回数据、输出有意义的分析。

结果令人满意。指令下达后,模型迅速调用了 scripts/query_setup_stats.py,脚本执行完成后,它直接输出了结构清晰的统计表格:

日期Docker 安装直装模式小计
04-18123
04-19538
04-20134
04-2161117
04-227916
04-237714
04-24527
合计323769

模型随即给出分析:近 7 天累计 69 次安装(IP 去重),4/21–4/23 是高峰期,日均 15+ 次;今天(4/24)数据 7 次,还在增长中。

整个过程速度很快,数据完全正确,没有幻觉,没有多余废话。V4-Pro 在这类结构化数据处理 + 工具调用场景下表现非常稳。

测试二:积木报表 AI 建表——盲猜出了正确答案

测试目标:让 Claude Code 调用积木报表(JiMu Report)的 AI 建表 Skills,自动创建一张员工信息纵向分组报表,要求按部门分组并显示小计。

这个任务比第一个复杂得多——它涉及报表 DSL 配置的生成,需要模型理解 "分组报表"、"纵向合并"、"小计行" 等专业概念,并且输出格式精确到位。

第一轮:报表出来了,但合计行是空的

模型第一次生成配置后,报表渲染出来,结构基本正确——按部门(人事部、市场部、研发部)纵向分组,每个部门内的员工明细都显示出来了。但有一个明显问题:合计行完全是空的,年龄、人数、薪资的小计数据一个都没有显示。

我把截图发给它,配上一句描述:"合计值配置不对。"

第二轮:看不见图,却猜对了病根

这里出现了一个既尴尬又有趣的细节。

模型收到截图后,在界面上诚实地打印出一行字:

我无法直接查看图片,但根据已知的纵向分组合计坑点,问题应该是数值列(薪资、年龄)缺少显式的聚合属性。让我获取报表当前设计并修复。

没错——它看不见图片,但它没有放弃,而是调用工具读取了报表当前的 JSON 配置文件,然后凭借对 "纵向分组报表合计行常见问题" 的领域知识,直接定位到了问题:小计行的字段缺少 sumavgcount 等聚合表达式绑定,导致渲染时数据为空。

它重新生成了配置,在合计行的对应字段上补充了聚合属性,再次渲染后:

  • 人事部合计:年龄均值 33.5,人数 2,薪资合计 33,000 ✓
  • 市场部合计:年龄均值 27.33,人数 3,薪资合计 39,000 ✓
  • 研发部合计:年龄均值 29.33,人数 3,薪资合计 52,000 ✓

所有小计全部正确。

这一幕揭示了什么

这个过程的关键不是 "修好了",而是修好的方式——它没有依赖视觉信息,而是通过读取配置文件 + 领域知识推断,独立完成了诊断和修复。换句话说,即便图片这条路走不通,它还能找到另一条路绕过去。

这是 Agent 能力的体现,也恰好暴露了接下来要说的那个坑。


巨坑预警:1M 上下文 ≠ 支持图片

DeepSeek V4-Pro 最亮眼的规格之一是 1,000,000 tokens 的超长上下文,乍一看比 Claude 原版还要豪横。但当我发送截图时,才发现了这个藏在光环下的盲区:

V4-Pro 当前版本是纯文本模型,完全不支持图片输入。

Claude Code 在发送图片时,V4-Pro 会收到一个占位符 [Image #1],但对实际图像内容毫无感知。所以你看到的那句 "我无法直接查看图片" 不是谦虚,是真的看不见。

对于日常编程工作流,这个限制影响面相当广:

  • 截图报错让模型分析 → ❌ 看不见
  • 发 UI 设计稿让模型写代码 → ❌ 看不见
  • 发报表渲染结果让模型诊断问题 → ❌ 看不见
  • 粘贴终端截图 → ❌ 看不见

1M 上下文能塞进去整个代码仓库,但塞不进去一张 PNG。

目前的折中办法:当需要处理图片时,临时去掉 ANTHROPIC_BASE_URL 配置,让请求回落到 Anthropic 原生 API,用完再切回来。麻烦,但能用。DeepSeek V4 的 Vision 模式已经在规划中,API 开放后这个问题会从根本上解决。


综合感受

经过这两轮测试,对 Claude Code + DeepSeek V4-Pro 的组合有几点直观感受:

表现亮眼的地方:

  • 兼容性几乎无感:配置完成后,Claude Code 的所有功能正常运行,Skills、工具调用、多步骤 Agent 任务都能跑通,完全感受不到 "换了模型"。
  • 工具调用稳定:脚本执行、文件读写这类结构化任务,V4-Pro 准确率高、响应快,没有废话也没有幻觉。
  • 领域推理能力强:即使在无法看图的情况下,模型能通过读取配置文件 + 领域知识推断定位到问题,这种 "绕路解决" 的能力很实用。
  • 成本压缩明显:相比原生 Claude Opus,API 成本预估节省 90%+。

需要踩坑提前知道的:

  • 🚨 不支持图片(重要):1M 上下文是真的,但图片输入不支持。Claude Code 里发截图,模型只会收到占位符,完全看不见内容。这是目前最影响日常使用的限制。
  • 部分复杂任务需要引导:像报表建表这类专业 DSL 任务,第一次不一定配置到位,但接受反馈后自修正能力很强。
  • 超时要设长一点:V4-Pro 在 max effort 模式下推理时间较长,API_TIMEOUT_MS 建议设 600000(10 分钟)以上。

总结

把 Claude Code 对接 DeepSeek V4-Pro,配置成本极低,三分钟搞定,换来的是开源最强 Agent 编程模型 + 极低 API 成本 + 完整的 Claude Code 工具链

但有一点要想清楚再切换:如果你的工作流依赖截图、UI 稿、图片输入,现在切换会很痛。等 DeepSeek V4 的 Vision 模式开放 API,这套方案才算真正补全了最后一块拼图。

在那之前——纯代码任务、脚本自动化、文本推理,放心用;涉及图片的,暂时留一个 Claude 原生的后路。


测试环境:Claude Code v2.1.119,DeepSeek V4-Pro(deepseek-v4-pro),2026-04-24

本文为 JeecgBoot AI 专题研究系列文章。

SentiPulse(思维光谱)旗下 AI Agent 产品 SentiCat 于 4 月 23 日正式开启公测。产品核心定位为 “任务执行+情感陪伴” ,即在执行任务的基础上,加入长期交互与情感陪伴能力。
image.png

公测机制

  • 申请方式:官网排队预约,审核制发放体验码。
  • 额度:通过官方审核的用户赠送 100 元 Token 初始额度,后续按用量充值。
  • 系统要求:当前仅支持 Windows。

技术点速览

  • 自研架构:系统架构为团队自主搭建,非基于 OpenClaw 等现有 Agent 框架二次封装,覆盖上下文管理、任务执行到记忆系统的完整链路。
  • 多模型接入:同时接入 MiniMax、通义千问、智谱、豆包、DeepSeek、Kimi、小米共 7 款国内主流大模型,支持在设置中手动切换,不绑定单一基座。
  • 扩展能力:支持安装 Skill 与接入外部 MCP 服务器,提供定时任务、自定义脚本(自然语言生成脚本)、AI 配图等系统能力。
  • 初始化流程:首次安装有 Onboarding 环节,授权后生成用户画像,用于后续交互的偏好适配。

三大核心应用场景

  • 办公自动化:以自然语言驱动 PPT 自动生成、Excel 数据处理及 Word 文档排版。
  • 深度研究:输入主题后,系统自动完成多源数据整合、信息搜集与深度分析,交付研究报告。
  • 代码开发:覆盖代码编写、Bug 定位及项目重构等完整开发链路。

数据安全

采用本地优先设计原则:聊天记录、个人偏好及文件资料均存储在用户设备中,默认不上传云端。API 密钥加密处理,代码执行与插件运行引入沙盒机制。仅在调用云端模型时发送必要信息,用户可随时查看、管理与删除本地数据。

链接:SentiCat 官网可查看详情并排队申请。