2026年3月

今日速览

  1. Naoma AI Demo Agent:B2B 销售神器,AI 视频演示 24 小时在线。
  2. Needle 2.0:动动嘴皮子,自动化工作流帮你赚被动收入。
  3. HTML Pub:AI 生成的 HTML 秒变实时网站,告别代码烦恼。
  4. Runner AI:不止建站,更帮你优化转化,躺着收钱。
  5. Huddle01 Cloud:60 秒部署 AI 代理,基础设施全托管。
  6. Clawther:给 AI 代理配个任务看板,管理像带团队一样简单。
  7. Prava:AI 也能安全支付了,四行代码搞定集成。
  8. Raccoon AI:全能 AI 助手,自带电脑终端陪你搞定一切。
  9. Gauge:营销数据大整合,AI 代理替你干完整个团队的活。
  10. OrangeLabs:上传数据问问题,AI 秒出图表洞察,零代码上手。

1. Naoma AI Demo Agent

这款神器能帮你把枯燥的“预约演示”变成随时可看的 AI 视频秀,专治 B2B 销售转化难题。

  • 24 小时在线,用任何语言提供个性化演示
  • 展示真实产品流程,自动回答问题并筛选潜在客户
  • 集成 CRM 和销售工具,直接引导至结账页面
  • 支持多种头像风格,从人类形象到品牌吉祥物任选

Naoma AI Demo Agent

热度:🔺579
访问官网 Product Hunt 详情

2. Needle 2.0

告诉它你想自动化啥,就能实时看着工作流从构建到上线,完全不用动手,顺便赚点被动收入。

  • 用自然语言描述需求,AI 代理自动构建和测试工作流
  • 实时观看构建过程,支持一键部署
  • 提交工作流到平台,开启赚钱模式
  • 专为 2026 年设计的全自动化体验

Needle 2.0

热度:🔺493
访问官网 Product Hunt 详情

3. HTML Pub

无论你用 Claude 还是 ChatGPT 生成 HTML,都能通过这个工具秒变实时网站,让创意立刻上线。

  • 通过 MCP/API 将 AI 生成的 HTML 转为可访问网址
  • 支持网站、着陆页、商店、博客等多种类型,几秒钟上线
  • 提供自定义域名、表单集成和可视化编辑器
  • 无需代码库或部署配置,直接托管发布

HTML Pub

热度:🔺403
访问官网 Product Hunt 详情

4. Runner AI

别光盯着网站好看,这款工具帮你把访客变成买家,后台自动实验优化,专注提升营收。

  • 构建 AI 原生商店,并持续进行优化实验
  • 自动化转化流程,将访客引导至购买
  • 集成分析功能,实时跟踪性能数据
  • 专为电商和在线业务设计,提升整体收益

Runner AI

热度:🔺338
访问官网 Product Hunt 详情

5. Huddle01 Cloud

部署 OpenClaw 代理再也不用折腾几个小时,60 秒搞定全托管版本,让你专心搞创作。

  • 60 秒内快速部署安全、托管的 OpenClaw 代理
  • 处理基础设施、AI 推理和更新,用户无需维护
  • 支持代理训练和扩展,专注于业务逻辑开发
  • 云服务优化,确保高性能和可靠性

Huddle01 Cloud

热度:🔺327
访问官网 Product Hunt 详情

6. Clawther

受够了用聊天管理 AI 代理?试试这个任务看板,像带人类团队一样跟踪多任务,效率翻倍。

  • 为 OpenClaw 代理创建可视化任务看板,替代聊天界面
  • 支持并行跟踪多个任务,提升管理效率
  • 集成 Notion 等工具,方便团队协作和分享
  • 设计灵感来自实际工作流程,更符合代理使用场景

Clawther

热度:🔺309
访问官网 Product Hunt 详情

7. Prava

AI 代理能看能推荐,但付不了钱?这个支付平台专为它们设计,安全搞定交易,四行代码集成。

  • 专为 AI 代理设计的支付系统,支持信用卡和电子钱包
  • 与 Visa 等全球卡网络合作,确保支付安全和顺畅
  • 适用于 AI 助手、购物代理等场景,简化购买流程
  • 提供“游乐场”体验,非开发者也能快速上手

Prava

热度:🔺300
访问官网 Product Hunt 详情

8. Raccoon AI

描述你的需求,就能和这个自带电脑、终端、浏览器的 AI 助手一起干活,从想法到成果全程可见。

  • 协作式 AI 助手,拥有独立工作空间和工具集
  • 支持部署应用、数据分析、制作文档视频等多种任务
  • 实时展示 AI 的思考过程、文件创建和决策
  • 用户可随时调整方向,确保产出符合预期

Raccoon AI

热度:🔺298
访问官网 Product Hunt 详情

9. Gauge

营销数据太分散?这个 AI 代理帮你整合自然搜索、付费搜索和 AI 搜索,干完整个团队的活。

  • 整合 GA4、GSC、关键词等多源数据,提供统一视图
  • 专注于搜索营销优化,适应传统和 AI 搜索变化
  • 自动化分析报告,提升品牌曝光和转化率
  • 设计用于替代部分营销团队工作,节省人力成本

Gauge

热度:🔺204
访问官网 Product Hunt 详情

10. OrangeLabs

上传数据,直接问问题,AI 立马给你图表和洞察,连公式都不用写,数据小白也能变高手。

  • 利用 AI 分析复杂数据,生成表格、图表和可视化
  • 无需编写公式或代码,通过自然语言交互获取洞察
  • 支持数据连接和上传,适合创始人和分析师使用
  • 提供免费入门体验,降低数据使用门槛

OrangeLabs

热度:🔺192
访问官网 Product Hunt 详情

有时候网站打不开、访问变慢、邮箱收不到信,问题不一定在服务器,也可能出在 DNS 配置上。为了让普通用户也能快速排查这类问题,我做了这个域名 DNS 查询在线工具。

这是我用 Vue 开发的一个小工具,不用安装软件,打开网页就能查,适合日常自查和基础运维场景。

在线工具网址:https://see-tool.com/dns-query
工具截图:

这个工具能做什么

  • 查询常见记录类型:AAAAACNAMEMXNSTXT
  • 快速查看解析结果和基础信息
  • 协助判断域名是否指向正确、邮箱配置是否生效

三步完成查询

  1. 输入你要查询的域名(例如 example.com
  2. 选择记录类型(不确定时可先查 ANS
  3. 点击查询,查看返回结果

查询结果怎么理解

  • A:域名对应的 IPv4 地址
  • AAAA:域名对应的 IPv6 地址
  • CNAME:域名是否别名指向到另一个域名
  • MX:邮件服务器记录,邮箱收发异常时重点看它
  • NS:当前域名使用的 DNS 服务商
  • TXT:常用于域名验证、SPF 等配置

适合哪些人用

  • 网站新手:确认域名解析有没有配对
  • 企业或个人站长:排查迁移后解析异常
  • 普通用户:判断问题是否由 DNS 引起

使用小提醒

  • 刚修改 DNS 后可能不会立刻生效,通常需要等待缓存刷新
  • 同一类型出现多条记录是正常情况
  • 若网站异常,建议先查 NS,再查 A/CNAME

如果你经常需要检查域名状态,这个工具可以作为一个轻量、随手可用的查询入口。

当前 ChtGpt 存在免费使用一月的活动,之前使用 WildCard 注册虚拟卡进行充值,后续 wildcard 被封之后,无法获取之前的虚拟卡信息,请问一下有什么办法能注册虚拟卡进行 plus 充值的嘛

2021 年开始注册使用它的邮箱服务,特点是邮箱无限容量(含附件),创建了 20 个域名邮箱用作 it 监控,个人对外等用途,支持 imap ,pop3 ,smtp 协议。3 月初收到免费计划已终止通知,如果不转为付费计划,8 天后将变成只读模式,无法收发新邮件。
备份作为首要考虑,马上搭建了免费开源的 OpenArchiver ,用 imap 将所有邮件拉下来,同步了一天一夜,已归档的邮件已经达到 231767 封,占用存储空间 135.77GB ,查询了进度仅仅备份到了 2023 年的,等完整备份完估计会到 400GB 左右。
转邮箱托管商,看了 Zoho ,明码标价的 6 刀/月/账号的邮箱容量只有 100GB ,更大的估计要联系销售报价;如果没有找到类似 Yandex 的无限邮箱容量,监控类的服务邮箱考虑转成其他形式了。

大家有高性价比的域名邮箱托管服务商推荐吗?

A:已婚,一线城市有房,背负百万以上房贷,工作 996 。

B:已婚,二线城市,有房,有几十万贷款,工作 965 。

C:未婚,三线城市有房,无贷款,存款百万 失业躺平。

1:有娃

2:无娃

我选 B 和 1

本来想把有娃没娃加在 ABC 上的,但是觉得不太合理,单独弄了一列。

爸爸问儿子:我已经给你买了 1000 块钱最高级的变形金刚玩具,你为什么还要去抢其他小朋友 50 块钱的破玩具? ⌨️⌨️⌨️

儿子理直气壮的回答。。。 🤡🤡🤡

我还是回来用静电容键盘养老了


我还是回来用静电容键盘养老了

经过一段时间的尝试,发现哪怕是入门级的 ALICE 配列人体工学键盘,也还是难以适应。盲打经常找不到键位 (尤其是输入英文和验证码的时候),与习惯的 Mac 键位也有所冲突,左下角的几个功能键经常按错,所以最终放弃了。

640

还是回归 NiZ 的静电容键盘最香,不过也不是没有收获,发现 NiZ 新出了一款 矮轴静电容 L84,于是没忍住又剁手买了一把,结果被太太一顿嘲笑。

太太说:你想买新键盘就直接买好了,1000 多块钱也不是太贵,反正家里已经十几把键盘也不差再多这一把,何必中间还多此一举搞了个便宜的人体工学键盘,折腾啥呢?

呵呵,这么简单的问题都不需要我回答,引用网上一个老段子吧:

爸爸问儿子:我已经给你买了 1000 块钱最高级的变形金刚玩具,你为什么还要去抢其他小朋友 50 块钱的破玩具?
儿子理直气壮的回答:因为我没玩过啊!

我:如上同理~ 🤡🤡🤡

640 (1)


全文链接 我还是回来用静电容键盘养老了

对于企业和个人用户而言,如何有效管理和存储知识、数据与信息,成为了关键挑战之一。在这个时代,云存储作为现代企业数据管理的重要工具,逐渐在办公环境中占据了极其重要的位置。

而企业网盘,作为云存储的一部分,正是实现数据分享、协作与安全存储的有效解决方案。然而,提到企业网盘的费用问题,许多企业管理者和个人用户都跃跃欲试,却又感到一丝的困惑与不安。

一、企业网盘的背景

随着企业数字化转型的加速,各类文件的存储与管理需求亦水涨船高。一方面,企业规模的扩大使得数据量激增;另一方面,远程办公、分布式团队的兴起使得数据共享和协作的需求愈加迫切。在这样的背景下,企业网盘自然而然地成为了企业信息化建设的标配。

近年来,市场上涌现出众多提供企业网盘服务的厂商,它们针对不同类型和规模的企业,推出了各具特色的解决方案。在这其中,Zoho网盘凭借其出色的性能和合理的定价策略,受到了广泛关注。

二、企业网盘的定价方式

在了解企业网盘的费用问题之前,有必要对其定价方式进行全面的剖析。企业网盘的定价通常受到以下几个因素的影响:

存储容量

不同的企业在数据存储需求上的差异,直接导致了存储容量作为定价的重要依据。通常,企业网盘会提供多种不同的存储选项,用户可根据自身需要选择相应的套餐。例如,Zoho网盘在存储容量方面提供了灵活的选择方案,从小型企业所需的基础存储到大型企业所需的海量存储,均能满足。

用户数量

企业网盘的另一重要定价依据是用户数量。大多数网盘服务商会根据企业的实际使用人数,提供不同的收费标准。一些服务商按每位用户付费,另一些则提供团队计划,通常来讲,用户数量越多,单个用户的费用可能越低。Zoho网盘的团队套餐设置,正好契合了这一点,能够实现多用户的协同办公。

功能模块

除基本的存储服务外,企业网盘通常还会提供多种附加功能模块,如数据安全、权限管理、文件共享、版本控制等。这些功能虽然对企业的数据管理至关重要,但往往会增加额外的费用。Zoho网盘提供了不同套餐中各功能的清晰划分,用户可根据需要选择合适的功能组合。

服务质量

服务的质量与响应速度也是企业在选择网盘服务时需要考虑的重要因素。在这方面,一些高端的企业网盘会提供额外的技术支持与客户服务保证,而这些通常会体现在定价中。

三、Zoho网盘的收费标准解析

以Zoho网盘为例,其收费标准较为清晰,主要分为以下几个层次:

基础套餐

适合中小型企业或刚起步的创业团队,提供基本的存储功能,通常包括一定数量的存储空间和基础的文件共享功能。这个套餐的定价相对亲民,为企业节约了成本。

团队套餐

适合需要多用户协作的团队,提供更大的存储空间和更多的功能模块,包括文件审计、用户权限管理等。此类套餐的定价稍高,但根据用户数量的增加,其单个用户的费用会有所下降,体现出更高的性价比。

企业套餐

针对中大型企业,提供海量存储与全面的增值服务,包含高级数据分析、安全管理、客户服务保障等。这一套餐的定价是基于企业的具体需求与使用情况进行定制,因此更为灵活。

增值服务

除上述套餐外,Zoho网盘还提供了多项增值服务选项,如数据备份、基于角色的访问控制等。这些服务虽然会增加额外费用,但却能为企业的数据安全与管理效率提供保障。

四、企业网盘的隐性成本

除了明面上的定价外,用户在购买企业网盘时,还需考虑隐性成本。这些隐性成本可能包括:

培训成本:企业员工在使用新工具时可能需要进行相关培训,这将直接影响到实施的顺利程度。

切换成本:如果企业已经使用了其他网盘服务,迁移至新的服务提供商可能会产生一定的成本。

时间成本:在采用新系统的过程中,企业可能面临时间上的延误,影响日常工作效率。

五、选择适合的企业网盘

在面对众多网盘服务商时,企业应如何选择最合适的网盘呢?有以下几个建议:

明确需求

了解企业自身的数据存储需求,包括存储空间、用户数量以及所需功能模块,结合实际情况选定合适的套餐。

评估性价比

不仅要看套餐的价格,更要评估其提供的功能能否实质性提升工作效率及数据安全。

重视客户服务

在选择网盘的过程中,不要忽视服务商的客户支持。一个优秀的客户支持团队能够在关键时刻为您解决问题,降低意外风险。

试用与反馈

很多网盘服务商会提供试用期,让用户在购买前体验产品。利用这一机会,获取团队成员的反馈,确保选择最适合的工具。

公司情况是:广州公司在深圳开分部;新部门岗位需求大;以下只是列出部分,
前端,后端,测试,中高级、资深都是在招聘的哈;

招聘信息

研发部 | 全职 | 技术类 | 广东·深圳市


一、后端开发工程师 🔴 急聘

💰 20 - 40 K/月 | 研发部 | 全职 | 技术类 | 广东·深圳市

岗位职责

  1. 使用 Go 设计和开发高性能、高可用的后端微服务,支撑核心业务逻辑
  2. 设计实现高并发系统架构(百万级在线用户、万级 TPS 交易处理)
  3. 参与支付网关、资金管理等核心交易系统的设计与实现
  4. 设计高性能 RESTful/gRPC API ,优化数据库查询与缓存策略
  5. 实现系统可观察性,包括日志、监控( Prometheus/Grafana )和分布式追踪

任职要求

  1. 工作经验:7 年以上后端开发经验,其中 2 年以上架构设计经验
  2. 架构能力:主导过大型分布式系统(高并发交易/实时互动)的技术选型与架构设计
  3. 性能优化:具备后端性能优化经验,能系统性分析并解决性能瓶颈
  4. 技术领导力:能够赋能团队、推动技术决策和规范落地
  5. 分布式系统:深刻理解分布式一致性、容错、分布式事务等复杂问题,具备实战经验
  6. AI 工具:擅长使用 AI 辅助开发工具(如 Claude Code 、Cursor 、Copilot 等),能高效学习新技术

加分项

  • 优秀的开源项目贡献或技术博客
  • 国际化/全球化部署经验(多区域、多语言、合规)


二、资深 React 前端开发工程师

💰 30 - 40 K/月 | 研发部 | 全职 | 技术类 | 广东·深圳市

岗位职责

  1. 开发公司网站的前端部分,包括不限于主页、产品页面和其他相关页面
  2. 利用 React 框架和组件化方法,高效开发可重用、可维护的代码
  3. 与设计师、产品经理和后端开发人员合作,确保网站具有良好的用户体验和易用性
  4. 按需优化网站性能,提高网站的加载速度和响应时间
  5. 维护和更新现有代码,确保与新的 React 和 JavaScript 技术保持兼容性

任职要求

  1. 熟悉 JavaScript 、React 、Next.js 框架,具有 2 年以上相关工作经验
  2. 熟悉 HTML 、CSS 和 JavaScript ,具有扎实的编程基础
  3. 熟悉 Git 版本控制工具,能够有效组织和管理代码库
  4. 具有良好的沟通能力和团队合作精神
  5. 熟悉常见前端性能优化技术,如懒加载、代码分割等
  6. 熟悉 Sass 、Less 、PostCSS 等 CSS 框架
  7. AI 工具:擅长使用 AI 辅助工作(如 Claude Code 、Cursor 等),能高效学习新技术和工具

加分项

  • 有 Ant Design 项目开发经验
  • 有 React Native 项目开发经验
  • 有海外 C 端项目开发经验
  • 有 GitHub 开源项目并获得较高 Star


三、软件测试工程师(初级)

💰 7 - 15 K/月 | 研发部 | 全职 | 技术类 | 广东·深圳市

岗位职责

  1. 负责公司核心业务系统/平台的质量保障,参与需求评审、设计评审,制定测试计划与测试方案
  2. 主导或深度参与接口自动化、UI 自动化、性能测试体系建设,提升测试效率与覆盖率
  3. 设计与维护自动化测试用例、测试脚本、测试数据,持续优化自动化框架与执行稳定性
  4. 负责性能测试、压力测试、容量规划,完成压测方案设计、脚本开发、场景执行、瓶颈分析与调优建议
  5. 定位、跟踪、推动解决线上/线下复杂问题,推动质量改进、流程优化与风险防控
  6. 与产品、开发、运维协同,保障项目按期高质量上线,支撑 CI/CD

任职要求

  1. 本科及以上学历,计算机、软件工程相关专业,3–5 年及以上软件测试经验,有互联网/金融项目经验优先
  2. 精通至少一种自动化测试工具/框架:
    • 接口自动化:Postman 、JMeter 、APIfox 、Requests
    • UI 自动化:Selenium 、Appium 、Airtest 、UIAutomator
  3. 具备独立性能测试能力:熟悉 JMeter/LoadRunner/Gatling 等至少一种压测工具,能独立完成压测设计、执行、监控、报告输出
  4. 熟悉 Linux 常用命令,能查看日志;掌握 MySQL/Redis 等基本操作,具备数据验证与问题排查能力
  5. 有良好的测试思维、风险意识,逻辑清晰,能独立负责复杂业务/系统的质量保障
  6. 具备强烈的责任心、抗压能力与团队协作意识,学习能力强

加分项

  • 有测试开发能力,能编写 Python/Java/Go 等脚本,优化工具或平台
  • 熟悉 Docker 、K8s 、CI/CD 流程( Jenkins/GitLab CI )
  • 有高并发、分布式系统、微服务测试经验
  • 有安全测试、稳定性测试、全链路压测经验
  • 主导过自动化平台建设、性能专项优化项目


四、软件测试负责人

💰 20 - 40 K/月 | 研发部 | 全职 | 技术类 | 广东·深圳市

核心职责

  1. 团队管理:搭建测试团队,制定考核制度,负责人员招聘、培训及绩效管理
  2. 流程优化:建立测试流程规范,制定测试策略,协调跨部门资源(开发、策划、产品)
  3. 体系搭建:制定全链路质量保障体系,覆盖功能、接口、性能、安全测试
  4. 技术主导:设计自动化测试框架(如 Selenium/Appium ),推动 CI/CD 流程落地,推动自动化测试工具落地,优化测试效率,解决复杂技术问题

任职要求

  1. 经验:5 年以上软件测试经验,3 年以上 5 人以上团队管理经验,有金融/互联网项目经验优先
  2. 技能:精通 SQL/Python ,熟悉 Linux ,掌握 JMeter 性能测试工具
  3. 软性能力:逻辑清晰,抗压能力强,具备风险预判和跨团队协作能力,具备技术前瞻性,能推动测试技术创新
  4. 管理能力:带领团队,做好质量保障体系,搭建自动化测试框架

具体情况加 v 给所有岗位介绍:d3dfZGFqdW4=

Visualize and compare multiple events by a simple click in TDengine

这么多年来,PI System 里有一个概念一直让我印象非常深刻:Event Frames(事件框架)。对于处理工业运营数据的人来说,这个想法既简单又非常强大。传统上,我们往往只是看连续的时序数据信号。但 Event Frames 的思路是:把连续的数据流转换成离散的运营事件

一个 Event Frame 通常包含:

  • 开始时间
  • 结束时间
  • 持续时间
  • 描述该事件的属性(attributes)
  • 与其他事件之间的关系(父子事件)

例如:

  • 一个生产班次(Shift)
  • 可能包含多个批次(Batch)
  • 每个批次又包含多个工艺阶段(Phase)
  • 每个阶段可能产生报警或异常事件。

这种结构把原始的传感器信号转换成了具有业务语义的生产运营上下文。一旦有了这些事件,很多问题就变得容易回答:

  • 上周发生了多少次停机事件?
  • 哪些批次消耗的能源最多?
  • 压缩机喘振持续了多久?
  • 设备故障发生之前发生了什么?

从某种意义上说,Event Frames 把信号变成了关于生产运营的故事

现代数据基础设施带来的挑战

今天,很多企业开始采用现代实时数据技术,比如 Spark 或 Flink 来做流式分析。这些系统非常强大,但它们主要是为数据工程师(Data Engineers) 设计的,而不是为 OT 工程师设计的。理论上,你完全可以在这些流处理系统里实现事件检测。但在实际工程中,通常需要:

  • 用 Java 或 Scala 编写流处理程序
  • 自己实现状态机逻辑
  • 管理分布式状态和定时器
  • 维护复杂的数据管道

在传统 OT 系统里的一条简单规则,在现代流处理框架中,往往会变成上百行代码。对于制造现场的工程师来说,这就带来了一个明显的问题:技术虽然更强大了,但使用门槛却变高了

为什么 Event Frames 在 AI 时代更重要

在 AI 时代,仅仅有原始的时序数据是不够的。AI 系统更擅长处理结构化、有语义、有上下文的数据

例如,与其把模型训练在大量原始信号上:

  • temperature(t)
  • pressure(t)
  • vibration(t)

很多时候更有价值的是这样的结构化事件:

  • 事件:压缩机喘振
  • 开始时间:10:23:15
  • 持续时间:12 秒
  • 严重程度:高
  • 设备:Compressor-7

这些事件成为运营智能的重要基础单元。它们可以用于:

  • 根因分析
  • 异常检测
  • 批次对比分析
  • 预测性维护
  • 机器学习训练
  • AI Agent 对生产过程进行推理

换句话说,Event Frames 实际上是连接原始数据与运营洞察之间的桥梁。这也是为什么我认为,在 AI 时代,这个概念反而比当年刚提出时更加重要。

传统 Data Historian 的局限

PI System 在 Event Frames 的设计上做得非常出色,并且让 OT 工程师能够非常容易地使用它。但很多传统的数据 Historian 架构并不是为今天的 AI 和现代数据生态设计的。今天我们需要的平台,能够同时结合:

  • 高性能时序数据存储
  • 实时流处理
  • 情景化资产模型(Contextualized Asset Model)
  • 事件生成
  • 面向 AI 的开放数据接口

Start/Stop Trigger can be configured manually or automatically by AI in TDengine

TDengine 的设计思路

在 TDengine 中,我们采用了一种稍微不同的方式。TDengine 内置了流处理引擎,并提供了图形化界面(GUI)用于配置规则和表达式,可以直接从实时的时序数据流中生成 Event Frames。

大语言模型(LLM) 的帮助下,TDengine 甚至可以根据数据的上下文自动生成事件检测规则,或者自动识别异常。在很多情况下,用户还可以用自然语言描述自己的需求,系统就可以将其转换成底层的规则。我们的一个核心设计原则是:OT 工程师不应该需要编写流处理代码。

用户只需要在运营层定义规则和逻辑,而系统会自动处理:

  • 状态管理
  • 事件检测
  • 事件生命周期管理
  • 数据存储与索引

最终的用户体验与工程师在 PI System 中熟悉的方式类似,但底层架构则建立在现代基础设施之上,并且从一开始就是 AI-ready 的工业数据平台

Align the start time and even normalize the event duration for different events in TDengine

展望未来

工业数据平台正在快速演进。但很多时候,最有价值的想法并不是最新的,而是那些真正解决问题的设计。

Event Frames 就是这样一个理念。它把原始传感器信号转换成有意义的运营事件——既能被工程师理解,也能被 AI 系统利用。随着 Industrial AI 的发展,我相信以事件为中心的业务运营数据模型(event-centric operational data model) 会变得越来越重要。

未来,AI Agent 不只是分析时序信号。它们会理解事件、流程和运营上下文

而这一切的起点,就是把数据变成事件。

正如海洋中的每一条航线都有其独特的通道,不同的网盘也提供了各式各样的功能,其中“外链功能”便是一条重要的航线,让我们能够方便地分享和传递信息。今天,我们就来聊聊那些支持外链功能的网盘。

一、网盘的外链功能是什么?

首先,让我们阐明一下“外链功能”的含义。在便捷的信息时代,分享数据成为了一种日常需求。无论是企业的项目文档,还是个人的照片、视频,我们都常常需要将文件分享给其他人,而外链功能便是实现这一点的重要工具。通过外链,用户可以将存储在网盘中的文件生成一个可访问的链接,这样接收者就可以直接通过链接查看或下载文件,而无需登录账号。

这一功能在团队合作、客户沟通和个人分享中都是极为实用的。想象一下,你正在进行一次项目汇报,需要将文档迅速分享给团队的每一位成员,外链就是你最值得依赖的助手。然而,并非所有的网盘都能支持这一功能,这使得选择合适的网盘显得尤为重要。在这里,我们要隆重介绍的,就是Zoho网盘,这位在企业网盘领域中脱颖而出的明星。

二、为何选择Zoho网盘?

在众多网盘中,Zoho网盘凭借其出色的外链功能,及其一系列特色服务,成为了许多企业和个人用户的优选。下面,我们从多个维度来了解Zoho网盘的优势。

  1. 强大的外链管理

Zoho网盘的外链功能不仅仅是简单的生成链接,它提供了详尽的管理选项,让用户随心所欲地控制链接的访问权限。用户可以设定链接的有效期,确保文件在指定时间后不再可用,从而避免信息的意外泄露。此外,Zoho网盘允许设定密码保护功能,为共享的内容加上一道额外的防线,让敏感信息更加安全。

  1. 多种文件格式的支持

在日常工作中,我们需要分享各种类型的文件,从文档到表格,再到图片和视频,Zoho网盘都能够无缝支持。无论是常见的PDF文件,还是特定格式的设计图,Zoho都能轻松应对。这样一来,用户在分享文件时,无需担心格式的兼容性,随时随地进行高效的文件交流。

  1. 便捷的协作体验

Zoho网盘的外链功能不仅仅限于分享文件,它还与Zoho的其他工具无缝集成,让协作变得更加顺畅。想象一下,团队成员之间通过外链共享文件,可以同时进行在线编辑、评论和反馈,极大提升了工作效率。无论是在办公室,还是在远程工作环境下,Zoho都能确保团队协作的顺畅与高效。

  1. 安全性与稳定性

对于企业用户而言,数据安全是重中之重。Zoho网盘采用了先进的加密技术,确保用户数据在传输和存储过程中的安全。同时,Zoho网盘服务器的稳定性也得到了众多用户的认可,长时间的高可用性,让企业无需担心数据丢失的问题。

三、Zoho网盘与其他网盘的对比

尽管市面上有多种网盘可供选择,但Zoho网盘显然在外链功能和综合体验上独树一帜。相比于一些主流网盘,Zoho网盘提供了更加人性化的外链管理功能,用户能够更灵活地控制文件的可访问性和安全性。

很多网盘虽然提供外链功能,但常常存在上传速度慢、带宽限制以及用户隐私不够透明等问题。而Zoho网盘在提升用户体验方面做得相当到位,确保每一位用户都能享受到流畅的文件上传和分享体验。

缘起

第一次部署 Openclaw 时在 ubuntu server 上的,需要网页搜索或者爬取的时候,方案要么 headless 要么 api ,我下意识感觉可以换一种思路,就用有头浏览器(尽量减少特征,肯定还有),然后一些登录操作,可以通过 VNC 这类方案由人来操作。

这样在让虾干活前,我走一步,他可以走剩下的 99 步。而且如果对于一些操作不放心,也可以开着监督一下。

另外,如果是自己日常电脑部署虾的话,也是可以整一个玩玩的,不污染自己现在的 Chrome Profile 。

基于这个想法,最开始我直接让 openclaw 在虚拟机上自己实现一份,能启动,但后续就挂了,不了了之。后来看到字节的 aio sandbox 项目,想着部署一个,但好像不开源实现,于是整一个。

简介

项目地址: https://github.com/zzzgydi/verge-browser

  • 远程可视化:支持选择 xvfb 和 VNC 的沙盒或者 Xpra 的沙盒,通过 Session URL 就能访问。
  • 支持连接 CDP:可直接使用 agent-browser 这类方案或者用 Playwright 来连接。
  • 支持多个沙盒:意味着可以自己管理多个不同的浏览器登录态,比如多个小红书推特分别管理。
  • 简单的自用鉴权:不搞复杂的多用户管理,专注个人用户自部署使用。
  • 支持 GUI 级的操作:通过模拟电脑的点击来下发,不差钱使用视觉模型的话也能用。
  • 支持简单的文件管理:主要是为了管理浏览器下载的文件。

目前还没来得及整 Openclaw 一键可用的 skill ,后面会整。

贴点图:

沙盒管理页面

管理页面

浏览器 noVNC 访问会话

noVNC 会话

作为全球最早开始养龙虾的人之一,我从 1 月份就开始用 [OneClaw]( https://www.oneclaw.net)( OpenClaw 一站式云部署平台)养龙虾。到目前为止养了 10 只,全部用的 Claude Opus 模型。

2 月份一看账单 —— **$5000+**。

心态直接崩了。

仔细看了调用日志,发现 80% 的请求根本不需要 Opus 这种顶级模型:

- 龙虾问"今天天气怎么样" → Opus 处理,$75/百万 token
- 格式化一段 JSON → Opus 处理,$75/百万 token
- 翻译一句话 → Opus 处理,$75/百万 token

但 Gemini Flash 处理这些只要 $0.30/百万 token ,**差了 250 倍**。相当于每次去楼下买瓶水都叫劳斯莱斯。

所以花了两周写了个 LLM 智能路由 —— [ClawRouters]( https://www.clawrouters.com)

原理很简单:
1. 每个 API 请求进来,先用轻量模型分类(<10ms )
2. 根据任务类型自动选最便宜的能干活的模型
3. 兼容 OpenAI API 格式,改一下 base_url 就行

简单问答 → Gemini Flash ($0.30/M )
代码格式化 → Claude Haiku ($1.25/M )
翻译 → GPT-4o-mini ($0.60/M )
复杂推理 → Claude Opus ($75/M ,该花的还得花)

效果:**月账单从 $5000 降到 $800 以下**,输出质量没有明显变化。

现在终于可以安心养更多海外龙虾了 🦞

有个免费的 BYOK 方案 —— 自带 API Key ,路由零加价。不像 OpenRouter 每笔请求抽 5.5%。

支持 50+ 模型,自动 failover 。有同样被 token 费用折磨的 V 友吗?欢迎交流省钱经验。

GitHub: https://github.com/readdig/readdig

项目主页: https://readdig.com

最近开发完了免费模式,现在改为免费使用,无限制,无广告。超服务器负载会停止免费注册。

有 RSS 需求的可以试试,有上万的 RSS 订阅源可订阅,如果之前注册过试用账号的,不想注册新账号的可以找我设为免费账号。

手机用户推荐在浏览器添加到屏幕使用。

推荐有需要有条件的使用 docker 部署项目。

V2EX 第 431631 号会员,加入于 2019-07-24 13:44:42 +08:00

这是我 7 年里发的 7 个帖子,也是我毕业 10 年的心路历程:
2019 年 7 月 25 日 《 Java 、Vue 有需要私活的和我聊聊》
2023 年 12 月 13 日 《趁着个体户认证打折赶紧开发 10 个小程序》
2023 年 12 月 28 日 《我发现,即使历史再来一次,我也抓不住机会》
2025 年 9 月 26 日 《能否分享下你们周末假期都是如何度过的?》
2026 年 1 月 8 日 《记一次与人的相处》
2026 年 3 月 10 日 XXXX

我 2016 年毕业,2018 、2019 年那两年,满脑子只想着用体力换钱——接单价更高的私活,做更多的私活,这是我当时唯一的执念。那时候的收入也跟着水涨船高,我还记得,那时候和发小聊天,已经开始厌倦当下、怀念过去,嘴里聊的全是未来,总觉得处处都是机会,最常挂在嘴边的就是“钱不是省出来的,是赚出来的”。
历经三年疫情,我曾在酒店隔离了半年,住的房间只有一扇内窗,空气都不流通。也正是那段时间,我的收入陷入了停滞,我开始尝试向其他方向探索,比如健康。最开始跑步,我只能跑一公里,配速还要 15 分钟;而现在,5 公里能跑到 6 分钟配速。也从那以后,我对“睡后收入”着了迷,混社群时看到很多人靠小程序变现,于是我也上线了一个小程序,注册了工作室,买了域名和服务器,那时候每天做梦都盼着小程序能流量爆火。
于是就有了《我发现,即使历史再来一次,我也抓不住机会》这篇帖子。也正是在这篇文章里,我被 V 友们“教育”了一番,直到现在,我也常会回去翻看那些批评我的留言。

再后来,我开始爱上了记录,经常在抖音、小红书上发表评论。既然没什么大能量,也没做成什么大事业,那评论能混到几百个点赞,我也觉得很开心——我享受这种积极参与社会的感觉,或许有一天,我的评论和文章,也能构建出一个“赛博版的我”。也是在这个阶段,我开始主动和不相识的人见面,有小红书上认识的球友,也有 V2 上的网友。刚开始见面时真的很紧张,但能在不同的人身上碰撞出不同的观点和想法,也真的很有意思。
《能否分享下你们周末假期都是如何度过的?》《记一次与人的相处》这两篇帖子,就是我这些想法的产物。

最近两年,AI 发展得如火如荼,最开始我对此嗤之以鼻,觉得不过是一阵风。凑巧有一次,我又重新看了一遍《我发现,即使历史再来一次,我也抓不住机会》,于是我决定跟风尝试。哪怕最后失败了,也是一种不一样的体验。而之前小程序的域名和服务器,也派上了用场,让我的起步速度快了一些,这也让我突然觉得,之前做的那些尝试,也不完全是无用功。
现在,我和发小聊天,也开始频频怀念过去,对未来却闭口不谈,最多也就聊聊明天去哪喝茶、后天去哪小聚。不是不想未来,而是明白,未来从来不在嘴上,只在脚下。

七年时间,从满脑子只想赚快钱,到学会体验生活、接纳遗憾,每一步都走得不算顺畅,却也都算数。这篇文字,我特意选在周五下午四点——一周里最难熬的时刻发布,愿我们都能在疲惫里,找到属于自己的小期待,静静地等待下班,静静地想想周末该去玩什么做什么,慢慢迈向未来。

也想问问看见这篇文章的 V 友,这几年里,你心态变化最大的瞬间是什么?
有没有哪件事,让你突然改变了对生活、对未来的看法?
评论区聊聊,也让我听听你的故事~

最后,致敬 V 友,也致敬每一个在生活里慢慢成长、认真前行的我们。

亲爱的社区伙伴们:

自 KaiwuDB V3.0 发布以来,我们收到了许多社区用户的咨询,想深入了解架构设计、性能调优等技术内容。

为了方便大家更系统、更高效地掌握 KaiwuDB V3.0 的核心技术要点 ,我们把近期发布的深度技术文章整理成了这份精选合集。本篇合集涵盖了KaiwuDB V3.0 的各项核心能力与技术演进,希望帮助您一次看懂、随时查阅。建议收藏📌,慢慢看。

接下来,就让我们一起进入 KaiwuDB V3.0 的技术世界吧!👇

一、多模架构与查询性能

【多模一库------架构简化,能力翻倍】

本文深入解析 KaiwuDB V3.0 多模一库的架构设计,如何通过单一数据库统一管理关系、时序等多模数据,一库代替关系库+时序库,彻底简化技术栈。

点击阅读>>🔗 多模一库------架构简化,能力翻倍

【KaiwuDB 跨模查询百倍性能提升背后的技术密码】

5 小时 → 64 秒,性能提升 279 倍,是 KaiwuDB V3.0 跨模查询优化后的真实测试结果。本文详细拆解了三个核心优化技术------跨模统计信息融合、聚合下推、高速连接算子,并附上完整 SQL 和测试过程。

点击阅读>>🔗KaiwuDB 跨模查询百倍性能提升背后的技术密码

【KaiwuDB 分布式执行引擎的演进之路】

本文系统性解析新一代分布式执行引擎的四项关键改造:基于 Pipeline 架构释放并行潜力、统一编码提速大数据处理、节点间 BRPC 传输优化协同效率、算子全下推完善复杂计算支撑。

点击阅读>>🔗KaiwuDB 分布式执行引擎的演进之路

二、时序数据管理及数据集成流转

【KaiwuDB 时序存储模块:AIoT 场景下的高性能数据存储方案】

本文聚焦 KaiwuDB V3.0 时序存储模块 在 AIoT 场景下的底层实现。面对海量时序数据的高吞吐写入与高效查询需求,引擎采用列式存储内存映射(Mmap)技术,通过设备主键 Hash 划分、时间分区、三层存储结构(MemSegment/LastSegment/EntitySegment)来平衡性能与成本。

点击阅读>>🔗KaiwuDB 时序存储模块:AIoT 场景下的高性能数据存储方案

【流计算:让数据价值即时释放】

本文聚焦 KaiwuDB V3.0 内置的流计算 能力------不是数据落盘后再批量计算,而是数据流经时实时处理,让价值即刻释放。通过 SQL 即可定义流处理逻辑,无需集成 Kafka、Flink 等额外组件,架构更轻量

点击阅读>>🔗流计算:让数据价值即时释放

【从"数据孤岛"到"全域流转":KaiwuDB 数据分发功能详解】

这篇文章详细拆解 KaiwuDB V3.0 的数据分发功能------如何用一套机制打通从"孤岛"到"流转"的最后一公里。CDC 精准捕获数据变更、断点续传保障弱网可用、元数据智能映射自动同步表结构变更。

点击阅读>>🔗从"数据孤岛"到"全域流转":KaiwuDB 数据分发功能详解

三、AI赋能与智能运维

【全景解析 KaiwuDB 数据库智能体工具】

本文全景解析 KAT------KaiwuDB 数据库智能体工具 ,作为 AI for DB 方向的核心成果,KAT 采用 Multi-Agent 多智能体架构,通过主智能体调度与子智能体分工协同,将自然语言交互智能诊断性能调优自动化运维数据管理分析五大能力落地到实际场景。

点击阅读>>🔗全景解析 KaiwuDB 数据库智能体工具

【浪潮开务时序基础模型:解锁 AI 工程化落地新范式,开启万物 "对话" 时代】

本文聚焦浪潮开务时序基础模型 ,系统阐述"治理-分析-决策"全流程框架与 AGREE 五大核心原则(自动化、通用性、鲁棒性、可解释性、高效性)。模型通过多领域时序数据预训练,支持预测、分类、异常检测等全场景任务,并在工业运维等场景中实现可解释的智能决策。

点击阅读>>🔗浪潮开务时序基础模型:解锁 AI 工程化落地新范式,开启万物 "对话" 时代

安装部署

读文章不过瘾,更想自己动手试试?我们已经准备好详细的安装部署文档,帮助您快速上手体验!欢迎您前往 KaiwuDB 官方文档中心获取完整的产品手册、部署指南和操作说明。

👉了解快速上手详情:https://www.kaiwudb.com/kaiwudb_docs/#/quickstart/overview.html

结语

以上就是本期的 KaiwuDB V3.0 技术干货合集内容,如果您对其中某篇文章感兴趣,欢迎点击文章链接跳转阅读。也欢迎在评论区留言💭,聊聊您对哪项技术最感兴趣,或是在实际场景中遇到了哪些技术难题。

我们也诚挚地邀请社区伙伴们踊跃投稿,分享您在 KaiwuDB 使用过程中的实战经验、技术洞察或创新应用。无论是深度剖析,还是踩坑实录,您都可以联系**官方小助手微信(KaiwuDB_Assistant2)进行投递,欢迎您的来稿!

感谢阅读至此,我们还将持续输出更多技术深度内容,与大家共同成长,敬请期待❤️!

官网地址:https://www.kaiwudb.com/

你有没有遇到过这种情况:用 AI 编程助手写代码,生成出来的东西跟你想的完全不一样?改了 prompt 再生成,换了个方向跑偏?来回好几轮,时间花了不少,代码还是一团乱?

如果有,问题可能不在 AI 身上,而在于你跟 AI 沟通的方式。

问题出在哪

目前主流的 AI 编程方式基本是这样的:

  1. 你在 chat 里用自然语言描述需求
  2. AI 根据 prompt 生成代码
  3. 你发现不对,补一句"不是这样,我要的是..."
  4. AI 重新生成
  5. 循环往复

这种方式对简单任务没问题。但需求稍微复杂一点——比如涉及多个模块、有前后依赖关系、需要考虑错误处理和边界条件——AI 就开始猜了。

它不是在理解你的霂求,而是在猜你的霂求。

每一轮 chat 只能看到局部信息,AI 无法建立全局视角。最终的代码是一堆「局部正确」的片段拼起来的,整体架构谈不上。

另一种思路:Spec 驱动开发

亚马逊云科技出的 Kiro IDE 提出了一个不同的方案:先写 Spec,再写代码

Spec(规格说明)是一段结构化的需求描述。你不需要用特定格式,自然语言就行,但要把核心需求说清楚。

Kiro 拿到 spec 之后,不是直接写代码,而是先做三件事:

1. 生成 Requirements

把你的描述拆成具体的功能点,每个功能点有明确的验收标准。

比如你说「写一个天气查询功能」,它会拆成:

  • 城市名转坐标(验收:输入"北京"→ 返回 39.9, 116.4)
  • 调用天气 API(验收:返回 JSON 包含温度/湿度/风速字段)
  • 格式化输出(验收:输出格式为"城市 🌤️ 温度/湿度/风速")
  • 错误处理(验收:城市不存在时返回友好提示)

2. 生成 Design

技术方案。包括:函数签名、数据结构、模块划分、API 设计、依赖关系。

这一步解决的是「怎么实现」的问题,而不是直接写代码。

3. 生成 Tasks

把 design 拆成一系列可执行的编码任务,按依赖关系排序。

然后你点一下,Kiro 按 task 列表逐个实现代码。每个 task 完成后可以 review、修改、或者退回去改 spec。

这跟 chat 模式有什么本质区别

信息密度不同。

chat 模式下,AI 每轮只看到你这一条消息加上历史上下文(而且上下文有长度限制)。spec 模式下,AI 从一开始就看到完整的霂求、设计、任务列表。

可追溯性不同。

chat 模式生成的代码,三个月后你看到一段逻辑,不知道当初为什么这么写。spec 模式下,每段代码都能追溯到对应的 task → design → requirement。

一致性不同。

chat 模式的每次生成是独立的,前后可能矛盾。spec 模式的 task 是顺序执行的,后面的代码基于前面的上下文,整体一致。

实际体验

我用 Kiro 给 OpenClaw(开源 AI 助手框架)写了一个天气查询 Skill。

Spec 是这么写的:

天气查询 Skill。支持中英文城市名,
数据源 Open-Meteo(免费无 Key),
用 Bash + curl + jq 实现,
返回温度/湿度/体感/风速。

Kiro 生成了 7 条 requirements、一份 design 文档、5 个 tasks。我 review 了一遍(大概 3 分钟),确认没问题,点击执行。

15 分钟后,一个完整的、有错误处理的、代码风格统一的天气 Skill 就跑通了。

同样的霂求我用另一个 AI IDE 的 chat 模式试了一下,花了差不多的时间,但中间来回修正了 4 轮。最终代码能跑,但有几个地方风格不一致——因为是分次生成拼起来的。

其他值得关注的功能

Hooks(自动触发器)

你可以设置规则,比如:

  • 每次保存 .ts 文件,自动跑类型检查
  • 每次修改数据库 schema,自动更新类型定义
  • 每次改 API 路由,自动更新文档

跟 git hooks 的区别是,Kiro hooks 跑的是 AI agent,能理解代码语义。

Powers(能力插件)

给 AI 加上下文的插件系统。比如装了 Figma Power,AI 就知道怎么把设计稿转成代码;装了 Terraform Power,AI 就知道怎么写 IaC。

目前有 30+ 个 Powers,包括亚马逊云科技的 Bedrock、Amplify、Aurora、CloudWatch 等服务的官方 Power。

CLI

终端版 Kiro。SSH 到服务器也能用。

curl -fsSL https://cli.kiro.dev/install | bash

局限性

  1. Spec 有学习成本。习惯了 chat 模式的人第一次会觉得「步骤太多」。但这其实是把「写代码前想清楚霂求」的过程显式化了。
  2. 模型固定为 Claude。不能像某些工具那样自选模型。但 Claude 的代码能力本身不差。
  3. Powers 生态还在早期。数量不多,但质量不错。
  4. 国内访问可能需要代理

适合什么场景

  • 需求复杂、涉及多模块的项目 → 适合
  • 需要长期维护、团队协作的项目 → 适合
  • 跟亚马逊云科技服务深度集成 → 很适合(Powers 全家桶)
  • 快速原型、一次性脚本 → chat 模式可能更方便

不是非此即彼。两种工具装着,按场景选。


🔗 Kiro 官网:https://aws.amazon.com/cn/campaigns/kiro/
🔗 Spec 开发文档:https://aws.amazon.com/cn/campaigns/kiro/
🔗 Powers 市场:https://aws.amazon.com/cn/campaigns/kiro/

企业云盘无疑是那座灯塔。它不仅能够帮助企业安全地存储海量的信息数据,还扮演着桥梁的角色,帮助个人用户和团队轻松实现信息共享与协作。

一、360企业云盘网页版的基本功能

首先,让我们简要了解一下360企业云盘的核心功能。作为一款以服务企业和个人为目标的产品,它因其大容量的云存储、便捷的文件管理和在线协同的性能而备受关注。360企业云盘的网页版更是凭借“轻量化”登录方式和直接浏览器操作的便捷性,为那些不想或无法安装客户端的用户提供了解决方案。

在回答问题之前,我们需要思考:在信息化程度日益提高的今天,云盘是否是企业和个人用户的最优选择?其实,当企业面对数据的爆发式增长以及安全性要求不断提高的现状,许多人意识到传统的本地存储方式已经无法满足需求。这时,像360企业云盘这样便捷、功能丰富的云盘工具迎来了发展的契机。然而,问题也随之而来——如何顺利登录并最大化利用其服务?

二、如何进入360企业云盘网页版及其登录方式

我们将登录流程分为几个简单易懂的步骤。

进入360企业云盘官网

不同于移动端和客户端,网页版登录需要打开浏览器,在地址栏直接输入360企业云盘的网址。用户需要确保自己访问的是官方网站,以避免不必要的安全隐患。

选择登录方式

进入官网后,您可以看到清晰的“登录”按钮,点击即可展开多种登录方式的选择。当前,360企业云盘支持多种登录方式,包括手机号/邮箱账号登录、微信快捷登录以及360账号登录等。

若已有360账号或手机账户,只需输入用户名和登录密码后点击“登录”即可。

如果账户与微信绑定,也可选择快捷方式,通过扫码完成登录。

密码忘记怎么办?

如果忘记密码,可以选择“忘记密码”选项来重置您的登录信息,确保能够顺利进入系统。

双因素验证设置

考虑到企业数据的重要性,建议启用双因素验证。如果登录时系统要求输入短信验证码,只需按照提示完成验证,即可提高账户的安全性。

网页版设计便于用户随时随地访问云盘中的核心资源,因此不需要安装额外的软件,但需要注意网络稳定性和浏览器兼容性。如遇特殊问题,则可以查阅FAQ帮助或者直接联系官方支持。

三、云盘的未来:不仅仅是存储工具

已有不少企业用户表示,360企业云盘功能确实涵盖了文件存储、共享与协同的日常需求。然而,它的侧重点更多地停留在基础的云存储层面,而不够深入满足企业用户对于在线协同办公、权限管理与深度整合方面的高级需求。

在这一背景下,越来越多企业开始寻求能够提供更强扩展性的服务,将云盘与其他企业资源管理工具相结合。例如产品能否高效支持跨部门协同?安全性是否足够强大且灵活?存储数据时,又是否有清晰的结构化归档方式?这些问题,不仅是360企业云盘需要面对,也是选择最优云盘工具时的关键考量点。

那么,为何要提到另一种选择?因为我们希望用户能发现,一个高度整合、安全、功能丰富的工具,如何真正助力信息流的优化管理。

四、一站式云存储与协作的理想方案

Zoho云盘(Zoho WorkDrive)是企业用户乃至个人用户的更优选择。与传统云盘相比,Zoho云盘从以下几个方面展现了领先优势:

多平台协同与深度整合

Zoho云盘不仅仅满足多人实时共享文件的需求,还可以实现与整个Zoho生态系统的无缝链接,从CRM(客户关系管理系统)到文档编辑工具,为使用者带来一致性和高效协作的绝佳体验。

企业级权限管理

Zoho云盘为不同部门、不同角色设定了细致的权限分级管理。即使团队成员规模再大或文件传递范围再广,也可以通过权限约束做到“信息共享、隐私隔离”。

高水准安全性

使用Zoho云盘,文件会经过多层加密处理,全面保障数据传输与存储的安全性。同时提供了完整的活动日志与文件版本管理功能,方便企业管理者实施审计和数据追踪。

支持本地与全球协作

Zoho云盘通过全球分布式服务器,实现跨时区、跨地点的数据访问,特别适合需要与不同国家站点协作的企业。

自动化归档与检索

企业经常面临海量文件资料的归档与检索问题。Zoho云盘通过自动分类算法、结构化数据管理以及AI智能搜索功能,帮助企业节省搜索时间,提高运营效率。

灵活的定制套餐

无论是中小型企业还是大型跨国公司,Zoho都提供了多种定制套餐满足用户个性化需求,相较于市场其他玩家更具性价比。

在Zoho云盘的助力下,云盘不再仅仅是“储存工具”,而是全面构建企业协作体系的中枢系统。如果说360企业云盘是深海中的灯塔,那Zoho云盘便是一座功能强大的“浮动基地”,无论企业的需求有多复杂,都能够稳步前行。

伴随模型能力持续跃迁,简单调用 LLM API、套一层提示词就能做产品的时代,已经走到尽头。

AI 应用正在从“单次生成”,迈向“持续执行”。下一代软件系统,不再只是把大模型接进工作流,而是围绕一层全新的 agent orchestration 架构展开:它负责让智能体自主规划、调用工具、编写代码、管理文件、压缩上下文、调度子智能体,并在长时程任务中保持连贯行动。

这也意味着:简单封装 AI 的时代正式结束,整个软件基础设施层,正在被重新书写。

刚刚完成 1.25 亿美元新融资的 LangChain,正是这场浪潮的定义者之一。其创始人 Harrison Chase 在最新一期播客中围绕 “到底是模型吞噬框架,还是框架吞噬模型” 的行业争论,直接指出“框架才是未来,模型终将走向商品化”。

在这场对话里,他首次清晰定义出现代智能体的四大核心组件:系统提示词、规划工具、子智能体、文件系统,这是目前业界最统一的 “标准架构”。

面对未来趋势是超强单智能体还是专业多智能体协作,他认为 最有价值的永远是指令和工具本身。

他自曝当初创建 LangChain,正是看准了 LLM 循环调用工具的巨大潜力。从早期开源框架,到 LangGraph、Deep Agents、LangSmith 再到 Agent Builder,LangChain 自身也完成了从 “实验玩具” 到 “生产级智能体运行时” 的蜕变。

Harrison Chase 透露,LangChain 接下来的核心方向很明确:一边押注商业化表现最强的可观测性,一边补齐部署与无代码能力,朝完整的智能体工程平台继续推进。

这期访谈,几乎把智能体的底层逻辑讲透:

  • 子智能体的关键不在“分工”,而在“如何好好沟通”。

  • 系统提示词,就是智能体的 SOP。

  • 文件系统,本质是让 LLM 自己管理上下文窗口。

  • 技能(Skill)的核心,是渐进式披露。

  • 沙盒的真正价值是从架构上防止提示注入泄露密钥。

  • 对智能体而言,可观测性就是生命线。

  • 别死磕模型,别死磕框架。把行业知识变成 指令 + 工具 + 技能,才是企业真正的壁垒。

以下是访谈全文,经 InfoQ 翻译整理。

长时程智能体,最后都是编码智能体

主持人:我感觉在去年 12 月到 1 月假期前后,出现了一个关键转折点 —— 所有人几乎同时意识到,短短几个月内,智能体的能力已经突飞猛进。你能帮我们对比一下,第一代智能体和现在的智能体有什么区别?

Harrison Chase:如今智能体背后的很多理念,其实在早期就已经出现了。区别在于,当时的模型根本跑不起来。LangChain 大概比 ChatGPT 早一两个月推出,我们一开始加入的核心功能之一,就是让 LLM 在循环中运行并调用工具。当时有一篇非常重要的论文叫 ReAct,核心思路就是这个。它在维基百科问答这类数据集上有效,但在真实场景里完全不行。到了 3 月,AutoGPT 问世,本质也是一样:循环运行、调用工具,在很多方面可以说是 OpenDevin 的前身。

我对智能体发展轨迹的总结是:最开始只有一个非常简单的核心理念 —— 让 LLM 循环运行、调用工具,给它提示词、指令和一堆工具,但效果并不好。于是人们开始围绕模型搭建 脚手架,让它们的行为更可预测、更可靠。这也是我们在 LangChain 推出 LangGraph 的原因:它是另一个框架,专门面向图结构工作流,提供更强的结构化能力,适合需要超高可靠性的场景。

但大概在 11、12 月,随着最新一批云模型发布,模型能力变得极强,大家发现它们真的可以直接在循环里跑起来。这不仅仅是模型本身的进步,还有围绕模型的 框架。如果你回看一年前的产品,比如 Claude Code、Manis、Deep Research,它们都采用了同样的模式:让模型循环运行、调用工具、编写代码、读写文件。

所以我认为两件事同时发生:

  1. 模型本身变得更强;

  2. 我们开始发现一套基础的框架原语,能真正让模型发挥最佳效果。大家在假期前后基本都意识到了这一点,于是我们看到,开发者开始爆发式地用这些核心原语构建各种智能体。

主持人:我们说的是编码智能体吗?我记得你好像说过,每个智能体都应该是编码智能体。

Harrison Chase:我们看到市场上出现了两类不同的智能体:一类是 对话式智能体,比如客服、聊天机器人。它们需要极低延迟,通常以语音为交互媒介,很少调用工具,可能只会一两次,太多就会太慢。另一类是红杉资本提出的 长时程智能体,我很喜欢这个定义。它们可以长时间运行、做规划、保持连贯性。而这类智能体,最终大多表现得像 编码智能体

原因有几点:第一,代码通用性极强。你可以用代码解析文本、批量处理文件,与其调用 100 次不同工具,不如写一个脚本循环完成。第二,模型本身就是在代码上训练的。所有大模型厂商都在让模型学习代码、Bash 命令、文件编辑,这些是模型最擅长的事情。

所以我们看到智能体分成两大方向:长时程智能体 vs 对话智能体。而长时程期智能体里,编码智能体或类编码智能体效果最好。

主持人:你认为随着对话智能体往技术栈深处走,它们也会变成编码智能体吗?

Harrison Chase:这是个好问题。我们内部也经常讨论,是否要为对话智能体做一套专门的框架。我认为未来会出现 融合:当智能体能可靠地启动并管理其他长时程智能体时,两类形态就会合并。我们在编码场景里看到一个趋势:用户希望一边和主智能体聊天,一边让它在后台启动一批子智能体干活。这在某种意义上和对话智能体非常像。未来语音智能体显然也需要做更多长时程任务,实现方式大概率是:一个对话智能体在前台,后台启动异步运行的子智能体。最终所有形态会收敛到同一个框架里,支持后台异步长时智能体作为工具。

是模型吞噬框架?还是框架吞噬模型?

主持人:你刚才提到,智能体加速的部分原因是模型变强。这让我好奇:最终谁会赢?你认为是模型最终吞噬框架层,还是框架和基础设施层吞噬模型,让底层模型彻底商品化?

Harrison Chase:我认为 框架才是最重要的。我不知道未来会怎样,但 Manis 就是一个绝佳例子:它是一个终端产品,但它的框架是真正的核心秘诀,而且能兼容底层任何模型。再看 Claude Code,云模型固然很强,但真正让它跑起来的是框架。Claude Code 也不只是框架,还包含 UI。我现在认为,框架和上层 UI 之间耦合非常紧密,差别很小。

再看 CodeLlama、Claude Code、Manis、各类深度研究产品,都是框架 + UI 的有趣组合。所以我坚信,框架极其重要。

另外一个有意思的点:很多做框架的人,同时也在做模型。从逻辑上讲,既然做了框架又做了模型,就应该用 RL 让模型专门适配这个框架。但你看 Claude Code 使用的工具,其实并不是模型里通过 RL 学到的那套工具。Anthropic 模型内置了文件编辑工具,但实际框架里用的是另一套完全不同的工具。我问过他们好几次,都没有得到明确答复。但我能确定的是:框架真的非常关键

主持人:用通俗的话讲,到底什么是框架?

Harrison Chase:简单说,框架就是模型与环境交互的整套方式。它是一套通用工具集。有些专用工具我不认为属于框架,但能和通用环境交互的能力,就是框架的一部分。

比如编码智能体:

  • 文件编辑工具属于框架

  • 运行代码的能力属于框架

如果你在通用框架上再加一个专门对接 Slack 的工具,那是在框架之上做定制。我们认为,绝大多数智能体都应该这么构建:拿一个通用框架,给它指令、工具,就能用。

如今大部分框架还内置了 子智能体(sub-agents)和技能(skills),你可以配置这些能力,这种技能抽象、子智能体抽象,本身就是框架的一部分。框架还会做提示缓存、上下文压缩 —— 当上下文太长时自动压缩。这些都是通用能力,适用于各类应用。

作为应用开发者,你不需要关心底层这些细节,只需要用不同提示词、工具、技能、子智能体去配置,就能打造出面向终端用户的专属智能体。

智能体架构核心组件:提示词、规划工具、子智能体、文件系统

主持人:这些都非常有意思。现在我想深入拆解你刚才提到的各个部分。我们先从系统提示词开始,我认为它是核心架构的一部分。一个详细的系统提示词,到底起什么作用?

Harrison Chase:它驱动智能体,告诉它该做什么。我有时会这么理解:系统提示词就像是给人用的 标准作业流程。智能体一启动就会加载它,直接指导行为。

主持人:它存在于哪里?

Harrison Chase:取决于你怎么创建智能体。比如 Claude Code 这类编码智能体,有一部分系统提示词是内置在框架里的,告诉它如何使用通用工具;另一部分则由用户补充 —— 比如你提供的 claude.md 文件、技能、子智能体,都会被插入到整体系统提示词中。所以实际使用中,系统提示词是多部分内容的合并:一部分内置在框架,一部分由定制者添加。

主持人:你提到了工具。我知道还有规划工具的概念,它是做什么的?

Harrison Chase:工具有很多种。有些是框架内置的基础工具,比如我们和其他很多框架都提供的规划工具。它可以生成计划,写入文件,支持后续编辑,也可以只是让智能体调用这个工具。价值在于:计划会被放进智能体的上下文窗口,相当于给它一个 思维草稿本

大多数规划工具输出的是任务列表,每个任务包含描述、状态(待办、执行中、已完成)。但大多数框架并不会强制智能体严格按计划执行,只是把计划放进去,让它用来指导行动。早期模型能力不强时,我们会设计显式的规划步骤:先规划,再执行第一步,再第二步。但现在模型更强了,这种硬编码流程太繁琐,遇到中途调整计划就会出问题。现在的主流方式是:把计划存在文本文件里,主智能体参考它行动,但不做严格步骤拆分。

主持人:那子智能体(sub-agents)呢?

Harrison Chase:子智能体的好处是可以 隔离上下文。主智能体在循环中不断积累上下文,信息多是优势,但也会撑爆上下文窗口。子智能体的工作方式是:主智能体给它一个任务、一段字符串,子智能体启动一个全新的上下文窗口,从零开始执行一堆工作,然后只把结果返回给主智能体。这样不同任务之间就有了很好的隔离。

缺点也正是隔离本身:因为隔离,智能体之间必须通信。通信一旦出问题,整个流程就会失效。我们经常看到这种情况:主智能体启动子智能体,子智能体做了大量工作,关键信息都在中间过程,但最后只返回一句 “完成”。主智能体完全不知道它干了什么。这就是子智能体没有收到清晰指令,没有在最终消息里返回结果。

顺便说一句,沟通是人生中最难的事:创业最难、人际关系最难,和智能体协作最难的也是让它们好好沟通。子智能体很强大,但确实增加了一层通信复杂度。

主持人:系统怎么知道什么时候要创建子智能体?

Harrison Chase完全靠提示词。这就是这类智能体框架的美妙之处。早些年我们用 LangGraph 时,大家会问:我怎么加一个步骤确保智能体在 X 之前做 Y?怎么强制执行顺序?不管好坏,现在的方式就是:你直接告诉它做什么。好处是极度灵活,坏处是无法做到 100% 可靠。

这也是为什么 LangGraph 在强监管行业依然有很高使用率 —— 那里需要极强的可控性、精度和可靠性。即便编码智能体再强,行为依然不可预测,没有任何保证。这也是它迷人的地方:你说什么它做什么;但同时,这也是缺点。

主持人:另一个部分是你提到的文件系统。为什么智能体需要文件系统?

Harrison Chase: 我的理解是,一切都回到 上下文工程,LLM 能看到什么。文件系统本质上是让 LLM自己管理上下文窗口

  • 它可以决定从文件里读什么,而不是把所有内容塞进上下文窗口直接撑爆;

  • 它可以写入文件,相当于持久化保存,即便上下文被压缩,也能重新读取。

我们在 Deep Agents 里用文件系统来卸载超大工具调用结果。比如一个工具返回 6 万个 token,我们不会全部塞给 LLM,而是存进文件,只给它看前 1000 个 token,剩下的告诉它去读文件。我们也用它做摘要:当上下文快溢出时,执行摘要,把原始消息存进文件系统,方便后续回溯。

总的主题就是:让 LLM 自己管理上下文。越来越自主的智能体,趋势就是让 LLM 做越来越多的事,管理自己上下文就是比单纯调用工具更进一步的体现。

主持人:文件系统就是字面意义的文件系统吗?不是数据库?

Harrison Chase:它可以是任何东西。关键是:以文件系统的接口暴露给 LLM,因为 LLM 最擅长和文件系统打交道。在 Deep Agents 里,文件系统可以是磁盘上真实文件系统、Daytona 沙盒,也可以是上层套了文件系统接口的数据库。不是所有东西都得是文件系统,比如 SQL 表就让它写 SQL。但处理大量文本时,即便存在 SQL 里,给它文件接口通常更友好。

主持人:所以,详细系统提示词、规划工具、子智能体、文件系统 —— 这四个就是现代智能体架构的核心组件?

Harrison Chase: 对,就是这四个。我们推出 Deep Agents 时,观察到 Manis、Claude Code、Deep Research 全都具备这四点,于是我们把它们封装进一个 Python 包,让开发者能轻松构建同类产品。这四个至今依然是核心。

其他常用组件还有:

  • Bash 与代码执行:非常重要,但因为沙盒还比较新,大家还在摸索使用方式,所以还没普及,但需求越来越强;

  • 技能(Skills):新的原语,Deep Agents 刚推出时还没有,现在已经非常重要。

主持人:你能解释一下什么是技能吗?

Harrison Chase:技能本质上就是一堆文件,通常有一个 skill.md,里面是如何完成某件事的指令,也可以包含可执行脚本。它不会直接加载进系统提示词,而是在系统提示词里被引用。你告诉智能体:你拥有代码编写技能、文档编写技能,当它需要时,就会 按需读取 这些文件。

这叫做 渐进式披露:只在 LLM 需要知道时,才告诉它需要知道的内容。这也是让它自己管理上下文窗口的关键方式。 这是 Deep Agents 和大多数框架都支持的核心能力。

我们还在重点研究 异步子智能体,目前大多数框架做得还不够好,Claude Code 虽然支持,但触发逻辑不透明,也难以观测和管理。但我们认为这会越来越重要。

压缩上下文与语义记忆、情景记忆、程序记忆

主持人:你能聊聊上下文压缩吗?我们在子智能体那部分稍微提到过。它是什么?为什么需要?怎么实现?

Harrison Chase: 当你积累了大量上下文,想把它精简缩小时,就会用到压缩。原因很简单:大多数模型无法处理无限上下文,即便能支持百万级 token,你也不想传给它那么多。

在 Deep Agents 里,我们的做法是:

  1. 保留最近 N 条消息(比如最近 10 条),保证智能体不中断当前流程;

  2. 把更早的所有消息进行精简,提取核心目标、关键信息、重要文件,生成摘要放进上下文窗口;

  3. 同时把原始完整消息存进文件系统。

摘要不可能完美,大概能覆盖 80%–95% 的场景,但万一有只能从原始历史里拿到的关键信息,智能体还能去文件里读。

我们还有一个即将发布的新功能:让智能体自己触发压缩。现在几乎所有框架都是硬阈值触发(比如上下文用到 80% 就压缩)。但本着让模型更自主的理念,我们会给它一个工具,让它自己决定什么时候压缩。比如你让它先做任务 A,用到 60% 上下文,接着让它做完全无关的任务 B,它就应该主动压缩,避免无关历史干扰、浪费成本。

主持人:我们再聊聊记忆。你之前提到过语义记忆、情景记忆、程序记忆。能展开讲讲吗?

Harrison Chase: 我把记忆分成三类:

  1. 语义记忆:关于世界的事实,比如 “巴黎是法国首都”。我们很擅长做这个,就是 RAG;

  2. 情景记忆:过去的交互、对话记录,也很成熟,让智能体查历史对话就行;

  3. 程序记忆:最有意思,是 “如何做某事” 的指令。我认为这本质就是智能体的配置:系统提示词、技能、工具,都是程序记忆。

在 Deep Agents 里,我们把这些都表示为文件,智能体可以在运行中更新它们。所以当我们说 “Deep Agents 可以学习”,真正意思是:它可以修改以文件形式存在的程序记忆

超强单智能体 Vs 专业多智能体

主持人:随着每个智能体积累更多记忆、更多上下文,你认为最终会出现一个全能超级智能体,还是成千上万的智能体和子智能体协同工作?

Harrison Chase:好问题。我确实认为 记忆定义了一个智能体。有趣的是,你可以把定义一个智能体的记忆,作为一项技能暴露给一个超级智能体。

企业里经常遇到这种需求:20 个不同部门,每个部门都要做自己的智能体,但希望用统一界面管控。答案还不固定:

  • 是一个大智能体 + 20 个部门技能?

  • 还是 20 个子智能体?

  • 还是 20 套完全自定义的工作流?

但我坚信一点:最有价值的永远是指令和工具本身。不管它们被打包成技能、子智能体,还是独立智能体,指令和工具的价值不会变。

我认为未来会走向这种模式:前台是一个同步对话智能体,后台启动一批长时间运行的异步智能体。看起来是一个智能体,实际上是不同记忆模块驱动不同子智能体。组合方式会快速变化,脚手架也会快速迭代,但 循环运行、调用工具、文件系统、写代码 这套框架核心是稳定的。框架功能每周都在加,但指令和工具永远有价值。我给企业的首要建议就是:专注打磨指令和工具

主持人:生态里还有哪些足够稳定、值得投入的部分?比如 MCP,大家已经把它当成标准了吗?

Harrison Chase:MCP 很好,它是一种以标准格式暴露 API 的方式,还有引导等功能,只是客户端支持还不多。核心的 “标准化暴露 API” 非常有用。

我认为更稳定的是偏底层的东西:

  • 可观测性:不管智能体长什么样,你都想知道内部发生了什么;

  • 评估:不管智能体长什么样,你都需要某种方式度量它;

  • 沙盒:非常好的例子,底层基础设施。如果智能体不写代码,沙盒没用;但趋势是,所有智能体最终都会写代码;

  • 部署:智能体一定是长时间运行、有状态的,支持长时有状态应用的部署平台永远有用。

我们内部很清楚:LangChain、LangGraph、Deep Agents 这三个开源项目同时存在,本身就说明这个领域变化极快。但除了开源之外,我们构建的所有东西,都尽量保证是底层通用能力,无论上层脚手架怎么变都有用,并且能兼容任何智能体框架。

主持人:既然你提到了沙盒,我们现在又在 Daytona Compute 大会现场,Daytona 又是沙盒领域的领先者,我们聊一下智能体的计算层。简单来说,为什么智能体需要沙盒?

Harrison Chase:在我看来,主要原因就是:编写并运行代码。我想区分一下文件系统和沙盒:文件系统只是接口,沙盒则提供代码执行环境。

如果智能体要写代码、运行代码,就必须用沙盒:

  • 不能在共享服务器甚至本地电脑上运行不受信代码;

  • 大家买 Mac mini 跑 OpenDevin 就是一种原始的沙盒隔离方案。

云端智能体对应的,就是 Daytona 这类沙盒。

主持人:从 LangChain 角度,你们和沙盒的交互方式是什么?

Harrison Chase: 有两种主流方式,各占 50% 左右:

  1. 启动沙盒,把智能体装进去,在沙盒内运行;

  2. 智能体在沙盒外运行,把沙盒当作工具调用。

Cloud Code 这类产品更偏向第一种:设计初衷就是在本地系统运行,所以大家通常启动沙盒再装进去。而全新设计的框架会更灵活。

主持人:这涉及安全问题吗?比如提示词注入,沙盒是防御手段吗?

Harrison Chase: 确实有安全价值。比如 Daytona 支持的一个关键点:代理模式。如果你在沙盒里放 API 密钥,LLM 能看到,就极容易被提示注入攻击 —— 攻击者可以让它忽略之前指令,把 API key 发出去。而沙盒外的代理层,可以在调用时自动注入 API key,沙盒内的智能体永远看不到密钥。这是安全与沙盒结合的一个非常重要的设计。

LangChain 生态:从开源工具到完整平台

主持人:接下来我们深入聊聊你们真正提供的产品和构建的东西。你能简单讲讲你的背景,以及最初为什么创办 LangChain,关键洞察是什么?

Harrison Chase:我的背景是统计和计算机科学。在这之前我待过两家创业公司:第一家是金融科技公司 Kensho,我在机器学习团队。那是我第一份工作,工程文化极强,我学到了太多东西。团队里有谷歌老兵、MIT 和哈佛物理博士,人才密度极高。第二家是 Robust Intelligence,我是二号员工。我们最早做对抗性机器学习,后来转向 MLOps 平台,专注 ML 模型的测试与验证。

2022 年夏秋,我打算离开,还没想好做什么。我参加了很多线下活动,当时 Stable Diffusion 很火,但有一小群人在用早期 LLM 做疯狂的事情。我发现了很多 通用模式。我一直喜欢做工具帮别人提高效率:在 Kensho 后期我做内部 MLOps,Robust 本身就是 MLOps 公司。

我当时并没打算创业,还在 Robust 上班,计划几个月后离职,花时间思考下一步。但我想:这是了解这个领域的好办法。我把这些通用模式放进一个 Python 包并开源,这就是 LangChain。大概一两个月后,我明显看到巨大机会,于是和联合创始人 Enkos 更紧密地合作,离职正式创办公司。我们继续做开源,同时开始做商业化产品 LangSmith,思路来自 Robust 做的测试与验证 —— 我们意识到,这对机器学习很重要,对智能体会更加重要、也完全不同,所以我们必须做。

主持人:我们来梳理一下现在的平台和各个组件。你刚开始做的 LangChain 是 0.0 版本,现在是 1.x 版本,两者有什么区别?再和 LangGraph、Deep Agents 对比一下。

Harrison Chase:早期 LangChain 本质是 抽象层:对语言模型、检索器、各类组件做抽象,再加上把它们拼起来的流程手册。比如 RAG 链,五行代码就能跑,极大降低入门门槛。但我们很快发现:要上线生产环境,用户需要更多内部可控性。模板化提示词、固定假设,在快速变化的领域里不够灵活。

于是我们做了 LangGraph

  • 专注编排,极度底层;

  • 没有隐藏提示词、没有隐藏认知架构;

  • 不强制任何特定方式;

  • 内置生产级能力:持久执行、流式输出、人机交互、长短时记忆持久化。

我们把 LangGraph 看作智能体运行时。当用户从探索走向生产,我们越来越推荐基于 LangGraph 构建。

LangChain 最早的理念就是 “让 LLM 循环运行 + 调用工具”,但早期不好用。2025 年我们发现这个模式越来越可靠,于是 LangChain 1.0 彻底聚焦于此,在 LangGraph 之上重构,只保留 create_agent 核心函数:循环运行 LLM、调用工具,极度中立、可高度配置。

Deep Agents 则是 开箱即用的完整框架:内置规划工具、文件系统、全套能力。如果你想自己造框架,用 LangChain 和 create_agent;如果你想直接用成熟框架,用 Deep Agents。

主持人:那 LangSmith 呢?主要专注可观测性吗?

Harrison Chase:LangSmith 的核心是 可观测性增强版。构建智能体和传统软件最大的不同是:运行之前,你根本不知道它会做什么。原因有两个:

  1. 智能体输入极广,理论上无限;传统软件只有按钮等限定输入;

  2. LLM 是非确定性的,对提示词微小变化极度敏感。

这使得可观测性比传统软件重要得多,也不同得多:它和生命周期其他环节深度绑定。运行轨迹可以变成测试用例,支撑在线评估、分析等。

LangSmith 里最大的部分就是 observability++,围绕:

  • run:单次 LLM 调用

  • trace:一组 run 的集合

  • thread:多轮会话整体

除此之外,我们还有应用部署平台,以及最近推出的无代码平台,可以无代码创建智能体,但核心依然是 observability++。

主持人:评估这个话题很有意思。现在有一个趋势,比如 Co-Work 里,终端用户可以评估系统并提供反馈。你怎么看待为企业构建合适框架,让智能体能按用户维度持续进化?

Harrison Chase: 评估、记忆、提示词优化之间有非常有趣的关联。它们的逻辑都很像:智能体做某事 → 有奖励 / 评估函数 → 更新某种配置 / 参数。

  • 离线评估:上线前用数据集跑,打分,确保不退化;

  • 记忆:用户告诉智能体哪里做错,它更新指令避免再犯;

  • 提示词优化:用在线评估数据,让智能体自动优化提示词。

目前这三件事还相对独立,但未来会深度融合。我们在无代码智能体里内置了记忆,并且很兴奋把记忆和评估绑定:当记忆修改内容时,自动添加评估用例,防止未来退化。

主持人:无代码平台让任何人都能构建智能体,同时也要支持极专业用户做高精度定制。你怎么把握合适的抽象层次?

Harrison Chase:Deep Agents 框架的妙处在于:配置框架本质就是写提示词、加工具、加技能 —— 这些都可以无代码完成。工具确实需要写成代码并通过 MCP 暴露,但一旦有了 MCP 服务器,剩下都能无代码操作。所以从框架到无代码的跃迁并不大。你还可以加中间件做深度定制,但影响最大的部分 —— 提示词、工具、技能 —— 都能在 UI 里完成。

主持人:你们刚刚完成 1.25 亿美元新融资。接下来要做什么?愿景和产品路线图是什么?

Harrison Chase: 说实话,在这个领域我们甚至没有一年期路线图,能看清一个月就不错了。重点方向很明确:

  • 全力投入可观测性增强版:商业化 traction 非常强;

  • 打造智能体工程平台:包含部署、无代码等能力。

可观测性增强版是核心支柱,我们要做到业界顶尖,同时打造完整平台。

主持人:如果框架不断收敛,每个智能体都具备代码执行、文件系统、子智能体、MCP,模型也越来越强,那么对于 AI 开发者来说,差异化到底在哪里?

Harrison Chase: 我认为 绝大多数差异化,在于指令、工具和技能。也就是你把行业流程知识编码成自然语言,交给智能体,再配上它可以调用的工具与技能。

作为 AI 构建者,你当然应该学习框架、技能这些东西,但不必过度绑定 —— 因为构建方式会变。但 领域知识、专属工具、业务流程指令,这些是不会变的,这才是真正的壁垒。

参考链接:

https://www.youtube.com/watch?v=rSKh6bVuVZI

一、概述总结
智考星V2志愿填报系统是由河北工匠网络科技有限公司研发的专业高考志愿填报智能系统,依托强大AI技术与海量高考录取数据,为普通高考生提供从志愿填报方案模拟生成、院校专业查询到新高考选科指导、职业测评的全流程服务,同时为运营方打造了集管理、运营、营销于一体的后台管理体系。系统以微擎系统为交付基础,支持微信公众号、小程序、PC端、APP端、百度小程序等多终端部署(支付宝小程序规划中),适配普通高考与新高考模式,是双减政策下教培行业转型、从业者布局高考志愿填报赛道的核心刚需产品。

二、功能介绍
智考星V2志愿填报系统功能体系分为前端用户功能与后台管理功能两大板块,功能覆盖考生志愿填报全需求、运营方管理全流程,且在V1版本基础上持续优化升级,功能只增不减。

(一)前端用户核心功能
智能填报与志愿管理:基于AI算法模拟生成志愿填报方案,支持高考分数一键填报,可查询批次线、一分一段表,考生可创建我的备选、志愿表,实现志愿的添加、复制、删除,还能根据冲守保策略推荐院校,降低调档风险。

院校专业全维度查询:支持院校名称、类型、所在地等多条件筛选,可查看院校代码、招生简章、历年录取分数线、专业录取数据等详情;覆盖本科、专科12大类专业,可查询专业代码、学制、学位、课程、就业方向及开设院校,同时提供武书连、校友会、USNews等多维度高校排名。

新高考选科专属指导:支持按选科查专业、按大学查选科、按专业查选科三种方式,推荐院校专业选科要求,展示近三年各省批次选科情况与省控线,为新高考考生选科提供科学依据。

职业测评与规划:内置霍兰德职业兴趣测试、MBTI职业性格测试、职业价值观(WVI)测试、标准情商(EQ)测试等多款测评工具,生成专业测评报告,匹配考生人格特点与职业环境,助力生涯规划。

学习与咨询服务:开设在线课堂,提供志愿填报相关免费/付费课程;更新高考政策、院校资讯等新闻内容;设置问专家板块,为考生解答志愿填报疑问;同时展示用户个人高考信息(分数、位次、省份等),支持信息修改。

会员与分销功能:考生可在线购买、激活会员卡密,成为会员解锁全功能;分销中心展示推广佣金、订单、提现明细等,支持生成分销海报,考生可参与推广并申请佣金提现。

(二)后台管理核心功能
基础配置管理:支持系统名称、访问次数、分数修改次数等基础设置,可编辑服务协议、隐私政策等文案,配置热门搜索关键词、首页幻灯片、底部导航、冲守保区间等,还能设置高考省份是否支持新高考模式,对接阿里云/腾讯云短信服务。

交易与会员管理:配置微信、APP支付及提现规则、手续费,可无限生成、编辑会员卡密,管理注册用户列表、会员卡生成记录,查看订单支付、卡密激活等全量订单信息。

内容与课程管理:分类配置、添加高考资讯,可编辑在线课堂的幻灯片、课程分类、课节列表,实现课程内容的自主上传与管理。

测评与数据管理:控制测评功能开关、用户测评次数,查看测评用户信息与测评结果,实现测评数据的实时统计与管理。

分销与客服管理:配置分销层级、返佣比例与分销图片,审核分销商申请、提现申请;设置客服数量、电话、微信号,为用户提供客服对接渠道。

多终端配置:单独配置小程序、PC端的基础参数、域名、幻灯片、导航、友情链接等,支持小程序代码发布,PC端文案、公司信息个性化配置。

系统授权管理:验证站点IP的授权状态与到期时间,配置首页入口链接及封面信息,保障系统专属运营权。

三、适用场景与行业价值
(一)核心适用场景
高考考生与家长:适用于普通高考、新高考考生的志愿填报全流程,解决考生对院校专业信息不了解、选科无方向、志愿方案制定无依据的问题,为家长提供科学的志愿填报参考,节省信息搜集与分析时间。

教培机构转型:双减政策下,K12教培机构可依托该系统布局高考志愿填报赛道,丰富业务体系,实现从学科培训到升学规划的转型。

升学规划从业者:为高考志愿填报咨询师、规划师提供智能工具支撑,提升方案制定效率与专业性,拓展服务边界。

教育行业创业者:以该系统为核心产品,搭建高考志愿填报服务平台,低门槛切入千亿级志愿填报市场,开展线上线下结合的升学服务。

学校与教育部门:为高中学校提供新高考选科、志愿填报指导工具,辅助学校开展生涯规划教育,提升升学指导服务水平。

(二)行业价值
解决行业刚需,填补市场空白:应试教育是国内长期现状,高考志愿填报“考得好不如报得好”,而新高考改革让选科、志愿填报难度大幅提升,考生与家长的专业指导需求迫切,系统精准解决这一刚需,适配1000多亿规模的志愿填报市场,产品需求旺盛。

助力教培行业转型,开辟新赛道:双减政策压缩了传统教培业务空间,高考志愿填报成为教育行业新蓝海,系统为教培机构提供成熟的产品解决方案,降低转型研发成本,快速实现业务升级。

提升从业者效率与收益:系统的AI智能填报、海量数据查询功能替代人工繁琐的信息搜集与分析工作,提升从业者服务效率,且行业收入可观、工作时间相对自由,既可作为主业,也可成为理想副业。

标准化升学服务,提升行业专业性:系统依托权威录取数据与科学算法,为志愿填报行业提供标准化、智能化的服务工具,改变行业内信息不对称、服务不专业的现状,推动高考升学规划行业规范化发展。

多终端与全功能设计,适配多元运营:系统支持多终端部署,后台具备完善的运营、营销、管理功能,运营方可根据需求定制化运营,同时分销功能为用户裂变、渠道拓展提供支撑,提升平台传播与盈利能力。

四、常见问题解答
问:智考星V2志愿填报系统支持艺考志愿填报吗?
答:该版本仅支持普通高考和新高考模式,暂不更新艺考相关功能。

问:系统的终端版本是否可以单独购买?
答:显示定价为公众号版+小程序版的组合价格,不支持单独购买小程序和PC端;PC端、APP端、百度小程序及后期推出的小程序需单独付费购买。

问:老客户版与V2通用版有什么区别?
答:老客户版本和V2通用版是为老客户迁移推出的版本,二者享受的服务、拥有的功能完全一致。

问:购买系统后可以享受哪些更新服务?
答:首次购买赠送1年服务套餐,服务周期内应用可免费更新至最新版;超出服务周期未续费则无法进行版本更新,新版本功能会在V1基础上持续增加,逐步完善。

问:系统是否支持定制化开发?
答:如果需要定制首页或定制系统功能,可提前联系客服咨询具体的定制方案与详情。

问:独立版系统部署对服务器有哪些要求?
答:独立版推荐配置为:CPU2核+、内存4G+、系统硬盘40G+、数据硬盘100G+、带宽2M+;操作系统为Linux,运行环境nginx/1.20.2、PHP7.3.32,服务器系统推荐Centos7.x、Debian10、Ubuntu20.04。

问:如果拍错版本是否支持退款?
答:未联系客服自行拍错版本的情况,不支持退款,购买前可扫码或通过页面渠道咨询客服,确认适配版本后再购买。

问:系统的支付方式有哪些?
答:后台可配置微信、APP支付方式,支持用户在线支付购买会员卡、课程等服务,同时支持分销商佣金提现,可设置提现手续费与规则。

一、产品概述总结

点亮集福集字是一款基于微信生态的社交裂变营销工具系统,由微擎平台提供技术支持。该系统通过"集卡点亮"的游戏化互动机制,帮助商家快速实现用户拉新、品牌曝光和活动传播。

核心定位:商家营销推广活动解决方案,适用于节日营销、品牌宣传、产品推广等场景。

技术特性:

  • 支持微信公众号端部署
  • 基于PHP开发(兼容PHP5.4-7.1版本)
  • 源码已加密,支持微擎系统交付
  • 支持获取用户基本信息(昵称、头像、性别、地区)及位置信息

二、功能详细介绍

  1. 核心玩法机制
  • 点亮集卡:用户通过参与活动收集虚拟卡片(福卡、字卡、图卡),集齐指定卡片即可兑换奖品
  • 九宫格界面:采用直观的九宫格展示形式,每张卡片对应一个格子,点击即可点亮
  • 进度可视化:实时显示已点亮数量、剩余待收集卡片,增强用户参与感
  1. 社交裂变功能
  • 好友助力:支持邀请好友助力获取卡片,实现病毒式传播
  • 分享传播:一键分享至朋友圈、微信群,扩大活动覆盖面
  • 助力限制管理:可设置每日为他人助力次数、好友助力次数上限,防止刷量
  1. 活动管理功能
  • 活动规则自定义:灵活配置活动时间、参与条件、兑奖规则
  • 奖品发放控制:精准控制奖品发放数量,支持实物奖品、红包、优惠券等多种形式
  • 关键字卡控制:可设置稀有卡片(如"敬业福"类关键卡)控制中奖概率
  • 强制关注:支持设置关注公众号后才能参与活动,实现涨粉目标
  1. 数据统计功能
  • 参与数据监控:实时查看参与人数、已发放卡片数
  • 用户行为分析:收集用户信息,支持后续精准营销
  • 活动倒计时:显示活动剩余时间,营造紧迫感
  1. 界面与体验
  • 多套UI模板:提供多种视觉风格模板,适应不同节日和主题
  • 自定义装修:支持背景、配色、文案等个性化设置
  • 响应式设计:完美适配移动端各种屏幕尺寸

三、适用场景与行业价值

适用场景

场景类型 具体应用

节日营销 春节集五福、中秋集月圆、国庆集祝福等传统节日活动

品牌宣传 新品发布集字活动、品牌口号传播、IP形象推广

门店引流 线下门店集卡兑礼、商圈联合营销、O2O活动导流

电商促销 双11集卡、618狂欢、年货节等电商大促活动

政务宣传 文明城市宣传、政策推广、公益倡导

娱乐互动 明星应援集卡、影视宣传、演唱会门票抽奖

行业价值

  1. 对商家的价值
  • 低成本获客:通过社交裂变实现指数级传播,降低单客获取成本
  • 精准涨粉:强制关注机制帮助公众号/抖音号快速积累粉丝
  • 品牌曝光:游戏化互动提升用户对品牌的记忆度和好感度
  • 数据沉淀:收集用户画像信息,建立私域流量池
  1. 对用户的价值
  • 游戏化体验:趣味集卡玩法提升参与乐趣
  • 实惠奖励:集齐卡片可获得实物奖品或现金红包
  • 社交互动:邀请好友参与增强社交连接
  1. 对平台的价值
  • 提升活跃度:丰富小程序内容生态,增加用户停留时长
  • 促进交易:营销插件带动微擎平台应用市场交易

四、常见问题解答(FAQ)

Q1:是否需要编程基础才能使用?

A:不需要。系统提供可视化后台管理界面,商家可通过简单的配置完成活动创建。同时提供包安装、包调试服务,遇到问题可联系技术支持。

Q2:如何防止用户刷量或作弊?

A:系统内置多重风控机制:①限制每日助力次数;②限制好友助力次数;③关键卡片概率控制;④可设置系统赠送卡片数量上限,确保活动公平性。

Q3:支持哪些类型的奖品发放?

A:支持多种奖品形式,包括:微信红包、实物奖品、优惠券、积分、虚拟卡密等,奖品发放数量可精准控制,绝不会超发。

Q4:活动数据可以导出吗?

A:是的,后台支持查看详细的参与数据、用户数据,包括参与人数、卡片发放数、用户基本信息等,便于后续数据分析。

Q5:是否支持定制开发?

A:支持。如果标准版功能无法满足需求,可根据商家具体想法进行定制开发,打造专属的营销活动方案。

Q6:系统对服务器有什么要求?

A:系统基于PHP开发,支持PHP5.4/5.5/5.6/7.1版本,需要配合微擎系统框架使用。建议使用Linux服务器环境。

Q7:用户参与活动需要授权哪些信息?

A:系统需要获取用户基本信息(微信昵称、头像、性别、地区),部分功能可能需要位置信息和相册权限,所有信息获取均遵循微信平台隐私规范。

Q8:如果购买后不满意可以退款吗?

A:微擎平台提供"未安装无理由退款"保障,90天内未安装使用可申请退款。同时平台VIP用户享30天无售后急速退款服务。