有在摩集上买过 Macbook 的吗?
RT
第一次购买资源机。买的 23 款的有点担心,会不会是很久的机器,拿到手电池都坏了。
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
RT
第一次购买资源机。买的 23 款的有点担心,会不会是很久的机器,拿到手电池都坏了。
下载安装包 用管理员身份运行(推荐) 选安装位置: 附加任务: 基本操作: Foxit_PDFOEM_xp85.msi是 福昕 PDF 阅读器 OEM 版 8.5(xp85) 的 Windows 安装包,这个版本是给品牌机预装用的精简版,但功能够日常看 PDF、填表单、打印,体积小、启动快,装完就能用。一、准备工作
Foxit_PDFOEM_xp85.msi→ 选“以管理员身份运行”,避免权限不够导致安装失败。二、安装步骤
Foxit_PDFOEM_xp85.msi运行(如果右键过了就直接双击)。C:\Program Files\Foxit Software\Foxit Reader,可点 Browse 改到其他盘。三、首次运行与基本使用
我仅代表我自己, 对各位加班老哥表达同病相怜的慰问, 哈哈哈哈.
ps: 顺便也慰问一下我自己.
OpenAI Codex 的核心研发者,竟然成了 Claude Code 的忠实用户? Calvin French-Owen 是 Segment 联合创始人、前 OpenAI 工程师、Codex 项目的早期研发者。他最近在一档播客中,对当前最火的代码智能体 Codex、Claude Code 和 Cursor 进行了锐评。 结论出人意料,他最常用、也最偏爱的,是 Claude Code,他表示搭配 Opus 模型更“香”。 Calvin 用了一个极具画面感的比喻,来形容用 Claude Code 的体验: 就像残疾人换上了一副仿生膝盖,写代码的速度直接提升了 5 倍。 在他看来,Claude Code 真正的杀手锏,是极其有效的 上下文拆分能力。 面对复杂任务,Claude Code 会自动生成多个 探索型子智能体,独立扫描代码仓库、检索上下文,再将关键信息汇总反馈。这种设计,显著降低了上下文噪音,也解释了它为何能稳定输出高质量结果。 不过,他也肯定了自家产品,认为 Codex 很有“个性”,像 AlphaGo。在调试复杂问题时的表现上,Codex 堪称超人类,很多 Opus 模型解决不了的问题,Codex 都能搞定。 “上下文管理”,是 Calvin French-Owen 在整期播客中反复强调的关键词。 他认为,代码的上下文信息密度极高,只要检索方式得当,模型往往比人类更容易理解系统结构。但与此同时,上下文窗口本身,也成为制约代码智能体发展的最大瓶颈。 提到上下文污染的问题时,主持人表示 LLM 会变笨。Calvin 趁此分享了一个非常实用的经验:当上下文 token 占用超过 50%,他会主动清理。 他甚至分享了一种创业者常用的 “金丝雀检测” 方法:在上下文里埋入一些无关但可验证的小信息,一旦模型开始遗忘,说明上下文已经被污染。 在产品理念上,Calvin 认为 Claude Code 与 Codex 的差异,早已写进两家公司的基因里: Anthropic 更关注“做出适合人用的 AI” OpenAI 更关注“做出最强的 AI” 他判断,从长期来看,OpenAI 的路线可能是必然趋势,但就当下的使用体验而言,他更偏爱 Anthropic。 在谈到未来时,Calvin 给出了一个明确判断: 公司会变小,但数量会变多 每个人都会拥有自己的智能体团队 而最先被放大的,是具备“管理者思维”的资深工程师。他们更擅长拆解问题、判断取舍、以及在正确的节点上向智能体下达指令。 在这样的背景下,产品的分发方式 变得前所未有地重要。 自下而上的分发模式,正在以前所未有的速度扩散。工程师不会等审批、采购,只会用脚投票。 相比大公司对安全、合规和控制权的高度重视,开发者更在意的,依然是那句最朴素的评价: “这东西,真的好用。” 以下是播客精彩细节,AI Coding 干货密集,欢迎阅读: 主持人:Calvin French-Owen 是 OpenAI 旗下 Codex 代码模型的首批研发者之一,在此之前,他创立了 Segment 公司,这家公司市值数十亿美元,最终被知名企业高价收购,成功实现资本变现。 Calvin French-Owen:说实话,现在对我们所有人来说,都是一段充满变数的时期。我最近彻底迷上了 Claude Code,用一个比喻来说,十年前我还是个马拉松爱好者,特别喜欢跑步,结果后来膝盖受了重伤,这之后我就进入了所谓的 “管理者模式”,再也没写过代码,想想真的很可惜。 但过去这九天,仿佛打开了新世界的大门,我找回了曾经写代码的所有感觉,就好像换了个全新的膝盖,而且还是仿生的,能让我写代码的速度快了 5 倍。 主持人:你怎么看待这款工具?毕竟你一直身处这个领域的前沿,Codex 开创的很多理念,至今仍被大家广泛使用,而且这款模型还在持续迭代。 Calvin French-Owen:我在 OpenAI 工作时,负责 Codex 的网页端项目,当时 Cursor 这款工具刚面世,他们基于 GPT-3.5 做了一个适配层,能在 IDE 中使用。Claude Code 也刚发布,它是基于 CLI 运行的,当时我们就有一个想法:未来的编程,应该更像和同事沟通 —— 你提出问题,对方去处理,最后带着 PR 回来反馈。我们的网页端项目就是从这个想法出发的,这也是我们当时的研发方向。 现在看来,这个大方向其实是对的。但显然,现在大家都改用 CLI 编程了,不管是 Claude Code 还是 Codex,这类工具的使用频率都高了很多。至少对我来说,这件事带来的启示是,某种程度上你说得对,未来每个人或许都会成为 “管理者”,这是我的个人观点。但要达到那个阶段,需要一步步来,你得真正信任模型,并且理解它的工作逻辑。 主持人:你最近一直在用 Claude Code,把它纳入你的核心技术栈后,使用体验上有什么变化? Calvin French-Owen:Claude Code 现在确实是我日常编程的主力工具。 说实话,我的主力工具每隔几个月就会换一次。之前有段时间我特别偏爱 Cursor,它新出的模型速度很快,用起来确实不错。后来我慢慢转到了 Claude Code,尤其是搭配 Opus 模型使用时,体验更好。 Claude Code 是款很有意思的产品,我觉得大家都低估了它在产品设计与模型层面的协同表现。要是你深入研究就会发现,Claude Code 最厉害的地方,就是它的上下文拆分能力。 比如需要调用功能、让子智能体协同工作时,你让 Claude Code 执行某个任务,它通常会生成一个甚至多个探索型子智能体。这些子智能体会通过 ripgrep 工具扫描整个文件系统、检索相关内容,而且每个子智能体都有独立的上下文窗口(context window)。 我认为 Anthropic 在这点上做得特别出色 —— 面对一项任务,模型能精准判断出,这个任务适合在单个上下文窗口(context window)中完成,还是需要拆分后再执行。模型在这方面的表现堪称惊艳,这也是它能输出高质量结果的关键。 更有意思的是,依托终端运行的特性,Claude Code 成为了实现可组合原子化集成的最纯粹形式。如果你习惯了从 IDE 入手做开发,比如用 Cursor 或是早期的 Codex,就会发现,这种更灵活的上下文检索方式,其实并不容易自然而然地实现。 主持人:这一点确实很独特。我个人挺意外的,不知道你有没有这种感觉,总觉得有种复古的未来感,二十年前的 CLI 技术,居然打败了本被寄予厚望的各类 IDE。 Calvin French-Owen:我完全认同。而且 Claude Code 不是 IDE,这一点其实很关键,因为它能让你和正在编写的代码保持一定距离。IDE 的核心就是浏览文件,对吧?你需要把所有代码状态记在脑子里,还要理清其中的逻辑。但 CLI 完全不同,这让它在使用体验的设计上有了更大的发挥空间。 不知道你有没有这种感觉,我用 Claude Code 的时候,感觉就像在代码里 “飞驰”,各种操作都特别顺畅。界面上会有小的进度指示器,随时给我状态反馈,而编写的代码本身反而不是视觉的核心。 开发环境本来就很杂乱,我特别喜欢 sandbox(沙箱)在概念上的简洁性。但实际使用时,我遇到了很多棘手的问题,比如就连简单的测试都搞不定:sandbox(沙箱)需要访问 PostgreSQL 数据库,却一直连接失败;我写的 codex.md 文件只有二十行,最后还是无法运行。 但在 CLI 里,工具可以直接访问开发数据库。我不确定这么做是否合规,但我确实试过让它访问生产数据库执行一些操作,而且它真的做到了。比如有一次,我遇到了一个并发问题,想排查一下,结果发现这款工具居然能调试五层嵌套的延迟任务,找出问题所在,还能自动编写测试用例,之后这个问题就再也没出现过。这真的太不可思议了。 主持人:没错。而且我觉得产品的推广和使用获取方式,被严重低估了。想想 Cursor、Claude Code 还有 Codex 的命令行版本,你只需下载就能用,不用向公司申请任何使用权限,这一点带来的使用体验差异,实在太大了。 主持人:你在代码智能体领域有很多实践,对于想要打造这类工具的人,你有什么建议?有哪些实战经验可以分享? Calvin French-Owen:我觉得最重要的一点,是做好 上下文管理。 当时我们为一款推理模型搭建了检查点,随后基于强化学习(RL)对它开展了大量微调工作:我们会给模型布置各类编程相关任务,比如解决编程问题、修复测试用例、实现新功能,再通过强化学习的方式,训练模型如何更精准地应对这些任务。当然,目前大多数人还做不到这一步,但大家力所能及的是,多思考该给智能体提供哪些上下文信息,才能让它输出最优的结果。 比如观察 Claude Code 的工作过程,它会生成多个探索型子智能体,这些子智能体会去检索文件系统里的各类代码相关内容,完成后会把上下文信息带回来并为我做好总结,我就能清楚后续该怎么推进工作了。 看不同智能体的上下文构建方式,是件特别有意思的事。比如 Cursor 用的是语义搜索的方式,它会把所有内容转化为向量形式,再匹配和查询需求最相关的内容;而 Codex 和 Claude Code,其实用的都是 ripgrep 这个代码搜索工具。这种方式之所以管用,是因为代码的上下文信息密度很高。 一行代码通常不到 80 个字符,代码仓库里不会有太多大数据块或 JSON 格式的文件,就算有,数量也极少。 你可以参考 Git(代码版本管理工具)的忽略规则,先过滤掉无关内容或是已打包的文件,再通过 Git 和 ripgrep 查找代码的上下文,这样就能很好地理解代码的实际功能了。同时这类工具还能自动扫描整个文件夹的结构,而且 LLM(大语言模型)特别擅长生成复杂的 Git 命令,这些命令让人类手动写的话,简直是种折磨。而这一整套操作,其实就是强化学习(RL)在实际场景中的落地应用。 我现在也在做非编程领域的智能体集成系统,从代码智能体的研发过程中,我也学到了很多:要把数据转换成接近代码的格式,让模型能快速检索到相关的周边信息,进而获取到结构化的有效数据。 主持人:优秀的代码智能体,核心能力就是上下文工程,那要成为这类工具的前 1% 顶尖用户,有什么技巧?你的技术栈是怎样的?你是如何借助这些工具大幅提升效率的? Calvin French-Owen:第一个技巧,是尽量减少底层代码和基础架构的编写。 我平时会在 Vercel、Next.js 或 Cloudflare Workers 这些平台部署技术栈,这些平台已经封装了大量样板代码,不用自己费心搭建各类服务,也不用处理服务发现、中心端点注册、数据库配置这些问题。所有功能基本都能在一两百行代码内实现。我也倾向于采用微服务架构,或者使用结构清晰的独立软件包。 其次,要了解 LLM 的核心优势。 其实代码智能体的特点,Andrej Karpathy 最近也在推特上提到过:它们的执行力极强,不管遇到什么问题,都会一直尝试解决,最终往往会在现有基础上做更多的拓展。所以如果你想引导它完成某个任务,一定要明确指令。 这里可以稍微拿 OpenAI 举个例子,他们有一个庞大的 monorepo(单体代码仓库),已经用了好几年,有成千上万的工程师在上面提交代码。这些工程师里,有经验丰富的资深开发者,他们精通生产环境代码的编写;也有刚毕业的博士,编程经验相对欠缺。人员构成差异很大,所以 LLM 会根据你的引导方向,学习不同的代码风格。我觉得代码智能体还有很大的探索空间,比如研究出最优的代码生成范式。显然,给模型提供自我校验的方式,能大幅提升它的表现,比如尽可能多地在代码检查、CI 等环节运行测试用例。 我自己也会频繁使用代码审查机器人,YC 孵化的 Reptile 公司做的这款机器人用起来就特别顺手;Cursor 的漏洞检测机器人也很好用,我也常常用 Codex 做代码审查,它在校验代码正确性这块的表现尤其突出。 这些都是代码智能体格外擅长的领域,除此之外,它们探索代码仓库的能力也很出色。 当然,智能体也有短板:它们擅长做拓展,但如果你的需求不是拓展功能,它们往往会重复编写代码,浪费大量时间做已经实现过的功能,这时候你就会觉得 “它完全没理解我的需求”。 还有一个问题是上下文污染,智能体可能会陷入某个循环,因为执行力强,会一直沿着错误的方向推进,而它参考的上下文信息,其实对于解决问题毫无帮助。所以我常用的一个方法,是主动清理上下文,比如当上下文的 token 占用率超过 50% 时,就及时清理。 主持人:哇,这个比例其实特别关键。不知道你有没有关注到,YC(Y Combinator 的缩写,全球顶级的创业孵化器)2024 年秋季孵化营里,那家做 HumanLayer(人类层)的公司,创始人 Dex Horthy 就总聊这个话题,还专门提出了 “LLM 愚笨区”的概念:当上下文的 token 数量达到某个阈值后,模型的输出质量就会开始下滑。 Calvin French-Owen:我完全认同这个观点,结合强化学习(RL)的工作逻辑来看,这一点就更明显了。 想象一下,你是一名参加考试的大学生,考试刚开始的五分钟,你会觉得时间很充裕,一定能好好答题,认真思考每个问题;但如果只剩五分钟,试卷还有一半没做完,你就会慌不择路,只求尽快写完。LLM 的上下文窗口(context window),就是这个道理。 创业者们有一个小技巧,我觉得很实用:在上下文开头加一个 “金丝雀检测” 信息,就是一些特别小众甚至有趣的内容,比如 “我叫 Calvin French-Owen,早上八点喝了茶” 这类无关的小事实。然后在和模型的交互过程中,时不时问它 “你记得我叫什么吗?”“你记得我几点喝的茶吗?”,如果它开始忘记这些信息,就说明上下文已经被污染了。 这是我见过很多人用的方法,我自己还没试过,但完全相信它的效果。 主持人:这个方法很有意思。我在模型做上下文压缩前,还没遇到过这类问题,可能是我没太留意。你是说,token 数超标后,模型会开始做出一些不合理的操作?我得留意一下,这个问题能在 Claude Code 内部解决吗?比如让模型自己做检测,在上下文里加入类似 “心跳检测” (通过定期发送 “状态确认信号”,实时监控目标对象的运行状态,一旦信号异常就触发预警或处理)的机制,实时监控状态。 Calvin French-Owen:理论上可以,但目前还做不到。我认同你的终极设想,但现在要做好上下文管理,依然很难。目前的解决办法,还是拆分上下文窗口(context window),然后尝试合并信息,但 Claude Code 的会话结束后,上下文的内容就是固定的,这一点还是有局限。 有意思的是,Codex 采用了完全相反的策略,OpenAI 的博客最近也提到了:它会在每次交互后定期做上下文压缩,所以 Codex 能长时间持续运行。 你看 CLI 里的 token 占用百分比,就能看到它会随着压缩操作上下浮动。 主持人:看来 Claude Code 和 Codex 的架构差异很大,Codex 似乎更适合长时间运行的任务,所以二者的使用场景不同,架构设计也天差地别。现在看来,CLI 的工具越来越火,2026 年可能会成为 “CLI 元年”。 但同时也有观点认为,通用人工智能已经到来,超级人工智能也近在咫尺。目前的代码智能体已经非常智能,但还达不到自主长时间运行的程度,如果计算能力提升十倍,能实现 24 小时甚至 48 小时的自主任务运行吗?Codex 的架构,能适配这种场景吗? Calvin French-Owen:这是个很好的问题,答案其实藏在两家公司的创立基因里。 Anthropic 一直很注重打造适合人类使用的工具,比如会关注模型的输出风格、语气,以及如何和用户的其他工作流程适配,Claude Code 就是这一理念的自然延伸。在很多方面,它的工作方式和人类很像:比如你要建一个狗窝,人类会去五金店买材料,然后研究如何组装,Claude Code 也是如此。 而 OpenAI 的核心思路,是训练出最优秀的模型,通过持续的强化学习(RL),让它能处理更长期、更复杂的任务,最终实现通用人工智能。所以它的模型,工作方式可能和人类完全不同。还是以建狗窝为例,就像 AlphaGo 的下棋思路和人类不同一样,OpenAI 的模型可能会直接用 3D 打印机,从零开始打印出一个狗窝,完全符合你的需求,过程可能会很长,成品也会高度定制化,甚至有些设计会很怪异,但最终能实现功能。 或许从长远来看,这才是正确的方向,所以很期待两家公司的后续发展。总的来说,OpenAI 的路线似乎是必然趋势,但我个人更喜欢 Anthropic 的思路。 十年前,我还会自己写一些奇怪的脚本,在重构代码或理解代码逻辑时,用它来梳理各类信息,而 Claude Code 给我的感觉,和当年的这种体验一模一样,用它一天,能完成五个人的工作量, 就像给编程装上了火箭助推器,太不可思议了。 主持人:很期待不同规模的公司,会如何应用这类工具。我发现,不管是业余爱好者,还是小型创业公司,都在尽可能挖掘代码智能体的潜力,因为他们根本没时间研究其他方法。创业公司的资金和时间都有限,一切都要以速度为核心。但大公司不一样,他们有太多东西可以失去,还有各种代码审查的内部流程,也已经组建了庞大的技术团队。 未来可能会出现一种很有趣的现象:一个人组成的小团队,看到其他团队的工作效率低,就会自己用代码智能体做一个原型,效果反而更好。总有一天,这种小团队的成果会超越大团队,行业格局的转变,一定会很有意思。 Calvin French-Owen:其实前几天我试了一款产品,它的用法很有意思:你下载一个桌面应用,它会调用你电脑上运行的 Claude Code,再通过 MCP 服务器和桌面应用通信。这种方式让电脑的使用变得很不一样,你不用征得任何人同意,下载后直接用就行。 在这个变化飞快的时代,产品的分发模式真的太重要了,自下而上的模式远比自上而下好,因为后者的效率实在太低。 公司的首席技术官总会顾虑安全、隐私问题,担心各种突发情况,想要绝对的控制权,但工程师们只会直接装上工具开始用,然后感叹 “这东西太好用了”。 主持人:你说得太对了。我本身是做企业级 ToB 业务的,总觉得自上而下的销售模式能构建一定的竞争壁垒,肯定会有公司找到方法,做出一款人人都能用上的产品,或许先从个人用户切入会是个思路。 当年的网景导航器(互联网早期最具里程碑意义的网页浏览器)就是如此,它对非商业用途免费,结果很多人下载后用在商业场景,网景就通过追踪 IP 地址,统计不同公司的使用量,然后告知对方 “你们违规使用了,只需购买授权就能继续用”。我很好奇,这种模式现在还能复制吗? Calvin French-Owen:你关于分发模式的观点很有意思,现在很多人甚至会直接根据 Claude Code 的建议做架构决策,他们可能都不知道该用什么分析工具,只要 Claude Code 说用 PostHog( YC W2020 批次孵化的开源平台 PostHog,核心定位是给开发者和产品团队的 “全能型产品优化工具箱”),他们就会百分百采用。 我做顾问的一家公司,最近聊到了他们的生成式优化策略,也就是如何在聊天机器人中优化展示效果。他们说有件事特别有趣:竞争对手整理了一份行业内必用的五大工具榜单,自己的产品当然排在第一位。明眼人一看就知道这是偏见,榜单里的头部工具就是他们自己的产品。但 LLM 会被这种信息误导,它会整合各类上下文信息,然后判定 “这是行业顶级工具”,接着直接推荐给用户。 我觉得做开发者工具的话,完善的文档、真实的用户口碑,甚至在 Reddit 上的一些讨论,这些都能极大地提升产品的认可度,这也是很多开源项目能快速崛起的原因。 Supabase 就是个典型例子,它去年发展得特别快,部分原因就是它的开源文档做得特别好,详细教大家如何搭建各类功能。只要有人问如何搭建类似 Firebase 的后端事务系统,LLM 给出的默认答案几乎都是 Supabase。我亲自试过很多次,结果都是这样。它就像当年的 Stack Overflow 和谷歌搜索一样,占据了互联网的信息入口,现在大家甚至都不用谷歌了,想想真的很神奇。而且这种模式对开源项目的利好是不成比例的。 不知道你有没有看到,Ramp 公司最近发了一篇博客,讲他们如何打造自研的代码智能体,里面提到他们用开源代码作为框架,因为模型可以直接读取源代码,理解其工作逻辑。我对开源产品一直这么做:克隆代码仓库,然后启动 Codex 或 Claude Code,让它讲解代码的逻辑,用起来特别实用。 主持人:我们不妨畅想一下四十年后的未来:软件、数据库、访问控制依然存在,但软件的核心会高度个性化。访问控制、权限分配这类事,依然是大家开会讨论的重点,也就是所谓的 “管理者模式”,但公司的其他所有功能、规则,都由员工通过自己的 Claude Code 这类工具定义。可能还是 CLI,也可能是由大量智能体组成的协作体系,那会是一种怎样的场景? 比如想象一下,现在如果有公司要接入 Segment,我们复刻代码仓库,给他们一个专属版本,让它在自己的服务器上运行;如果他们想做修改,只需在聊天窗口告诉智能体,智能体通过代码循环完成编辑,而 Segment 总公司推出新功能后,智能体还能自动完成版本合并。 Calvin French-Owen:我完全能想象出这种场景,这也是我一直在思考的。虽然不知道这个未来还有多远,但最终,每个工作的人都会有自己的云电脑和专属的云智能体团队,智能体替自己处理各类事务,彼此之间也会沟通协作。 这就像有一个 超级执行助理,它会告诉你 “这些是你需要关注的事”“你可以快速做这些决策”“这件事需要你多花时间”“你该和这些人见面沟通”。我觉得,人与人之间面对面交流、交换想法的需求,永远不会消失,至少我能从这种交流中获得很大的满足感。除此之外,会有大量的智能体替人类执行任务,实现各类工作的自动化。 未来的公司,平均规模可能会变小,但数量会更多,能做的事也会更多。 我还很好奇,Paul Graham 提出的 Maker Schedule(创作者日程:给做核心创作 、研发的人用的,需要大块、连续、不被打断的时间) 和 Manager Schedule(管理者日程:给做管理、协调、沟通的人用的,时间是碎片化、以小时为单位的,充满会议、沟通、临时决策,习惯频繁切换事务),未来会演变成什么样子。 在 YC,我们的工作基本都是 Manager Schedule(管理者日程),这让我们很难有时间自己写代码、做产品。但现在有了代码智能体,一切都变了,很多合伙人开会时,就像这期播客刚开始时我做的一样,让智能体后台运行处理任务,自己专注开会,等会开完,任务也完成了。 主持人:没错,就是利用碎片化时间。以前编程,至少需要四个小时的整块时间,否则根本不值得开始,对吧?这其实也反映出编程方式的巨大变化:以前写代码,你需要把所有类名、函数、关联的代码都记在脑子里,构建自己的“上下文窗口”,这个过程需要好几个小时,所以想用十分钟的碎片化时间编程,根本不可能,只会让人觉得沮丧。 Calvin French-Owen:我觉得未来的核心基础能力之一,依然是保持数据模型的一致性,而核心的记录系统,也有机会率先实现智能体化。 现在我们的工作,还是高度依赖数据库,以及底层的 SQL 或 NoSQL 查询,但未来或许会出现一种工具,能为定制化软件的各类视图,自动生成所需的所有数据。 未来的软件世界,会有大量定制化视图,但数据的准确性,依然是核心前提。 数据的重要性不言而喻,这一点从很多公司的做法中就能看出来:比如很多公司通过 API 或 MCP 开放数据访问权限,而 Slack(全球最主流的企业级团队协作与即时沟通平台,常被称作「硅谷版钉钉 / 企业微信」) 就收紧了 API 的权限,因为他们不想让用户把平台上的所有数据都导出,然后基于这些数据搭建智能体应用。 主持人:你对这款智能体的了解很深,那你觉得,这类工具普及后,哪种类型的工程师会受益更多? Calvin French-Owen:总的来说,工程师的资历越深,受益就越多。因为智能体特别擅长把想法转化为实际行动,如果你能用几句话清晰地描述需求,就能立刻让它落地。 我在浏览开源代码仓库时,经常会有这种感受:看到某处代码,觉得可以优化,只要把这个想法告诉智能体,让它去执行,最后等待反馈就行。这种方式能极大地提升效率,放大个人的影响力。 其次,能判断哪些代码修改在架构层面是合理的、哪些是不合理的,或者能准确判断该在哪个节点向智能体发出指令,这一点也很重要。我觉得做事有条理、带有 “管理者思维” 的工程师,会更适配这类工具。 而且目前来看,这个领域还缺少一款核心产品,比如类似 Conductor 这样的工具,能整合你所有的会话,提醒你 “这个任务已经完成,需要你确认”“你该把注意力转到另一个任务上了”。Conductor(核心解决 AI 编程的 “失忆问题)这类工具,应该给智能体加上上下文管理功能,其实人类也需要这样的上下文管理工具,这一点是毋庸置疑的。 主持人:如果让你回到大学,重新学习计算机科学,让你自己制定课程表,你会选择学习哪些内容? Calvin French-Owen:就我个人而言,理解各类系统的工作原理,依然是最重要的。 比如 Git、HTTP、队列这类数据库,了解这些系统的基础概念,至关重要。另外,我会专门安排一个学期 ,每周都动手做项目,尽全力挖掘模型的潜力。 在使用模型的过程中,你会发现,遇到问题时,总能向上层抽象,让模型来解决。比如你可以给模型一个 “实现” 命令,让它完成计划的下一阶段;也可以给一个 “全部实现” 命令,让它分阶段执行,生成新的子智能体;还能给一个 “校验” 命令,让它自查成果。模型的能力边界一直在变化,所以多动手尝试,是很有必要的。 还有一件事让我觉得很有意思,我特别想教 18 到 22 岁的年轻人做产品。我们这桌人,都做出过用户真正需要、真正喜欢的产品,该怎么把这种能力教给年轻人,是一个值得思考的问题。 我很好奇,五年后的年轻人,会不会在产品审美等方面远超现在的我们?因为他们能借助智能体,做出更多的尝试,产出更多的成果。他们本就该如此,不是吗?他们的产品落地速度、接触现实的机会,应该是上一代人的十倍。 主持人:说到这里,我有一个疑问,不知道你有没有这种感受:我小时候,妈妈总跟我说 “别一心二用,根本没认真听我说话”。这话其实有道理,我当时确实盯着电脑,没认真听,但我发现,我比父母那一代人更擅长多任务处理。而现在的年轻人,比我们更厉害,因为他们成长在互联网时代,每天接触抖音这类短视频,应对各种碎片化信息。我觉得,未来既需要能深度思考的人 —— 他们能专注观察、理解问题、解决问题,也需要能灵活切换场景的人 —— 他们能同时处理多个任务,不断切换上下文,也就是所谓的 “注意力缺陷多动障碍模式”。 Calvin French-Owen:没错,新一代的年轻人特别擅长这一点。我一直觉得,有一种聪明人,或许是带有注意力缺陷多动障碍的特质,他们脑子里同时酝酿着很多好项目,但从来没有真正完成过一个。我自己可能就有点这种性格。我之前发布了自己的氛围代码,其实如果不是 Claude Code,我根本完不成。 我觉得,有些人的大脑就像有十个分支同时运转,但一天的时间有限,根本没法把所有想法都落地,所以项目总是半途而废。而现在,Claude Code 能帮我把所有想法都落地。 你在博客里也提到过,用它的感觉就像玩电子游戏,总有新鲜感。比如你开始做一个项目,做到一半觉得无聊,又有了新的想法,想先做新想法,再回头做原来的项目,以前这么做,很容易半途而废,但现在有了智能体,两个项目最终都能完成。 主持人:十岁的孩子每天都有写作作业,昨天他第一次用人工智能写作业,我一看就知道,那些表达根本不是一个十岁孩子能写出来的。 这让我想到,我们现在和很多 18 到 22 岁的年轻人合作,他们有实习经历,但没有做过管理工作,不懂产品市场匹配后的运营逻辑 —— 当你面对数百万的任务队列、数十万的错误日志时,才是真正的管理工作。这份工作其实很枯燥,要逐行排查错误日志,还要在后台手动确保产品对所有用户都能正常运行。 新一代的开发者,该如何理解这些内容?Claude Code 这样的智能体,能教他们架构设计这类知识吗?还是说,他们只能自己踩坑试错,在摸索中成长? Calvin French-Owen:我做产品的过程中,花最多时间思考的,就是产品的核心范式:用户现在需要理解哪些内容?他们能借助哪些基础能力,实现自己的各类需求? 我总喜欢用 Slack 举例子,它其实算不上什么全新的概念,在此之前已经有很多聊天工具了,但它把频道、消息、互动功能做的极简,普通人一看就懂,知道该怎么用,这就是它的成功之处。但一旦用户习惯了这种模式,后续再想改变就很难了,比如想改成以文档为核心,或者现在想加入智能体功能,都很难改变用户的固有认知。所以我做产品时,从一开始就会仔细考虑这一点,因为给代码智能体设定的核心规则,会成为它一直遵循的准则,并且不断拓展延伸。 主持人:说到这里,我很好奇,如果现在让你用当下的工具,重新打造 Segment,你会怎么做? Calvin French-Owen:Segment 的业务其实很有意思,我们最初的核心,是做各类集成功能:把相同的数据,对接至 Mixpanel、Kissmetrics、谷歌分析等平台。以前写这类集成代码,繁琐又困难,所以用户愿意付费使用。但现在,这项工作的价值几乎降为零,甚至很多时候,你直接告诉 Claude Code 或 Codex“我想这样做数据映射,需要这个特定功能”,它就能精准实现,完全契合你的需求。所以 Segment 的集成业务,价值已经大幅缩水。 但保持数据管道(data pipeline)的稳定运行、实现业务流程的自动化, 比如客户注册时,通过 Customer IO 自动发送邮件、管理用户群体,这些功能的价值依然存在,而且还有很大的拓展空间。 比如借助这些数据构建完整的用户画像(user profile),再让小型大模型(LLM)智能体分析:该如何给用户推送邮件?用户登录时,是否要调整产品的部分功能?是否要根据用户的不同特征,设计差异化的引导流程?这些都是很有意思的方向,而且都能通过智能体实现。 这也是我会做出的核心改变:就像你之前说的,向技术栈上层迁移,摒弃底层的基础开发工作,更多聚焦在营销活动这类更抽象的业务层面发力。 主持人:没错。我特别惊讶的是,Claude Code 仅凭我正在做的项目的上下文,就能精准理解我的需求和意图。我至今依然觉得代码智能体很神奇:你把代码仓库的副本给它,留个简单的指令,比如 “实现这个功能”,它就能完成。大多数情况下,它根本不知道你的公司是做什么的、你的用户是谁,或许因为训练数据里有我的信息,它知道我是加里,但它能完成任务这件事,本身就令人难以置信。这也能看出上下文的重要性,对吧?如果它捕捉到的上下文信息有误,就会偏离方向;如果遗漏了关键信息,就会重复造轮子。 你觉得目前代码智能体的发展,还有哪些制约因素?上下文窗口的限制依然存在,但现在的窗口已经很大了,虽然还做不了大规模的架构重构,但很多任务都能完成。Opus4.5 模型的智能程度有了很大提升,带来了很大的突破,我不知道这是预训练还是后训练的成果。除了基础的模型智能、前沿模型的能力和上下文窗口,还有哪些因素能推动它的发展? Calvin French-Owen:我依然觉得,上下文窗口是目前最大的制约因素。观察 Claude Code 的执行过程就会发现,它会把任务委托给多个不同的上下文窗口,每个窗口完成任务后,会反馈总结后的信息,所以模型其实无法获取完整的上下文。如果一个任务的复杂度太高,单个上下文窗口根本容纳不下,那么无论怎么压缩,都无济于事。Anthropic 的子上下文窗口委托策略,确实很实用,但这依然是一个难以突破的壁垒。如果每次都能有百万级 token 的上下文窗口,效果会好得多。 而且我们还需要找到更好的方法,专门训练模型处理长上下文的能力。 互联网上有大量的训练数据,能让模型预测下一句话、下一个段落是什么,但如果有 8 万个 token 的上下文,模型需要根据其中 2 万个 token 的信息,判断下一步该做什么,这就困难多了。 我觉得,集成和编排能力,正在成为新的制约因素。 这一点在代码审查中体现得很明显:合并代码时,谁来审核?还需要人类审核吗?该如何验证代码修改的合理性?还有,如何从各类工具中精准获取上下文,比如你提到的 Sentry 错误监控工具,如何让它自动匹配 PR,先将修改推送给部分用户测试,效果好再全面上线?这些自动化功能,都还需要逐步搭建。 我还发现,测试的重要性远超我的预期。我刚开始用 Claude Code 的前两三天,完全没写测试用例,或者说写得很少,结果效率很低。直到有一天,我决定 “今天专门做重构,把测试覆盖率做到 100%”,从那之后,我的编程效率直接飙升,模型能精准完成任务,而且不会出问题。 我几乎不用手动测试,因为测试覆盖率足够高,代码的稳定性也有保障。这和很多公司在编程之外的提示工程工作很像,大家都在采用 测试驱动开发的 模式。 我们之前和杰克・赫勒做过一期节目,他提到一个重要的范式转变:做出优质的提示词,核心也是测试驱动,测试用例其实就是评估标准。 主持人:目前还是有一些流程会出问题,我觉得需要一款能对接 Stack Overflow(全球最大、最权威的程序员专属问答社区) 的 Claude Code,相当于专属的智能体版 Stack Overflow。 我最近就遇到一个奇葩问题:我本想设置任务队列的优先级,结果模型自动生成了一个带逗号的字符串,它以为这个语法能生效,但系统实际需要的是 JSON 数组,结果所有任务都无法运行。然后我看着 Claude Code 花了 30 分钟,遍历了 Rails 主动任务框架几千行的源代码,一步步排查问题,最后居然找到了漏洞。 当时我真的惊呆了。想想十年前,我遇到这种问题,只会去 Stack Overflow 或 Rails 的博客找答案,然后发现 “原来这个低级漏洞一直没人修,大家都以为能直接用逗号分隔的字符串,其实必须改成数组”。现在想起来,真的特别搞笑。 我觉得这也是思考未来发展的难点:有些事,人类在 CLI 里一眼就能看出问题,但智能体却做不到。就算把它的智能程度提升 10 个虚拟智商点,它能解决这类问题吗?恐怕还是只会觉得 “这就是个普通的字符串而已”。 Calvin French-Owen:没错。我觉得 智能体的记忆功能,也是一个很有意思的研究方向。 Claude Code 已经做了相关尝试,Codex2 也一样,它们会把所有的会话记录以文件的形式保存。未来或许可以给智能体加一个工具,让它能读取过往的会话记录。不过目前来看,智能体之间的协作,还缺少一个核心环节。 如果能有一个方式,让同事之间的 提示词能智能共享,比如你遇到了一个问题,发现另一个同事布莱恩之前已经解决过了,你们能共享这个解决方案,那就太完美了。我觉得未来或许会出现 模型生成的维基百科,或者类似格拉奥佩迪亚的知识库。 Codex 写代码时,能明显看出它的 “个性”,它会做很多人类不会做的事,有点像 AlphaGo 的思路,比如它会写 Python 脚本,修改文件系统的部分内容。这种行为很有趣,是一种模型习得的、和人类截然不同的方式。但对我来说,它在调试复杂问题时的表现,堪称超人类,很多 Opus 模型解决不了的问题,Codex 都能搞定。 主持人:能举个具体的复杂问题的例子吗? Calvin French-Owen:比如并发问题或者命名问题。我发现模型其实在并发处理方面的表现还不错,真正的难点在这类场景:一个请求需要调用多个不同的服务 —— 就像你之前提到的,处理带逗号的内容时的序列化和反序列化问题。模型需要跟踪这类复杂的操作逻辑,或者更新复杂的用户界面状态。如果涉及的文件太多,Opus 模型往往会遗漏关键信息,但 Codex 能精准捕捉到。 主持人:确实很有意思。那你预测一下,这类代码工具未来会如何发展? Calvin French-Owen:这个领域的发展真的很有意思,我感觉自己就像一个新来的探索者,明明知道这个领域在飞速发展,却因为一直处于 “管理者模式”,没有实际参与。直到有一个项目出现,我决定全身心投入,现在才算真正踏入这个领域,虽然感觉有些陌生,但一切又和我记忆中编程的本质一模一样。我觉得大家应该都有这种感受,而最重要的事,就是多动手尝试,因为这个领域的变化太快了,每隔几个月就会有新的突破。 我觉得未来,能把代码智能体的价值发挥到极致的人,会是那些带有 “管理者思维” 的人,他们擅长用特定的方式引导智能体的工作流程。在某些方面,他们还会像设计师或艺术家,能精准判断产品该包含哪些功能、可以舍弃哪些内容。而且他们会很擅长思考自动化的实现方式,以及判断智能体在哪些环节会遗漏上下文信息。 说个有趣的事,我最近用 Codex 做 Rails 项目,发现一个很明显的问题:OpenAI 里没人关注 Rails 框架。这其实也能理解,Rails 算是一种比较老旧的语言,用起来也比较奇怪,只是我十年前深入研究过它,现在用起来还是很有感情。这也让我发现一个道理:任何人都能做出一款产品,但做出用户真正需要的产品,却无比困难,哪怕你像 OpenAI 一样,拥有无限的资源。 如果 Codex 的研发人员现在正在看这期节目,我想提一个建议:把主流的运行时环境都梳理一遍,给它们加上适配的语法糖,其实针对前 15 种主流运行时,最多只需要提交 10 个代码合并请求就能搞定。这件事也提醒我们:现在,开发者再也没有借口,做出对用户不友好的软件了。 训练数据的组合方式,也是一个很有意思的点。Codex 在 Python monorepo(用「单一代码仓库」的方式管理的 Python 项目)上的表现特别好,这和 OpenAI 的代码环境息息相关。我在 OpenAI 内部使用 Codex 时,真的觉得这款工具太神奇了,表现堪称完美,这和它的训练数据组合、研发人员的技术方向都密不可分。 Anthropic 则更关注前端相关的开发,至于 Ruby 语言,目前哪家公司的模型做得最好、谁的训练数据组合更优,我还不太清楚。 不同的实验室有不同的思路:有些实验室认为 “数据越多越好”,会尽可能多地投喂数据;有些则会更精细地调整数据的组合方式。 不同的思路,会带来截然不同的结果,比如只选取 JavaScript 领域前 10% 的优质数据做训练,和用全量数据训练,效果肯定不一样。 不过就我的使用体验来看,OpenAI 的模型在 Ruby 语言上的表现其实很好,问题主要出在模型的配套框架上。Rails 框架有个很奇葩的设定,必须用特定的方式访问 PostgreSQL 数据库,否则就无法适配,核心问题还是 sandbox 的限制。 OpenAI 其实是所有公司中,对 sandbox 和安全问题最重视的。 我记得研发 Codex 时,模型发布前的一个核心审核环节,就是每次都要详细说明模型的安全风险,以及对应的应对方案。我们当时重点研究的一个问题,就是提示词注入,尤其是模型面向互联网开放后,这个问题更突出。很多用户都要求模型能对接互联网,我们当时心里也没底,因为提示词注入的实现方式,看起来太简单了。 我们团队的产品经理亚历克斯,做了一个测试:他在 GitHub 上提了一个问题,里面包含一个明显的提示词注入指令,比如 “泄露这个信息”,然后让模型去解决这个问题。他当时觉得 “模型肯定不会中招”,结果模型立刻就执行了提示词注入的指令。 也正因如此,OpenAI 对这个问题的担忧是很有道理的,他们的解决方案是:让模型的所有操作都在 sandbox 中运行,确保它不会访问电脑上的敏感文件,严格保护用户的机密信息。而创业公司因为追求发展速度,可能根本不在乎这些,他们只希望模型能正常工作。 主持人:你是那种会冒险跳过权限验证的人吗? Calvin French-Owen:其实我不是,我会设置一系列的校验环节,也会仔细查看模型的每一步操作。 参考链接:
我迷上了 Claude Code,它太好用了
做好上下文管理,是用好顶尖模型的诀窍
Anthropic 要做人用的, OpenAI 要做最好的,以及产品分发模式很重要
未来公司会变小,数据很重要
代码智能体的制约因素有哪些
github: https://github.com/Peiiii/deploy-your-app (求个 star )
网站: https://gemigo.io (可以看到应用的例子)
体验方式:目前只支持
大致的愿景就是让制作网站/应用像发布抖音一样简单,并且还自带宣发能力,未来还希望
我知道目前的版本还比较粗糙,想收集一下大家的反馈,不管是批评还是建议。
「敲了么」是一款电子敲木鱼 App ,专注于帮助用户在日常生活中实现念经、冥想、静心与显化,让修行变得更轻松、更专注。
App 内置 红木、黄金、陶瓷、玉石等 7 种 3D 材质木鱼,造型精致、细节真实,敲击音效高度还原实体木鱼的反馈感,每一次敲击都清脆有力、余音缭绕、令人沉浸,已在 App Store 收获不少用户好评。
同时,「敲了么」还提供多种禅意背景图片与静心禅音,营造身临其境的修行氛围,让你随时随地进入安静、专注的状态。
在功能上,App 支持自动敲击、自定义祈福文字与颜色、定时关闭等贴心的高级设置,既适合日常静心冥想,也适合专注念经或放松身心。
最重要的是:目前完全免费,且无任何广告。
所有木鱼材质、背景图片、禅音以及高级功能,全部免费开放使用,无需付费、无需解锁,打开即修行。
太惨了,主 Google 账号被送中了
一直用的好好的,今天 Antigravity 被要求重新登录,重新登录后就不让用了
查了一下 https://policies.google.com/terms#footnote-country-version 果不其然
最近一段时间还照着 https://v2ex.com/t/1176609 每天用 firefox 虚假定位用几次 Google
结果还是被送中了
我的问题是,现在 Gemini 居然还能用,不知道多久会同步这个信息?
我的工作生活已经完全离不来 Gemini 了,上面好多工作的历史对话。都焦虑了。
我老婆通过同学关系介绍,声称可以通过“内部信息/信息差”操作,进入军队文职/军委系统相关岗位。
要求支付 15 万人民币现金,
钱是直接给中间牵线的同学个人,对方说“不是给个人,是帮忙运作”,并承诺如果出问题“钱她负责退”。
具体岗位、公告编号、流程都未明确,
对方强调名额紧、系统即将截止,要求尽快交钱,
且不走对公、不留正式合同,仅口头承诺。
我问了 AI 很多,以上是 AI 帮我总结出来的
我老婆是新晋宝妈,互联网行业,995 ,感觉哺乳期到了就会被裁员。所以心生焦虑,并且相信她的同学,希望立刻脱离这个坑,去一个金饭碗工作。
目前我劝说不了,软磨硬泡,她已经无条件相信她同学,并且已经递交简历。她的家人也是一样劝阻,不过她的家人大部分都说,如果这个是真的那真的是个肥差。但是,她只能听得进去是肥差,但是没有听得进去很可能不是真的,是骗局。
那么,我该怎么办这事儿无论成功与否,无疑是对家庭造成伤害。。。各位 V 友怎么看
这版本加了好多代码,基本全是用户数据计数的内容,但我在打版的时候发现更新能见的内容的貌似不多
。
主要是为了打个基础,这个版本为用户增加了许多的属性计数,相关的计数可以在介绍页面查看。增加计数的目的是扩充用户的六个维度属性:技艺、勤勉、幸运、财富、阅历以及魅力。这些维度与用户的行为息息相关,你的每一个操作都可能会对属性值造成影响。具体来说:

用户主页可以查看当前用户的维度属性雷达图,数据仍在队列计数中,看到数据为 0 是正常情况,可以查看: https://2libra.com/user/bopomofo/about 这就是同步后的显示。
除了能对用户的一些属性有了可视化的内容外,有了属性之后,就能够做一些有意思的操作。当前版本加入了属性检定,利用属性的点数投掷加上属性的修正值,能对一些事件做难度检定,这就是游戏中 d20 的玩法,不过你不需要太过于关心玩法如何复杂,只要知道,你的属性值越高,你的行为检定就越容易成功,而获得的奖励就会越高。
举例:签到。
签到现在加入了勤勉属性检定,你会在签到时自动去投掷一个 0-20 的随机点数,该点数+你的勤勉属性值 >= 难度值,就表明检定成功,获得该有的金币数;若 < 难度值,则表明检定失败,获得该有的金币数将按当前的勤勉值按比例计算出来。特殊情况,若投掷的点数为 0 则表明大失败,此时签到奖励会为 1 金币;若投掷的点数为 20 则表明大成功,此时签到奖励会为原来的金币数 * 2。
属性的检定会在后续扩大到许多地方,目前用到的地方不多,当前版本主要还是引入属性以及属性检定概念和玩法,且不会影响到现有内容阅读,目标是让传统的社区多一些有趣玩法,锦上添花而不乱了整体布局。
不知道会不会出现六边形战士
。
当前版本的计数代码比较多,测试都花了不少时间,大概没法保证都准确无误,所以有问题可以及时反馈做修正。另外收集了许多的修改需求,会在后续版本继续开发升级
。


读小学的时候一直希望明天学校就倒闭,午休后的课间 40 分钟还是多久,都不够玩。
这两年才知道我读书的小学(农村)因为没学生停办了,就剩个学校,没学生也不开了。
记得我读幼儿园和一年级的时候五六年级还有两个班,一年级好像是五六十人,到我小学毕业只剩下 36 个了,不是不读了就是转学了,现在招不到学生是因为新生代的父母都把小孩带到镇里和市里了,现在村里的只能去镇上读小学。
RT
写 Symfony 项目时,琐碎且重复的底层工作其实挺让人头疼的,比如处理文件上传、写 CRUD 界面、同步数据库时间戳。如果每个项目都从零开始,不仅容易加班,代码还容易出 Bug。 我总结了 9 个 Symfony 扩展包。这些工具解决的都是开发中躲不开的痛点。 当数据库数据量达到几十万条时,用 我们可以直接通过 Finder 服务来搜索索引中的内容: 它最省心的地方在于,当你用 Doctrine 保存实体时,它会自动把数据同步到 Elasticsearch。 以前每建一个表,我都要在 Entity 里写 只要在字段上加个注解,剩下的事就不用管了: 如果让用户直接上传 5MB 的图片并在列表页展示,页面加载会非常慢。LiipImagine 的思路是:原图存一份,缩略图按需生成并缓存。 在模板里直接调用定义好的滤镜: 如果项目需要一个后台管理界面,没必要从 HTML 模板写起。EasyAdmin 几乎是 Symfony 开发者的首选,它能通过简单的 PHP 类配置出完整的 CRUD。 手动写文件上传要判断后缀、重命名防止冲突、还要在数据库记录路径。而 VichUploader 把这些流程标准化了。 只需要在配置文件里定义好映射,在 Entity 里绑定一个 写分页最烦的就是算偏移量和总页数。我习惯直接把 Query 对象丢给 KnpPaginator,它能自动处理分页逻辑。 在 Twig 里一行代码就能渲染出分页条: 现在很多项目要求增加双重验证(2FA)。自己写验证码逻辑和 Google Authenticator 绑定很费劲,这个扩展包把安全流程都写好了。 只需要在 它会自动处理验证码的校验逻辑,我们只需要关注 UI 界面。 做多语言项目时,最怕漏掉某个页面的翻译键值。这个包能扫描整个项目,把所有需要翻译的内容提取出来。 它会找出所有 这是大家最熟悉的,但很多人只用它生成 Entity。其实它能做的事情非常多,比如生成权限控制(Voter)或者自定义命令。 养成使用命令行生成的习惯,能规避很多手写代码带来的低级错误。 在本地开发 Symfony 时,就不得不提配置 PHP 环境。有时候老项目要用 PHP 5.6,新项目要用 PHP 8.3,不同项目需要的扩展还不一样,在电脑里装一堆版本切来切去非常痛苦。 我最近在用 ServBay,它不仅能一键安装 PHP版本,支持 PHP 5.3到 PHP 8.6-dev,并且支持多版本 PHP 同时并存。 以前换个环境可能要折腾半天 Docker 或虚拟机,ServBay 是一键安装的,它把 PHP、MariaDB、PostgreSQL、Redis、Elasticsearch 这些开发常用的组件都集成在一起了。最方便的是,可以在一个界面里同时运行多个 PHP 版本,不用为了跑一个老项目去重装环境。 如果也受够了在本地折腾 不要再把时间浪费在手动写上传和分页这种琐事上了。要么学会利用现成的轮子,要么就在无意义的搬砖中耗尽职业热情。你会发现,原来高质量的开发真的可以很快。
FOSElasticaBundle:让全文搜索快起来
LIKE %...% 搜索会变得非常慢。FOSElastica 把 Elasticsearch 集成到了 Symfony 中。$results = $container->get('fos_elastica.finder.app.article')->find('搜索关键词');StofDoctrineExtensionsBundle:别再手动更新时间戳
setCreatedAt。一旦忘了写,数据追踪就断了。这个扩展包最常用的功能就是自动处理时间和生成 URL 别名(Slug)。use Gedmo\Mapping\Annotation as Gedmo;
class Post
{
// 创建时自动填充
#[Gedmo\Timestampable(on: 'create')]
#[ORM\Column]
private \DateTime $createdAt;
// 只要有改动就自动更新
#[Gedmo\Timestampable(on: 'update')]
#[ORM\Column]
private \DateTime $updatedAt;
// 根据标题自动生成唯一的 URL 别名,不用自己写正则过滤
#[Gedmo\Slug(fields: ['title'])]
#[ORM\Column(length: 150)]
private $slug;
}LiipImagineBundle:搞定各种尺寸的缩略图
{# 自动生成并调用 120x120 的裁剪缩略图 #}
<img src="{{ asset(product.image) | imagine_filter('thumbnail_120') }}" />EasyAdminBundle:半天搭建出一套后台
class ProductCrudController extends AbstractCrudController
{
public static function getEntityFqcn(): string
{
return Product::class;
}
public function configureFields(string $pageName): iterable
{
yield TextField::new('name');
yield MoneyField::new('price')->setCurrency('CNY');
}
}VichUploaderBundle:文件上传不再乱糟糟
File 对象即可:#[Vich\Uploadable]
class UserProfile
{
#[Vich\UploadableField(mapping: 'avatars', fileNameProperty: 'imageName')]
private ?File $imageFile = null;
#[ORM\Column]
private ?string $imageName = null;
public function setImageFile(?File $imageFile = null): void
{
$this->imageFile = $imageFile;
if ($imageFile) {
$this->updatedAt = new \DateTimeImmutable();
}
}
}KnpPaginatorBundle:分页逻辑一劳永逸
// 在 Controller 里
$pagination = $paginator->paginate(
$queryBuilder,
$request->query->getInt('page', 1),
12 // 每页数量
);
return $this->render('list.html.twig', ['pagination' => $pagination]);{{ knp_pagination_render(pagination) }}。SchebTwoFactorBundle:安全加固其实很快
security.yaml 里开启:security:
firewalls:
main:
two_factor:
auth_form_path: 2fa_login
check_path: 2fa_login_checkJMSTranslationBundle:多语言翻译不抓瞎
# 执行这个命令,它会自动更新你的 translation.yaml 文件
php bin/console translation:extract zh --config=apptrans 标签和方法调用的内容,我们只需要对着文件填空,不用担心遗漏。MakerBundle:高效生成的命令助手
# 快速生成一个权限检查器
php bin/console make:voter PostVoter
# 快速生成一个 CRUD 完整流程(含 Controller、Form、Template)
php bin/console make:crud Product
brew install 或者改各种配置文件,尝试用 ServBay 配合上面这些 Bundle,能把更多精力放在业务逻辑上,开发节奏会顺畅很多。最后
在最近的LinkedIn工程博客文章中,Bohan Yang 介绍了公司如何升级基于 ZooKeeper 的传统服务发现平台的项目。面对数千个微服务即将达到的容量上限,LinkedIn 需要一个更具扩展性的架构。新系统利用 Apache Kafka 处理写入,使用xDS协议处理读取,实现了最终一致性,并允许非 Java 客户端成为一等公民。为确保稳定性,团队实施了“双模式(Dual Mode)”策略,支持增量式、零停机迁移。 团队发现了基于传统 Apache ZooKeeper 系统的关键扩展性问题。应用服务器的直接写入以及客户端的直接读取/监听,意味着大规模应用部署会引发巨大的写入峰值和后续的“读取风暴”,导致高延迟和会话超时。此外,由于 ZooKeeper 强制强一致性(严格顺序),读取请求的积压可能会阻塞写入,导致健康节点无法通过健康检查。团队估计,当前系统在 2025 年达到了最大容量。 为了解决这些问题,团队开发了一种新架构,从强一致性模型转向最终一致性模型,提供了更好的性能、可用性和可扩展性。新系统将写入路径(通过 Kafka)与读取路径(通过 Observer 服务)分离。服务发现 Observer 消费 Kafka 事件以更新其内存缓存,并通过 xDS 协议向客户端推送更新,该协议与 Envoy 和 gRPC 兼容。采用 xDS 标准使 LinkedIn 能够部署除 Java 以外的多种语言客户端。这一技术决策也为未来与服务网格(Envoy)和集中式负载均衡的集成奠定了基础。 升级后的基准测试表明,单个 Observer 实例可维持 40,000 个客户端流,并每秒处理 10,000 次更新。Observer 在每个数据中心(fabric)独立运行,但允许客户端连接到远程 Observer 以实现故障转移或跨数据中心流量。 迁移过程必须在不中断每日数十亿次请求且无需数千名应用所有者手动更改的情况下进行。团队实施了双读和双写机制。对于读取,客户端同时订阅 ZooKeeper 和新的 Observer。在客户端系统迁移的试点阶段,ZooKeeper 仍然是流量路由的事实来源,而后台线程在切换流量之前,会根据 ZooKeeper 数据验证 Observer 数据的准确性。对于写入,应用服务器同时向 ZooKeeper 和 Kafka 声明其存在。自动化定时任务会分析 ZooKeeper 监听器,以识别阻碍 ZooKeeper 写入退役的“长尾” 传统客户端。 新服务实施后,数据传播延迟显著改善,从 P50 < 10 秒/P99 < 30 秒降至 P50 < 1 秒/P99 < 5 秒。该系统现在支持每个数据中心数十万个应用实例,并通过 Observer 层实现水平扩展。 原文链接: LinkedIn Re-Architects Service Discovery: Replacing Zookeeper with Kafka and xDS at Scale
监控器突然告警:"支付服务不可用"。你猛地坐起来,打开手机——群里已经炸了,但没人知道谁负责处理。你一边翻聊天记录,一边开电脑查监控,还要同步问DBA、开发 等终于定位问题时,已经过去了40分钟。这是运维同学的日常。 系统 7×24 小时运行,但人不能 24 小时盯着屏幕。On-Call 就是一种轮班值守机制,确保任何时间点都有明确的人负责响应问题。 现实场景:值班(On-Call)的手机静音了,没听见告警,后续也没人解决问题,故障越来越严重。 升级就是解决这个问题的兜底机制:规定时间内无人响应,自动并且持续扩大通知范围直到问题被解决。 关键原则:升级是确保关键故障必有响应和解决。 故障中心解决的是流程问题:谁来处理?处理到哪一步了?有没有升级机制? 监控器触发 P0 告警"支付服务不可用",短信发给了一个"技术值班"群时无人响应。然后就是客服热线被打爆,老板才知道出了故障。 传统方式:告警发出后,没有明确的负责人和跟进机制。 观测云故障中心:通过值班(On-Call)明确责任人,通过升级策略确保无人响应时自动扩大通知范围。如果故障在规定时间内未被认领,系统按预设规则升级通知。例如: 确保关键故障不遗漏、不悬置、有结果。 在紧急故障处理过程中时常出现没人知道当前谁在主导处理,处理到哪一步,历史操作记录在哪里,需要不断在群里跟进。 传统方式:故障响应依赖群聊同步,信息碎片化; 观测云故障中心: 支持多团队轮换(工作日 A/B 团队,周末 C/D 团队)、标签匹配(DB 故障找 DBA)、时区设置(跨国团队协作),让值班体系真正落地。 确认故障后,需要同时打开监控面板看指标趋势,日志查询看错误日志,链路追踪看调用链,基础设施看主机状态。在 4 个 Tab 来回切换以拼凑故障全貌。 故障中心自动关联所有故障(Incident)有关上下文,状态一页看完,大幅减少 MTTR。 假设监控器检测到"支付服务不可用",自动创建 P0 故障: 如果 A 在 15 分钟以内未认领故障(Incident),系统自动升级到团队负责人 B;30 分钟仍未处理,升级到技术总监 C。每个状态变更,通知发送,负责人交接都有记录。 值班人员可在个人状态标记"休假中",系统将自动跳过,通知下一位值班人。避免"人在沙滩躺着还被告警吵醒"的情况。 同时对于排班管理员来说,也可以避免因为有人临时休假而需要频繁修改排班。 观测云故障中心是一套让故障"必有响应、必有流程、必有结果"的SRE工作流。 减少 MTTR,降低业务损失,让运维同学睡个好觉。 观测云故障中心,现已上线!真实场景:当紧急故障来袭
几个核心概念
故障(Incident)
什么是值班(On-Call)?
什么是升级?
核心问题:为什么需要故障中心?

场景一:告警无人响应

场景二:处理过程混乱

场景三:数据孤岛

实际使用场景

人性化设计

总结:故障中心给SRE和运维带来什么?
痛点 传统方式 观测云故障中心 告警无人响应 群聊@所有人,靠运气 On-Call明确责任人,升级策略兜底 处理过程混乱 群聊同步,信息碎片化 状态管理+唯一负责人,流程清晰 数据分散排查慢 多Tab切换,手动关联 上下文自动聚合,一页看完 复盘无据可查 靠记忆和聊天记录 完整时间线,MTTR量化
以前用过大白菜、老毛桃、优启动,基本上它们的一键安装都有捆绑,用 PE 里面的 Win 安装器就没事,好多年没装系统了,不知道现在流行什么 PE 系统,最好支持新老系统,之前我记得有些 PE 不支持一些系统,还要改东西。
在企业数字化转型浪潮中,CRM(客户关系管理)系统已成为打通销售全链路、优化客户生命周期、提升团队效率的核心基础设施。不同规模、不同业务类型的企业对CRM的需求差异显著:大型企业看重全流程整合与安全合规,中型企业追求效率提升与定制化适配,小型团队则聚焦轻量易用与核心流程覆盖。 本次横评聚焦11款主流CRM产品(超兔一体云、Oracle CX、Pipedrive、Nimble、HubSpot CRM、SuiteCRM、Freshsales、简道云、销帮帮CRM、八百客CRM、红圈CRM),从销售自动化 、客户视图、销售漏斗管理、合同管理、AI能力五大核心维度展开深度对比,为企业选型提供专业参考。 销售自动化的核心是减少重复操作、优化流程节点,本次从线索处理、跟单流程、订单执行三个子维度对比: 客户视图的核心是整合数据、洞察需求,本次从数据整合、个性化配置、生命周期管理三个子维度对比: 销售漏斗的核心是跟踪阶段、识别瓶颈,本次从阶段自定义、可视化监控、 数据分析三个子维度对比: 合同管理的核心是规范流程、规避风险,本次从业务模型支持、执行管控、数据追溯三个子维度对比: AI能力的核心是降本提效、精准决策,本次从业务融合、场景应用、定制化三个子维度对比: CRM系统的选型本质是匹配企业业务阶段与核心需求的过程:大型企业需优先保障全链路整合与合规性,成长型企业要兼顾效率提升与业务适配性,小型团队则聚焦核心流程的轻量化落地。本次横评的11款产品覆盖了从企业级平台到轻量销售工具的全场景,企业可结合自身规模、业务模式、数字化成熟度,参考本次对比的核心能力差异,选择最适配的CRM系统,真正实现客户关系管理的降本增效与价值挖掘。引言
一、核心能力总览对比表
品牌 销售自动化核心特点 客户视图核心特点 销售漏斗管理核心特点 合同管理核心特点 AI能力核心特点 超兔一体云 多渠道集客一键处理;独创三一客/商机/多方项目跟单模型;自动生成日报/点点速记;应收三角联动 工商补全+通信/外勤数据整合;自动客池划分;跟单时间线+客户分级分组自定义 多模型适配不同业务漏斗;阶段节点自动推进;同比环比引擎分析 支持服务/实物/特殊单多模型;应收/开票/回款三角联动;全链路数据追溯 AI智能体嵌入业务视图;定制行业销售SOP;AI日报/待办/话术生成;低门槛自定义智能体 Oracle CX CPQ全流程优化;全链路销售/营销/服务自动化;企业级ERP联动 360°全渠道数据整合;营销/销售/服务全链路视图;个性化权限配置 可视化全流程跟踪;企业级BI分析;实时转化率预警 CPQ合同配置/变更管理;全生命周期执行跟踪;合规风险管控 智能推荐/数字助理;AI邮件创建/总结;企业级AI流程优化 HubSpot CRM 邮件模板/跟踪自动化;任务自动分配;Gmail/Outlook深度集成 全渠道互动记录整合;单一客户视图;自定义字段/布局 拖拽式可视化管道;自定义商机阶段;转化路径分析 Sales Hub CPQ报价生成;订单阶段联动管理;无独立合同模块 Breeze AI工具集;Copilot虚拟助手;买家意图分析;营销文案生成 Freshsales SDR智能体过滤高价值线索;营销自动化集成;线索自动分配 多渠道沟通记录整合;全生命周期客户档案;自定义标签分类 可视化漏斗;自定义阶段/赢率;漏斗健康度分析 CPQ合规报价生成;适配金融等复杂场景;订单与合同联动 Freddy AI引擎;成交概率预测;语音转文字;跟进建议生成 销帮帮CRM 企业微信侧边栏整合;互动雷达记录客户行为;智能工作流自动化 360°客户画像;企业微信行为数据整合;客户健康度提醒 可视化商机跟踪;阶段推进监控;团队商机分布统计 合同到期提醒;基础全生命周期管理;与订单/回款联动 商机成功率评估;BI智能报表;基础AI辅助分析 Pipedrive 工作流自动化;AI销售助理;邮件同步/智能密件抄送 统一客户数据管理;自定义信息管理器;邮件互动记录整合 自定义销售管道;可视化阶段跟踪;优先级提醒 无原生合同模块;需第三方集成实现合同管理 AI邮件创建/总结;销售建议;预测分析 简道云 零代码搭建销售全流程;自定义工作流;自动生成销售报表 多渠道数据整合;360°客户画像;零代码自定义视图布局 自定义销售流程;可视化阶段跟踪;瓶颈识别分析 无原生合同模块;零代码自定义订单/回款跟踪流程 无原生AI功能;需第三方集成实现智能提醒等场景 八百客CRM SFA核心流程自动化;多平台ERP/呼叫中心集成;流程规范化管控 全周期客户数据整合;传统界面布局;移动端体验一般 标准化销售流程;可视化漏斗跟踪;节奏优化分析 成熟合同全生命周期管理;审批/执行跟踪;合规管控 较弱;仅基础智能提醒;缺乏前沿AI功能 红圈CRM 智能路线规划;实时拜访记录;商机阶段自动推进 外勤互动数据整合;基础客户画像;客户分配/共享/移交 漏斗分析预测销售达成;团队商机分布统计;阶段推进监控 未明确提及核心合同管理功能;聚焦外勤销售流程 客户需求挖掘;流失预警;销售/经营情况统计分析 SuiteCRM 开源定制销售流程;订单金额/折扣自动计算;线索分配自动化 全周期客户数据整合;开源自定义字段/视图;多渠道互动记录 可视化机会跟踪;自定义阶段/赢率;基础漏斗分析 订单与财务模块联动;基础合同流程管理;项目管理/发票工具 无原生AI功能;需开源扩展实现AI能力 Nimble 基础任务提醒;流程简化;社交数据集成 社交数据+客户基本信息整合;客户行为/需求视图;个性化标签分类 基础漏斗可视化;阶段进展跟踪;简单转化率统计 轻量级文档追踪;合同状态/存储管理;基础流程覆盖 智能提醒;客户关系建议;社交互动AI辅助 二、分维度深度横评
1. 销售自动化:从线索到回款的全流程效率革命
子维度对比
子维度 领先品牌核心优势 差异化特点 线索处理 超兔一体云:多渠道集客一键处理+市场成本均摊;Oracle CX:CPQ线索到订单全链路优化;销帮帮CRM:互动雷达捕捉客户行为 超兔支持工商搜客等精准获客,销帮帮实现企业微信素材访问轨迹跟踪 跟单流程 超兔一体云:独创三一客/商机/多方项目多模型适配;Oracle CX:全链路销售/服务协同;HubSpot CRM:任务自动分配 超兔的“点点速记”“自动日报”为独有功能,大幅降低销售记录成本 订单执行 超兔一体云:应收/开票/回款三角联动;Oracle CX:CPQ+ERP企业级联动;Freshsales:合规CPQ适配金融场景 超兔支持维修工单/外勤工单等特殊业务模型,满足小众业务需求 销售自动化流程差异节点流程图
flowchart LR
A[多渠道线索收集] --> B[线索智能分配+自动提醒]
B --> C{业务类型匹配}
C -->|小单快单| D[超兔:三一客节点自动推进+点点速记]
C -->|中长单| E[Oracle/HubSpot:商机阶段跟踪+任务自动分配]
C -->|外勤场景| F[红圈:智能路线规划+实时拜访记录]
D/E/F --> G[订单生成]
G --> H{执行规则适配}
H -->|多模型业务| I[超兔:服务/实物/特殊单工作流+应收三角联动]
H -->|合规需求| J[Freshsales:CPQ合规审查+订单联动]
H -->|企业级整合| K[Oracle:CPQ+ERP联动+全链路追溯]
I/J/K --> L[回款跟踪+自动报表生成]2. 客户视图:360°画像与生命周期精细化管理
子维度对比
子维度 领先品牌核心优势 差异化特点 数据整合能力 Oracle CX:全链路营销/销售/服务数据整合;超兔一体云:工商/通信/外勤数据多源整合;Nimble:社交数据深度整合 超兔自动补全工商信息、标记经纬度,销帮帮整合企业微信行为数据 个性化配置 超兔一体云:跟单时间线+客户分组自定义;简道云:零代码视图/布局搭建;SuiteCRM:开源字段定制 超兔的“跟单时间线”为独有功能,直观呈现客户全跟进历程 生命周期管理 超兔一体云:自动客池划分;销帮帮CRM:客户健康度提醒;红圈CRM:客户流失预警 超兔根据跟进状态自动归类需求培养/有需求/上首屏等客池,精准匹配跟进策略 客户视图核心构成脑图
mindmap
root((客户视图核心构成))
基础数据层
超兔: 工商补全+通信集成+外勤拜访记录
Oracle: 营销/销售/服务全链路数据
Nimble: 社交平台互动数据
销帮帮: 企业微信行为轨迹数据
可视化呈现层
超兔: 跟单时间线+客户分级分组视图
HubSpot: 单一客户互动时间轴
简道云: 零代码自定义布局
生命周期运营层
超兔: 自动客池划分+阶段跟进提醒
销帮帮: 客户健康度评分+维护提醒
红圈: 客户流失预警+需求挖掘3. 销售漏斗管理:可视化监控与转化率提升
子维度对比
子维度 领先品牌核心优势 差异化特点 阶段自定义 Pipedrive:拖拽式自定义销售管道;超兔一体云:多模型适配不同业务漏斗;简道云:零代码流程搭建 超兔针对小单/中长单/多方项目设计不同漏斗逻辑,适配性更强 可视化监控 HubSpot CRM:拖拽式可视化管道;超兔一体云:阶段节点自动推进预警;Freshsales:漏斗健康度分析 超兔的阶段节点自动推进,减少销售手动操作成本 数据分析支持 Oracle CX:企业级BI分析;超兔一体云:同比环比引擎;红圈CRM:销售达成预测 超兔支持多表聚合/关联表复合查询,深入挖掘漏斗数据价值 销售漏斗监控时序图
sequenceDiagram
participant 销售代表
participant CRM系统
participant 销售经理
销售代表->>CRM系统: 更新商机阶段/跟进记录
CRM系统->>CRM系统: 自动计算阶段转化率/预期成交日期
CRM系统->>销售代表: 超兔: 三一客节点提醒+AI待办;Freshsales: Freddy AI成交预测
CRM系统->>销售经理: 超兔: 销售目标分解报表;Oracle: 全链路漏斗健康度报告;红圈: 外勤商机分布统计
销售经理->>销售代表: 基于漏斗数据调整跟进策略/资源分配4. 合同管理:全生命周期与风险管控
子维度对比
子维度 领先品牌核心优势 差异化特点 业务模型支持 超兔一体云:服务/实物/特殊单多模型;Oracle CX:CPQ多场景合同配置;八百客CRM:成熟全生命周期 超兔支持维修工单/外勤工单等特殊业务,覆盖小众场景需求 执行管控 超兔一体云:应收/开票/回款三角联动;Oracle CX:合同变更/合规管控;销帮帮CRM:合同到期提醒 超兔设置参数后自动触发智能应收,自动拆分多期并计算金额,规避账期风险 数据追溯 Oracle CX:全链路数据追溯;超兔一体云:客户/采购/库存跨模块关联;简道云:自定义数据关联 超兔实现合同与客户、采购、库存等模块深度联动,一键追溯全流程数据 5. AI能力:业务融合与场景化赋能
子维度对比
子维度 领先品牌核心优势 差异化特点 业务融合 超兔一体云:AI智能体嵌入客户/行动视图+业务数据入参;HubSpot CRM:Breeze AI整合CRM数据;Freshsales:Freddy AI分析漏斗数据 超兔AI智能体可直接调用Coze工作流,实现AI与业务流程深度联动 场景化应用 超兔一体云:AI日报/待办/行业SOP;HubSpot CRM:Breeze Copilot/Agents;Freshsales:语音转文字+跟进建议 超兔的AI日报为独有功能,自动分析当日工作数据生成专业报告 定制化能力 超兔一体云:低门槛AI智能体自定义;Oracle CX:企业级AI配置;简道云:第三方AI集成 超兔无需代码即可自定义AI智能体,适配企业个性化业务需求 三、综合能力雷达图评分(满分10分)
品牌 销售自动化 客户视图 销售漏斗 合同管理 AI能力 综合评分 超兔一体云 9 9 8 8 9 8.6 Oracle CX 10 10 9 10 9 9.6 HubSpot CRM 8 9 8 7 9 8.2 Freshsales 8 8 8 7 9 8.0 销帮帮CRM 8 8 7 7 7 7.4 Pipedrive 7 6 8 4 7 6.4 简道云 7 7 7 5 3 5.8 八百客CRM 8 7 7 8 4 6.8 红圈CRM 7 7 7 5 6 6.4 SuiteCRM 6 7 6 6 2 5.4 Nimble 6 7 6 5 6 6.0 评分说明
四、选型建议
五、总结
近日,AI 原生应用开源开发者沙龙·上海站圆满落幕。本场活动吸引了 120+ 名技术从业者深度参与,聚焦 AI 原生应用架构领域的开源技术与落地实践, 围绕 AgentScope Java 1.0 发布、HiMarket、Higress、LoongSuite、RocketMQ 等议题展开深度分享,并设置了动手实操环节。 关注「阿里云云原生」公众号,后台回复:0127 免费获得上海站讲师 PPT 合辑 AgentScope 是阿里巴巴推出的一款以开发者为核心,专注于智能体开发的开源框架,是继 ModelScope 在 AI 智能体领域的战略级产品。AgentScope Java 提供生产级能力支持,覆盖从开发到持续进化的全流程。核心优势包括:领先的开发范式,默认提供 ReAct 范式、实时介入、高效工具调用和强大的内置工具;开箱即用的且生产就绪的企业级能力;强大的生态帮助开发者开发一个越用越好用的智能体。 HiMarket 是企业级 AI 开放平台,提供 AI 应用落地的最短路径,集 AI 场景创新、市场构建与治理于一体。支持自然语言对话、文生图、联网搜索等快速验证,构建 Agent、模型、MCP 等多类型 AI 资源共享市场,并具备统一权限、安全审核、计量计费等治理能力。平台采用云原生与 AI 原生架构,基于 Higress 和 Nacos 实现,通过开源推动生态共建,助力企业实现 AI 应用的规模化、合规化与货币化,应对 AI 普及中的管理、安全与成本挑战。 Higress 已从云原生 API 网关升级为 AI 原生智能网关,在模型集成、工具调用、安全合规与稳定性保障等方面提供丰富而先进的能力;将在 v2.2.0 版本中全面兼容最新版 Gateway API 与 Gateway API Inference Extension (GIE),支持基于 GIE 的推理服务智能负载均衡能力;同时持续联动 AgentScope、Dify 等生态,共建 AI Infra 与 AI 应用双轨体系,推动开源协同与开发者共建。 LoongSuite 是面向多模态 Agent 时代的高性能可观测性开源方案,将传统文本日志升维为可检索、可分析的“认知资产”;创新兼容 OpenTelemetry 语义标准(含 Modality 规范),通过异步采集、解耦数据结构、剔除 Base64 冗余等技术,突破现有方案在查询效率、性能损耗等“四大硬伤”;已支持 Python/Java/Go 及 LangChain、DashScope 等 AI 框架,致力于打造最懂生成式 AI 的端到端可观测套件。 RocketMQ 面向 AI 应用场景推出异步架构升级,首创轻量级事件载体 LiteTopic,支持百万级动态队列、自动生命周期管理及差异化/独占订阅模型;基于此实现用户级精细化流控与全异步 AI 会话网关等场景,具备断连恢复、无状态重连能力,解决了 AI 场景下的多智能体(Multi-Agent)通信、大规模任务调度及长会话状态管理等问题,为构建企业级 AI 应用与微服务应用提供可靠异步通信基础设施。 此外,现场设置了动手实操环节,讲师详细介绍了如何基于 AgentScope 搭建狼人杀小游戏,以及如何通过 RocketMQ 实现多智能体异步通信,并带领用户现场动手实操,互动交流热烈。精彩回顾
议题一:AgentScope Java 1.0 发布丨何家欢(屿山) AgentScope Maintainer Alibaba Sentinel PMC

议题二:HiMarket:企业私有化 AI 开放平台丨徐靖峰(岛风) Higress Maintainer & HiMarket Maintainer

议题三:Higress for Gateway API: 兼容新一代标准的推理服务智能路由丨赵源筱(如漫) Higress Maintainer

议题四:LoongSuite 在多模态 Agent 时代的观测新解法丨余韬(迅飞) LoongCollector Maintainer LoongSuite Contributor

议题五:Apache RocketMQ for AI:面向 AI 应用的异步解决方案丨张硕(墨岭) RocketMQ Maintainer

现场精彩瞬间






工时表和工时日志在项目管理中至关重要,因为它们能帮助所有人清晰地了解工作时间的分配情况。工时表用于记录员工的总工时,而工时日志则记录每项任务或活动所花费的时间。对于初学者来说,这仅仅意味着记录完成了哪些工作以及花费了多少时间。这样就能更清楚地了解各项任务的耗时是否超出或低于计划。 这些记录能帮助项目经理以简单的方式跟踪项目进度。当他们了解每项任务所花费的时间后,就能检查项目是否按计划进行或是否落后。如果某项任务耗时过长,他们可以迅速找到问题并加以解决。工时日志还有助于规划未来的项目,因为经理可以利用过去的工时数据更准确地估算工作量。 工时表和工时日志对于成本管理也十分有用。许多项目都根据工时计算成本,因此跟踪工时有助于确保预算不超支,并保证客户账单的准确性。此外,它们还能通过展示每个人对项目的贡献来促进公平性和责任感。总的来说,工时表和工时日志有助于团队保持组织性、更好地管理时间、控制成本并成功完成项目,使其成为项目管理的重要组成部分——尤其对于初学者而言。 Zoho Projects 中的工时表提供详细的布局,用户可以在此记录分配给他们的任务、问题或其他一般工作的工时。工时表会记录时间段、计费类型、审批状态、备注和工时成本等详细信息。此外,您还可以自定义此布局,添加更多字段,帮助组织深入了解工时记录。您可以添加每日或每周工时记录,以列表、网格或日历的形式查看记录,还可以筛选以查看所需的记录。 Zoho Projects 中的全局计时器允许用户在一个窗口中跟踪所有任务的当前运行计时器。您可以在此处为任务和问题添加计时器。浮动计时器允许您从 Zoho Projects 中的任何屏幕监控时间日志,即使在用户切换不同模块时,也能始终查看计时器。Zoho Projects 将时间跟踪分为两部分:时间日志和工时表。时间日志记录用户在门户中针对特定工作项所花费的时间;工时表则将多个时间日志合并在一起。工时审批可以根据需要,依据时间日志或工时表进行。Zoho Projects 提供多种默认报告,用于分析已记录的工时表数据。工时表报告既可全局查看,用于跟踪组织内的所有项目,也可按项目查看,根据特定项目的工时表数据绘制图表。
组织通常会同时处理多个项目,每个项目的需求各不相同。有些项目需要手动记录时间,而有些项目则更倾向于使用可随时开启和关闭的自动计时器。除了“工时表”模块外,Zoho Projects 还支持在任务中手动记录工时。要添加记录,请选择任务并导航至“工时表”选项卡,选择用户名,然后输入每日工时记录。Zoho Projects 支持使用计时器进行自动时间跟踪。任务详情页面上会显示一个计时器图标。用户开始处理任务时,可以点击该图标启动计时器。用户在休息时也可以暂停计时器,并在稍后重新启动。当用户停止计时器时,记录将添加到工时表中。