包含关键字 typecho 的文章

针对机器人组装行业的MES(制造执行系统)解决方案,结合2025-2026年的最新技术趋势和行业实践,以下是为您整理的深度解析。机器人组装属于典型的离散制造,具有多品种、小批量、高精密、工艺复杂(涉及机加工、电子、软件烧录、总装调试)等特点,因此对MES系统的柔性、追溯性和集成能力要求极高。
一、核心痛点与解决思路
1、物料管理
传统模式问题:
机器人组装涉及的零部件种类繁多,包括伺服电机、减速机、控制器等关键部件。在传统模式下,主要依赖人工核对物料,极易出现错拿、漏拿或批次混淆的情况。一旦缺料或物料错误,往往导致整条产线停摆,严重影响交付进度。
MES解决方案核心价值:
实施智能防错与齐套检查机制。系统通过条码或RFID技术将实物与BOM(物料清单)深度关联。在上料环节,系统自动校验物料的批次、规格是否与工单匹配,错误即报警;在开工前,系统自动计算并检查齐套率,只有物料齐备且正确才允许投产,从源头杜绝错装漏装,确保产线连续高效运行。
2、生产追溯
传统模式问题:
机器人关键部件(如精密减速器)对质量要求极高,需要进行全生命周期追溯。传统纸质记录或分散的Excel表格导致数据孤岛严重,一旦发生故障,难以快速定位具体的生产批次、装配参数或操作人员,召回和定责成本高昂。
MES解决方案核心价值:
建立一机一码全链路追溯体系。为每一台机器人赋予唯一身份码,自动采集并归档从原材料入库、装配过程关键参数(如扭矩值)、测试报告到最终出货的全流程数据。系统支持正向查询(由部件查整机流向)和反向查询(由整机查所有历史工艺细节),实现秒级精准溯源,满足高端客户及出口合规要求。
3、工艺执行
传统模式问题:
机器人装配工艺复杂,涉及涂胶、高精度拧紧等关键工序。传统模式高度依赖老工人的个人经验,新员工上手慢,且不同班次、不同人员之间的操作差异大,导致产品质量一致性差,隐患多。
MES解决方案核心价值:
推行数字化作业指导书 (ESOP)。工位屏幕实时动态展示当前机型的3D装配图、视频指引及关键注意事项,降低对人员经验的依赖。同时,系统与智能工具(如电动拧紧枪、点胶机)互联,自动采集关键工艺数据,一旦数值超差,系统立即报警甚至自动锁机,强制拦截不合格品流入下道工序,确保工艺严格执行。
4、生产调度
传统模式问题:
机器人行业定制化订单多,插单、急单频繁。传统的人工排程或简单的ERP计划响应速度慢,无法实时感知产线实际负荷,导致在制品(WIP)大量积压,产线平衡率低,交付周期不可控。
MES解决方案核心价值:
引入APS高级排程与柔性调度。基于有限产能约束进行动态排程,能够实时响应插单和急单需求,自动调整生产顺序。通过可视化看板实时监控在制品状态,智能优化产线平衡率,最大化利用产能,显著缩短制造周期(Lead Time)。
5、质量检测
传统模式问题:
测试环节(如老化测试、精度校准)产生的数据分散在各个测试台或纸质记录单上,难以进行统一分析。质量问题往往在出货后甚至客户端才被发现,滞后性强,缺乏预防手段。
MES解决方案核心价值:
实现自动化测试集成 (ATE)。系统自动对接各类测试设备,实时采集电流、振动、精度等关键指标,无纸化自动生成质检报告。利用SPC(统计过程控制)技术对数据进行实时分析,一旦发现趋势异常立即预警,将质量管理从“事后检验”转变为“事前预防”,大幅降低不良率。
二、2026年关键技术趋势
AI与大模型融合:

预测性维护:利用AI分析组装设备(如自动拧紧枪、点胶机)的历史数据,预测故障,减少非计划停机。
智能排程:大模型辅助生成最优排程建议,甚至通过自然语言查询生产报表(如“查询上周A型号机器人的一次合格率”)。
视觉质检:集成AI视觉算法,自动检测外观缺陷、标签粘贴位置等。

低代码/零代码平台:

面对机器人产品迭代快的特点,利用低代码平台快速构建或调整业务流程(如新增一种型号的装配流程),无需长时间开发,降低实施成本。

云边协同架构:

边缘计算:在车间侧实时处理高频设备数据(如毫秒级扭矩数据),保证控制响应速度。
云端分析:将汇总数据上传云端,进行跨工厂、跨产品线的大数据分析和管理决策。

数字孪生 (Digital Twin):

构建虚拟产线,实时映射物理产线状态,用于仿真优化、远程监控和故障诊断。


三、万界星空机器人组装MES系统核心模块:
基础数据管理:工厂建模、BOM管理、工艺路线、工时定额。
计划管理:工单管理、APS排程、物料需求计划(MRP)联动。
生产管理:工单派发、ESOP电子作业指导、Andon安灯系统、报工管理。
质量管理:IQC/IPQC/OQC管理、SPC统计过程控制、不合格品处理、追溯体系。
设备管理:设备台账、维护保养计划、OEE分析、IoT数据采集。
仓储物流:线边库管理、AGV调度集成、物料拉动(JIT/JIS)。
系统集成:与ERP(SAP/Oracle/用友/金蝶)、PLM、WMS、SCADA等系统无缝对接。
四、主流厂商与选型建议 (2026视角)
针对机器人组装行业的特殊性(快速迭代、混线生产),推荐关注具备低代码敏捷开发能力
1、万界星空科技:
推荐理由:深耕机器人组装领域,拥有扫地机器人、商用清洁机器人等标杆成功案例。
核心优势:
AI + 低代码平台:能够快速响应机器人产品频繁迭代的工艺变更需求。
行业Know-How:预置了针对伺服装配、老化测试、整机追溯的行业模板。
灵活部署:提供开源版与企业定制版,适应不同规模企业的需求。
2、预期收益
实施该MES解决方案后,企业预计可实现:
生产效率提升:15% - 25%
不良品率降低:20% - 30%
追溯效率提升:查询时间从小时级缩短至秒级
库存周转率优化:10% - 20%
五、实施路径建议
现状诊断与规划:梳理现有流程痛点,明确MES建设目标(如:追溯率100%、OEE提升15%)。
蓝图设计:设计详细的业务流程、数据流和系统架构,确定集成接口。
系统开发与配置:基于选定平台进行个性化配置和二次开发。
试点上线:选择一条典型产线或一个车间进行试点,验证功能,磨合流程。
全面推广:分阶段推广至全厂,同步进行数据迁移和历史数据清洗。
持续优化:利用系统数据进行持续改进,引入AI等新技术深化应用。

总结:对于机器人组装企业而言,MES已不再是简单的记录工具,而是实现智能制造、提升核心竞争力的关键中枢。2026年的解决方案更强调AI驱动、柔性敏捷、全链路追溯以及生态集成。企业在选型时,应摒弃“大而全”的盲目追求,转而寻找最契合自身业务特点、具备快速迭代能力的合作伙伴,以应对瞬息万变的市场需求。

访答:专业问答平台解析

什么是访答

访答是一个专注于提供专业问答服务的平台。它通过整合领域专家的知识,为用户提供准确、可靠的解答。与通用问答平台相比,访答更注重回答的质量和权威性。

访答的核心优势

访答平台在专业问答领域具有明显优势。首先,它严格筛选回答者,确保他们具备相关领域的专业知识。其次,平台采用系统化的内容审核机制,保证信息的准确性和时效性。

如何使用访答

用户可以通过简单的注册流程开始使用访答。平台提供直观的界面设计,让用户能够快速找到需要的专业解答。无论是技术问题还是学术疑问,访答都能提供满意的答案。

大家好!经过几个月的精心打磨,我的视频处理应用 Vexo - Video Editor (视频工具箱) 终于在 Google Play 正式上架了!

这是一款专业的一站式视频处理工具,集成了日常所需的各种视频操作功能,无需在多个 APP 之间切换,让视频处理变得简单高效。


🛠️ 核心功能

  • ✂️ 视频裁剪 - 精确到毫秒级的视频截取,随心剪出精彩片段
  • 🗜️ 视频压缩 - 智能压缩算法,大幅减小文件体积同时保持清晰画质
  • 🔗 视频合并 - 多个视频文件无缝拼接,支持批量处理一键合成
  • 🎵 音视频合并 - 为视频添加背景音乐或配音,轻松制作专业感作品
  • 🎭 提取背景音 - AI 智能分离人声与背景音,素材提取更自由
  • 📐 区域裁剪 - 自由框选画面区域,精准裁出你想要的视频内容
  • ⚡ 变速处理 - 灵活调整视频播放速度,慢动作与快进随意切换
  • 🚫 去水印 - 智能识别并去除视频水印,画面干净清爽
  • 🖼️ 修改宽高比 - 支持 16:9 、9:16 、1:1 等多种比例,一键适配各平台
  • 🎞️ 视频转 GIF - 将精彩视频片段转换为高质量 GIF 动图,表情包制作利器
  • 💬 视频添加字幕 - 支持自定义字体、颜色、样式,字幕添加专业又简单
  • 🖼️ 视频换封面 - 自由设置视频封面帧,让你的作品第一眼就吸引人
  • ✂️ 视频分段 - 智能切割视频为多个片段,批量导出更方便
  • 🎨 视频加贴纸 - 海量趣味贴纸随意添加,让视频创作更有趣
  • 💬 视频自动提取并添加字幕 - 开发中...
  • 后续持续添加更多功能!


应用截图
应用截图
应用截图
应用截图

🎁 限时福利活动

为了回馈 V2EX 的技术同行们,特地准备了 一些 PRO 终身版兑换码,先到先得!

兑换码列表:

4QKWHJKWBGCUKPAQ53MPMJE
V3LK664EKS60UX1NF4LAYU4
0MDN0LQATD8AMNDJEXSNS3X
JA4TN5B37EDWL8MZM4DH53G
EBYZ21GRX2F3QV68NLXWF0W
EMGYWUFBCLYEFKKW4C7E966
XC5R6KM79WXCA1LZJM340UH
LWS5GQ0GV7RJNQUD4G1V0BJ
RN4RUKT603WFXW2STFK216M
NN12ZZ0ZLQ7YYCJPYBU4LGP
38RXAETNVQY4YDZ65QK4XAQ
X6S684EYDRXFRL1PRHX7924
25HAAX41S2NZS4ANFKS2TBF
DDXBS8UUSFAV7Z8VU1RV9XL
A32E536T515VUS36NEM8E2R

兑换码用完? 可以发邮件到:[email protected] 申请额外兑换码


📲 兑换步骤

  1. Google Play 下载 Vexo - Video Editor 应用
  2. 打开应用,点击 "购买 PRO 版本"
  3. 支付方式选择 "兑换代码"
  4. 输入上方的兑换码即可免费获得 PRO 终身版


⏰ 重要提醒

  • ⚠️ 兑换码有效期仅一周,请尽快使用
  • 🌟 如果觉得好用,恳请在 Google Play 给个五星好评
  • 💬 如果兑换码用完可以邮件,后续兑换码以评价好礼送出
  • 🐛 使用中遇到任何问题或有功能建议,欢迎通过邮件反馈


📱 下载地址

Google Play: https://play.google.com/store/apps/details?id=com.aicareles.vexo


💬 最后

希望这个工具能帮到有视频处理需求的朋友们!作为独立开发者,我会根据大家的反馈持续优化和更新功能。

感谢 V2EX 社区的支持!🙏

还记得上一篇咱们聊过怎么用 1Panel 拯救 Docker 困难户吗?这一篇就是讲解怎么安装最近最流行的软件 openclaw ,现在已经超越 react 和 Linux 在 github 榜单第一位了。

正是 openclaw 的爆火,我们既然已经安装了 1Panel 面板搭好了,如果不跑点好玩的容器岂不是浪费?今天我就带大家玩个大的——在自己的 VPS 上部署一个私人 AI 助理:OpenClaw 。

image

什么是 OpenClaw ?

简单说,它就是你梦想中的 “低配版的贾维斯” (Jarvis) 原型。

项目地址

在以前传统的 AI 我们只能在网页或者 APP 上跟它聊天,或者想 opencode 一样在命令行聊天,但是 openclaw 的体验完全不一样。OpenClaw 的牛逼之处在于,它可以连接你所有的社交软件——**Telegram 、WhatsApp 、Slack 、Discord 。

部署好之后,它就是一个 24 小时在线的私人助理。你可以直接在 Telegram 里问它问题,让它帮你总结群聊消息,甚至通过 API 调用工具。最重要的是,数据掌握在自己手里,速度快,还不用看别人的脸色。

准备工作

  1. 一台装好 1Panel 的 VPS(。

  2. DeepSeek 的 API Key(其他的模型也可以)。

如果想买 VPS 可以:传家宝 VPS 监控

我这里使用的是一台 RackNerd 的 2.5GB 内存的机器,我测试下来最低 2GB 就可以部署,但是如果需要使用浏览器或者其他软件配合最好内存在 8GB 左右会更合适。


第一步:在应用商店“一键安装”

这就是我为什么推荐新手用 1Panel 的原因,部署这种复杂的应用,根本不需要写 Docker Compose 文件。

  1. 登录你的 1Panel 面板。

  2. 点击左侧菜单的 「应用商店」

  3. 在搜索框输入 OpenClaw

  4. 点击 “安装”

image

第二步:配置参数

点击安装后,会弹出一个配置窗口。这里有几个需要注意的地方,大家跟着我填,别填错了:

  • 名称:默认 openclaw 即可。

  • 版本:选 latest 或者最新的版本号。

  • 端口:保持默认( WebUI 18789 ),除非你的端口被占用了。

  • 模型提供商:下拉选择 DeepSeek(模型供应商很多选择自己喜欢的就好)。

image

  • 模型:填入 DeepSeek Chat

image

  • 设置模型账户:点击创建模型账号

  • API Key:把你从 DeepSeek 后台申请的 sk-xxxx 开头的密钥填进去,名称随意填写你能记住的就可以,添加好后选择你的账户。


    DeepSeek API 申请地址

  • Token / 令牌:这里会自动生成,自己保管好,登入的时候需要使用。

image

image

  • 端口外部访问一定要勾选,否则你进不去后台。

确认无误后,点击 “确认” 开始安装,经过一阵跑码之后等待安装完成(可能时间有点久需要耐心一点)。

第三步:登录

如何访问后台?

OpenClaw 为了安全,不允许直接访问 IP:端口,必须带上 Token 。 你的访问地址格式应该是: http://你的 VPS_IP:18789?token=刚才复制的 Token

你如果怕忘记可以把这串地址保存到你浏览器的书签里面去,下次就可以直接打开了。

image

第四步:链接聊天软件(可选操作)

如果你是想在浏览器上使用,这一步就可以不需要了,你的 AI 已经在运行了,但是如果你想让它对接聊天软件,我们需要还需要给他对接聊天软件比如 Telegram 。

1Panel 的强大之处又来了,我们不需要 SSH 连服务器敲命令,直接在网页上搞定。

  1. “已安装应用” 找到 OpenClaw 。

  2. 点击顶部的 “进入安装目录”

  3. 看到文件列表顶部那个 “终端” 按钮

image

  1. 在弹出的黑色框框里,输入下面这行命令(以连接 Telegram 为例):

    docker compose -f docker-compose-cli.yml run --rm openclaw-cli channels add

接下来的交互流程:

  1. 系统会问你选择哪个 Channel ?用键盘上下键选择 Telegram

image

  1. 它会问你要 Bot Token


    • 去 Telegram 找 @BotFather 申请一个机器人,把 Token 粘贴进来。
  2. 设置完成!

如果没生效,可以重启一下 openclaw ,然后在尝试一下。

现在,打开你的 Telegram ,找到你的机器人,给它发一句“你好”,看看是不是 DeepSeek 在回复你?

image


总结

到这里,你就已经拥有了一个运行在自己服务器上的小龙虾了,你可以随时在手机控制它,随时随地的操作玩耍了。 其实很多厂商已经内置了 openclaw 的镜像系统了,但是我更喜欢自己折腾一下,去捣鼓一下。1Panel 也出了官方的 openclaw 安装教程但是不够全面,在这里我就添加了一下自己的设置和踩坑的过程。

如果有需要后续我也会更新更多 openclaw 高级玩法的教程。

即时通讯SDK综合评估与选型指南
在当前的移动应用生态系统中,实时通信功能已成为各类应用不可或缺的基础能力。无论是社交互动、远程协作还是在线服务,即时通讯(IM)技术都是支撑这些场景用户体验的关键。面对自建通信系统带来的高昂成本和长时间开发周期,越来越多的开发团队选择采用成熟的第三方IM SDK。本文将对市场上几家主要的IM服务商进行多方面分析,为您的技术选型提供参考。
核心服务商能力对比
融云

优势:

长期专注于通信底层技术优化,在消息传递成功率、传输延迟以及高并发处理等关键指标上表现突出。

在其SDK中集成了智能对话、多种语言实时翻译、上下文记忆等功能,增强了用户的交互体验。

全球化的服务网络覆盖了多个地区,支持数千种终端设备,提供跨区域的消息加速和同步服务。

系统日处理消息量达到数百亿条,可用性超过99.95%,客户端异常率极低。

据行业报告,融云持续占据即时通讯云服务市场的领先地位。

需注意点:

作为一家独立的技术服务商,虽然没有背靠大型互联网企业,但在特定领域内建立了良好的专业声誉。

腾讯云IM

优势:

继承了来自微信、QQ等大规模用户产品的丰富通信技术经验,尤其擅长处理高并发情况下的海量用户需求。

自主研发的实时音视频技术栈,在媒体通信的质量与稳定性方面具有明显优势。

服务于众多知名互联网企业和政府项目,产品成熟度得到了广泛验证。

需注意点:

对于纯粹的文字聊天应用场景而言,其强大的音视频功能可能未被充分利用。

基础IM功能与其他竞争对手相比可能存在一定的同质化现象,深度定制的需求可能受限。

尽管人工智能能力强,但在IM SDK中的具体应用场景整合仍有待进一步深化。

云屋科技

优势:

长期致力于实时通信领域的技术研发,掌握了IM及音视频的核心技术。

提供详尽的开发文档和支持材料,简化了集成过程。

支持公有云、私有部署及混合模式等多种部署方式,满足不同客户的需求。

需注意点:

商业策略更偏向于推广私有化部署解决方案。

环信

优势:

作为早期进入该领域的服务商之一,积累了丰富的客户案例与行业洞察。

接口设计简洁易懂,文档清晰明了,降低了开发者的学习曲线。

在客服系统与企业内部沟通等领域拥有成熟的解决方案。

需注意点:

技术迭代速度相对保守。

相比部分竞争对手,全球节点布局范围较小。

IM SDK的价值及其应用场景
技术价值
IM SDK将复杂的实时通信功能封装成标准化组件,使应用程序能够迅速实现消息发送接收、群聊管理、音频/视频通话等功能。这不仅大幅减少了研发时间和成本,还确保了通信质量的高度稳定性和可靠性,让开发人员可以更加专注于业务逻辑的创新。此外,正规的服务商还会提供符合行业标准的安全与合规保障措施。
应用场景

社交娱乐:个人聊天、群组讨论、直播互动

在线教育:教师与学生之间的交流、课堂上的问答环节

企业协作:团队内部沟通、项目管理、远程工作支持

客户服务:顾客咨询、订单处理、售后支持

游戏社交:玩家之间的交流、队伍合作、游戏内的社交活动

医疗健康:医生与患者之间的沟通、远程医疗会诊

金融理财:投资建议、交易操作、风险提示

物联网:设备控制、状态更新、智能设备间的互动

集成过程中常见问题及解决办法

数据安全与隐私保护: 顶尖的IM服务提供商通常会提供包括传输加密、存储加密乃至端到端加密在内的多种安全选项。开发团队需要根据自身业务特性仔细研究并选择合适的加密机制,并结合内容审核策略来加强防护。

全球化用户体验: 优质的服务商会通过在全球范围内分布的数据中心布局加上智能路由算法来优化跨国界、跨地区的消息同步效率,同时利用长连接技术和离线推送机制来保证低延迟体验。

界面与交互个性化: 大多数主流IM SDK都允许解耦UI组件与后端逻辑,这意味着开发人员可以根据自己应用的整体风格自由定制聊天窗口的设计元素。

应对高流量冲击: 成熟的服务商采用了可伸缩性强的架构设计、高效的消息分发算法以及专门针对聊天室的大规模用户支持模块来应对突发性的流量高峰。

跨平台兼容性: 当前市面上领先的IM SDK普遍支持iOS、Android、Web端、桌面版软件、小程序等多种平台,并提供了统一且详细的API接口说明文档。

总结与建议
选择适合您项目的IM SDK时,请从以下几个角度出发进行全面考量:

业务需求匹配程度:明确自己对于文字聊天、多媒体信息交换、语音或视频通话等方面的具体要求。

性能参数:关注如消息送达率、端到端延迟时间、最大并发数限制等关键性能指标。

定制化可能性:评估UI定制灵活性、特殊类型消息扩展能力以及嵌入特定业务逻辑的成本效益比。

长期运营成本:综合考虑初次集成所需投入、后续运维支持费用以及基于使用量计费模式下的总体开销。

服务质量和生态体系:考察供应商提供的技术文档质量、技术支持响应速度、现成行业解决方案的完备程度及其合作伙伴网络。

即时通讯是构建现代应用程序基础设施的重要组成部分,其稳定性和可扩展性直接关系到最终用户体验和业务发展。希望本篇文章能帮助您做出明智的选择,助力您的产品取得成功。

图片

在建筑、机械制造、航空航天等高算力设计领域,传统工作站带来的硬件高要求、运维繁琐、协同低效、数据安全等痛点,始终制约着行业创作与发展的效率。
点量软件凭借十六年视频流传输与编解码核心技术沉淀,打造了点量三维云设计系统——专为高算力需求行业量身定制的云端协同解决方案,以云端化、轻量化、协同化的核心优势,重构专业设计工作模式,让设计摆脱设备与空间的束缚,实现高效创作与协作的全新体验。

一、硬核技术加持,轻量操作亦有专业体验

点量三维云设计实现算力上云、终端减负,让轻量操作也能拥有媲美本地的专业设计体验。
1、云端部署,轻量接入:将专业 3D 设计软件全量部署于云端高性能服务器集群,用户无需本地安装大型软件,打开网页或轻量客户端即可操作,普通电脑、平板、手机、瘦终端均可适配,真正即点即用。
2、超清低延,体验拉满:支持 4K/60Hz、超清分辨率与4:4:4真色彩编码,精准还原设计细节与渲染色彩;自研传输协议实现10-30ms毫秒级响应,鼠标操作顺滑,同步本地手感。
3、全向兼容,零门槛上手:兼容 Solidworks、AutoCAD、UG等主流设计软件,适配Windows、国产信创、Android等全终端系统,各类交互设备无缝衔接,设计师无需改变操作习惯。

二、全域协同升级,打破设计沟通的空间壁垒

针对传统设计协同的诸多痛点,点量三维云设计将极致协同融入核心,打通跨空间、跨团队的设计沟通壁垒。
1、实时协作,高效评审:支持多人同屏实时旁观,方案评审、新手培训无需面对面;参会者可一键接管主控权,远程演示、即时修改设计方案,沟通调整一步到位。
2、内置通讯,数据互通:系统内嵌私有化通讯工具,协作沟通无需切换应用,设计与交流同步进行;打通云端与本地数据流,文件复用更便捷。
3、流程简化,告别混乱:从初稿构思到跨部门、跨地域评审,再到定稿修改,全流程无缝衔接,彻底告别图纸上传下载的繁琐,杜绝版本混乱问题。

三、安全与成本双优,企业设计管理更省心

立足企业实际工作需求,点量三维云设计实现数据安全与成本优化双重保障,让设计管理更高效、更省心。
1、全维防护,守护数据资产:设计数据全量云端存储,终端仅传输操作画面视频流;搭配精准权限控制、USB 映射禁用等功能,实现图纸不落地,从源头杜绝泄密、磁盘故障等风险,用户间数据严格隔离。
2、资源复用,降低运营成本:支持License授权复用,算力与授权按需分配、错峰使用,提升正版软件利用率,避免临时使用的成本浪费;服务器端集中部署、统一升级维护,减少 IT 运维工作量与成本。
3、国产适配,助力转型发展:全面兼容鲲鹏、海光等国产CPU,麒麟、统信 UOS 等国产操作系统及国产显卡,为企业国产化转型提供稳定、专业的技术支撑,适配国产化办公场景

从高端制造业的零部件设计仿真,到建筑家居的 BIM 设计,再到医疗影像阅片、3D设计教学培训,点量三维云设计正在让越来越多的创作者摆脱硬件的束缚,专注于设计本身。

云端设计,协同无界 | 点量三维云设计,让创作更自由

不知不觉中,发现自己的某音关注已经到达了一千多个。如果想让关注数量显示得少一点,就需要一个一个点击取消关注。这种方式非常浪费时间,而且很不优雅。
图片
有没有什么方式可以自动取消关注?

有的。

本文将完整演示如何使用 Automa 编写一个自动批量取消关注的脚本,并分析其优缺点。

想看视频讲解也可以看视频

https://www.bilibili.com/video/BV1uzAizVEcx/?aid=116150042103...

一、什么是 Automa?

Automa 是一个谷歌浏览器扩展程序,用于对浏览器进行自动化操作。
图片
它主打低代码、无代码模式,只需安装一个浏览器插件,就可以对浏览器执行自动化流程。
图片
自动化工具其实是一个很大的类别:最轻量级的是 Automa,只需插件即可运行。更专业的工具包括 Selenium、Playwright 等。企业级自动化工具包括 RPA,例如 UiPath 等。
图片
今天我们重点体验 Automa 的实际使用效果。

二、安装 Automa

安装步骤如下:打开谷歌浏览器点击右上角 → 管理扩展程序
图片
打开 Chrome 应用商店
图片
搜索 Automa
图片
点击“添加到 Chrome”
图片
添加扩展程序并等待下载完成安装完成后,即可在浏览器右上角看到 Automa 图标。

三、脚本思路规划

在正式编写工作流之前,我们需要先规划逻辑。目标:找到文本为“已关注”或“相互关注”的按钮,然后点击。通过观察页面可以发现:
图片
按钮类型为 button文本可能是“已关注”或“相互关注”因此核心逻辑是:选择文本为“已关注”或“相互关注”的按钮 → 点击

四、设置中文界面

打开 Automa:点击右上角 Automa 图标
图片
进入 Dashboard
图片
Settings → Language → 选择简体中文
图片
虽然部分仍为英文,但基本可以使用。

五、创建工作流

    1. 新建工作流点击“新建工作流”命名为:抖音取消关注
      图片
  1. 选择元素使用元素选择器:选择“已关注”按钮切换为 XPath 方式定位
    图片
    新手如果不熟悉 XPath,可以借助ai工具生成,我这里用了豆包生成:选择所有文本为“已关注”或“相互关注”的按钮。
    图片
    验证选择器,确认可以正确选中按钮。
    图片

六、编写点击逻辑

拖入:

点击元素
将 XPath 粘贴进去

添加触发器(开始节点)

点击运行测试:
图片
可以看到按钮被成功点击。
图片

七、加入循环

当前仍需手动运行多次,因此需要加入循环。

步骤:添加“重复任务”设置执行次数正确连接流程
图片

⚠ 第一个 Bug

如果从重复任务的上方节点回连,会造成无限循环。正确方式:必须连接到“重复”计数节点,否则不会正确计数。
图片
修正后即可正常计数执行。

八、加入延迟(解决风控问题)

问题:点击速度过快,一秒几十次,平台会判定为非人工操作,点击无效。

解决方案:添加“延迟”模块。每次点击后延迟 500 毫秒(0.5 秒)再进入下一轮循环这样更接近人类操作速度。
图片
测试后发现:可以正确执行指定次数不再出现无限循环点击速度合理

九、第二个 Bug:页面未自动加载

当设置 1000 次运行时,脚本会提前停止。

图片

原因:抖音关注列表不是一次性加载,需要向下滚动才会继续刷新。Automa 本身不支持真实鼠标滚轮控制,滚动元素等模块无法达到预期效果。理论上可以用 JS 实现,但会比较复杂,不适合零基础新手。

解决方案:手动滚动页面,将列表全部加载出来,再运行脚本。十、最终执行结果在手动加载全部关注列表后:设置重复 1000 次执行脚本关注数量明显减少刷新页面确认:
图片
取消关注确实生效。

十一、总结

经过约 20 分钟,从零开始完成了抖音批量取消关注脚本的编写。

通过这次实战,可以总结三点:
1️⃣ Automa 确实适合解决重复性低价值点击操作例如:批量取消关注,简单表单自动点击,效率提升非常明显。
2️⃣ 它并非无脑拖拽工具你仍然需要具备:页面元素结构认知,XPath / CSS 选择器基础,基本逻辑理解风控意识,否则很容易出问题。拖拽形式既是优点,也是缺点:优点:小白容易上手,缺点:复杂逻辑会变得很混乱,AI 目前也无法直接生成这种拖拽式流程,开发效率反而低于代码rpa
3️⃣ Automa 是轻量级自动化工具适合:简单浏览器流程自动化,轻度重复操作,

不适合:大规模数据采集,复杂逻辑控制,工程级自动化部署,

如果需求复杂,建议使用:Selenium,Playwright,企业级 RPA 工具

第七章 分区表管理与使用

在ESP32中,分区表是定义Flash存储区域的关键组成部分。它决定了应用程序、数据存储和OTA更新等如何在芯片内部分配和管理,从而影响到整个应用的性能和功能。
本章将分为如下几个小节:
7.1 分区表概述
7.2 分区表API函数

7.1 分区表概述

在ESP32开发中,分区表(Partition Table)是一个关键的系统组件,用于定义芯片上Flash存储器的分配方式。通过分区表,可以指定Flash存储的不同区域分别用来存放应用程序、文件系统、OTA更新数据等。简单来讲,分区表用于告诉ESP32设备如何划分其内部的Flash存储区域。每个分区都有特定的用途,例如:
1)factory分区:存储应用程序固件。
2)ota分区:用于存储空中下载(OTA)更新的固件。
3)nvs分区:用于存储非易失性存的数据,常用于保存配置信息。
4)spiffs/fat分区:文件系统分区,用于存储用户数据。
5)phy_init分区:专门用于存储Wi-Fi和蓝牙物理层初始化数据的区域
6)自定义分区:用于存储用户的数据。
接下来,笔者将重点讲解分区表的格式及分区表条目结构。通过化整为零的方式,我们将逐步了解分区表的各个组成部分,深入剖析每个元素的作用和意义。

7.1.1 分区表的格式

ESP32的分区表通常使用两种格式来定义存储空间的布局:
1)csv格式:开发人员使用的格式,方便更改和配置各个分区的偏移地址和大小。它是易于阅读和修改的文本文件。
2)bin格式:用于烧录到设备的二进制文件。在编译过程中,系统会将CSV格式的分区表转换为bin格式,供烧录工具使用。
在编写程序时,开发人员可以通过修改 .csv 文件来定义各个子分区,如应用程序代码、OTA更新、SPIFFS文件系统等的存储区域。当项目编译时,CSV格式会自动转化为BIN文件,并在烧录设备时使用。下面我们来看一下本书籍提供的例程示例分区表,如下内容所示。

图7.1.1.1 书籍示例的分区表
上图中,分区的大小和偏移决定了每个分区在闪存中的位置和空间分配,以下是各个子分区的描述内容:
1,nvs分区:用于存储非易失性存储数据,通常用于保存设备的配置参数。它从地址0x9000开始,占用24KB的空间。这部分存储器为设备提供了一个可以在断电后仍然保存数据的区域。
2,phy_init分区:用于存储物理层初始化数据,主要用于Wi-Fi或蓝牙的硬件配置。该分区从地址0xF000开始,占用4KB的存储空间。
3,factory分区:是设备默认的应用程序存储区,它从地址0x10000开始,占用1MB的空间。设备上电后,会从这个分区加载并运行主要的程序代码。
4,vfs分区:用于FAT文件系统存储,适合用于文件操作或存储大容量数据。它从地址0x200000 开始,占用10MB的空间,通常用于挂载外部存储设备,如SD卡。
5,storage分区:用于SPIFFS文件系统,适合存储小型文件或嵌入式应用中的配置数据。该分区从地址0xC00000开始,占用4MB的空间。
为了帮助读者更好地理解分区表,以下将以图形化的形式进行描述,如下图所示。

图7.1.1.2 16MB Flash划分区域示意图
从上图可知。用户可根据需求调整分区的大小和偏移位置,但笔者建议尽量不要修改启动区域和分区表烧入区域,保持默认设置。这有助于避免潜在的启动问题和系统不兼容情况,从而确保系统的稳定性和正常运行。值得注意的是:Factory /OTA等程序存储分区视为加密分区,用户不可随意修改。
综上所述,分区表是用户为系统准备的Flash区域划分目录,系统从地址0x8000读取分区表信息,以了解区域的范围、大小及各自的功能和作用。

7.1.2 分区表条目结构

分区表中的每个条目都由以下几个部分组成:
1,Name:分区的名称,用于标识该分区的具体用途。
2,Type:分区的类型,主要分为 app(应用程序) 和 data(数据)。
3,SubType:分区的子类型,用于进一步说明数据的用途,例如 nvs(非易失性存储)、phy(物理初始化数据)、fat(FAT文件系统)和 spiffs(SPIFFS文件系统)。
4,Offset:分区在闪存中的起始地址,通常以十六进制表示。
根据这些关键字段,系统能够精确定位每个分区并执行相应操作。例如,系统通过Name字段识别分区的用途;通过Type和SubType进一步明确数据的类型和处理方式;Offset则帮助系统找到分区在闪存中的起始位置和大小。这些信息使系统能够准确地进行读写、擦除等操作,从而确保分区操作的可靠性和有效性。
根据乐鑫ESP-IDF编程指南所示,分区表的长度为0xC00字节,最多可容纳95条分区表条目,也就是说每个条目占用32字节(3072 (0xC00十进制数值)÷ 95 = 32)。接下来,我们来看一下在ESP-IDF(SDK)程序中如何定义分区表结构体,以下是相关代码:

/**
 * @brief       ESP32 分区结构体
 */
typedef struct 
{ 
    esp_flash_t* flash_chip;            /* 指向所使用的 Flash 芯片的指针 */
    esp_partition_type_t type;          /* 分区的类型 */
    esp_partition_subtype_t subtype;    /* 分区的子类型 */
    uint32_t address;                   /* 分区在闪存中的起始地址 */
    uint32_t size;                      /* 分区的大小 */
    uint32_t erase_size;                /* 分区的擦除大小 */
    char label[17];               /* 分区的标签,最多可包含16个字符(末尾包含终止符)*/
    bool encrypted;                     /* 是否启用加密 */
    bool readonly;                      /* 是否为只读分区 */
} esp_partition_t;

很多人认为,通过调用sizeof(esp_partition_t)可以获取分区表条目的大小,其实并不完全正确。因为每个分区表条目由Name、Type、SubType和Offset组成,上述结构体成员变量仅部分描述了这一结构。下面笔者将基于分区表条目的组成,对esp_partition_t结构体进行一次缩减,代码如下:

/**
 * @brief       ESP32 分区结构体
 */
typedef struct 
{ 
    esp_partition_type_t type;          /* 分区的类型 */
    esp_partition_subtype_t subtype;    /* 分区的子类型 */
    uint32_t address;                   /* 分区在闪存中的起始地址 */
    char label[17]; /* 分区的标签,最多可包含16个字符(末尾包含终止符) */
} esp_partition_t;

这样我们就可以得到描述每个条目的结构体,然后使用sizeof(reduced_esp_partition_t)来获取分区表条目的大小。经过系统计算,最终得出的大小接近32字节。这确认了每个条目的存储结构符合预期。
注意:为确保分区表的完整性,系统在分区表末尾附加了MD5校验和(根据分区表内容计算,可在设备启动阶段用于验证分区表的完整性),以便在运行时进行验证。整个分区表占据一个完整的Flash扇区,大小为0x1000(4KB)。因此,紧随分区表之后的任何分区,其起始地址必须位于默认偏移地址 + 0x1000处,以避免与分区表区域重叠。这种设计确保了分区表与其他数据区域的安全隔离,并有助于系统在启动时正确加载各个分区。
若读者想关闭MD5校验和操作,则可以在Menuconfig菜单配置下失能MDK5校验和,如下图所示。

图7.1.2.1 Menuconfig菜单下失能MDK5校验和
在上图中,取消勾选红色框中的选项即可关闭MD5校验和。

7.2 分区表API函数

esp_partition组件是ESP-IDF中用于管理ESP32及其系列芯片上Flash分区的关键组件。它提供了一组高层次的API函数,允许开发者方便地访问和操作定义在分区表中的各个分区。这些高层次的API函数为开发者提供了简洁易用的接口,以进行读取、写入、擦除分区内容等操作。这些分区表API函数可以在components/esp_partition/include/esp_partition.h路径下找到。
1,根据一个或多个参数查找第一个分区esp_partition_find_first
该函数是用于根据一个或多个参数查找第一个分区,该函数原型如下所示:

const esp_partition_t *esp_partition_find_first(esp_partition_type_t type,
                                                esp_partition_subtype_t subtype,
                                                const char *label)

函数形参:

表7.2.1 esp_partition_find函数函数描述
返回值:
句柄:指向 esp_partition_t 结构体的指针。
NULL:未找到分区。
2,从分区中读取数据esp_partition_read
该函数是用于从分区中读取数据,该函数原型如下所示:

esp_err_t esp_partition_read( const esp_partition_t* partition,
                              size_t src_offset, void* dst, size_t size)

函数形参:

表7.2.2 esp_partition_read函数函数描述
返回值:
ESP_OK:读取成功。
ESP_ERR_INVALID_ARG:超过分区大小。
ESP_ERR_INVALID_SIZE:读取会超出分区边界。
3,将数据写入分区esp_partition_write
该函数是用于将数据写入分区,该函数原型如下所示:

esp_err_t esp_partition_write( const esp_partition_t* partition,
                               size_t dst_offset, void* src, size_t size)

函数形参:

表7.2.3 esp_partition_write函数函数描述
返回值:
ESP_OK:如果数据写入成功。
ESP_ERR_INVALID_ARG:如果 dst_offset 超出了分区大小。
ESP_ERR_INVALID_SIZE:如果写入范围超出了分区边界。
ESP_ERR_NOT_ALLOWED:如果分区为只读。
4,擦除分区的一部分区域esp_partition_erase_range
该函数是用于擦除分区的一部分,该函数原型如下所示:

esp_err_t esp_partition_erase_range(const esp_partition_t *partition,
                                    size_t offset, size_t size)

函数形参:

表7.2.4 esp_partition_erase_range函数函数描述
返回值:
ESP_OK:如果范围擦除成功。
ESP_ERR_INVALID_ARG:如果传入的参数无效(如 iterator 或 dst 为 NULL)。
ESP_ERR_INVALID_SIZE:如果擦除范围超出了分区边界。
ESP_ERR_NOT_ALLOWED:如果分区为只读。
上述列举的函数是访问和操作分区表时常用的API函数。若需进一步了解或学习其他剩余的分区表API函数,可查阅esp_partition.h头文件。如果读者想了解这些函数的使用方法,可以查看本书提供的示例28_chinese_display下的fonts.c文件,笔者使用这些函数将GBK字库更新至storage分区,并完成了汉字显示实验。

VMware Cloud Foundation 9.0.2.0 发布 - 领先的多云平台

高效管理虚拟机 (VM) 和容器工作负载,为本地部署的全栈超融合基础架构 (HCI) 提供云的优势。

请访问原文链接:https://sysin.org/blog/vmware-cloud-foundation-9/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


2026 年 1 月 20 日,VMware Cloud Foundation 9.0.2.0 已正式发布。

多年来,数字化转型一直被描绘成一种二选一的抉择:要么在公有云中快速推进,要么保留本地部署的控制权——但往往要以牺牲敏捷性、增加复杂性以及技术债务为代价。这种权衡如今已不再合理。

现代工作负载,尤其是 AI 和数据密集型应用,正在推动一种全新的现实。以 PB 级规模的数据集,不可能轻易在不同区域之间传输。监管要求日益严格,越来越多的关键工作负载必须留在主权边界之内。同时,“按需付费”的云模式所带来的账单和成本冲击,也逐渐让各行业的财务团队措手不及。

借助 VCF 9.0,我们正在重新定义现代私有云的能力——融合了云体验的速度与灵活性 (sysin),以及企业在本地部署中所需的性能、治理和成本控制。

当构建得当时,一个现代私有云应当具备以下特点:

  • 将服务器、存储和网络视为灵活的软件资源池;
  • 向开发人员提供自助式 API,而不是排队等候的服务单系统;
  • 支持虚拟机、容器以及新兴的 AI 服务作为一等工作负载并行运行;
  • 在核心数据中心、边缘节点以及主权设施之间保持一致性,无需政策混乱;
  • 内建可审计的安全机制,并为工作负载在任何位置的运行提供合规保障。

VMware-sysin

概述

VMware Cloud Foundation

VMware Cloud Foundation 是一个统一的私有云平台,将公有云的规模与敏捷性与私有云的安全性与高性能相结合,从而提升生产力并降低总体拥有成本(TCO)。该平台通过在所有终端上集成企业级计算、网络、存储、管理和安全功能,实现基础架构的现代化。

借助自动化基础架构与智能运维,组织能够优化性能、降低成本并减少运维负担。VMware Cloud Foundation 还提供自助式 IaaS 平台,具备现代化云界面 (sysin),可加速创新并运行虚拟机、容器和 AI 工作负载。

内置的安全性和弹性能力可保障业务安全,确保业务连续性,让团队专注于创新,而非应对安全威胁。

新增功能

VMware Cloud Foundation 9.0.2.0 | 2025 年 1 月 20 日

VCF 9.0.2.0 是一次维护版本发布,包含更新后的物料清单(BOM)。该版本主要针对产品的可支持性进行改进。各组件的更新功能列表如下:

  • vCenter
  • ESX
  • vSAN
  • NSX
  • VCF Installer
  • VCF Operations
  • VCF Automation

有关 VMware Cloud Foundation 9.0 各组件的详细新增功能,请参阅各组件的发行说明和本站相关页面。

VCF Installer 新功能

在 VCF 9.0.2 中,在 Binary Management(二进制管理)界面,您可以在 VCF Operations > Build > Lifecycle 中,为 VCF 实例的安装、补丁和升级二进制文件手动同步元数据。

产品支持公告

此前,仅用于管理且网卡速率低于 10Gbit 的主机会被阻止使用,导致 VCF 管理域和工作负载域部署失败。
从 VCF 9.0.2 及更高版本开始,在满足以下条件的情况下 (sysin),配备 1Gbit 网卡的 ESX 主机将获得支持。

  1. 在管理域或工作负载域创建流程中,在 Network settings 页面,为 VM Management Network 选择 Use a separate, dedicated network(使用独立的专用网络)选项。
  2. 使用配备 1Gbit 及以上网卡的 vSphere Distributed Switch,且仅用于管理流量
  3. 为 vSAN、vMotion 和 NSX 流量使用单独的 vSphere Distributed Switch,并使用一个或多个 10Gbit 网卡

VCF Installer 已知问题

将 SDDC Manager 设备从 5.2.2 升级到 9.0.2 后,可能会看到 502 网关错误

解决方法:请确认 /etc/hosts 文件中的 SDDC Manager 配置是否正确。

下载地址

VMware Cloud Foundation 9.0

请访问:https://sysin.org/blog/vmware-cloud-foundation-9/

更多:VMware 产品下载汇总

在部署HTTPS加密时,绝大多数情况都是针对域名。然而,在企业内部API接口、物联网设备管理后台、或是未备案的测试环境中,我们常常只能通过IP地址直接访问网站。如果直接使用IP访问,浏览器会提示“不安全”,这不仅影响用户体验,更存在数据传输被窃取的风险。那么,IP地址真的能申请SSL证书吗?答案是肯定的,但需要满足特定条件。

一、IP地址申请SSL证书的硬性条件

为IP地址申请SSL证书并不像为域名申请那么简单,CA(证书颁发机构)对IP地址的审核更为严格,通常需要满足以下条件:

  1. 必须是公网IP:申请SSL证书的IP地址必须是对外公开的互联网合法IP地址。内网IP(如192.168.x.x或10.x.x.x)由于无法被CA机构通过互联网验证所有权,通常无法申请常规的SSL证书。
  2. 拥有管理权限:申请人必须证明对该IP地址拥有管理控制权。这通常通过文件验证来实现,即需要在对应IP的网站根目录下放置指定的验证文件,确保证书颁发机构能够通过HTTP访问到该文件 。
  3. 支持IP的证书类型:目前主流的IP SSL证书多为OV或DV类型。DV证书仅验证IP所有权,签发速度快;OV证书则需验证企业组织身份,安全性更高,适合企业级应用。

二、手把手教你用JoySSL申请IP证书

公网IP地址SSL证书申请入口

以下是基于JoySSL平台申请IP地址SSL证书的详细步骤,整个过程清晰明了,即使是新手也能轻松操作。

第一步:访问官网并注册账号
打开JoySSL官方网站,点击注册。在注册过程中,为了激活IP证书的申请权限,请务必填写特定的注册码 230970。根据经验,填写注册码可以获取免费试用资格或相关优惠资料。

第二步:选择IP SSL证书产品
登录后台,在证书选择页面找到“IP SSL证书”相关选项。JoySSL 提供针对公网IP的专用证书,根据需要选择DV(基础型)或OV(企业型)证书。

第三步:提交IP地址及信息
在申请单中,准确填写你需要保护的IP地址。同时,按照提示完善组织或个人信息。请确保IP地址填写无误,因为证书签发后直接绑定该IP。

第四步:完成IP所有权验证
这是最关键的一步。由于是IP地址,无法像域名那样做DNS解析验证,因此通常采用文件验证方式 。

  1. 在JoySSL后台获取验证文件(如一个特定的HTML页面文件或txt文件)。
  2. 登录你的服务器,将该文件上传到该IP地址指向的网站根目录下,确保通过 http://你的IP地址/验证文件名.txt 能够访问到该文件。
  3. 回到后台点击“验证”,CA系统会自动抓取该文件内容进行匹配。匹配成功后,即证明你对这个IP拥有控制权。

第五步:下载并部署证书
验证通过后,CA机构会很快签发证书。通常只需几分钟到几小时。下载证书压缩包,其中包含了适用于Nginx、Apache、IIS等常见服务器的格式。根据你的服务器环境,配置证书(如Nginx需配置ssl_certificatessl_certificate_key路径),重启服务后,即可通过 https://IP地址 实现安全访问。

技术发展是无情的,只能跟着走以防掉队严重sobbing

现在 Vibe Coding 越来越成熟,许多产品和雨后春笋一样冒出来,且开发一个 APP、一个网页越来越容易了。虽然说的很残忍,但普通程序员或者说掉队严重的程序员将会越来越不值钱。

我个人想法是,未来说不定会出现 Agent 主导的应用世界。

例如 AI 驱动的数据库 AI Agent,即不再需要复杂繁琐的后台管理系统,直接语义化查询和创建一些动态的数据报表。延伸一点就是不需要很多复杂的用户界面(User Interface),通过对话输入的方式主导应用需求实现。

这么说来,是不是 Agent 开发是后续的一个大方向?想听听各位程序员的看法。

点赞 + 关注 + 收藏 = 学会了

💡整理了一个 NAS 专属玩法专栏,感兴趣的工友可以戳这里关注 👉 《NAS邪修》

Wolfcha 是一个基于大模型驱动的“赛博狼人杀”。它能让你在浏览器里和一群 AI 斗智斗勇,简直是孤独玩家的福音。

我用绿联NAS演示一下安装流程。

打开「文件管理」应用,在 docker 文件夹下新建一个 wolfcha 文件夹。

打开「Docker」应用,新建一个项目:

  • 项目名称:wolfcha
  • 存放路径:/docker/wolfcha

Compose配置:

services:
  wolfcha-web:
    image: heizicao/wolfcha-web:v1
    container_name: wolfcha-web
    ports:
      - 4567:7860 # 4567这个数字可以自定义
    restart: always

等项目构建成功后,在浏览器输入 NAS_IP:4567 即可直达战场。

进游戏第一件事是点击左上角的“API 配置”,配置个AI大脑给它用。

目前 Wolfcha 已经原生支持 WeApis、DeepSeek、硅基流动、OpenAI 官方 这几个服务。

如果想尝试其他平台,「API服务商」可以选择“自定义”模式。

但我测了一下百灵大模(https://ling.tbox.cn/open)和 LongCat(https://longcat.chat/platform)的免费服务,暂时还没调通 🤔

有哪位工友调通的话,求在评论区指点迷津🙏

我用的是 DeepSeek 官方的服务

  • API 服务商: 选择“DeepSeek 官方”
  • 模型选择: 自定义
  • 模型名称: 输入 deepseek-chat

配置完成后回到首页,输入你的大名,戳一下“印章”按钮,游戏开启!

开局等待的时间略长,因为后台正在疯狂 Call DeepSeek 生成各种性格的角色。

等待的这段时间的背景音乐听着怎么这么像「动森」?

在这么轻快的音乐里玩尔虞我诈😂

所有人入座后,游戏会提供基础教学,新手也不怕抓瞎。

因为我没配置 TTS(语音合成),所以全程是和 AI 们进行“文字博弈”。

实测:一局大约几毛钱。

具体的消耗取决于你创建了多少角色、玩了多少个回合。回合越多,对话的 Context(上下文)就越长,消耗的 Token 也就越多。

我玩了 10 分钟左右,不幸惨败。看了一下账单,一共花费 0.12 元。一毛钱换 10 分钟的赛博社交,这个价你觉得如何呢?当年读初中去网吧好像也要2块钱1小时🤔


以上就是本文的全部内容啦,你有好玩的镜像推荐吗?欢迎在评论区留言讨论!

想了解更多NAS玩法记得关注《NAS邪修》👏

往期推荐:

点赞 + 关注 + 收藏 = 学会了

题⽬描述

给定⼀个⼆叉树root和⼀个整数值 sum ,求该树有多少路径的的节点值之和等于 sum 。

  1. 该题路径定义不需要从根节点开始,也不需要在叶⼦节点结束,但是⼀定是从⽗亲节点往下到孩⼦节点
  2. 总节点数⽬为 n
  3. 保证最后返回的路径个数在整形范围内

假如⼆叉树 root 为 {1,2,3,4,5,4,3,#,#,-1} , sum=6 ,那么总共如下所示,

思路及解答

双重递归法(暴力解法)

外层递归遍历所有节点作为起点,内层递归计算从该点向下的路径和

public class Solution {
    public int pathSum(TreeNode root, int targetSum) {
        if (root == null) return 0;
        
        // 以当前节点为起点的路径数 + 左右子树的路径数
        return countPaths(root, targetSum) + 
               pathSum(root.left, targetSum) + 
               pathSum(root.right, targetSum);
    }
    
    /**
     * 计算以当前节点为起点的路径数
     */
    private int countPaths(TreeNode node, long targetSum) {
        if (node == null) return 0;
        
        int count = 0;
        
        // 如果当前节点值等于目标值,找到一条路径
        if (node.val == targetSum) {
            count++;
        }
        
        // 递归计算左右子树
        count += countPaths(node.left, targetSum - node.val);
        count += countPaths(node.right, targetSum - node.val);
        
        return count;
    }
}
  • 时间复杂度:O(n²),最坏情况下每个节点都要递归遍历其子树
  • 空间复杂度:O(n),递归栈深度

前缀和哈希表(最优解)

从根节点到当前节点的路径和curSum,查找curSum-targetSum是否存在

前缀和核心思想:

  • 路径和 = 当前前缀和 - 之前某个前缀和
  • curSum - targetSum是否存在于前缀和哈希表中
  • 如果存在,说明从那个节点到当前节点的路径和为targetSum

执行示例(树[10,5,-3,3,2,null,11,3,-2,null,1],sum=8):

从根到节点3:前缀和=10+5+3=18
targetSum=8 → 查找18-8=10是否存在
哈希表中有10(根节点)→ 找到路径:5->3
import java.util.HashMap;

public class Solution {
    public int pathSum(TreeNode root, int targetSum) {
        // 哈希表存储前缀和及其出现次数
        HashMap<Long, Integer> prefixSum = new HashMap<>();
        prefixSum.put(0L, 1); // 初始前缀和为0,出现1次
        
        return dfs(root, 0, targetSum, prefixSum);
    }
    
    private int dfs(TreeNode node, long curSum, int targetSum, 
                    HashMap<Long, Integer> prefixSum) {
        if (node == null) return 0;
        
        // 计算从根节点到当前节点的前缀和
        curSum += node.val;
        
        // 查找前缀和中是否存在curSum - targetSum
        // 如果存在,说明从那个节点到当前节点的路径和为targetSum
        int count = prefixSum.getOrDefault(curSum - targetSum, 0);
        
        // 将当前前缀和加入哈希表
        prefixSum.put(curSum, prefixSum.getOrDefault(curSum, 0) + 1);
        
        // 递归处理左右子树
        count += dfs(node.left, curSum, targetSum, prefixSum);
        count += dfs(node.right, curSum, targetSum, prefixSum);
        
        // 回溯:移除当前前缀和,避免影响其他分支
        prefixSum.put(curSum, prefixSum.get(curSum) - 1);
        
        return count;
    }
}
  • 时间复杂度:O(n),每个节点只访问一次
  • 空间复杂度:O(n),哈希表存储n个前缀和

记忆化递归法

使用记忆化技术缓存计算结果,为每个节点存储从该节点向下的路径和计数,优化递归效率。

import java.util.HashMap;

public class Solution {
    public int pathSum(TreeNode root, int targetSum) {
        return pathSumHelper(root, targetSum, new HashMap<>());
    }
    
    private int pathSumHelper(TreeNode node, int targetSum, 
                              HashMap<TreeNode, Integer> memo) {
        if (node == null) return 0;
        
        // 如果结果已缓存,直接返回
        if (memo.containsKey(node)) {
            return memo.get(node);
        }
        
        // 计算以当前节点为起点的路径数
        int count = countFromNode(node, targetSum, 0);
        
        // 递归计算左右子树
        count += pathSumHelper(node.left, targetSum, memo);
        count += pathSumHelper(node.right, targetSum, memo);
        
        // 缓存结果
        memo.put(node, count);
        
        return count;
    }
    
    private int countFromNode(TreeNode node, int targetSum, long currentSum) {
        if (node == null) return 0;
        
        currentSum += node.val;
        int count = 0;
        
        if (currentSum == targetSum) {
            count++;
        }
        
        count += countFromNode(node.left, targetSum, currentSum);
        count += countFromNode(node.right, targetSum, currentSum);
        
        return count;
    }
}
  • 时间复杂度:O(n),每个节点计算一次
  • 空间复杂度:O(n),缓存所有节点结果

春节去了一趟南岛,基督城-蒂卡波-库克山-瓦纳卡-皇后镇-但尼丁-奥马鲁,一个传统小环线。
夏天的南岛晚上 9 点多日落,每天活动时间会拉长很多。跟新疆自驾最大区别是一路都有山川湖泊草原,南太平洋城市沿途有漫长的海岸线,很养眼,不像新疆那种长时间单一的戈壁和沙漠。另外在新西兰看到十几次彩虹,每天都会惊叹:“哇!”
不过没看到野生 kiwi bird ,时间有限没能去米尔福德看峡湾,以后再来吧。








以上照片均为手机原图~

1772582352978

Apple 今日宣布推出 M5 Pro 和 M5 Max 芯片,称其为全球最先进的专业笔记本芯片,将用于新款 MacBook Pro。这两款芯片采用全新的 Apple 设计的 Fusion Architecture,通过先进封装技术将两颗第三代 3 纳米芯片整合为单一 SoC,搭载强大的 CPU、可扩展 GPU、媒体引擎、统一内存控制器、神经引擎及 Thunderbolt 5 功能。新品将于明天开始预订,3 月 11 日(周三)正式上市。

https://www.apple.com.cn/macbook-pro/

M5 Pro 和 M5 Max 采用全新的 18 核 CPU 架构,包括 6 个 super cores(超级核心)和 12 个全新的 performance cores(性能核心)。其中 super core 是全球速度最快的 CPU 核心,具备世界领先的单线程性能。与上一代相比,新 CPU 架构可将专业工作负载的多线程性能提升最高 30%。GPU 方面,M5 Pro 配备最高 20 核下一代 GPU,M5 Max 则配备最高 40 核 GPU,每个 GPU 核心均内置 Neural Accelerator(神经加速器)。

在 AI 性能方面,凭借神经加速器和更高的统一内存带宽,M5 Pro 和 M5 Max 的峰值 GPU 计算性能相比上一代提升超过 4 倍,相比 M1 Pro 和 M1 Max 提升超过 6 倍。图形处理能力方面,光线追踪性能相比 M4 Pro 和 M4 Max 提升最高 35%,整体图形性能比 M4 Pro 提升最高 20%,是 M1 Pro 的 2.2 倍。

M5 Pro 专为数据建模师、后期音效设计师和 STEM 学生等专业人士设计,支持最高 64GB 统一内存,内存带宽达 307GB/s。M5 Max 则面向 3D 动画师、应用开发者和 AI 研究人员,支持最高 128GB 统一内存,带宽高达 614GB/s,可轻松处理复杂场景、海量数据集和大语言模型的 token 生成。

两款芯片还配备 16 核神经引擎、支持硬件加速 H.264/HEVC 和 AV1 解码的媒体引擎、ProRes 编解码引擎,以及 Memory Integrity Enforcement(业界首创的始终在线内存安全保护技术)。每个 Thunderbolt 5 端口均由芯片上的定制控制器直接支持,是业界功能最全面的 Thunderbolt 5 实现。


21 年的 M1 到现在的 M5,M 系列芯片给苹果注入很强的生命力doge_flower

问:上海迪士尼尊享卡多少钱?就是免排队的那个

答:全部思考过程变成了回答内容,其中包括这些

image.png


但是中间包含部分中文输出和价格信息,我没有在意。过了一会电脑开始有点卡,我一看这个对话页面内存占用 3 个多 G 。往下翻了一下看到了这些(剩下的全是这些,导致页面用了几个 G…):

ec9fc10ac0ecf0d20374aa7534394c9c.png


刷新之后对话消失了……


10 分钟后再问问题:

image.png

🎉 新年开工享好礼 · 懒猫微服送给你 🎉

参与活动,即可把 懒猫微服 和开年好礼带回家!

全球硬盘内存涨价,懒猫微服有备货,超值最低价格购买:

加 v: 17820700354 , 13986165101 , 18696164198 , 18272119304, 17612774028


懒猫微服,自带内网穿透和沙箱 100% 隔离!
畅玩 OpenClaw ,新年超值 0 元购!!!


🎁 抽奖活动详情

🗓 活动时间

共两轮活动
时间:2 月 27 日 - 3 月 6 日

奖品总价值约 11300 元


🏆 奖项设置

第二轮

  • 活动时间:3 月 3 日 - 3 月 6 日
  • 开奖时间:3 月 6 日 20:00

奖品:

  • 一等奖:


    • 价值 5499 元 7 盘位新款「懒猫微服 LC-03 」 × 1
  • 二等奖:


    • 价值 235 元「公牛小电舱插座」
    • 「懒猫微服 LC-03 」 499 元优惠券 × 1
  • 三等奖:


    • 价值 99 元懒猫文化 T 恤
    • 「懒猫微服 LC-03 」 499 元优惠券 × 3


📜 抽奖规则(必看)

1.在评论区评论:

懒猫微服,自带内网穿透和沙箱 100%隔离,畅玩 OpenClaw ,新年超值 0 元购!!!

2.添加微信进入懒猫微服交流群


🎯 抽奖方式

  • 根据名单统计
  • 使用懒猫微服商店抽奖工具开奖
  • 公平公正
  • 结果第一时间公布在微信群

(需扫码进群)


🎁 领奖方式

  • 通过微信群联系工作人员领奖
  • 中奖后进群无效
  • 需提前进入任意懒猫微服交流群


⚠️ 特别提醒

  1. 必须进入交流群才具备中奖资格
  2. 中奖用户需提交:
    • 推特参与活动截图
    • 推特主页截图
  3. 优惠券仅限小程序购买
  4. 不与京东分期优惠叠加
  5. 不适用于 LC-03 基础款

另外:

  • 仅剩最后 5 台老款「懒猫微服 LC-02 」秒杀价
  • 评论区或私信扣 1 获取优惠价格


🛒 购买渠道与优惠

1️⃣ 京东购买

搜索「懒猫微服」享受京东免息分期:

  • 32G + 2T:6 期免息
  • 48G 无盘:6 期免息


2️⃣ 全新系列上线

懒猫 AI 算力舱已上线
评论区或私信扣 1 获取优惠价格


3️⃣ 懒猫零元购计划

  • 每移植一款应用到懒猫商店:奖励 100 元红包
  • 原创应用奖励翻倍
  • 撰写一篇攻略:奖励 50 元红包
  • 多移多得,无上限


🔥产品亮点

最近懒猫商店的 OpenClaw 已经被大家玩出花样,真正的 7 × 24 小时个人 AI 助手

  • 睡觉时帮你整理收件箱
  • 喝咖啡时帮你调研竞品
  • 灵感枯竭时帮你搜集素材

🧩 应用生态

  • 懒猫商店拥有 3200+ 应用开箱即用
  • 提供 1000+ 详细攻略
  • 满足娱乐与办公的全方位需求

这些应用与攻略绝大多数来自用户共创:

  • 上传应用即可获得现金红包奖励
  • 原创应用奖励加倍
  • 撰写攻略可获得现金奖励

截至目前:

  • 已有 100+ 用户上传应用
  • 排名最高用户累计获得 6w+ 现金奖励

诚邀您加入懒猫社区,实现双赢:

  • 轻松实现零元购
  • 可作为日常兼职增加额外收入

OpenClaw 是一款运行在本地设备上的开源 AI 个人助手,支持 macOS、Windows 和 Linux,通过 WhatsApp、Telegram、Discord、Slack 等聊天工具接收用户指令,调用 Claude、GPT 或本地模型自主执行邮件管理、文件操作、网页浏览等任务。与 SaaS 类 AI 服务的核心区别在于:OpenClaw 的数据、记忆与技能全部存储在用户本地设备,不上传任何第三方服务器。

OpenClaw 是什么

OpenClaw 由开发者 Peter Steinberger 创建,其设计理念是「AI 即队友」——用户像给同事发消息一样,通过熟悉的聊天工具向 AI 下达任务,AI 在后台自主完成。
五个核心特性:
●本地优先:所有数据、对话历史、技能插件存储在用户自己的机器上
●持久记忆:跨会话学习用户偏好,不需要每次重复背景信息
●多模型支持:原生支持 Anthropic Claude、OpenAI GPT 及本地离线模型
●50+ 集成:覆盖 Gmail、GitHub、Spotify、Obsidian、Twitter 等主流服务
●技能扩展:通过 ClawHub 社区安装插件,或让 AI 自动创建新技能
相关实体:Anthropic(Claude 提供方)、OpenAI(GPT 提供方)、ClawHub(技能市场)、MCP(模型上下文协议)。
支持的 AI 模型
image.png

接入模型的 API 除官方渠道外,也可通过兼容 OpenAI 接口标准的中转服务调用,例如集成了 Claude、Gemini、DeepSeek 的统一推理接口(https://www.qiniu.com/ai/chat )。

OpenClaw 与同类工具的对比

OpenClaw 常被与 Claude Code、n8n、AutoGPT 等工具混淆,实际定位差异显著:
image.png
OpenClaw 的核心优势:无需可视化编排,直接用自然语言描述任务;数据完全本地化;支持动态技能扩展。

安装 OpenClaw

OpenClaw 提供三种安装方式,绝大多数用户选择方式一即可。

方式一:一键脚本(推荐)

macOS / Linux:

curl -fsSL https://openclaw.ai/install.sh | bash

Windows(PowerShell):

iwr -useb https://openclaw.ai/install.ps1 | iex

脚本自动检测系统环境并安装 Node.js 22+,全程无需手动干预。

方式二:NPM 安装

适合已有 Node.js 环境的开发者:

npm i -g openclaw
openclaw onboard

方式三:源码安装

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install && pnpm run build
pnpm run openclaw onboard

系统要求:
image.png
初始化配置(onboard)
安装完成后,运行引导程序完成初始化:

openclaw onboard --install-daemon

引导程序依次处理:
1.AI 模型 API Key — 输入 Claude 或 GPT 的 API Key
2.Gateway 启动 — 默认监听 http://127.0.0.1:18789/
3.Channel 连接 — 配置消息渠道(如 Telegram Bot Token)
4.控制面板 — 运行 openclaw dashboard 在浏览器打开管理界面
连接 Telegram 示例:

# 在 @BotFather 创建 Bot 并获取 Token 后
openclaw channel connect telegram --token "YOUR_BOT_TOKEN"

连接成功后,直接在 Telegram 中给 Bot 发消息,OpenClaw 即开始响应并执行任务。
常用环境变量:
image.png

核心使用场景

日常任务自动化
OpenClaw 内置 Gmail、GitHub、Obsidian 等集成,用户可用自然语言描述复合任务:
“把今天收到的所有带附件的邮件整理成摘要,存到 Obsidian 今日笔记里”
开发者工作流
通过 Shell 访问权限,OpenClaw 可执行代码、运行测试、操作 Git 仓库。对于需要在多个工具间切换的开发任务,OpenClaw 充当统一的自然语言入口。
本地私有数据处理
因数据不出本机,OpenClaw 适合处理包含敏感信息的文档、财务数据或内部资料。[数据待核实:建议引用 OpenClaw GitHub 仓库中关于数据隔离架构的说明文档]
技能定制与扩展
通过 ClawHub 安装社区技能,或用自然语言指令让 OpenClaw 自动生成新技能文件,极大降低了自定义自动化的门槛。

常见问题

Q:OpenClaw 完全免费吗?
OpenClaw 本身是开源免费软件(MIT 许可证)。费用来自所接入的 AI 模型 API——使用 Claude 或 GPT 需要对应的 API Key,按调用量计费。若配置本地模型(如 Ollama),则完全零费用运行。
Q:OpenClaw 支持多用户或团队共用吗?
当前版本主要面向单用户本地部署。团队共用需结合反向代理和守护进程模式自行搭建,官方多用户方案尚在规划中。[数据待核实:建议关注 OpenClaw GitHub Roadmap]
Q:OpenClaw 和 Claude Code 可以同时使用吗?
可以,二者互补。Claude Code 专注于编程场景,OpenClaw 负责跨应用的日常工作流自动化。OpenClaw 内部也可调用 Claude 模型执行代码任务,但不提供 Claude Code 那样的 IDE 深度集成。
Q:本地模型(Ollama)效果和云端模型差多少?
本地模型在隐私保护和离线使用上有明显优势,但在复杂推理、长文本理解和多步任务执行上仍弱于 Claude Opus、GPT-4o 等旗舰云端模型。建议日常简单任务用本地模型,复杂工作流切换至云端模型。Q:如何判断 OpenClaw 是否适合我?
适合条件:有一定技术背景(能用命令行)、重视数据隐私、有多个工具需要串联自动化、希望 AI 助手具备持久记忆。如果更倾向开箱即用的图形化界面,可先体验 SaaS 类 AI 助手再评估迁移成本。

总结

OpenClaw 代表了 AI 个人助手的一种架构选择:本地运行、数据自主、开源可扩展。相比 SaaS 产品,它的上手门槛稍高,但在隐私保护、定制灵活性和长期使用成本上具有明显优势。
据 OpenClaw 官方文档(docs.openclaw.ai)说明,Gateway + Channel + Skills 三层架构确保了能力扩展不依赖中心化平台。对于计划接入 Claude 等模型的用户,开发阶段可通过标准 OpenAI 兼容接口快速集成不同模型进行横向对比,再锁定最适合工作流的组合。
本文内容基于 2026 年 3 月 OpenClaw 公开文档,该项目处于活跃开发阶段,建议定期查阅 https://docs.openclaw.ai 获取最新配置说明。

在生产环境部署过LLM的人都知道模型权重只是问题的一半,另一半是KV cache:存储注意力状态的运行时内存,让模型在生成token时不必从头开始重算。能不能管好这块内存决定了系统是一个卡顿的demo还是一个可用的推理服务。

本文梳理KV cache管理经历的5个时代,从它根本不存在的阶段,到今天正在成型的统一内存架构。文中会结合多个模型的部署经验,对比vLLM、SGLang和TensorRT-LLM在各阶段的应对思路。读完后应当能建立一套判断框架,为具体场景选择合适的方案。

先从KV cache本身说起。

背景:Prefill、Decode与KV Cache

LLM推理分两个阶段。Prefill阶段并行处理全部输入token,在每个注意力层为每个token计算Key和Value向量,属于计算密集型,GPU并行度越高越好。Decode阶段则以自回归方式逐token生成,每个新token都要对先前所有Key-Value对做注意力计算;GPU大部分时间花在从HBM读取KV cache而非运算上,瓶颈在内存带宽。

KV cache的作用就是把已经算过的Key和Value向量缓存下来,避免每个decode步骤重复计算。没有它每生成一个token就得对整个序列重跑一遍注意力,推理速度完全无法接受。

以Llama-3–70B、8K上下文为例:

 KV cache per token = 2 (K+V) x 80 layers x 8 KV heads x 128 head_dim x 2 bytes (FP16)  
                    = 2 x 80 x 8 x 128 x 2 = 327,680 bytes ≈ 320 KB per token  
   
 For 8K tokens: 320 KB x 8,192 = 2.56 GB per request  
 For 32 concurrent requests: 2.56 GB x 32 = 81.9 GB

81.9 GB:一块A100 80GB的全部显存都装不下留给模型权重的空间是零。KV cache管理重要正是因为这一点。

Era 0:Pre-GenAI(2017年之前)

Transformer出现之前深度学习的主力是ResNet、YOLO、VGG、Inception这些无状态前馈架构。每次推理独立处理一个输入步骤之间没有任何持久状态,KV cache的概念自然无从谈起。

ONNX Runtime、TensorRT等推理框架也是为这类无状态负载设计的:加载模型,跑前向传播,返回结果。

如果今天仍然只是服务传统视觉或表格模型,后面这些复杂度都不需要关心。

Era 1:连续KV Cache(2017年)

Transformer原始论文(2017)带来了自注意力机制,也带来了在decode步骤之间缓存Key和Value张量的需求。

早期推理引擎如HuggingFace Transformers用最简单的的方式实现KV cache:为每个请求预分配一个

max_seq_len

大小的连续张量,单个请求的存储量为

2 x num_layers x num_heads x head_dim x max_seq_len

好处是实现简单,相比每步重算注意力有很大的速度提升。

代价也很明显,内存占用按

max_seq_len x batch_size

线性增长而非跟随实际序列长度;大多数请求远短于最大长度,造成严重的内部碎片;并发batch大小因此受限,请求之间也无法共享内存。

性能分析的数据很直白:在这些系统中已分配的KV cache内存只有20–38%真正存储了有用的token状态,其余全部浪费在填充和碎片上。

Era 2:PagedAttention(2023年)

PagedAttention是真正改变规则的技术,UC Berkeley的vLLM团队从操作系统借来了一个基本思路:带分页的虚拟内存。

做法是把KV cache切分为固定大小的页(block),随着序列增长按需分配,而非一次性为每个请求开辟一大块连续内存。一个block table将逻辑页映射到物理内存,原理和操作系统页表将虚拟地址映射到物理RAM完全一致。

vLLM论文给出的数据相当惊人:吞吐量比FasterTransformer和Orca提升2–4倍;碎片率降到4%以下(之前是60–80%)内存浪费接近于零;并发请求数从几十跃升到数百乃至数千。

PagedAttention还打开了前缀缓存的大门:SGLang的RadixAttention正是基于此。多个请求如果共享同一前缀(系统提示词、共享文档等)对应的KV cache页可以直接复用而非重新计算。对多轮对话和RAG场景而言,这是一个巨大的吞吐量倍增器。

不过PagedAttention并非没有取舍:注意力kernel因为非连续内存访问变得更复杂,block大小需要调优,而且它默认假设KV cache是同构的:每层大小一致。

这些局限并不妨碍它成为事实标准。今天vLLM、SGLang、TensorRT-LLM全部以PagedAttention为底层基础。

实践比较:vLLM vs SGLang前缀缓存

两个框架都支持前缀缓存,实现路径不同。vLLM在block级别做基于哈希的前缀匹配;SGLang则用RadixAttention树在基数树结构中维护KV block的LRU缓存,支持跨多次生成调用的自动复用。

从实际部署看,SGLang的方案在复杂多调用场景(agent、思维树)中缓存命中率更高,vLLM的方案更简洁标准聊天场景下表现良好。

Era 3:异构KV Cache(2024年)

2024年模型架构和优化技术快速分化,推理系统需要管理形状、生命周期、访问模式各异的多种缓存状态。"KV cache"这个术语的外延已经远超原始定义。

投机解码用一个小型草稿模型一次提出多个候选token,再由大型目标模型批量验证,草稿模型和目标模型各自维护独立的KV cache。视觉语言模型(VLM)如QwenVL、InternVL的视觉编码器会产生大型图像嵌入,这些嵌入可以跨请求缓存复用,但尺寸与文本KV cache不同。量化KV Cache用FP8等低精度格式压缩存储,需要额外维护缩放因子。滑动窗口注意力(SWA)只关注最近

window_size

个token,KV cache管理需要判断哪些token在窗口内、哪些已过期可以淘汰。

Mamba / 状态空间模型则是另外一条完全不同的路:用循环状态替代注意力,每个新token更新一个固定大小的向量。这种状态无法在token粒度上共享也不容易回滚,和KV cache在本质上就不是一回事。

混合模型则在单个模型中组合多种层类型:

  • 滑动窗口 + 全注意力(Gemma 2/3、Ministral)
  • Mamba + 全注意力(Jamba、Bamba)
  • 局部分块 + 全注意力(Llama 4)

Jenga论文给出了量化数据:Llama 3.2 11B Vision如果把所有层按统一方式管理,内存浪费达79.6%;Gemma-2为25%;Ministral为56.25%。

异构缓存带来的麻烦包括:多个独立缓存管理器之间的内存碎片、服务器启动时难以预测内存分配、前缀缓存按类型各自实现导致命中率下降,以及功能组合的复杂度急剧上升。

vLLM等框架在实践中走向了分离管理器的路线——普通KV cache一个管理器,视觉编码缓存一个,Mamba缓存又一个。能用,但脆弱,扩展性差。

Era 4:分布式KV Cache(2025+)

模型规模持续增长单GPU甚至单节点已不足以承载。KV cache管理正在变成一个多节点、数据中心级别的问题。

解耦推理

DistServe的核心提案是将prefill和decode阶段部署到不同的GPU实例上。prefill受计算约束,decode受内存约束,两者适合不同的硬件配置和并行策略——分开部署比混在一起更合理。

DistServe的实测数据:与共置系统相比请求处理量提升4.48倍(或在同等吞吐下收紧SLO 10.2倍)。这时候问题就变为了KV cache从prefill节点到decode节点的传输效率。

vLLM的Encoder Disaggregation将视觉编码器拆为独立可扩展服务,专门用于多模态场景,消除编码器与解码器之间的干扰后goodput提升2–2.5倍。

KV Cache感知的负载均衡

NVIDIA Dynamo引入了KV cache感知路由:请求路由器优先把请求转发到已经持有相关KV cache的实例上,在集群层面最大化前缀缓存命中率。这要求每个实例都能获取集群范围内的缓存状态视图。

分层KV Cache

Moonshot AI的Mooncake采用以KV cache为中心的解耦架构,冷KV页从GPU HBM溢出到CPU DRAM或SSD,热页留在GPU上,从而在不牺牲热数据访问速度的前提下扩展有效缓存容量。从低层级加载或写回一层KV的延迟可以和前一层的GPU计算重叠,从而被隐藏。

长上下文场景下Mooncake的吞吐量最高提升525%,同时满足SLO约束。在Kimi的真实负载中,请求处理量多出75%。

分布式时代的困难很实际:投机解码、VLM等不少优化手段和分布式推理还无法兼容;部署需要相当的专业知识和耐心;节点间网络(InfiniBand、RoCE)本身就是难题,NIXL一类的库还很不成熟;故障转移、落后者节点、硬件缺陷、自动扩缩容。每一项都在真实环境中带来额外的复杂度。

Kubernetes原生方案如NVIDIA Dynamo、vLLM Production Stack、llm-d、AIBrix正在试图收敛这些复杂度,但整体仍处于早期。

Era 5:统一混合KV Cache(2025+)

当前前沿工作的方向是构建统一内存系统:异构KV类型共享同一个内存池,而非各自维护独立的分配器。贯穿其中的主题是可组合性——每一项优化都应当能和其他任意优化叠加使用。

Jenga:大页 + LCM尺寸对齐

Jenga提出了两级内存分配器。核心思路是取不同嵌入尺寸的最小公倍数(LCM)作为"大页"尺寸,让不同KV形状在同一内存池中共存而不产生碎片。

举例来说,图像token的KV为256字节,文本token的KV为384字节,则取LCM(256, 384) = 768字节为大页尺寸。大页再按特定层类型细分为小页。

与原版vLLM相比,Jenga的GPU内存利用率最高改善79.6%,吞吐量最高提升4.92倍(平均1.80倍)。

SGLang:CUDA虚拟内存

SGLang则又用了另外一个方法:利用CUDA Virtual Memory API动态重映射设备内存,让KV页在虚拟地址空间中连续、物理上分散。弹性内存池可以在运行时动态调整不同池类型(如Mamba池与KV cache池)之间的分配比例。

SGLang 2026年Q1路线图明确把功能可组合性列为核心目标:在解耦部署中跨多节点对混合VLM执行投机解码。要达成这一目标,需要对引擎核心组件做长周期的架构重构。

比较表:各时代一览

不同场景下的选择

结合生产部署经验给出一些判断。

标准文本LLM服务(聊天、补全):Era 2(PagedAttention)是基础,选vLLM或SGLang即可。有共享系统提示词的场景应开启前缀缓存。

多模态模型(VLM):属于Era 3的范畴,需要关注框架对视觉嵌入的处理方式。图像密集型负载占比高时,可以评估vLLM的编码器解耦(Era 4)。

混合架构(Gemma 3、Jamba、Llama 4):Era 5直接相关。SGLang的CUDA虚拟内存方案和Jenga的LCM分配器正是针对此类场景设计。

大规模高吞吐量生产:Era 4是重点。解耦prefill/decode配合KV感知路由对成本效率的改善非常可观,NVIDIA Dynamo和Mooncake是参考架构。

长上下文负载(100K+ token):分层KV cache(Era 4)配合GPU到CPU的溢出机制不可或缺,否则GPU显存根本撑不住。

总结

KV cache才是真正的瓶颈,Llama-3–70B在32个并发8K token请求下的KV cache总量超过80GB,比一整块A100的显存还大。

KV cache管理的演进轨迹和操作系统内存管理的历史惊人地相似:从连续分配到虚拟内存、分页,再到分布式共享内存。区别在于操作系统花了40年走完的路,KV cache管理在8年内走完了,背后的驱动力是LLM负载的爆发式增长。对于正在构建LLM基础设施的工程团队来说,理解这些演进阶段没有可选项:后面所有工作都建立在这个基础之上。

https://avoid.overfit.cn/post/6272647e7bc24c8084545ec3f5ca7972

by Luv Bansal

模力工场新鲜事

春节刚结束,不知道大家这个年过得怎么样?是回家团圆,还是旅游放松,或者狠狠干饭和补觉。

我们这边的新春活动也刚刚落下帷幕——「新春有模力」红包封面设计活动圆满收官啦!

这次活动收到了不少创意满满的作品,风格有喜庆国潮的、有可爱萌系的,也有脑洞大开的 AI 创意款。

经过投票评选,我们最终选出了前三名作品,并为创作者发放了现金奖励。(下面图片分别是第一名、第二名、第三名作品)

恭喜获奖的小伙伴,也谢谢所有参与投稿的朋友。

新的一年,我们会继续做更多有意思的活动,让创意有舞台,让好作品被看到。

春天已经开始了,

2026,一起继续有模有样地继续搞事情。

(design by 白皓)

(design by Lay)

(design by Rikki)

033 周上榜应用精选(附用户热评)

模力工场 33 周 AI 应用周榜来啦~小 A 这周刷榜单的时候,有个感受特别明显:AI 不仅是一个个“新 App”,还在你熟悉的产品里悄悄升级。

比起疯狂推出全新入口,各大厂这次更克制,也更聪明——选择在原有产品里做能力延伸。你会发现,你不用再额外下载一堆新的 AI 工具,只要顺着原本的使用路径,在无形中就用 AI 提高了效率。另外,开发者开始把原本分散、繁琐的 AI 功能打包整合,让流程变得更加精简。

这周的关键词,与其说是“创新”,不如说是——融入与整合。

小 A 从榜单里挑出 10 款讨论度最高的应用,带你看看这股趋势是怎么落地的。

一、平台内嵌 &延伸型 AI 助手

【应用名】点点AI

【关键词】小红书 AI 助手|DeepSeek-R1|UGC 语境理解

【小 A 推荐】点点 AI 是嵌在小红书里的生活小助手,形态有点像微博评论区里的“罗伯特”——常驻评论区,随叫随到。经常刷小红书的人,基本都在各大评论区见过它的身影。技术上,它接入的是 DeepSeek-R1 开源模型,同时结合小红书海量 UGC 笔记内容作为语料背景。你在刷种草笔记的时候,看到一篇烧脑长文,甚至是一个抽象梗图,都可以在评论区顺手艾特点点。当然,如果你不想在评论区互动,也可以单独打开界面和它对话。

【用户热评】:

【应用名】小美-AI 生活秘书

【关键词】AI Agent|美团|本地生活服务整合

【小 A 推荐】小美是由美团推出的一款服务生活服务场景的 AI Agent。它搭载美团自研的 LongCat-Flash-Chat 大模型,背后连接的是美团庞大的本地生活服务网络。你可以用自然语言告诉它:“周五晚上想约会,预算 500 左右”“帮我安排一个成都周末放松行程”,它不仅给建议,还会直接串联订餐、订票、出行等服务能力,适合经常使用美团的用户。

【用户热评】:

【应用名】剪映 AI(CapCut AI)

【关键词】AI 剪辑助手|自动字幕卡点|素材智能编排

【小 A 推荐】剪映 AI 是嵌在剪映里的智能创作能力。相较于传统的剪映,它提升最大的就是可以通过对话的形式,将你喂给他的素材,根据你的提示词自动完成字幕、卡点、模板、分镜。

【用户热评】:

“经常用剪映 AI 来给自家的毛孩子生成鬼畜后宫题材视频,让我的熊孩子有戏可接,可玩性很强!就是生成速度有点慢,要大概半个小时” —— 用户 @万万

二、学习研究类

【应用名】心流 AI 助手(iFlow)

【关键词】中文知识检索|文件智能解析|写作辅助生成

【小 A 推荐】心流 AI 助手是一款面向学术科研、大学生及互联网从业者的效率工具,集成智能搜索、文件阅读与辅助创作功能。它能实时联网查询并提供信息来源,支持文件快速解析、摘要生成与翻译答疑,还可辅助大纲梳理、文案创作和报告撰写。适用于需要处理文献、获取资讯或生成内容的工作学习场景。该应用适用于学术科研者、互联网从业者,以及有深度内容需求的人群。

【用户热评】:

【应用名】Gauth

【关键词】拍照解题|步骤拆解讲解|STEM 学科覆盖

【小 A 推荐】Gauth 是偏解题型的学习助手,目前只能在海外可用。它的核心功能在于结合 AI 和图像识别技术,可以让用户上传或拍照题目,然后快速返回逐步解析和答案,覆盖数学、物理、化学、生物等 STEM 学科内容,还集成了真人导师服务作为辅助答疑机制。

【用户热评】:

“主要面向的是海外市场” —— 用户 @蓝蓝

三、搜索入口升级

【应用名】Joria 📍成都

【关键词】AI 搜索问答|原生 Mac 笔记应用|搜索笔记一体化

【小 A 推荐】Joria 更强调原生 Mac 体验。它把搜索与笔记结合在一起,让“查完资料”这件事可以直接沉淀为结构化笔记。界面干净,用起来顺滑,不像网页工具那样跳来跳去。适合习惯在桌面端深度工作的用户。

【用户热评】:

【应用名】Seekee

【关键词】浏览器内搜索增强|自动摘要整理|创作工作流整合

【小 A 推荐】Seekee 把搜索、摘要、整理整合进浏览器。你查资料的时候,它可以同步帮你总结重点、生成结构草稿,不用再复制粘贴到别的工具里。它让“搜索”这件事,从单点动作变成一条完整工作流。

【用户热评】:

“像浏览器里多了个研究助理。” —— 用户 @Fiona

四、陪伴 & 创作进阶

【应用名】逗逗游戏伙伴

【关键词】AI 桌宠陪伴|游戏互动聊天|轻娱乐氛围感

【小 A 推荐】逗逗游戏伙伴走的是轻陪伴路线。游戏的时候,它能聊天、互动,像个桌宠一样陪在旁边,给你增加一点氛围感和情绪价值。适合单身玩游戏且喜欢边玩边聊的人。

【用户热评】:

【应用名】喵记多

【关键词】AI 笔记整理|自动待办生成|信息结构化

【小 A 推荐】快手旗下推出的 AI 笔记应用。喵记多把“记录”和“整理”打包在一起。写笔记的时候,它会自动帮你提炼重点、生成待办,让内容不只是存下来,而是能直接转化为行动。适合信息多、事务杂的人。

【用户热评】:

“界面设计简约,简单易操作;语音设置提醒,特别方便。其他我个人觉得没什么特别说的,感兴趣的可以试试,有记忆功能,感觉除了做待办,搞笔记,日记本,知识库,账本都可以的。” —— 用户 @不吃香菇

【应用名】VivaCut

【关键词】多轨视频编辑|高级转场特效|移动端专业剪辑

【小 A 推荐】VivaCut 更偏专业向的手机剪辑工具。多轨编辑、复杂转场、特效叠加都能在手机端完成。适合对画面效果有更高要求的创作者。

【用户热评】:

“手机上也能做复杂剪辑,挺惊喜的。” —— 用户 @Ivy

本周上榜应用趋势解读

小 A 刷完本周的 AI 应用榜单,有个很直观的感受——AI 变得更便利,也更隐形了。

前段时间大家还在拼入口、拼新 App,首页一打开全是“全新发布”。这一周的画风明显变了。很多 AI 没有单独站出来刷存在感,而是悄悄长进了你本来就在用的产品里。你不用再额外腾出手机内存,也不用研究一堆花里胡哨的新工具,它就在原地升级。

比如点点 AI 嵌在小红书的评论区,刷笔记时顺手艾特一句,它就接话;剪映 AI 融进 CapCut 的剪辑流程里,丢素材、给提示,字幕、卡点、分镜就被理顺了。你没有切换场景,却在不知不觉中用上了 AI,工作流也跟着顺了一截。

美团推出的小美,把本地生活服务能力直接调动起来。约会安排、周末行程、吃喝出行,它能一路串联。和传统问答式工具比起来,它更像一个真正在帮你跑腿的助手。

再看学习和效率类产品,会发现气质也在变化。心流 AI 助手、Gauth、Joria、Seekee、喵记多,这些产品都在做同一件事——把零散的步骤收回来。查资料不用反复跳转,做笔记不用来回复制粘贴,写东西不用对着空白页发呆。搜索、阅读、整理、输出被压缩成一条更短的路径。很多时候,你甚至意识不到哪一步是 AI 在帮忙,只觉得事情推进得更快。

连逗逗游戏伙伴、VivaCut 这样的产品,也在往更日常的方向靠。一个给陪伴和氛围感,一个让手机创作更专业。AI 既参与效率,也参与情绪,慢慢从“工具”变成“场景的一部分”,甚至都贴心地照顾到打游戏的单身人士,让你在游戏中也有个助手可以和你一起探讨策略和实时聊天。

这周的 AI 应用榜单更加接地气,更加润物细无声地融入到日常生活的方方面面。你还是刷内容、剪视频、查资料、打游戏,只是流程变短了,步骤变少了,卡顿的地方被抹平了。

AI 没有高调登场,它已经 quietly on,在你的日常里稳定运行。

最后再介绍一下 AGICamp 的上榜机制和加入榜单的参与方式,欢迎大家继续积极参与提交 AI 应用:

AGICamp AI 应用榜

并非依靠“点赞刷榜”,而是参考以下权重维度:

  • 评论数(核心指标,代表社区真实反馈)

  • 收藏与点赞(次级指标)

  • 推荐人贡献(注册推荐人可直接为好应用打 Call)

每周榜单在周二发布,上周应用数据的排序结果以每周一 18:00 的为准。

加入榜单的参与方式:

  • 如果你是开发者:上传你的 AI 应用,描述使用场景与核心亮点;

  • 如果你是推荐人:发现好工具,申请推荐人权限,发布推荐理由;

  • 如果你是用户:关注榜单,评论互动,影响榜单权重,贡献真实声音。

One More Thing,对于所有在 AGICamp 上发布的 AI 应用,极客邦科技会借助旗下各品牌资源进行传播,短时间内触达百万级技术决策者与开发者、AI 用户:

  • InfoQ 全媒体矩阵

  • AI 前线全媒体矩阵

  • 极客时间全媒体矩阵

  • TGO 鲲鹏会全媒体矩阵

  • 霍太稳视频号