本人从事文字工作,日常需要在众多文本材料中,寻找某个短句的原文出处,并以此为依据升华总结。需要严格规避模型幻觉。notebooklm 可以很好满足需求。
但鉴于大家对 gemini 降智的讨论,并个人也感觉其在某些场景下,总结能力出现减弱。故想咨询有没有与其对标的产品,核心需求为回答内容需严格限制在用户提供的来源之中。

五月十五日离开北京,转租朝阳区东大桥路 43 号楼一单元三楼两居室其中的主卧。房租 3100 ,家具齐全,大床,写字台,办公椅,穿衣柜,挂衣架,床头柜,鞋柜,立镜。可以做饭洗衣服洗澡,生活还是很方便。适合国贸附近上班人士,走路十分钟可以到公司。转租的话,可以按我这价格继续租,否则中介可能至少要 3500 。

另一小房间是菲律宾拳击教练租住。男的,男的!

背景
我们在做非标工业齿轮箱这个细分行业,这类企业几乎都是单件定制生产,每台产品都不一样,生产管理靠微信群+Excel ,订单进度全靠老板脑子记。

传统 MES 工具对这类企业完全不适用——配置成本太高、逻辑不匹配。但这个问题用 AI Agent 可以用很轻的方式解决:工人自然语言更新进度,系统自动追踪交期风险、采购瓶颈,老板看一张看板就够了。

我能带来什么
· 对非标制造业有较深的行业理解,能准确定义产品场景
· 正在推进种子客户访谈,已有初步目标客户池
· 负责产品定义、客户开发、商务拓展
· 愿意以股权换技术,认真对待,不是来白嫖的

需要什么样的技术伙伴
· 有 Python 或全栈开发经验
· 做过 To B 产品或企业微信/小程序开发
· 对 LLM/Agent 开发有基础了解或强烈学习意愿
· 有制造业背景更好,没有也没关系

合作方式
早期以 MVP 验证为核心目标,技术合伙人配备股权,具体面谈。先 3 个月互相考察,跑通了再深入。

有兴趣的可以回复或发 V2EX 站内信,聊聊看或者微信 15077835725 。

避免浪费大家时间,先说下,需要进行虚拟币交易

用的是虚拟 u 卡( Mastcard ),之前文章有说这个:wildcard 关停后,我找到了无需管理费的虚拟信用卡方案

我的途径:OKX C2C 交易 usdt -> 转入 Web3 账户( Arbitrum One 链) -> usdt 兑换为 usdc -> SafePal 里将 usdc 充值为余额 -> chatgpt 充值(美区 ip )

熟练了操作起来只有几分钟。

小 tip: chatgpt 充值时地址选择南极洲可以免 8 美元的税收。

刚充值成功成功截图:

gpt


附上两个的邀请链接:(注册双方都有奖励,如果不需要也可以直接只访问 domain :))

SafePal 注册链接: https://www.safepal.com/zh-cn/bank/register?referral=258169

OKX 注册链接: https://okx.com/join/13362341

RT

开的 claude pro ;

平时只用 claude opus4.7 写页面。codex 写后端;

目前使用的姿势。

桌面端的 desktop ,模型 opus4.7 high ,从写这个项目开始,一直都是一个对话框来对话。

举例做个功能,让他修改一个 vue 项目,一页面增加一个按钮,点击按钮弹出对话框。 这一个功能要用掉 70%。

1 个问题直接 limit 。

是不是姿势不对 ~ 求大佬指点

随着 AI 智能体的广泛应用,私有化部署、数据安全与快速落地已经成为核心需求。开源轻量 AI 智能体 OpenClaw 在 2.6.4 版本完成重要升级,大幅提升环境兼容性、服务稳定性与模型集成能力。新版本针对 Windows 系统优化一键部署能力,实现开箱即用,告别繁琐编译与依赖配置难题。

本文从技术原理到实践应用完整讲解,覆盖环境准备、部署实施、功能验证与问题排查全环节,提供可直接落地的操作指南。无论个人学习、办公自动化,还是企业级 AI 本地化部署,都能直接参考使用。

一、OpenClaw 2.6.4 核心技术亮点

本地离线运行架构:全流程数据本地存储,无云端上传、无网络依赖,满足数据合规与隐私安全需求。
一体化运行环境封装:内置 Git、Node.js、Python、系统驱动等全套依赖,避免环境缺失与版本冲突。
多模型池集成技术:预置 400 + 主流大模型,支持对话推理、工具调用、自动化执行,无需额外 API 对接。
底层系统交互能力:支持文件 IO、浏览器自动化、键鼠模拟、批量数据提取、进程管控等操作。

Gateway 服务化架构:2.6.4 版本优化服务启动逻辑,降低资源占用,提升运行稳定性。

二、部署环境配置规范与硬性要求
系统支持
Windows 10 专业版 / 企业版Windows 11 全版本
最低配置:4GB 内存、10GB 空闲磁盘、CPU 支持虚拟化(非强制)
前置操作(必做)
关闭所有安全防护软件,包括 360 安全卫士、腾讯电脑管家、火绒、Windows Defender 实时防护。原因:OpenClaw 需要调用系统底层权限、读写配置文件、模拟硬件操作,容易被 HIPS 规则误判拦截。
三、上手即用:OpenClaw 2.6.4 部署与配置实操教程

  1. 安装包获取
    OpenClaw 部署包:https://xiake.yun/api/download/package/6?promoCode=IV21FDDF577D
  2. 标准解压流程
    禁止使用:Windows 系统自带解压工具(易导致权限异常)推荐工具:WinRAR / 7-Zip操作步骤:右键压缩包 → 解压到当前文件夹生成目录:Openclaw-win校验文件:存在 Openclaw Windows 一键启动.exe
  3. 程序启动与白名单放行
    双击启动程序,若触发 Windows SmartScreen 拦截:点击「更多信息」→ 选择「仍要运行」(注:未收录数字签名,常规系统提示,非安全风险)
  4. 自动化部署(核心步骤)
    进入初始化界面 → 点击「开始使用」
    (https://i-blog.csdnimg.cn/direct/c91ebc3bf88f41f49ecfb7257a66...)
    (data:image/gif;base64,R0lGODlhAQABAPABAP///wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==)
    配置安装路径(强规范)✅ 路径规则:纯英文、无空格、无特殊字符、非系统盘✅ 推荐路径:D:\OpenClawE:\AI\OpenClawF:\OpenClaw_2.6.4
    ❌ 禁止路径:D:\ 软件 \OpenClaw、D:\ 小龙虾、D:\Open Claw
    勾选协议 → 点击「开始安装」自动执行流程:系统环境检测依赖库自动安装Gateway 服务注册.env 配置文件生成桌面快捷方式创建
    第一次初始化:等待 1-3 分钟(加载模型与服务)
  5. 部署成功验证
    主界面右上角显示「Gateway 在线」代表服务启动正常、环境配置完成,可执行 AI 指令。
    四、功能验证(技术指令测试)
  6. 文件自动化管理
    整理 D 盘下载文件夹,按图片、文档、压缩包分类归档,删除重复文件与空目录
  7. 浏览器数据采集
    打开浏览器检索 2026 本地 AI 智能体行业报告,提取核心数据生成 Excel 保存至桌面
  8. 桌面应用控制
    启动 PC 微信,向「工作群」发送消息:今日 18:00 前提交本周工作总结
  9. 批量文档处理
    遍历 D 盘所有 Word 文档,提取标题、作者、内容摘要,生成汇总表格
    五、常见技术报错排查
    核心文件被拦截 / 丢失解决方案:关闭杀毒软件 → 恢复隔离区文件 → 重新解压 → 执行部署
    路径非法,部署终止解决方案:修改安装路径为纯英文、无空格、无特殊字符,重新安装
    Gateway 持续离线解决方案:检查安全软件状态 → 确认路径合规 → 点击重启服务 → 重新启动程序
    第一次启动加载超时解决方案:正常现象,第一次加载依赖需 1-3 分钟,二次启动即可快速进入
    OpenClaw 部署包:https://xiake.yun/api/download/package/6?promoCode=IV21FDDF577D
    总结
    OpenClaw 是一款功能强大的本地化 AI 智能体解决方案,具备便捷部署、稳定运行、功能完善和安全可靠四大核心优势。本文基于 Windows 原生环境实测编写,提供详细操作步骤与问题排查方法,帮助技术人员、运维人员和办公用户快速搭建私有化 AI 助手。

plus+free 号池,自用不了,推出来略微回收一下成本。

模型支持有 GPT 全家桶

价格如下:

按量付费:0.08 元/刀,随充随用,日/周不限。

自己注册的号池,没有任何映射,无虚标不掺水。有问题及时处理,属实包退款。

https://www.loomex.cn

作为 vivo 今年春季推出的旗舰级平板,vivo Pad6 Pro 显然被寄予了厚望:配备 4K 超大原彩屏、第五代骁龙 8 至尊版芯片,同时搭载了 PC 级 WPS 和专业版剪映。参数之外,实际体验到底如何?和 iPad 比,安卓平板又有哪些可圈可点之处呢?

本期新玩意视频,让我们一起来上手体验这部超大大大的新平板吧。

观看渠道

除了站内的嵌入影片,我们推荐你使用自己习惯的渠道观看本片的高清版本。观看地址:

> 关注 少数派小红书,找到数字时代更好的生活方式 🎊

> 实用、好用的 正版软件,少数派为你呈现 🚀

    ​ 在使用 Codex CLI 或相关 AI 编程工具时,很多用户会遇到 API 连接不稳定、配置复杂、成本偏高、模型调用失败等问题。对于国内用户或部分网络环境受限的用户来说,使用第三方中转站 API 是一种更灵活、更容易上手的配置方式。

    本文将介绍 Codex 使用第三方中转站 API 的主要原因,并推荐一个较为完整的第三方 DKCodex 配置教程。

    第三方 dkai-codex 配置教程:
    https://dk82.com/646.html

    一、为什么 Codex 要使用第三方中转站 API?

    Codex 使用第三方中转站,主要是为了解决网络连接、使用成本、配置复杂度和稳定性等问题。对于刚开始接触 Codex 的用户来说,中转站可以降低配置门槛,让 Codex 更快进入可用状态。

    1. 网络访问限制

    在国内或某些特殊网络环境下,直接访问 OpenAI 官方 API 可能会出现连接失败、请求超时、响应不稳定等情况。

    第三方中转站通常会部署在更容易访问的服务器节点上,将用户请求转发到对应模型服务,从而提升 Codex 的连接成功率和使用稳定性。

    对于需要长期使用 Codex 进行代码生成、项目分析、自动修改代码的用户来说,稳定的 API 连接非常重要。

    1. 成本优化

    官方 API 的使用成本相对较高,尤其是在高频调用、长上下文、多轮代码分析等场景下,消耗会比较明显。

    部分第三方中转站会提供更加灵活的计费方式,例如按量计费、套餐计费、余额充值等。对于个人开发者、学生用户、小团队来说,这类方式可以降低前期使用成本。

    一些中转站的价格可能低于官方 API,适合用于日常学习、代码辅助、脚本生成、项目调试等场景。

    1. 配置更加简单

    官方 API 的配置通常涉及账号注册、API Key 创建、模型选择、环境变量配置、权限管理等步骤。对于新手用户来说,容易出现配置错误。

    使用第三方中转站后,通常只需要修改少量配置文件,例如:

    ~/.codex/config.toml
    ~/.codex/auth.json

    用户只需要按照中转站提供的教程填写 API 地址、密钥和模型名称,即可快速完成 Codex 配置。

    如果你不熟悉 Codex 配置流程,可以参考上面这篇教程:

    1. 稳定性与可靠性

    部分第三方中转站会通过多账号池、负载均衡、节点切换和故障重试等方式提升 API 请求的稳定性。

    当某个接口出现限流、请求失败或临时不可用时,中转站可能会自动切换到其他可用节点,减少 Codex 使用过程中的中断问题。

    这对于需要长时间使用 Codex 处理代码任务的用户来说非常有帮助,例如:

    
    分析大型项目代码
    
    
    自动生成脚本
    
    
    修改现有代码结构
    
    
    解释复杂函数逻辑
    
    
    辅助完成 GitHub 项目开发
    
    
    批量生成 README、文档和测试代码
    
    
    
    
    1. 功能扩展与多模型兼容

    第三方中转站通常不只支持单一模型,而是提供多模型统一入口。用户可以在同一个接口下调用不同模型,减少反复配置的麻烦。

    部分中转站还可能支持缓存优化、请求压缩、模型映射、备用节点等功能,从而提升 Codex 的响应速度和调用效率。

    对于经常切换模型的用户来说,中转站统一入口会更加方便。

    二、Codex 第三方中转站适合哪些用户?

    Codex 使用第三方中转站 API,比较适合以下几类用户:

    
    国内网络环境下连接官方 API 不稳定的用户
    
    
    想降低 API 使用成本的个人开发者
    
    
    想快速配置 Codex 的新手用户
    
    
    经常使用 Codex 修改代码、生成脚本、写文档的用户
    
    
    需要多模型统一调用入口的用户
    
    
    希望减少配置复杂度的小团队用户
    
    
    

    如果你只是偶尔体验 Codex,也可以先使用官方方式。如果你需要长期、高频、稳定地使用 Codex,那么第三方中转站会更方便。

    三、推荐配置教程

    如果你想快速完成 Codex 第三方 API 配置,可以参考下面这篇教程:

    👉 第三方 DKCodex 配置教程

    该教程适合想要快速配置 Codex 第三方中转站 API 的用户,按照步骤修改配置文件即可完成接入。

    四、基础配置思路

    一般来说,Codex 接入第三方中转站 API 的核心思路如下:

    
    获取第三方中转站提供的 API Key
    
    
    获取对应的 API Base URL
    
    
    打开 Codex 配置文件
    
    
    修改 config.toml 中的模型和接口配置
    
    
    修改或检查 auth.json 中的认证信息
    
    
    启动 Codex 测试是否可正常调用
    
    
    

    常见配置文件路径如下:

    ~/.codex/config.toml
    ~/.codex/auth.json

    具体配置内容请以中转站教程为准:

    五、使用第三方中转站的注意事项

    第三方中转站虽然使用方便,但也需要注意以下问题:

    1. 注意数据隐私

    Codex 在处理代码任务时,可能会读取项目中的代码、配置文件、接口信息或业务逻辑。因此,不建议在不可信的中转站中处理敏感项目。

    如果项目中包含以下内容,建议谨慎使用:

    
    商业机密代码
    
    
    数据库密码
    
    
    服务器密钥
    
    
    支付接口信息
    
    
    用户隐私数据
    
    
    未公开的商业项目
    
    
    
    
    1. 不要泄露 API Key

    无论使用官方 API 还是第三方中转站 API,都不要将 Key 上传到 GitHub 仓库中。

    建议将密钥写入本地配置文件或环境变量,并将敏感文件加入 .gitignore:

    .env
    auth.json
    config.toml
    *.key

    1. 选择信誉较好的中转站

    第三方中转站并非官方服务,稳定性、速度、价格和隐私保护能力都取决于服务商本身。

    建议优先选择:

    
    有完整教程的中转站
    
    
    有稳定维护记录的中转站
    
    
    支持多模型的中转站
    
    
    有客服或售后渠道的中转站
    
    
    价格透明、充值方式清晰的中转站
    
    
    
    

    六、总结

    Codex 使用第三方中转站 API,可以在一定程度上解决网络访问不稳定、官方配置复杂、使用成本较高等问题。对于国内用户、个人开发者和高频使用 Codex 的用户来说,中转站是一种更灵活的接入方式。

    如果你想快速完成 Codex 第三方 API 配置,可以直接参考上面的教程:

    使用前建议根据自己的项目类型和隐私要求进行评估,尽量避免在不可信环境中处理敏感代码或重要数据。!上传中...

    我开发了一个滑动消除类游戏,请大家看看这个游戏的玩儿法有什么问题没有?

    这个游戏上线后,数据很差,玩家的在线时间很短,并且新注册玩家我用了种子计划,仍然没有新进的玩家,我完全不知道怎么回事。

    #小程序://全民疯狂来消除/U15HtYoRYcAlWds

    在数字化转型深度渗透的今天,企业业务模式持续迭代,云端部署、混合办公、供应链协同成为常态,数据资产价值凸显,但网络安全威胁也呈现多元化、隐蔽化、规模化特点。传统“边界防护”模式以“内网可信、外网不可信”为核心假设,通过防火墙、VPN等构筑静态壁垒,已难以应对云计算、移动办公、物联网普及带来的安全挑战。当企业资源不再集中于内部数据中心,员工可通过任意设备、任意网络访问核心资产,传统防护的“边界模糊化”问题愈发突出,数据泄露、横向渗透等安全事件频发。在此背景下,零信任安全策略应运而生,成为企业抵御现代网络威胁、保障数字化转型顺利推进的核心安全架构。今天德迅云安全将从核心内涵、核心原则、实施价值、实施路径及注意事项等方面,为企业提供全面解析与实操指南。一、零信任安全策略的核心解析:打破边界,重构信任逻辑(1)零信任安全的定义:不是产品,而是一种动态安全策略零信任安全并非单一技术产品或解决方案,而是一种全新的安全防护理念与策略框架,核心要义是“永不信任,持续验证”——不默认任何用户、设备、网络或应用的安全性,无论其处于内网还是外网,每一次访问请求都需经过严格的身份验证、权限校验和环境评估,且权限遵循“最小必要”原则,最大限度降低安全风险。与传统安全“一次验证、长期信任”的静态逻辑不同,零信任假定企业网络已被渗透,摒弃“内网即安全”的固有认知,将防护重心从“边界防御”转移到“身份与权限管控”,实现从“被动防御”向“主动防御”的转型。零信任的本质是不默认任何信任,每一次访问都需验证身份、环境、设备状态等多维度信息,基于最小权限限制访问范围,以“假设已被入侵”为前提构建架构,缩小攻击影响范围、阻止横向移动。(2)零信任安全的核心原则:筑牢安全防护的底层逻辑零信任的落地离不开五大核心原则,贯穿访问控制、权限管理、风险防控全流程:永不信任,持续验证:核心原则,无论访问者身份、设备位置,均不给予默认信任,每一次访问需验证多重因素,且持续监控,异常时立即终止访问。最小权限访问:为用户、设备分配仅能完成工作所需的最小权限,杜绝过度授权,降低权限滥用风险。深度身份识别:以身份为核心,采用多因素认证(MFA)、单点登录(SSO)等技术,结合多维度信息精准识别用户身份,提升验证安全性。动态风险评估:实时监控设备状态、网络环境、用户行为等风险因素,根据风险等级动态调整访问权限,实现“风险越高,管控越严”。全面可视化与审计:完整记录所有访问行为、权限变更等信息,实现安全事件可追溯、可审计,支撑应急响应和合规监管。
    图片
    二、企业实施零信任安全策略的核心价值企业实施零信任,不仅是应对网络威胁的被动选择,更是提升核心竞争力、保障业务持续发展的主动布局,核心价值体现在四方面:(1)抵御新型网络威胁,降低安全风险零信任通过“持续验证、最小权限、动态风控”的核心逻辑,可有效抵御勒索病毒、数据泄露、横向渗透等新型威胁。即使攻击者突破边界防护,访问核心资源仍需多重验证,权限被严格限制,无法横向移动,最大限度降低损失。同时,持续监控设备和网络状态,及时发现异常,弥补传统安全“重边界、轻内部”的短板,是抵御高级持续攻击的重要手段。(2)适配数字化转型场景,支撑业务创新混合办公、云端部署、供应链协同已成为企业常态,传统安全难以适配。零信任打破边界限制,让员工可在保障安全的前提下,随时随地访问所需资源,提升办公效率;同时支持多云、物联网设备接入,为IoT、远程协作等业务创新提供安全支撑,实现安全与业务协同发展。(3)满足合规监管要求,规避法律风险《网络安全法》《数据安全法》等法律法规对企业数据安全、隐私保护提出严格要求。零信任通过全面的身份管控、权限管理和行为审计,实现数据访问全流程管控,其审计功能满足监管审计要求,最小权限原则防止敏感数据非法访问,帮助企业规避法律风险和行政处罚。(4)降低安全运维成本,提升管理效率传统安全需部署大量边界设备,且难以协同,运维成本高、效率低。零信任采用统一安全架构,实现安全管理集中化、自动化,减少设备部署和运维成本;同时通过最小权限和动态权限调整,减少安全事件处理成本,降低对传统VPN的依赖,进一步提升管理效率。三、企业实施零信任安全策略的实操路径:分步推进,落地见效零信任实施是循序渐进、持续优化的过程,企业需结合自身业务规模、IT架构和安全需求,按“调研评估—基础搭建—分步实施—优化迭代”四阶段推进,兼顾业务连续性和用户体验。(1)第一阶段:调研评估,明确需求与目标实施零信任的前提是摸清企业现状,明确需求目标,具体分三步:梳理核心资产:全面排查核心数据、应用系统、设备终端等,明确重点保护资产及分布,建立资产清单,为后续管控提供依据。评估安全现状:分析现有安全体系不足,识别安全隐患,调研行业案例,结合自身业务明确实施零信任的核心需求和痛点。制定实施目标与计划:结合业务战略,明确实施目标、范围、时间节点和预算,制定分步计划,协调各部门意见,确保贴合企业需求。(2)第二阶段:基础搭建,筑牢零信任底层支撑零信任落地需完善三大基础体系,为后续实施奠定基础:构建统一身份管理体系:搭建统一身份管理平台,采用SSO提升用户体验,部署MFA强化身份验证,建立用户全生命周期管理机制,避免权限残留。完善设备管控体系:建立设备台账,部署终端安全管理软件,对不合规设备限制接入;采用沙箱技术隔离BYOD设备的企业与个人数据,持续监控设备状态。优化网络防护体系:采用微分段技术隔离网络区域,部署SDP实现“按需接入”,加强网络流量监控,整合云端与本地防护资源,适配混合云场景。(3)第三阶段:分步实施,逐步推进零信任落地按“从易到难、从核心到边缘”原则,优先试点再全面推广,具体分三步:试点实施:选择合适场景突破:优先在远程办公、第三方接入等非核心场景试点,收集用户反馈,优化验证流程,积累实施经验。全面推广:覆盖核心业务与全场景:将零信任模式推广至所有业务场景,重点改造核心数据和应用,制定差异化策略,实现与现有IT系统无缝集成,保障业务连续性。权限优化:动态调整,实现最小权限:梳理优化权限分配,清理过度授权和权限残留,建立动态权限调整机制,定期开展权限审计,确保管控有效。(4)第四阶段:优化迭代,持续提升安全能力零信任需持续优化,具体分两步:建立持续监控与审计机制:部署安全监控平台,记录安全日志,设置异常告警,定期开展安全审计,评估实施效果,满足合规要求。持续优化与技术升级:引入新技术提升安全能力,根据业务发展优化策略,针对新型威胁调整验证规则,加强员工培训,提升安全意识。
    图片
    四、企业实施零信任安全策略的注意事项零信任实施是系统工程,需注意四点,避免陷入误区:避免“技术至上”,贴合业务需求:零信任为业务服务,需结合自身业务特点选择合适方案,避免过度投入,兼顾业务连续性。注重部门协同,明确责任分工:明确IT、安全、业务、人力等部门职责,协调各层级支持,形成协同推进的工作格局。平衡安全性与用户体验:优化验证流程,简化操作步骤,在保障安全的前提下,提升用户体验,避免员工抵触。强化员工培训,提升安全意识:开展零信任培训,普及相关规范,定期开展安全演练,规范员工操作,降低人为安全风险。
    图片
    五、结语数字化转型推动网络安全防护模式变革,零信任以“永不信任,持续验证”为核心,打破传统边界防护局限,构建动态、全面的安全体系,是企业抵御威胁、保障转型的关键支撑。零信任并非单一技术,而是贯穿安全管理全流程的策略,核心是重构信任逻辑,实现从被动防御向主动防御的转型。德迅零域·微隔离安全平台可部署在混合数据中心架构中,实现跨平台的统一安全管理,通过自主学习分析、可视化展示业务访问关系,实现细粒度、自适应的安全策略管理。产品在真实威胁中,可快速隔离失陷主机网络,阻断横向渗透行为,让零信任理念真正落地。在众多安全解决方案中,“德迅云安全”凭借其领先的技术和专业的服务,成为企业实施零信任策略的理想合作伙伴。通过提供全面的安全产品和解决方案,为企业量身定制安全策略,助力企业在保障网络安全的同时,实现业务的稳健发展,确保信息资产的安全无虞。未来,零信任将与新技术深度融合,成为企业安全体系核心架构,助力企业实现安全与发展的双赢,尽早布局零信任,才能守住安全底线、抢占发展先机。

    1. 无法理解露营,开个车跑十几公里跑到修的某个河道边边,厕所都没有,就在那露营,不嫌热还是不嫌有蚊子,也不嫌河边那臭哄哄的味

    2. 无法理解挖野菜的,见到一个路边挖野菜的,说挖的地软,瞅了一眼起码一半都是小时候喂猪的.还有几次在碰见在地里挖野菜的,说实话真的不怕打药了吗?小时候放自家羊,都知道要看人家地头有没有打药的袋子.吃中毒了是不是又要去讹人家种地的.

    3. 无法理解下雨下雪天去山里的,真的是嫌命长.上高中就知道了下雨天上面就会有人通知,全部人都要撤出山里,就有些人非要去,反正去了都是被水冲跑了的

    4. 无法理解吃农家乐的.什么狗屁的土养,除了走的路多,吃的也是饲料啊,谁没事给他去割草,就山头那点吃的,早饿死了

    5. 无法理解让小孩体验农活的.纯的在糟蹋粮食糟蹋地了,我觉得就是在修仙人.算了没有地就不要体验了,真想体验包地去干吧,我觉得包 2 分地,只种菜你家小孩就受不了.

    6. 无法理解自助采摘的,不嫌热么,还帮人家干活,固定采摘量,拿回去又吃不完,除了浪费还是浪费,纯的花钱受罪

    穷鬼工作流

    兄弟们,粗大事了!

    发现没有?Codex 现在脑子是越来越好使了,写代码、盘架构那叫一个神仙下凡。

    但你查额度的时候有没有两眼一黑?Token 烧得速度越来越离谱!

    穷则思变,富则...算了,咱是穷鬼,富哥就不用往下看了!

    为了守护我们钱包,这套穷鬼工作流横空出世!

    以前是你 PUA Codex。

    现在你 PUA Codex,让 Codex 再 PUA Claude Code,先让 AI 自己内卷一波!你再做Codex验收结果的验收!

    以前你让 Codex 一个人硬扛大项目,它要读代码、拆需求、找调用链、改文件、跑测试、看失败日志、再回头修。主线程越塞越胖,token 越烧越猛,这就好比你花重金请了马斯克,结果让他去通下水道?!暴殄天物啊!

    现在?欢迎来到 AI 黑心包工队!

    Codex 稳坐老板椅发号施令,子代理排队领活干,Claude Code 披着 DeepSeek 的皮疯狂下场搬砖。什么长上下文探索?什么大范围重构?什么无限死循环排错?不再往主线程里硬灌,直接扔给执行层干,AI包工队不配有双休!

    这才是多代理最该有的嘴脸:老板负责统筹大局,验收结果,打回重做!牛马疯狂内卷抢活,脏活累活全被外包,最后功劳全是老板的!把这套玩明白了,你的 Codex 才能真正爽到飞起!

    当然了,作为指挥Codex的你,才是真正的大资本家!

    这一切都基于 DeepSeek 的离谱低价!在加上缓存命中价格百万token俩分钱!长任务、多代理、大范围代码探索,给我往死里造!反正苦力便宜,Token 成本四舍五入等于不要钱!

    人民的 DeepSeek,小 D 的恩情还不完😭

    <img src="https://raw.githubusercontent.com/xdd666t/MyData/master/pic/flutter/blog/20260504115715483.png" alt="ChatGPT Image 2026年5月4日 11_53_50" style="zoom: 50%;" />

    一句话安装工作流

    前置条件很简单:

    1. 安装 Claude Code。
    2. 安装 CC Switch。
    3. 在 CC Switch 里把 Claude Code 的后端 API 切到 DeepSeek。
    4. 准备一个你想接入这套工作流的目标项目。
    5. 打开 Codex。

    没有 Codex?那不好意思,本项目不适合你。这里就是给 Codex 当 leader、子代理当打工人的。

    然后,把安装提示词发给目标项目里的 Codex(拉取更新工作流,也是下面的提示词):

    请把 https://github.com/xdd666t/codex_with_cc 调度子线程工作流集成或更新到当前项目。

    接入之后,核心心法只有一句:

    让 Codex 做 leader,让子代理当大头兵。

    这句话不是装酷,它决定了你后面怎么下命令,也决定了这套东西为什么能把 Codex Plus 用出另一种爽感。

    你不要再对 Codex 说“帮我把这个大需求做完”,然后让它在一个主线程里从需求分析、代码阅读、方案设计、文件修改、测试失败、返工修复一路扛到底。这当然能跑,但上下文会越来越肿,日志会越来越多,主线会越来越散。

    更好的姿势是:让 Codex 拆任务,让子代理执行,让 Claude Code/DeepSeek 去啃高 token 苦活,让主 Codex 审核和兜底。

    效果

    • 提示词
    你现在委派三个子代理,让他们深度分析项目,给出项目中的优化计划书,对于三份计划书中矛盾的点,需要反复打回让他们再去验证再去制定,直到一致,然后你汇总出一份优化计划书。
    你作为leader,能力强,需要统筹好全局,你要对你的结果负责!
    • 创建子代理

    image-20260504101914934

    • 子代理执行Claude cli

    image-20260504101840375

    • 结果打回,重新验证

    image-20260504103024065

    这样使唤 Codex

    最基础的派工方式长这样:

    你拆解 xxx 任务,安排给多个子代理实现。你负责审核子代理结果,不符合要求就打回让他们重改,直到符合要求为止。

    如果你想把责任链说得更硬一点,可以直接这样下命令:

    你负责拆解、派工、审核和最终交付。子代理负责执行。结果不合格就返工,直到符合我的要求。

    如果是大任务拆分,可以这样:

    你先阅读项目,拆成 3 个互不冲突的实现任务,分别交给子代理处理。每个子代理必须给出变更文件、验证命令和风险说明。你最后统一 review、整合,并跑最终验证。

    如果你还没确定技术路线,可以让多个子代理先分别出方案:

    请启动多个子代理分别提出 xxx 的实现方案。每个方案需要说明优缺点、复杂度、风险和迁移成本。你汇总后给出推荐方案,不要直接照抄任何一个子代理。

    如果你担心代码质量,可以让一个代理写,一个代理专门挑刺:

    安排一个子代理实现 xxx,再安排另一个子代理专门做代码审查和边界情况攻击。你负责判断 review 是否成立,成立就打回实现代理修改,不成立就说明理由。

    如果你只是想查一个大模块,不想让主线程被所有噪音淹掉,可以这样:

    请把项目里的 xxx 模块交给子代理做深度调查,要求输出调用链、关键文件、潜在风险和建议修改点。你只保留结论,别把所有噪音塞回主上下文。

    这几类提示词的共同点很清楚:Codex 主线程不负责苦哈哈地把所有活都亲手干完,它负责把活拆清楚,把标准讲明白,把结果审回来。

    人话说,就是别让老板亲自搬砖。老板该做的是派活、验收、打回返工,以及最后对交付负责。

    为什么这东西香

    如果你重度用 Codex 做项目,大概率已经见过这种场面:

    一个复杂需求丢进去,Codex 先读项目,再找调用链,再改三五个文件,再跑测试。测试一炸,开始读日志。读完日志再改。改完又跑。跑完又发现另一个边界。最后主线程里塞满了代码片段、失败日志、中间判断、修复尝试和各种“我再检查一下”。

    前面看起来还行,后面就开始不对劲了。

    上下文越来越胖,token 越烧越猛,主 Codex 的注意力被中间噪音拖着走。它本来应该做架构师、项目经理、审稿人和最终责任人,结果被迫变成全栈苦力、测试工、日志分析员和临时救火队。

    这时候最痛的不是“AI 不够聪明”,而是聪明的主线程被脏活拖住了。你花钱买的是 Codex 的判断力,结果它一半精力在翻日志,一半精力在重复读文件,最后还要从一堆上下文碎片里把主线捞回来。

    而 DeepSeek 的快乐就在这里:让它去啃那些高 token、长上下文、重复阅读的体力活。缓存命中率一旦吃起来,体感上就像给多代理协作装了省钱外挂。不是说成本从此不存在,而是那种“每多试一次方案都心疼 token”的心理压力,会明显被按下去。

    最难受的是,大项目里很多工作不是“聪明”就能省掉的。

    你要读陌生模块,要扫文件,要比较方案,要看失败日志,要补测试,要查边界,要做 review。这些都是必要劳动,但它们不一定都该塞进主线程。

    这就是 codex_with_cc 的切入点:把高 token、高噪音、高重复的执行型任务委派出去,让主 Codex 保持清醒,让小 D 去干它最适合干的苦活。

    Codex 不是不能干活,Codex 是太适合当 leader 了。让它一直埋头搬砖,反而浪费它最值钱的能力:全局判断、任务拆解、风险裁决和最终验收。

    这套工作流的爽点也在这里:

    • 主线程不用吞下所有代码阅读和日志噪音。
    • 子代理可以承接长上下文探索、实现、审查和返工。
    • Claude Code CLI 负责执行具体任务。
    • DeepSeek 负责消化大量重复上下文和高 token 工作。
    • Codex leader 最后统一 review,结果不行就打回重改。

    你真正想要的不是“多开几个 AI 看起来很热闹”,而是让每一层都有自己的职责。

    主线程保持判断力,执行层负责燃烧体力。

    这不是提示词玩具

    很多所谓多代理工作流,其实只是把提示词写得更像公司制度。

    “你是 A 代理,你负责开发。”

    “你是 B 代理,你负责审查。”

    听起来很正规,落地一看,全靠 AI 自觉。没有 session 管理,没有任务指纹,没有租约,没有审计产物,没有链路约束。任务怎么发出去的、用了哪个会话、有没有复用上下文、有没有跑验证、结果从哪里来,全都糊成一团。

    codex_with_cc 不是这个路子。

    它做的事情更朴素,也更工程化:把一套 Codex -> Codex 子代理 -> Claude Code CLI 的委派工作流复制进任意项目,让 Codex 当 leader,Claude Code/DeepSeek 当执行层。脏活累活、长上下文探索、大范围改代码、互相找茬,都扔给子代理;主 Codex 只管拆解、调度、验收、打回重改。

    这就不是“请 AI 自觉点”的玄学了,而是把多代理委派做成有状态、有产物、有边界、有验证的工作流。

    真正的含金量,藏在后半段。

    工作流拆解

    这套链路可以写成一行:

    Codex 主线程 -> Codex 子代理 -> Claude Code CLI -> Claude Code 后端模型

    每一层的职责不一样。

    Codex 主线程负责理解需求、拆任务、创建子代理、审核结果、打回返工和最终交付。它是 Codex leader,是架构师,也是最后背锅的人。

    Codex 子代理负责作为可追踪的对话树节点,调用委派脚本,把具体实现、调查、审查这些高 token 消耗任务交给 Claude Code CLI。它不是随便开的聊天窗口,而是主线程派出去的任务节点。

    Claude Code CLI 负责执行被委派的具体任务。它可以做调查、改文件、运行验证,并输出结构化报告。

    如果 Claude Code 后端通过 CC Switch 接到 DeepSeek,那么大量读代码、改代码、跑验证的苦活就可以交给 DeepSeek 去消化。README 里提到的重点体验,是 DeepSeek 的缓存命中率很夸张,重复阅读、重复建模、重复烧 token 的部分能少一点是一点。

    所以这个链路的本质不是“让多个模型一起聊天”,而是分层:

    • Codex 主线程负责判断。
    • Codex 子代理负责承接任务节点。
    • Claude Code CLI 负责执行。
    • DeepSeek 负责高 token 工作的消化。

    主线程不会被海量代码和日志淹掉,子代理干苦活,主 Codex 保持清醒。

    Claude session 复用池

    这个库内置了 Claude session 复用池。

    README 里提到三类角色:

    • PrimaryReuse:负责串行主会话续跑。
    • PrimaryAnchor:负责并行批次的上下文锚点。
    • ParallelPool:负责独立支线任务的会话池化。

    这几个名字听起来有点后端味,实际解决的是一个很真实的问题:别让每个任务都冷启动。

    大项目里,最浪费 token 的事情之一,就是每个代理都重新读一遍相同背景。读项目结构,读核心模块,读约束,读调用链,读完再开始干活。任务一多,这些重复阅读会非常肉疼。

    session 复用池的目标,就是尽量让相似任务复用稳定 session,把上下文热起来。长任务不再每次都从零开始,重复阅读、重复建模、重复烧 token 的部分能少一点是一点。

    这也是为什么它适合长上下文探索、大范围修改、多代理方案比较这类任务。上下文不是一次性消耗品,而是可以尽量复用的工作资产。

    说得俗一点:既然都花 token 把上下文喂热了,就别每次都重新烧水。

    任务指纹、租约锁和会话回收

    多代理并行最怕什么?

    不是怕代理少,而是怕乱。

    两个 worker 抢同一个 session,任务状态没人管,某个进程卡死了也没人回收,跑到最后不知道谁用了哪个上下文、哪个任务还活着、哪个结果已经过期。这种并行看起来热闹,实际上很容易把项目搞成一锅粥。

    codex_with_cc 给这件事补了工程约束。

    每次委派都会基于任务内容、作用域和验证命令生成 fingerprint。并行 worker 通过 lease 管理 session 占用。卡死、过期、进程消失的 lease 会被识别和回收。

    这套东西听起来像服务调度,对,它本来就很像服务调度。只不过这里调度的不是传统后端任务,而是 AI 子代理执行链路。

    它关心的问题很具体:

    • 这个任务是谁发起的?
    • 这个任务的作用域是什么?
    • 它应该跑哪些验证?
    • 它占用了哪个 session?
    • session 是否还活着?
    • lease 是否过期?
    • 结果能不能追溯?

    这些问题不解决,多代理就是开盲盒。解决了,才有资格谈并行、复用和可回放。

    链路约束、审计产物和验证脚本

    这套工作流还有一个关键边界:主线程不能直接下场跑 claude

    脚本会检查 CODEX_CLAUDE_CHILD_THREAD=1,强制 Claude Code 委派只能发生在 Codex 子线程里。

    这件事很重要。因为如果主线程可以随便直接跑执行层,链路就会变脏:上下文污染、审计断链、任务责任不清、结果没人兜底。最后你只知道“AI 好像做了点什么”,但不知道它从哪儿开始、怎么跑的、用了哪个 session、输出在哪里。

    所以这个库把边界划清楚:

    • 主 Codex 负责规划、派工、review、返工裁决。
    • Codex 子代理才是执行层入口。
    • Claude Code CLI 执行具体任务。
    • 最终仍由主 Codex 审核和交付。

    每次运行还会落审计产物:

    • config_<RunId>.json
    • status_<RunId>.json
    • prompt_<RunId>.md
    • stream_<RunId>.jsonl
    • trace_<RunId>.log
    • claude_<RunId>.md

    这些 artifacts 解决的是“任务能不能查”的问题。任务怎么发出去的、用了哪个 session、有没有 resume、输出是什么、链路有没有断,都能回头看。

    最后还有验证脚本兜底:运行时验证、session pool 验证、artifact 验证、delegate chain 验证都配好了。

    所以,多子代理并行不是凭感觉开派对,而是有 session state、RunId、SessionKey、artifact root 和链路校验把它们串起来。

    高情商说法:可审计、可复用、可并发、可回放的多代理委派协议。

    低情商说法:让 Codex 当老板,也得给它配办公室制度和打卡机。

    适合什么场景

    这套工作流最适合那些“单点不难,但整体很吃上下文”的任务。

    比如大范围代码阅读和模块梳理。你可以让子代理调查某个模块,输出调用链、关键文件、潜在风险和建议修改点,主 Codex 只保留结论,不把所有噪音塞回主上下文。

    比如多文件实现任务。一个需求如果天然能拆成几个互不冲突的部分,就可以让多个子代理分别处理。每个子代理给出变更文件、验证命令和风险说明,主 Codex 最后统一 review 和整合。

    比如多方案头脑风暴。你可以让多个子代理分别提出方案,说明优缺点、复杂度、风险和迁移成本,然后由主 Codex 汇总推荐。重点是主 Codex 不直接照抄任何一个子代理,而是做最终判断。

    比如实现和审查分离。一个子代理写代码,另一个子代理专门做代码审查和边界情况攻击。主 Codex 判断 review 是否成立,成立就打回修改,不成立就说明理由。

    再比如迁移、重构、补测试、查调用链。这些活未必难,但很耗上下文,也很容易产生大量中间噪音。交给子代理做,主线程只拿结果,会干净很多。

    不适合什么场景

    别什么都上多代理。

    如果只是改一两行代码,直接让主 Codex 处理就行。为了一个小改动开委派链路,收益不一定覆盖沟通成本。

    如果需求还在实时变化,也别急着扔给子代理。比如产品边界还没想清楚、交互细节需要来回确认、业务规则本身还在摇摆,这类任务应该先在主线程里把需求定稳。

    如果文件冲突极高,也要谨慎并行。多个子代理同时改同一片区域,很容易互相踩脚。并行的前提不是“人多”,而是任务边界足够清楚。

    所以它最适合的不是小修小补,而是大范围阅读、多文件实现、多方案探索、实现审查分离、迁移重构和测试修复这类脏活累活。

    任务越大,主线程越容易爆;主线程越容易爆,这套分工越香。

    最后

    Codex 不是不能自己干活。

    但在复杂工程里,Codex 最值钱的能力不是“亲自多改几个文件”,而是保持全局判断:需求怎么拆,任务怎么派,风险怎么收,结果怎么验,哪里该返工,哪里能交付。

    codex_with_cc 做的事,就是把主控和执行拆开。

    主 Codex 当 leader。Codex 子代理承接任务。Claude Code CLI 执行具体工作。DeepSeek 消化大量上下文和重复劳动。session 复用池把上下文热起来,fingerprint 和 lease 管住并行,审计产物和验证脚本把链路兜住。

    这就不是“多开几个 AI 聊天窗口”。

    这是在给 Codex 配一套能派工、能复用、能审计、能验证的执行层。

    如果你已经被大项目里的 token 焦虑、上下文爆炸、重复读代码和日志海淹过,那这套工作流的价值很容易理解:别让主线程继续硬扛。

    让 Codex 坐在 leader 位上。

    让子代理去读、去改、去测、去互相找茬。

    结果不合格就返工,验证不过就继续修,边界没说清就打回重写。

    等这套分工跑顺之后,你会发现真正爽的不是“AI 干活更多了”,而是主 Codex 终于不用被脏活拖进泥里,可以一直保持清醒地判断、取舍和负责。

    2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

    大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

    夯实底座,突破能力边界
    会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

    在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

    接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

    强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

    在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

    作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

    随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

    扎根场景,释放协同效能
    午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
    小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

    面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

    在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

    对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

    对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

    除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

    IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

    接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

    在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

    随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

    针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

    最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

    从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405294813762420924 weibo.com/ttarticle/p/show?id=2309405294814156947769 weibo.com/ttarticle/p/show?id=2309405294814551212618 weibo.com/ttarticle/p/show?id=2309405294814941020365 weibo.com/ttarticle/p/show?id=2309405294815335284931 weibo.com/ttarticle/p/show?id=2309405294815826018332 weibo.com/ttarticle/p/show?id=2309405294816216350790 weibo.com/ttarticle/p/show?id=2309405294816606158982 weibo.com/ttarticle/p/show?id=2309405294817004880221 个

    分享用 OpenClaw 搭建购物助手的经历:从简单的购物清单备忘录,逐步进化为能搜小红书、比价、加购物车的完整工具。记录了三次购物实战和每一步能力扩展的过程。

    2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

    大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

    夯实底座,突破能力边界
    会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

    在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

    接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

    强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

    在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

    作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

    随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

    扎根场景,释放协同效能
    午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
    小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

    面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

    在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

    对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

    对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

    除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

    IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

    接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

    在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

    随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

    针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

    最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

    从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405294789183799711 weibo.com/ttarticle/p/show?id=2309405294789573869577 weibo.com/ttarticle/p/show?id=2309405294789955813589 weibo.com/ttarticle/p/show?id=2309405294790337495225 weibo.com/ttarticle/p/show?id=2309405294791566426574 weibo.com/ttarticle/p/show?id=2309405294791956496576 weibo.com/ttarticle/p/show?id=2309405294792333984050 weibo.com/ttarticle/p/show?id=2309405294792715403518 weibo.com/ttarticle/p/show?id=2309405294793189359625 个

    前阵子 DeepSeek 更新到了 V4。

    一开始我其实没太当回事。现在大模型更新太快了,几乎隔一段时间就来一次“版本升级”,但很多时候用起来差别并不大。

    但这次比较巧。

    我刚好在做一个 Web 应用,还顺便在准备软著材料,这一阶段我基本是边开发边用了一下 DeepSeek V4。

    用下来两周,有一些比较具体的感受,想记录一下。


    一、它给我的第一感觉:更“稳”了

    如果只说一个变化,那就是稳定性。

    以前用一些模型,经常会遇到这种情况:

    • 聊着聊着开始跑偏
    • 上下文接不上
    • 同一个问题,前后说法不一致

    V4 在这方面明显好很多。

    我在改接口的时候,有一段逻辑来回调整了好几次,它基本能记住前面的约束,不会每一轮都重新理解问题。

    这种体验不算惊艳,但很关键。

    因为开发过程中最怕的不是它不会,而是它前后不一致。


    二、在项目里,它更像“辅助工具”,而不是“替代者”

    前段时间我做的这个 Web 应用,从接口到部分功能实现,其实都有用到它。

    但用下来有一个很清晰的感受:

    它不是帮你“写完项目”的,而是帮你“推进过程”的。

    具体几个使用场景:


    1. 写接口和补逻辑

    有些基础接口,比如分页、条件查询这类,我会直接让它先给一个初版。

    它给出的代码:

    • 结构基本正确
    • 命名还算正常
    • 一些基础异常处理也会带上

    不是那种只能参考的代码,而是可以直接拿来改的。


    2. 查问题和定位 bug

    有些问题自己一时想不明白,会直接把代码丢进去,让它帮我分析。

    它不会一上来就改代码,而是会先列可能原因,再给修改建议。

    这一点其实挺像正常开发的思路。


    3. 顺带帮我处理了一部分软著材料

    在写软著说明文档的时候,有一些描述性内容,我也会让它帮我整理一下。

    比如:

    • 功能描述的表述
    • 一些模块说明的梳理

    它在这种“半技术 + 半文字”的场景里,其实还挺好用的。


    三、一个挺明显的短板:还停留在“文本世界”

    用了一段时间,有一个点其实挺明显的。

    就是它现在基本还是围绕“文本”在工作。

    我在做这个 Web 项目的时候,本来想过一件事:

    把页面截图丢给它,让它帮我分析 UI,或者给一些交互建议。

    但这条路是走不通的。

    查了一下资料,也基本可以确认:

    这一代 V4 还是预览版,多模态能力并没有真正上线。

    这在现在的大模型环境里,其实算是一个比较明显的短板。

    因为像现在一些主流模型,已经可以:

    • 直接看图
    • 分析页面结构
    • 甚至给出 UI 优化建议

    而 DeepSeek V4 更依赖你把问题“描述清楚”。

    这就导致一个很现实的差异:

    在“写代码、写内容、做推理”这些事情上,它很好用;
    但在“看界面、理解视觉信息”这类场景里,它暂时帮不上忙。


    四、它也不是没有问题

    用下来,有些问题还是挺真实的。


    1. 还是会答错,而且有时候挺自信

    有些答案看起来很合理,但细节是错的。

    如果不自己判断,很容易被带偏。


    2. 对复杂系统支持有限

    小功能、小模块都没问题。

    但如果是复杂项目,比如多模块系统、历史逻辑很多的代码,它的理解能力还是不够。

    更多还是适合作为辅助,而不是主导。


    3. 偶尔会有“套路感”

    在生成内容的时候,有时候结构会比较标准化。

    如果不做调整,读起来会有点像模板。


    五、一个比较实际的结论

    如果问我现在值不值得用。

    我的答案是:

    可以用,而且已经可以作为开发过程中的一个常用工具。

    但前提是要有一个清晰的认知:

    它更像一个能随时帮你补一把的工具,而不是替你完成工作的那个人。


    六、也想听听你们怎么用

    现在大家用大模型的方式,其实差别挺大的。

    有人只是偶尔查资料,有人已经深度参与到开发流程里。

    我比较好奇的是:

    你现在主要用它来做什么?
    有没有真的提升效率?
    有没有遇到过比较离谱的回答?

    可以聊聊。

    不同人的用法,其实挺有参考价值的。