最近在重度使用 codex app ,被官方价格 + 限制搞得有点烦…
干脆自己弄了个中转站,原本只是自己用的,刚好自己有一些上游渠道可以搞到一些相对低价的 pro 账号来轮询。

现在顺手放出来,有需要的可以试试。

支持的东西不多,目前就主打 codex ,支持最新的 GPT-5.5 模型

没啥特别花的功能,就是能用 + 稳一点。

简单说几个点:

  • 用的都是官方模型(不是那种乱七八糟的国内模型代替,纯官方账号轮询)
  • 没有 5 小时这种奇怪限制
  • 价格会比官方低一点(具体你们自己对比吧)

地址:
https://chris.gettoken.dev

新用户注册送 50 美刀,够随便测一阵了
image.avif

网站的套餐价格也不贵(至少暂时不贵,后续看成本可能会涨价)

image.avif

做外汇量化、行情采集的开发者大概率都碰到过:实时 Tick 数据频繁丢点、跳点、断档,换了几个 API 都解决不了。
这篇文章从实战角度,梳理易掉数据的货币对、背后原因,并给出可直接运行的稳定抓取方案。


一、开发场景与常见问题

在量化策略、回测系统、实时行情服务中,数据连续性直接决定系统可靠性。
常见问题:

  1. 数据缺失导致回测结果失真,策略不可用
  2. 交易高峰期波动大,数据断层影响决策
  3. 误以为是 API 质量问题,反复更换成本高
  4. 低流动性时段数据空白,无法全时段使用

经过长期实测可以确定:丢点并非单纯 API 故障,而是市场流动性、波动率、交易时段与采集方式共同作用的结果。


二、实测:哪些主流货币对最容易丢数据

在全时段、多节点并行抓取下,主流直盘货币对丢点频率如下:

  • GBP/USD:丢点率最高,英伦盘开盘波动剧烈、流动性不均,极易断档
  • USD/JPY:丢点率偏高,亚盘/美盘交替时更新不连续,高频下易漏 Tick
  • AUD/USD:丢点率偏高,亚洲时段流动性低,成交稀疏导致空缺
  • EUR/USD:丢点率中等,交易量极大,高峰时段易漏点
  • USD/CAD:丢点率中等,北美时段波动大,但整体稳定性更好

三、影响数据抓取稳定性的 4 个关键因素

  1. 交易时段活跃度
    高波动时段更新快,抓取频率不匹配就会丢 Tick。
  2. API 推送机制
    按秒推送 vs 逐笔 Tick 推送,数据完整性差异巨大。
  3. 网络传输方式
    HTTP 轮询被动拉取,易丢点;Websocket 主动推送,稳定性更强。
  4. 货币对流动性
    流动性越低,成交越不连续,抓取空缺概率越高。

四、实战方案:Websocket 稳定抓取(代码可直接运行)

在外汇实时 Tick 采集场景中,Websocket 长连接是目前最稳定的方案。
以 AllTick API 为例,订阅式推送可显著降低丢点率,代码100% 保持原样

import websocket
import json

def on_message(ws, message):
    data = json.loads(message)
    print(data)

ws = websocket.WebSocketApp(
"wss://apis.alltick.co/websocket-api/stock-websocket-interface-api/transaction-quote-subscription",
on_message=on_message
)
ws.run_forever()

实战优化建议

  1. 根据货币对特性规划抓取时段,避开流动性低谷
  2. 增加本地缓冲区,丢点时用历史数据自动补全
  3. 合理设置抓取频率,避免高频请求导致网络抖动

三种抓取方式对比

  • HTTP 轮询:实现简单,高峰期丢点严重
  • Websocket:实时性强、丢点率低,适合生产环境
  • 混合策略:历史轮询 + 实时推送,数据完整性最佳

总结

GBP/USD 是主流货币对中丢点最明显的品种,主要由开盘高波动与流动性不均导致。
通过优化抓取策略、使用 Websocket、建立补全机制,可以稳定获取高完整性的外汇实时数据,满足量化开发与系统部署需求。

JDK(Java Development Kit)是Java开发的核心工具包,没有它你就没法编译和运行Java程序。无论你是刚入门的新手,还是经验丰富的开发者,掌握JDK的下载和安装都是第一步。

现在市面上主要有两种JDK:Oracle JDK和OpenJDK:

Oracle JDK是官方版本,功能完整但商业使用需要注意许可证;
OpenJDK是开源版本,完全免费,功能和性能与Oracle JDK基本一致。
对于普通学习者来说,两者都可以。OpenJDK完全免费,Oracle JDK个人学习也免费。

选择JDK版本是个技术活。Java每6个月发布一个新版本,但只有LTS(长期支持)版本适合生产环境。下面这个表格详细对比了各个版本,帮你做出明智选择:

JDK官网下载

JDK官网下载地址:JDK安装包下载(从1.7~26,官网正版)

对于初学者,我建议下载OpenJDK 17,它平衡了稳定性和现代特性。

Java JDK安装

各个版本的 JDK 安装过程 99.9% 都是相同的,接下来我以 JDK17 为例,演示 JDK17 安装和配置的过程。
1)下载JDK 17安装包后,双击运行安装程序:

2)默认安装到 C 盘,这里我将其安装到了其他非系统盘(D:\JDK17\)。注意,安装路径一定要记住,不要搞丢,后面配置需要用到:

3)一直往后走,直到安装完成:

JDK配置环境变量(重要步骤)

1)右键点击"此电脑"或"计算机",选择"属性":

2)然后点击"高级系统设置":

3)在系统属性窗口中,点击"环境变量"按钮。

4)在系统变量部分,找到并选中"Path"变量,点击"编辑"。

5)点击"新建",添加 JDK 的 bin 目录路径,我的是 "D:\JDK17\bin"。

6)点击"确定"保存所有更改。

7)验证安装是否成功。按组合键 Win+R,输入cmd打开命令提示符(cmd),输入"java -version"和"javac -version",如果显示JDK 17的版本信息,说明安装和配置成功。

JDK基础使用

安装配置完成后,你可以开始编写和运行第一个Java程序了。下面是一个简单的示例:

1)创建一个文本文件,命名为"HelloWorld.java"。

2)用文本编辑器打开这个文件,输入以下代码:

public class HelloWorld {
    public static void main(String[] args) {
        System.out.println("Hello, World!");
    }
}

3)保存文件,注意文件名必须与类名一致(HelloWorld.java)。

4)打开命令提示符或终端,切换到文件所在目录。

5)编译Java程序:输入命令"javac HelloWorld.java"。如果编译成功,会生成一个"HelloWorld.class"文件。

6)运行Java程序:输入命令"java HelloWorld"。如果一切正常,你会看到输出"Hello, World!"。

虽然可以用文本编辑器和命令行开发Java程序,但对于实际项目,建议使用专业的集成开发环境(IDE):

  • IntelliJ IDEA:目前最流行的Java IDE,功能强大,社区版免费。
  • Eclipse:老牌的Java IDE,完全免费,插件丰富。
  • VS Code:轻量级编辑器,通过Java扩展包支持Java开发。
    这些IDE提供了代码自动补全、调试、版本控制、项目管理等功能,可以大大提高开发效率。

JDK常见问题

如果java命令找不到,检查环境变量配置。设置JAVA_HOME和Path后,需要重新打开命令行窗口。

编译时遇到版本错误,检查javac版本。用javac -version查看编译器版本,确保与java版本一致。

系统中有多个JDK时,通过设置JAVA_HOME来指定使用哪个版本。大多数IDE也支持选择不同的JDK。

JDK下载安装教程总结

JDK是Java开发的基石。选择哪个版本和发行版,取决于你的具体需求。对于大多数情况,OpenJDK 17是个安全的选择:它是LTS版本,有长期支持,性能优秀,而且完全免费。

记住几个关键点:生产环境用LTS版本,企业开发优先选OpenJDK,新项目考虑JDK 17或21。正确安装和配置JDK,是你Java开发之旅的第一步,也是最重要的一步。

2026年4月24日,DeepSeek全新系列模型DeepSeek-V4预览版正式上线并同步开源。这是自2025年1月DeepSeek R1发布以来,这家中国AI公司的首个重大版本更新。在长达15个月的等待之后,DeepSeek V4以“百万Token超长上下文、万亿参数MoE架构、全链路国产算力适配”三重重磅升级,宣告了国产大模型正式迈入全球第一梯队。

一、性能突破:多项基准测试对标甚至超越顶尖闭源模型

在业界最受关注的编程能力方面,据泄露的基准测试数据,DeepSeek V4在SWE-bench Verified测试中取得了83.7%的成绩,超越了Claude Opus 4.5的80.9%和GPT-5.2的80%。在数学推理领域,V4在AIME 2026中达到99.4%,IMO Answer Bench中取得88.4%的高分。

在通用知识评测方面,V4在MMLU上达到92.8%,HumanEval编程测试达到90%。尤其值得关注的是,V4的推理速度较前代V3提升了35倍,能耗降低了40%。虽然这些成绩均需等待独立第三方进一步验证,但目前的信号已经足够清晰:一款能够与国际顶尖闭源模型正面竞争的开源大模型,已经到来。

二、百万级上下文:从“辅助工具”到“全能搭档”

DeepSeek V4最显著的升级之一,是上下文窗口从前代的128K一举跃升至100万Token,接近10倍的量级提升。这意味着模型可以一次性处理相当于《三体》三部曲体量的完整文本,无需分段或截断。

百万级上下文不仅是参数表上的数字变化,而是工作方式的根本变革。开发者可以将一整套项目文档、会议记录、产品需求和测试报告一次性输入模型;研究人员可以完整分析长篇论文、实验数据和历史文献;法律从业者则能处理数十万字的卷宗材料而不丢失关键细节。V4同步发布了Pro与Flash两种API版本,用户只需修改model_name参数即可调用,极大降低了长上下文能力的使用门槛。

三、万亿参数架构:每一分钱都花在刀刃上

在模型架构层面,DeepSeek V4采用大规模混合专家(MoE)架构,按大小分为两个版本:完整版总参数量高达1.6万亿,Lite版为2850亿。

在注意力机制方面,V4采用了DSA2方案,融合了此前DeepSeek V3/R1中的DSA机制以及今年初论文提出的NSA稀疏注意力机制。MoE系统启用Mega内核融合方案,每层包含384个专家,每次推理仅激活其中6个。在训练与优化层面,优化器选用Muon,强化学习阶段采用GRPO算法并辅以KL散度校正,最终将预训练上下文从32K扩展至1M。此外,V4还引入Engram条件记忆模块,可将20%—25%的稀疏参数卸载至DRAM,在100万Token长度下的信息召回率达97%。

这种架构设计的精妙之处在于:模型虽然拥有万亿级的庞大“脑容量”,但每次推理只需调用其中一小部分——激活参数约370亿,这使V4的推理成本与V3基本持平。用个通俗的比喻:你身后站着一个庞大的专家团,但每次回答问题的,只是其中最适合的那几位,所以库很大、脑子很厚、出手依然很快。

四、极致性价比:重塑AI算力经济账

定价方面,DeepSeek V4延续了公司一贯的“效率优先”哲学。V4 API标准费率为输入每百万Token 0.30美元、输出每百万Token 0.50美元;缓存命中时输入成本降至每百万Token仅0.03美元,相当于90%的折扣。

对比海外主流模型:GPT-4o的输入价格为每百万Token 2.50美元,输出10美元;Claude Opus 4.5的输出价格更高达15美元。DeepSeek V4的价格仅为OpenAI的约1/20至1/50。一位开发者在生产环境中实测后分享:同样的工作负载,GPT-4o月费约为380美元,Claude Opus 4.5接近720美元,而DeepSeek V4仅18美元。

更具诚意的是,V4还提供夜间低峰时段(北京时间23点至次日7点)的半价优惠,所有Token类型均可享受50%折扣。对于批量处理、离线分析等非实时任务场景,这是实实在在的成本优化。

五、国产算力适配:从“能用”到“好用”的战略跨越

DeepSeek V4此次最受行业关注的决策之一,是在硬件路线上选择了全面拥抱国产芯片。据多方信息显示,DeepSeek V4将运行在华为最新的昇腾芯片上,工程师完成了从英伟达CUDA生态向华为CANN架构的底层代码迁移。这一过程耗费了大量精力用于芯片适配,这也是V4发布时间一再推迟的核心原因之一。

DeepSeek没有向英伟达或AMD提供V4的早期适配权限,而是将早期访问独家开放给了华为昇腾、寒武纪等国产芯片厂商。在昇腾硬件上,V4的算力利用率达到约85%,部署成本仅为英伟达方案的1/3。这意味着V4将成为全球首个不依赖英伟达硬件生态的前沿AI大模型。英伟达CEO黄仁勋在近期采访中也表达了对这一趋势的忧虑,认为一旦顶尖AI模型在国产芯片上跑出竞争力,英伟达多年构建的生态护城河将不再牢固。

当然也需要看到,模型级别的芯片迁移是极其复杂的系统工程。软件层面的差距并不能一蹴而就,CANN框架在算子覆盖、自动并行、内核融合等方面的成熟度仍落后于CUDA生态,这意味着DeepSeek团队需要在大量底层细节上进行针对性优化,甚至手动重写关键算子。这条路虽然艰难,却为中国AI产业开辟了一条全新的可能——软件定义硬件,模型拉动芯片,这或许比任何补贴政策都更有力量。

六、估值飙升与首次融资:市场的信心投票

与V4发布同步,DeepSeek在资本市场也迎来了历史性时刻。据多家媒体报道,腾讯与阿里巴巴正在洽谈投资DeepSeek,公司目标估值从最初的至少100亿美元上调至逾200亿美元。这是DeepSeek成立以来的首次外部融资,标志着创始人梁文锋长期坚守的“不引入外部资金”立场出现重大转变。

从100亿美元到200亿美元的估值跃升,市场需要的不仅是一个好的故事,更需要看得见的技术突破和可持续的竞争力。V4在性能、成本、国产化三个维度的同时发力,正是支撑这一估值的核心逻辑。

结语

回顾DeepSeek的发展历程,从V2让行业意识到国产模型也能把性价比打到位,到V3在多任务上逼近GPT-4水平,再到R1的爆火出圈,这家公司一直在做同一件事:把顶级AI能力从实验室的奖杯,变成开发者人人都用得起的“基础设施”。今天正式上线的DeepSeek V4,标志着国产大模型在性能上真正具备了与国际顶尖模型同台竞技的实力,同时也向全球AI行业展示了一条不同于“堆算力、堆资金”的全新发展路径——这条路径上,效率、开放和自主可控,比单纯的规模更有价值。

本文由mdnice多平台发布

调研显示,74% 的企业 AI 项目以失败告终,不是技术不行,而是 90% 的企业都犯了同一个错:还没对齐战略、没找准场景,就急着买工具、上模型。

买了大模型 API、部署了智能平台,结果要么用不起来沦为摆设,要么成本失控看不到 ROI,最后钱花了、团队累了,业务却没半点提升。

AI 落地从来不是"技术采购",而是"战略工程"。与其盲目试错,不如先开好这 3 场会——管理层共识会、场景梳理会、启动培训会,把方向、路径、能力全部对齐,再动手部署,成功率直接提升 80%。

一、先开管理层共识会:别让 AI 变成"老板的自嗨"

痛点直击

很多企业 AI 项目死在起点:老板拍板"必须上 AI",但高管层认知不统一

  • 业务端觉得"增加工作量没用"
  • 技术端担心"数据跟不上、架构扛不住"
  • 财务端质疑"投入大、回报看不见"

最后各怀心思,资源分散,项目还没开始就内耗不断。

管理层没共识,项目还没开始就注定失败。

会议核心目标

统一高层认知、明确 AI 战略定位、锁定资源与预算、划定责任边界,把"要我做 AI"变成"我们一起做 AI"。

会议议程

参会人员:

  • 老板/一把手(必须到场)
  • 各业务部门负责人
  • IT 负责人
  • 财务负责人

会议时长: 2-3 小时

1. 现状痛点复盘(45 分钟)

业务端: 列出当前核心痛点

  • 报表每周花 2 天整理,还经常出错
  • 数据分散在 5 个系统,对不上数
  • 重复性工作太多,人手不够
  • 决策靠经验,没有数据支撑

技术端: 汇报数据现状

  • 数据孤岛情况(哪些系统不互通)
  • 数据质量评估(完整性、准确性、一致性)
  • IT 架构兼容风险

财务端: 测算行业 AI 投入产出基准

  • 可承受预算区间
  • 预期 ROI 门槛

2. AI 价值对齐(30 分钟)

不聊技术,只聊业务: AI 能解决哪 3 个核心痛点?带来哪些可量化收益?

✅ 正例:

"BI 驾驶舱让报表效率提升 80%,从 2 天→4 小时"
"AI 客服降低人力成本 50%,响应时长缩短 60%"
"数据治理让口径 100% 统一,决策准确率提升 40%"

❌ 反例:

"打造行业领先 AI 能力"
"实现数字化转型"
"提升智能化水平"

3. 战略与资源决策(45 分钟)

确定 AI 定位: 是效率工具、业务增量,还是战略转型?

锁定:

总预算:___万
周期:___个月
负责人:___
KPI 指标:___(必须可量化)
失败止损线:___

决议输出: 《AI 战略共识书》,全员签字确认

二、再开场景梳理会:别让 AI 变成"技术秀"

痛点直击

企业最常见误区:为 AI 找场景,而不是为场景配 AI。

买完大模型才思考"用在哪",最后选了高难度、低价值场景(如全流程智能生产、全域用户洞察),结果数据不达标、业务不配合、周期无限拉长,最后项目烂尾。

场景不清,工具买回来也不知道怎么用。

会议核心目标

从真实痛点出发,筛选"高价值、高可行、快见效"的场景,排出优先级,明确落地路径,避免"大而全"的无效投入。

会议议程

参会人员:

  • 业务部门负责人(必须到场)
  • 一线操作人员(2-3 名,必须到场)
  • IT 负责人

会议时长: 3-4 小时

1. 全场景痛点收集(60 分钟)

各部门负责人列出:

最耗时、最重复、最易出错的工作

  • 销售报表:手工从 CRM 导出,Excel 整理,每周 2 天
  • 库存盘点:人工清点,Excel 记录,每月 3 天
  • 客服应答:80% 时间是重复问题,人力浪费
  • 合同审核:人工逐条核对,效率低、易遗漏

现有流程最大瓶颈

  • 跨部门数据不通,同一数据反复录入
  • 审核链条长,一个审批走 1 周
  • 人工误差高,每月对账花 3 天

客户/市场最痛需求

  • 个性化服务跟不上
  • 客户投诉响应慢
  • 精准推荐做不到

2. 场景评估筛选(45 分钟)

用"价值 - 可行性"矩阵打分,锁定 P0 优先场景:

image.png

推荐优先场景:

image.png

3. 场景落地方案(45 分钟)

每个 P0 场景明确:

目标: 可量化 KPI

  • "报表效率提升 80%,从 2 天→4 小时"
  • "数据准确率提升至 99%"
  • "客服人力节省 50%,从 10 人→5 人"

范围: 覆盖哪些业务、哪些部门、多少用户

资源: 需要哪些数据、哪些系统打通、多少人力

输出: 《AI 场景优先级清单 & 落地方案》

三、最后开启动培训会:别让 AI"上线即闲置"

痛点直击

80% 的 AI 系统上线后用不起来,不是技术差,而是人没跟上:

  • 一线员工:不会用、不愿用,觉得"增加麻烦"
  • 管理者:不懂监控、不会优化,系统出问题不知道怎么解决
  • 团队:没有标准流程,各自摸索,最后回归老办法

系统上线≠项目成功,用起来才是成功。

会议核心目标

完成全员认知升级、技能培训、流程落地,建立 AI 使用、监控、迭代机制,确保系统"用起来、用得好、持续产生价值"。

会议议程

参会人员:

  • 项目涉及的所有员工(必须到场)
  • 业务部门负责人
  • IT 支持人员

会议时长: 2-4 小时(含实操)

1. 认知统一(30 分钟)

讲透: AI 不是替代人,而是帮人减负、提效

展示: 优先场景的价值、使用流程、预期效果

消除顾虑:

  • 数据安全:权限控制、审计日志
  • 操作简便:界面友好、一键操作
  • 支持保障:专人支持、快速响应
  1. 分层技能培训(60 分钟)

管理层:

  • 如何看数据报表
  • 如何监控效果
  • 如何审批迭代需求

业务骨干:

  • 系统操作
  • 数据上传
  • 问题反馈
  • 简单优化

一线员工:

  • 基础使用
  • 常见问题
  • 快捷入口
  • 反馈渠道

3. 机制与流程明确(30 分钟)

建立:

  • AI 使用规范
  • 问题反馈流程
  • 迭代优化机制

明确:

负责人:___
考核指标:___
奖励机制:___(鼓励高效使用)

输出: 《AI 系统使用手册》《运营管理规范》

迅易总结:AI 落地的正确顺序,别再搞反了

很多企业的错误顺序:

买工具→上模型→找场景→培训使用→失败烂尾

正确的 AI 落地顺序:

管理层共识→场景精准筛选→全员培训→工具选型→分步部署→持续迭代

AI 不是"买了就能用"的标准化产品,而是适配企业业务、数据、组织的定制化工程。

在你急着采购大模型、AI 平台之前,不妨先对照这 3 场会议,看看自己:

✅ 管理层是否真正达成共识? ✅ 是否找到了高价值、可落地的场景? ✅ 团队是否具备使用和运营 AI 的能力?

3 个会议开完,再行动——少走 90% 弯路,少花 80% 冤枉钱。

关于迅易科技

广州迅易科技有限公司,成立于 2007 年,18 年企业级交付经验,服务过 1000+ 成功项目。

我们不推销工具,只提供可落地的 AI 方法论与全流程陪伴——从 3 个会主持、场景方案设计,到端到端交付、持续运维,让企业先验证价值,再大规模投入。

如果您对上述内容感兴趣,欢迎前往迅易科技官网了解。

OpenAI 今天发布了 GPT-5.5,称其为公司迄今“最聪明、最直觉化”的模型,也是面向真实工作的全新智能形态。相比上一代,GPT-5.5 的重点是进一步承担复杂任务中的规划、工具调用、结果检查和跨工具执行,被 OpenAI 定位为推动“用 AI 在电脑上完成工作”的关键一步。

 

赢了 Opus 4.7 和 Mythos?

 

在与 Anthropic 矛盾日益激烈的放下,GPT-5.5 发布后,很多人关注的就是到底谁家模型更强,加上 Opus 4.7 发布后的负面反馈非常多,GPT-5.5 的发布更加引人关注。

 

GPT-5.5 的提升集中体现在四个方向:智能体式编码、电脑使用、知识工作和早期科学研究。这些领域的共同特点是,任务往往需要长上下文推理、持续行动和跨工具执行,而不是单轮问答。

 

OpenAI 表示,GPT-5.5 能更快理解用户意图,并能自行承担更多任务流程,包括编写和调试代码、在线研究、数据分析、创建文档和电子表格、操作软件,以及在多个工具之间切换直至任务完成。

 

与需要用户逐步拆解和指挥的传统对话模型不同,OpenAI 将 GPT-5.5 描述为更接近“智能体式工作模型”:用户可以直接交给它一个混乱、复杂、多部分的任务,由模型自行规划、使用工具、检查结果,并在不确定环境中持续推进。

 

专注 AI Agent 安全与自治组织实验的公司 Andon Labs,提前拿到了 GPT-5.5 的访问权限。测试后,它在 Vending-Bench 2 上排名第三:表现优于 GPT-5.4,但不如 Opus 4.7。不过,它的成绩与 Opus 4.6 基本持平,而且没有出现在 Opus 4.6 和 Mythos 身上看到的任何欺骗或权力寻求行为。“所以,糟糕行为并不是取得好成绩的必要条件。那 Claude 为什么还会这么做?”Andon Labs 发问。

 

另外 Andon Labs 表示,在 Vending-Bench Arena 中,也就是带有竞争动态的多人版 Vending-Bench 里,GPT-5.5 实际上击败了 Opus 4.7。Opus 4.7 表现出了与 Opus 4.6 类似的行为:对供应商撒谎,并拒绝给客户退款。GPT-5.5 的策略则是干净的,但它依然赢了。”

 

值得注意的是,Altman 也转发了这个推特。

 

网友 Chetaslua 做了 GPT-5.5 和 Mythos 的对比,并表示,“这是两者的基准测试对比,大家看着玩。顺便一提,Mythos 可以说是‘幻觉之王’,而 5.5 在效率方面表现非常好,而且已经公开可用。”

Artificial Analysis 也直接道,“GPT-5.5 让 OpenAI 重新回到 AI 领域毫无争议的第一名。OpenAI 的新模型在 Artificial Analysis 智能指数上领先 3 分,打破了此前与 Anthropic、Google 三方并列第一的局面。”

Matthew Berman 过去两周一直在测试 GPT-5.5,他的感受是:OpenAI 这次追求的不只是纯粹智能,他们还改进了模型的“活人感”。“这几乎可以肯定是为了抢占更多个人 Agent,也就是 OpenClaw 这类市场。它的回答更短、更像真人,也没那么正式。它真的开始有‘性格’了。”他分析道。

 

Berman 表示,Anthropic 现在还在主动防止你把 Opus token 用在它们自家 harness 之外,而 OpenAI 正在反过来优化模型,让它更适合这种使用场景。如果你之前在用 OpenClaw,并且觉得换成 GPT 之后你的 Agent 像是“丢了灵魂”,现在可以用 5.5 再试一次。

 

GPT-5.5 是一个昂贵模型,比 GPT-5.4 更贵。但它的 token 效率明显更高。要达到 GPT-5.4 级别的智能表现,GPT-5.5 需要的 token 少得多。所以整体跑下来,5.5 的运行成本应该更低。这件事可能比大多数人意识到的更重要。

 

但它到底好不好?Berman 给出了肯定的回答,“好,而且非常强。”

 

GPT-5.5 有两种使用形态:Codex 和 Pro。Berman 表示,在 Codex 里,它代表了当前智能体式编码能力的绝对前沿。它能发现并解决复杂 bug,能构建完整应用,也能轻松理解大型代码库。它在后端能力上强过 Opus,但在前端设计上仍然不如 Opus。

 

Berman 自己主要使用 medium 和 high thinking 设置。“extra high 实在太慢了,而且我不觉得额外的“思考量”值得为此付出代价。Opus,尤其是 4.6 fast,仍然比任何 GPT 模型都快得多。我是一个极度重视速度的人,所以这一点对我很重要。”

 

“而在 Codex 里,它就是会一直往前推进。我给它一个正在做的新项目 PRD,只说了一句‘开始做吧’。我完全相信它能把整个项目搭出来,结果它也确实做到了。让 GPT-5.5 Codex 连续跑几个小时去构建一个东西,不是什么问题。它在视觉检查方面也自成一档,是我在其他模型上没见过的水平。它能够通过“构建 → 视觉复查 → 继续构建”的方式反复迭代,这种感觉比任何其他模型都更自主。”

 

Berman 继续道,“在 ChatGPT 里使用 5.5 Pro 的感觉更夸张。它真的会让人觉得什么问题都能解决。说实话,我甚至想不出足够难的问题来考它。而且它可以连续工作 30 分钟、60 分钟、90 分钟甚至更久。它似乎也专门针对 OpenAI 的插件做了优化,比如 Google Docs、Microsoft Word 等,可以轻松创建一份 60 页、逻辑连贯且设计良好的文档。”

 

“GPT-5.5 现在就是新的标杆。它就是前沿。除了速度之外,它已经和任何 Opus 模型一样强,甚至在很多任务上更强。”Berman 最后总结道。

 

不过,OpenAI 此前有强调 GPT-5.5 在能力提升的同时没有牺牲速度。该公司称,在真实服务场景中,GPT-5.5 的单 token 延迟与 GPT-5.4 持平,但智能水平显著提升;在完成相同 Codex 任务时,GPT-5.5 使用的 token 也明显更少。

 

据悉,GPT-5.5 与 NVIDIA GB200 和 GB300 NVL72 系统共同设计、训练并部署。

 

OpenAI 表示,模型帮助改进了服务模型自身的基础设施。一个典型例子是负载均衡和分区启发式算法。此前,OpenAI 会将加速器上的请求拆分成固定数量的块,以平衡计算核心之间的工作负载。但静态分块并不适合所有流量形态。OpenAI 称,Codex 分析了数周的生产流量模式,并编写自定义启发式算法优化分区和负载均衡,使 token 生成速度提升超过 20%。

 

“恰好”,Sam Altman 在推特上分享了他与黄仁勋发的邮件往来。黄仁勋在给 Altman 的邮件中写道(此前,Altman 发邮件称“由 GPT-5.5 驱动的 OpenAI Codex 已经发布,并且现在每一位 NVIDIA 员工都可以使用!”):

 

我刚刚把这封邮件发给了 NVIDIA 员工。

 

非常兴奋,我们所有人都将使用 Codex 来加速工作,并完成以前不可能完成的事情。请代我向你的团队表示祝贺,他们再次向世界展示了前沿所在。

 

也请再次感谢他们发明了 GPT,它给了我们一个跳板,让我们能够推理、规划、使用工具,并走向更远的地方。

 

开动那些 Blackwell 吧。我们需要更多 token!

 

但无论如何,从社区反馈看,GPT-5.5 的认可度非常高

类微软的商业模式?

 

当前,GPT-5.5、GPT-5.5 Pro、GPT-5.5 Thinking 面向付费用户开放:

GPT-5.5 面向 ChatGPT 和 Codex 中的 Plus、Pro、Business、Enterprise 用户推出;GPT-5.5 Pro 面向 ChatGPT 的 Pro、Business、Enterprise 用户开放;GPT-5.5 Thinking 面向 Plus、Pro、Business 和 Enterprise 用户。

 

在 Codex 中,GPT-5.5 面向 Plus、Pro、Business、Enterprise、Edu 和 Go 计划开放,上下文窗口为 400K。GPT-5.5 也提供 Fast 模式,生成 token 速度提升 1.5 倍,但成本为 2.5 倍。

 

API 版本尚未同步上线,但应该很快。OpenAI 表示 GPT-5.5 很快将在 Responses API 和 Chat Completions API 中开放,定价为 5 美元 / 百万输入 token、30 美元/百万输出 token ,上下文窗口为 100 万。Batch 和 Flex 价格为标准 API 价格的一半,Priority 处理为标准价格的 2.5 倍。Pro 版本的定价为 30 美元 / 百万输入 token;180 美元/百万输出 token。

 

OpenAI 承认,GPT-5.5 的价格高于 GPT-5.4,但强调其更智能且更节省 token。在 Codex 场景中,公司称 GPT-5.5 对多数用户来说能用更少 token 交付更好结果。

 

Aakash Gupta 则分析认为,OpenAI 找到了自己的商业模式,而且看起来很像那个让微软成为 3 万亿美元公司的模式。他解释道:

 

如果你认真算一笔账,GPT-5.5 的定价其实已经说明了一切。

 

GPT-5 在 8 月发布时,价格是 0.63 美元 / 百万输入 token。GPT-5.4 在 3 月推出时,涨到了 2.50 美元 / 百万输入 token。仅仅七周后,GPT-5.5 的价格来到 5.00 美元 / 百万输入 token。也就是说,8 个月里,输入价格涨了 8 倍,而每一代模型的提升更多是渐进式的。

 

Nvidia 表示,其最新芯片可以将每 token 推理成本最高降低约 97%。OpenAI 的成本基础正在快速下探,但价格却在上涨。这里发生的利润率扩张,在企业软件历史上几乎前所未见。

 

9 亿周活用户,5000 万订阅用户,900 万付费企业客户。仅按每月 20 美元计算,订阅用户本身就能带来约 120 亿美元年化收入。而 API 涨价瞄准的,则是在 OpenAI 基础设施之上构建 Agent 的开发者。每一家为 GPT-5.5 推理支付 2 倍成本的 AI 初创公司,实际上都在为 OpenAI 自己的竞争产品提供资金。

 

Brockman 把不能明说的话说出来了:他们正在打造一个把 ChatGPT、Codex 和浏览器整合到同一平台里的“超级 App”。每一个基于 GPT-5.5 构建 Agent 的开发者,都是在付钱给 OpenAI,让它打造那个最终可能取代自己的东西。

 

7 周一次的发布节奏,会以竞争对手难以追上的速度不断叠加切换成本。只要发布得足够快,让客户不断围绕你的格式重建提示词和工作流管线,之后每一轮再涨价,因为他们已经很难离开。

 

下面,我们具体看下官方给出的模型测评情况。

 

四大能力提升

 

编程能力继续强化

 

在 OpenAI 公布的评测中,GPT-5.5 在智能体式编码方面取得明显提升。

 

在 Terminal-Bench 2.0 上,GPT-5.5 得分为 82.7%,高于 GPT-5.4 的 75.1%,也高于 Claude Opus 4.7 的 69.4% 和 Gemini 3.1 Pro 的 68.5%。该评测主要考察模型在复杂命令行工作流中的规划、迭代和工具协作能力。

在 SWE-Bench Pro 上,GPT-5.5 得分为 58.6%,略高于 GPT-5.4 的 57.7%,但低于 Claude Opus 4.7 的 64.3%。OpenAI 同时指出,已有实验室认为该评测存在记忆化风险。

 

在 OpenAI 内部的 Expert-SWE 评测中,GPT-5.5 得分为 73.1%,高于 GPT-5.4 的 68.5%。该评测面向更长周期的前沿编码任务,任务预估人类完成时间中位数为 20 小时。

 

OpenAI 称,GPT-5.5 在 Codex 中尤其适合承担实现、重构、调试、测试和验证等真实工程任务。早期测试显示,它更擅长在大型系统中保持上下文,推理模糊故障,用工具检查假设,并将变更贯穿到周边代码库中。

 

多位早期测试者也为 GPT-5.5 的编码能力背书。Every 创始人兼 CEO Dan Shipper 称其为“第一个真正具备严肃概念清晰度的编码模型”。Cursor 联合创始人兼 CEO Michael Truell 表示,GPT-5.5 比 GPT-5.4 “明显更聪明、更持久”,工具使用更可靠,能够在复杂长任务中更长时间保持推进。

知识工作

 

除了编码,OpenAI 将 GPT-5.5 的另一个重点放在知识工作上。公司称,GPT-5.5 能更自然地完成寻找信息、理解重点、使用工具、检查输出、生成成果这一完整工作闭环。

 

在 Codex 中,GPT-5.5 相比 GPT-5.4 更擅长生成文档、电子表格和幻灯片。OpenAI 表示,Alpha 测试用户认为它在运营研究、表格建模、将混乱商业输入转化为计划等任务上超过此前模型。结合 Codex 的电脑使用能力后,GPT-5.5 可以看到屏幕内容、点击、输入、导航界面,并在工具之间切换。

 

OpenAI 还披露了内部使用情况:目前公司超过 85% 的员工每周都在使用 Codex,覆盖软件工程、财务、传播、市场、数据科学和产品管理等部门。

 

比如财务团队用 Codex 审查了 24,771 份 K-1 税务表格,总计 71,637 页,并通过排除个人信息的工作流,比上一年提前两周完成任务。Go-to-Market 团队中,也有员工用其自动生成每周业务报告,每周节省 5 到 10 小时。

 

在专业工作评测中,GPT-5.5 在 GDPval 上得分 84.9%,高于 GPT-5.4 的 83.0%、Claude Opus 4.7 的 80.3% 和 Gemini 3.1 Pro 的 67.3%。在 OSWorld-Verified 上,GPT-5.5 得分为 78.7%,略高于 GPT-5.4 的 75.0%,也略高于 Claude Opus 4.7 的 78.0%。在 Tau2-bench Telecom 上,GPT-5.5 在没有提示词调优的情况下达到 98.0%。

 

科学研究

 

OpenAI 还将 GPT-5.5 描述为科研工作流中的重要进展。公司认为,科学研究不只是回答难题,还包括探索想法、收集证据、测试假设、解释结果,并决定下一步实验方向,而 GPT-5.5 在这一循环中的持续推进能力更强。

 

在 GeneBench 上,GPT-5.5 得分 25.0%,高于 GPT-5.4 的 19.0%;GPT-5.5 Pro 得分 33.2%,高于 GPT-5.4 Pro 的 25.6%。GeneBench 聚焦遗传学和定量生物学中的多阶段科学数据分析,要求模型处理不完整、有噪声甚至存在隐藏混杂因素的数据。

 

在 BixBench 上,GPT-5.5 得分为 80.5%,高于 GPT-5.4 的 74.0%。OpenAI 称,这表明 GPT-5.5 已经能够在生物信息学和数据分析任务中提供有意义帮助,成为科研人员的“共同科学家”。

 

OpenAI 还提到,一个搭配自定义 harness 的 GPT-5.5 内部版本,帮助发现了关于 Ramsey 数的新证明,并最终在 Lean 中得到验证。OpenAI 将其视为 GPT-5.5 不只生成代码或解释,而是能够贡献数学论证的案例。

 

早期测试者中,Jackson Laboratory for Genomic Medicine 的免疫学教授 Derya Unutmaz 使用 GPT-5.5 Pro 分析了一个包含 62 个样本、近 28,000 个基因的基因表达数据集,并生成详细研究报告。他表示,这项工作原本可能需要团队花费数月时间。

基因检测

 

网络安全能力增强,安全等级被列为 High

 

在安全方面,OpenAI 表示,GPT-5.5 配套了公司迄今最强的一组安全防护措施。发布前,模型经过完整的安全和治理流程,包括准备度评估、领域专项测试、针对高级生物与网络安全能力的新评估,以及外部专家测试。

 

OpenAI 将 GPT-5.5 的生物/化学能力和网络安全能力在 Preparedness Framework 下评为 High。公司强调,GPT-5.5 尚未达到 Critical 网络安全能力等级,但评测显示其网络安全能力相比 GPT-5.4 有明显提升。

 

在 CyberGym 上,GPT-5.5 得分为 81.8%,高于 GPT-5.4 的 79.0% 和 Claude Opus 4.7 的 73.1%。在内部 CTF 挑战任务中,GPT-5.5 得分为 88.1%,高于 GPT-5.4 的 83.7%。

 

OpenAI 表示,将对 GPT-5.5 部署更严格的潜在网络风险分类器,部分用户初期可能会感觉拒答更多或更“烦人”,但公司会持续调优。同时,OpenAI 也将通过 Trusted Access for Cyber 为经过验证的防御者提供更少限制的访问权限,首先从 Codex 开始,支持合法网络防御工作。

 

参考链接:

https://openai.com/index/introducing-gpt-5-5/

Nonce 是⾯向 Bitcoin Mining 场景的监控、分析、⾃动化的 SaaS 服务,主要服务北美上市企业。

高级全栈工程师

40K/mo * 14 薪 + 奖金

  • 5 年以上相关工作经验
  • 熟悉 Python 或 Node/TypeScript 技术栈
  • 优化我们的软件开发流程,以保持团队的高效运作
  • 分析梳理数据流程的薄弱环节,提升流程稳定性 /健壮性
  • 开发维护数据处理流程,包括数据采集、ETL 自动化、质量监控等

高级产品工程师

30 - 40K/mo * 14 薪 + 奖金

  • 5 年以上相关工作经验
  • 熟悉 TypeScript 、React 、Next
  • 拥有 Mobile 应用开发经验,不限 React Native, Flutter 等
  • 对前端工程化、工程设计、架构设计等有一定理解和实施经验
  • 阅读过一定的流行项目源码,熟悉常见的设计模式,有良好的编程风格

高级嵌入式工程师

30 - 40K/mo * 14 薪 + 奖金

  • 5 年以上嵌入式 C/C++ 开发经验
  • 熟悉 SPI / I2C / UART 等通信协议
  • 熟悉 Ghidra 、binwalk 等逆向工具
  • 基于 OpenWrt / Buildroot 开发和维护定制固件
  • 实现 ASIC 硬件性能调优:调频、调压、auto-tune 算法设计与优化

加分项

  • 文档写的不错
  • 拥有 BI / AI 业务经验
  • 擅长需求设计,熟练掌握 AI 编程
  • 对技术有热情、关注并研究新的技术领域
  • 自律,拥有良好的生活作息,以及保持运动习惯

我们提供

  • 远程工作
  • 14 薪 + 奖金,14 天年假
  • 流程简单,说话好听,会议少
  • 提供最好的 Coding Agent 服务 - Claude, Codex 等

注:我们的面试流程简单,因为候选人的简历和 Github 已提供充足的信息。我们主要关注项目实践中展现的工程能力和协作能力。因此,我们会根据候选人的薪酬预期,提供为期 2 周左右的付费项目实践,候选人可自愿参与。

联系方式

昨天中午点了一个外卖,不是小作坊,是一个连锁饭店。

因为公司写字楼不让外卖员进来,外卖一般都是放后门外卖柜,所以全程和外卖员没有接触。

午休时间到了,我下楼取了外卖上来吃,打开外卖包装发现最顶上的饭盒盖子上有一些烟灰,虽然迟疑了一下,但是回忆了一下拆包装的时候,包装是完整的,商家订的订书针也没有拆开过的痕迹,加上饿的不行了,就没多想,把灰吹掉就打开盒子开始吃了。

等我吃的差不多了,拿起盒子准备收尾的时候,才发现,哪里是一点烟灰啊,盒子底下全是烟灰,再一看,洒的我桌子上也是一堆烟灰。

顿时就觉得很恶心,谁知道这烟灰究竟是只有外面有还是饭菜里面也有。

忍者恶心把东西收拾扔了,才想起来自己居然忘记拍!照!了!

但是越想越恶心,于是给了商家一个差评。

今天早上商家就打电话来了,态度倒是非常好,他们表示他们厨房全程监控,没有发现有厨师抽烟,他们怀疑是外卖员弄的。

我表示我发现烟灰后特意检查过包装,没有被拆开过的痕迹。我怀疑如果不是厨师弄的话,大概率是厨师出菜后负责打包的人弄得吧。

但是他也否认了,表示打包的服务员都是女性,没有人抽烟。

最后他表示可以帮我把这单退了,然后他们也会继续调查这个烟灰哪里来的,顺便加了我微信,有后续结果微信发给我。

此时我开始纠结了,他说的这么滴水不漏,大概率是不会承认的了。

我一边觉得发生这个事真的恶心,想让他们付出应有的代价。

一边也知道自己非常被动,毕竟我完全没有留下任何照片或者视频,在任何人看来都是我的一面之词。

于是尽管他在微信上让我把订单退了,并且让我下次点外卖的时候备注一下,他们送我点东西,我还是拒绝了,表示退款就不用了,查清楚原因告诉我就行了。

说完这句话之后,商家果然图穷匕见了,让我帮忙把评论删除了。

我想了下,这种完全没有图片只有文字的评论,就算我不删,他申诉到美团也大概率是会被删的。

所以就算很烦,还是主动去删除了。

最后,删除评论的时候才发现,昨天中午发的评论,到我删的时候,浏览量还是只有 1……

随着“中国制造2025”与工业4.0的深度融合,制造业正经历从“自动化”向“数智化”的深刻转型。对于制造业的自动化部门而言,他们不仅是产线控制系统的中枢,更是工业核心数据(CAD图纸、PLC程序、工艺参数等)的集散地。然而,在实际运作中,自动化部门往往面临着明显的协同困境:动辄几GB的UG三维模型在庞杂的业务网中缓慢传输;核心图纸在传统的Windows 共享文件夹 中面临权限失控与被误删误改的风险。

作为自2011年上线、稳定运营已超过15年的企业级文档管理解决方案,坚果云针对复杂网络环境与非结构化数据痛点,为制造企业自动化部门构建了一套集高效传输、金融级 加密 与全场景适配于一体的数据协同底座。目前,坚果云已成功服务超千万用户及10万家知名机构,包括中国石油、郑州日产等头部制造与能源巨头。

坚果云官网

01 深度适配大文件与复杂网络,破解图纸传输魔咒

在自动化产线设计与改造项目中, 工程师 们常与CAD、SolidWorks、UG/NX等专业工程软件打交道。完整的产线三维装配体往往高达数GB,且包含海量的零部件引用文件(海量小文件)。传统Windows共享或普通 网盘 在面对此类场景时,传输卡顿、上传中断是家常便饭。针对上述痛点,坚果云在底层传输上实现了极具针对性的技术突破:

  1. 智能增量同步与无限速传输
    坚果云专为复杂网络环境设计,免费与付费用户均不设置传输限速。对于频繁修改的大型图纸,坚果云支持智能增量同步技术并支持局域网同步加速。当工程师修改了一处零部件时,系统仅上传文件发生修改的极小部分数据,而非数GB的完整重传,这使同步速度实现了质的飞跃。
  2. 全类型在线预览与文件历史版本
    无需在出差设备的本地强行安装庞大的工业软件,坚果云支持超100种格式的直接在线预览。面对繁杂的产线迭代方案,坚果云不仅支持两人以上的实时共享与多人在线编辑协作,强大的文件历史版本功能更支持差异对比与一键恢复,帮助自动化部门精准回溯每一次的参数变更,彻底告别“最终版.dwg”、“绝对不改版.dwg”的版本混乱灾难。

02 重构权限体系,终结Windows共享的“裸奔”时代

传统的Windows域共享文件夹只能实现极其基础的读写分配,无法精细到“谁能看、谁能改、谁能下载、谁能截屏”。为契合制造业复杂的组织 架构 要求,坚果云引入了一套远超常规网盘的精细化权限管控体系。

  1. 部门与岗位隔离 可为主管、电气组、调试组或外部顾问设定严格的层级权限。防范现场测试人员误删源文件的同时,满足核心设计组的协同编辑需求。更通过灵活的文件锁定机制,防止多人同时修改产生文件冲突。
  2. 临时外部授权与文件收管 涉及供应链协同加工时,可将图纸以“外链共享”发出,并直接设定“访问密码”、“自动过期时间”以及“禁止下载与打印”。为了简化上游设备商的资料提交流程,不仅可以直接对接企业网盘,还能使用专属的“坚果云收件箱”功能——外部供应商无需注册和登录,即可直接通过链接提交任意格式文件,文件提交后自动重命名并直接归档同步至工程师的电脑端,避免了通过微信反复接收零散资料的混乱。

03 军工级合规背书,夯实工业资产安全护城河

制造业的核心图纸即企业的生命线。在安全合规层面,坚果云构建了真正的壁垒:坚果云已通过公安部信息系统安全等级保护三级备案(该认证为最高级别非银行机构认证),同时具备ISO27001、ISO27701等多重国际标准资质。

底层数据采用AES-256金融级加密算法与SSL/TLS全链路加密传输技术。数据存储采用高冗余的分布式存储架构,配名单向哈希计算密钥机制,通过严密的物理与网络隔离,确保哪怕是系统管理员也无法获取企业的核心图纸数据。对于企业日常防灾防勒索,使用内置的坚果时光机也能对全电脑任意路径(含桌面、下载目录或微信文件)进行无死角备份及时间轴溯源,提供全方位保护。

04 丰富的生态矩阵,无感融入现有IT系统

制造企业的IT环境相对复杂,为了不打破工程师的既有工作习惯,坚果云致力于打造“无感跨区协作”。除无缝兼容Windows、Mac与移动端全平台外,系统也高度开放,能够整合企业现有的办公流程。无论是对日常文档处理所需的专注环境(如支持大纲笔记与思维导图的怡氧生态)、专业的文献笔记同步(Zotero与Obsidian插件适配),还是高强度的纸质图纸入档(坚果云扫描),坚果云始终将工具价值回归于生产力本身。无论企业规模如何,均能零学习成本切入“云端制造”。

**现在坚果云团队版还有免费试用20天:坚果云团队版官网

—— 制造业常见问题精选 ——

Q:制造业有非常多零散的小批量图纸和零部件文件,用坚果云同步会卡顿吗?

A:不会。针对制造业常见的“海量小文件”痛点,坚果云对底层索引引擎进行了特殊优化,针对大量多层级文件夹和碎片化KB级小图纸,同样能够保持极高的扫描验证速度并稳健同步,大幅优于普通的云储存管理软件。

Q:自动化团队成员由于经常在不同车间移动,网络很差,如何保障文件获取?

A:坚果云采用本地无感同步机制。只要在有网络的区域文件会自动同步至设备终端的实体文件夹中;即使进入无信号深井车间,依然可像访问本地C盘、D盘一样快速查阅庞大图纸,网络恢复后再静默上传差异部分。

结语

在从自动化向数智化演进的深水区,数据不应当是死锁在各种孤岛中的静态资产,而是贯穿产业链协同流转的血液。坚果云凭借稳健十五年的行业积淀、高强度的合规安全体系、智能传输与精细化的多端生态体验,无论是高效协作的百人团队,还是看重数据防泄密的大中型制造生产线,都是极其理想的解决方案。让工程师们不再将精力损耗在传输卡顿中,而是真正聚焦于工艺的革新。

2026年4月22日,由温州市委、市政府主办的“天下浙商家乡行·走进温州交流座谈会”在温州市人民大会堂隆重举行。浙江省委常委、温州市委书记张振丰,温州市委副书记、市长张文杰,省人民政府驻上海办事处党组书记、主任李雄伟,上海市浙江商会会长、上海均瑶(集团)有限公司董事长王均金等领导与上海市浙江商会企业家代表共聚一堂。拓数派董事长兼CEO冯雷受邀出席会议,并作为金种子企业代表分享了拓数派以“可信Data+零代码智能体AI”深入温州实业,配合国家顶层数据基础设施设计,支持数据节点要素流通。

面对席卷全球的大模型浪潮,冯雷在发言中抛出了一个生动的行业论断:“如果智能体是战斗机,模型是发动机,那么数据就是燃料。” 拓数派敏锐地指出,随着公域高质量公开数据的日益枯竭,未来AI竞争的胜负手(Key)已不在于通用数据的堆砌,而在于如何挖掘、激活和利用那些安全、可信的私有化数据。这正是拓数派坚定不移的技术护城河。

图片

为了攻克AI落地场景的“最后一公里”,拓数派凭借旗舰产品大模型数据计算系统πDataCS,提供坚实的可信“Data+AI”底座,让私域数据与大模型的安全耦合,从五百强大型企业到OPC场景都能零代码构建智能体,实现业务从自动化向智能化的跨越式升级。针对产业集群的复杂需求,拓数派提供专业的、端到端的「Data+AI」解决方案。拓数派致力于助力各行业的“链主企业”构建可信数据空间与数据本体,实现行业智能体AI。

作为杭州“AI十八罗汉”,拓数派与温州近年来结下了深厚合作缘分。自2024年起,拓数派便以技术赋能者的身份深度参与温州的数智化建设,率先助力苍南县成功打造了“社会治理智能体”,为基层治理插上AI的翅膀。随着合作的深入,拓数派在2025年进一步开展了教育实训与“OPC(一人公司)”赋能计划,致力于通过零代码智能体培养新一代超级个体。步入近期,这份合作再度开花结果,拓数派正为苍南县倾力打造的“南哥AI教育平台”提供坚实的底层技术支撑,持续推动地方教育公平与智能化转型。这一系列扎实的落地成果,不仅是拓数派技术实力的缩影,更是对温州持续优化营商环境、拥抱数智经济的最有力回应。

展望未来,作为浙商“金种子企业”,拓数派将继续秉持初心,为温州乃至全国的数字经济高质量发展注入不竭动力。

第十八章 电容式触摸传感器实验

本章将学习ESP32P4搭载的电容 式触摸传感器。利用该传感器,实现电容触摸按键功能。在本章节,通过使用电容触摸传感器通道0(IO2)来做一个简单的电容触摸按键,通过该按键控制LED0的亮灭。
本章分为如下几个小节:
18.1 电容式触摸传感器介绍
18.2 硬件设计
18.3 程序设计
18.4 下载验证

18.1 电容式触摸传感器介绍

18.1.1 触摸按键介绍

在前面按键实验中,我们已经学习过机械按键,这章节我们将学习另外一种人机交互设备:电容触摸按键。
电容式触摸感应技术已经广泛应用在家用电器、消费电子等领域,以此发展的触摸按键产品与传统按键相比下,其主要优势有:
● 无机械装置,不宜磨损老化,使用寿命长;
● 表面无缝隙,无水分、杂质渗透
● 减少元件使用,BOM成本降低
● 面板不用开孔,工业设计成本降低
● 简洁美观,设计灵活
电容触摸按键也可称为电容触摸传感器,主要由保护覆盖层、触摸电极、绝缘基板和走线组成,保护覆盖层位于最上层,绝缘基板上设有电极及走线,如下图所示。

图18.1.1.1 典型触摸传感器系统组成示意图
保护覆盖层:指的是触摸面板。触摸面板必须是绝缘材质,作用是隔离触摸电极与外部环境,起保护作用。但保护覆盖层会降低触摸的灵敏度,需要根据应用场景选择合适厚度、材质。
触摸电极:指的是触摸传感器的重要组成。手指触摸时与触摸电极形成平行板电容器,改变触摸通道的电容量。触摸电极必须是导电材质。样式多变,如PCB板上的铜箔、金属板等。
绝缘基板:对触摸电极起支撑作用,非导电材质。
走线:连接触摸电极与芯片,包括PCB走线和连接器。
触摸传感器电路可以测量触摸通道上的总电容量。电容触摸检测原理主要就是通过测量面板(传感器)和其环境之间的电容变化来检测触摸界面是否有触摸事件发生。当手指触摸传感器表面时,人体的导电性质和大质量构成接地的导电层(平行于触摸电极),该操作构成一个平行板电容器,导致电容量发生变化。当电容量发生改变且变化量超过阈值,会判定为“手指触摸动作”。手指触摸按键场景图如下所示。

图18.1.1.2 手指触摸按键图

18.1.2 ESP32电容式触摸传感器

ESP32-P4内置电容式触摸传感器,通过触摸管脚外接触摸板,构成触摸传感器系统。触摸传感器系统主要应用于人机交互场景中,检测手指触碰或接近。
ESP32-P4提供了多达14个电容式传感器GPIO,如下图所示,能够探测由手指或其他物品直接接触或接近而产生的电容差异。ESP32-P4的触摸传感器同时还支持防水和数字滤波等功能来进一步提高传感器的性能。

图18.1.2.1 触摸通道
接下来,介绍一下触摸传感器的工作原理以及工作信号。首先,来看一下触摸传感器工作原理图,如下图所示。

图18.1.2.2 触摸传感器工作原理
手指触碰或靠近触摸管脚时,管脚电容增大。触摸传感器可检测到触摸管脚上的电容变化。触摸传感器使用固定电源对触摸管脚进行充放电,电压范围为参考高值DREFH~参考低值DREFL。触摸管脚被触摸时,其电容增大,因此充放电时间延长。通过测量触摸管脚在固定周期内充放电所需时间,可判断管脚是否被触碰。
每次电压变化,触摸传感器生成一个脉冲。一个OUT信号包含若干个脉冲。一次测量操作包括:对触摸管脚进行N次(固定次数,可配置)的充放电,然后测量OUT信号生成N个脉冲所需时间。
接下来,通过查看触摸传感器的内容结构,更好了解一下其原理,如下图所示。

图18.1.2.3 触摸传感器内部结构
对触摸传感器的使用,主要就是对FSM进行配置。
FSM设备会释放标准的三角波给引脚电容,相当于给电容进行周期性充放电。FSM控制开始充放电,同时FSM内部的脉冲计数器和时间计数器启动,测量完成N次充放电的任务需要多少us时间。充放电要让电压升到指定阈值才算测量成功,而人手触摸引脚会导致电容增大,充电时间边长。一次测量任务持续时间应小于1ms。
读数的返回结果就是时间值,即耗时多长完成N次充放电。
因此,读出来的raw value越大反映了充电时间越长,人手接触面积越大,读数值越大。官方的其他API给我们配置的就是各种能影响采样时长的参数,比如电压上下限(电容充到多高的电压(DREFH)算是完成充电,放到多低的电压(DREFL)算是完成放电)、斜率控制(充电电流的大小(slope)也能影响采样时间)、采样次数(charge_discharge_times)。

18.2 硬件设计

18.2.1 例程功能

利用ESP32-P4开发板底板的电容触摸按键(右下角白色LOGO,即TPAD),通过电容式触摸传感器对电容触摸按键进行检测,实现对LED0的控制。按下TPAD按键,控制LED0的状态的翻转。

18.2.2 硬件资源

1)LED灯
LED 0 - IO51
2)SENSOR
TOUCH_CH0 - IO2

18.2.3 原理图

本章用到电容式触摸传感器的通道0(IO2)采集TPAD信号,其连接原理图如下图所示。

图18.2.3.1 TPAD连接原理图

18.3 程序设计

18.3.1 TOUCH的IDF驱动

TOUCH外设驱动位于ESP-IDF下的components/esp_driver_touch_sens目录下。使用TOUCH功能,必须先导入以下头文件:

#include "driver/touch_sens.h"

接下来,作者将介绍一些常用的函数,这些函数的描述及其作用如下:
1,初始化触摸传感器函数touch_sensor_new_controller
该函数用于初始化触摸传感器并得到控制器句柄,其函数原型如下:

esp_err_t touch_sensor_new_controller(const touch_sensor_config_t *sens_cfg, touch_sensor_handle_t *ret_sens_handle);

函数形参:


表18.3.1.1 touch_sensor_new_controller函数形参描述
函数返回值:
ESP_OK表示触摸传感器初始化成功。
ESP_ERR_NO_MEM表示内存不足。
ESP_ERR_INVALID_ARG表示错误参数。
ESP_ERR_INVALID_STATE表示触摸传感器已在使用 。
sens_cfg为指向触摸传感器控制器配置结构体指针。接下来,介绍touch_sensor_config_t结构体中各个成员,如下代码所示:

typedef struct {
    uint32_t                        power_on_wait_us;   /* 开机等待时间 */
    float                           meas_interval_us;   /* 每个通道的测量间隔 */
    uint32_t                        max_meas_time_us;   /* 测量一个通道的最大时间 */
    touch_out_mode_t                output_mode;        /* 计数模式的二值化输出 */
    uint32_t                        sample_cfg_num;     /* 采样的样本数 */
    touch_sensor_sample_config_t    *sample_cfg;        /* 数组配置 */
} touch_sensor_config_t;

touch_sensor_config_t结构体用于配置触摸传感器的参数,以下对各个成员做的简单介绍。
1)power_on_wait_us:
通道上电之间的等待时间能够测量,保证数据的稳定性。
2)meas_interval_us:
各通道测量间隔。
3)max_meas_time_us:
测量一个通道的最大时间,如果超过此事件,将触发超时中断。
4)output_mode:
触摸通道计数模式的二值化触摸输出。
5)sample_cfg_num:
用于采样的样例配置号。
6)sample_cfg:样例配置的数组配置。其类型是touch_sensor_sample_config_t,如下所示。

typedef struct {
    uint32_t                        div_num;                /* 触摸输出脉冲分配 */
    uint32_t                        charge_times;           /* 充电盒放电次数 */
    uint8_t                         rc_filter_res;          /* RC滤波器的电阻 */
    uint8_t                         rc_filter_cap;          /* RC滤波器的电容 */
    uint8_t                         low_drv;                /* 低速触摸驱动 */
    uint8_t                         high_drv;               /* 高速触摸驱动 */
    uint8_t                         bias_volt;              /* 内部LDO电压 */
    bool                            bypass_shield_output;    /* 是否旁路屏蔽输出 */
} touch_sensor_sample_config_t;

在文件中有提供一个默认配置宏TOUCH_SENSOR_V3_DEFAULT_SAMPLE_CONFIG进行配置。在文件中有提供一个默认配置宏TOUCH_SENSOR_DEFAULT_BASIC_CONFIG进行配置。
ret_sens_handle是指向触摸传感器控制器句柄结构体的指针,由于参数非常多,且在此也不需要了解他的成员,所以不作展开,想要了解可自行搜索查看。

2,触摸传感器通道配置函数touch_sensor_new_channel
该函数用于配置触摸传感器通道,其函数原型如下:

esp_err_t touch_sensor_new_channel(touch_sensor_handle_t sens_handle, 
int chan_id,
                                   const touch_channel_config_t *chan_cfg,
                                   touch_channel_handle_t *ret_chan_handle);

函数形参:


表18.3.1.2 touch_sensor_new_channel函数形参描述
函数返回值:
ESP_OK表示配置触摸传感器通道成功。
ESP_ERR_NO_MEM表示内存不足。
ESP_ERR_INVALID_ARG表示错误参数。
ESP_ERR_INVALID_STATE表示触摸传感器控制器未使能或已经分配了该通道。
sens_handle为触摸传感器控制器句柄结构体,前面已经有说明了。
chan_id为触摸传感器通道号,可选0~13。
chan_cfg为指向触摸传感器通道配置结构体指针,touch_channel_config_t结构体其定义如下:

typedef struct {
    uint32_t                        active_thresh[TOUCH_SAMPLE_CFG_NUM];  
} touch_channel_config_t;

每个样例配置的激活阈值,当触摸通道平滑值减去基准值超过该阈值时,视为激活。
ret_chan_handle为触摸传感器通道句柄,由于参数非常多,且在此也不需要了解他的成员,所以不作展开,想要了解可自行搜索查看。
3,过滤器配置函数touch_sensor_config_filter
该函数用于配置过滤器,其函数原型如下:

esp_err_t touch_sensor_config_filter(touch_sensor_handle_t sens_handle, const touch_sensor_filter_config_t *filter_cfg);

函数形参:


表18.3.1.3 touch_sensor_config_filter函数形参描述
函数返回值:
ESP_OK表示配置过滤器成功。
ESP_ERR_INVALID_ARG表示触摸传感器控制器句柄为空。
sens_handle为触摸传感器控制器句柄结构体,前面已经有说明了。
filter_cfg为指向触摸传感器过滤器配置结构体指针,touch_sensor_filter_config_t结构体其定义如下:

typedef struct {
    struct {
        touch_benchmark_filter_mode_t   filter_mode;     /* 基准筛选模式 */
        uint32_t                        jitter_step;      /* 抖动滤波步长 */
        int                             denoise_lvl;      /* 噪声水平 */
    } benchmark;                                         /* 基准配置 */
    struct {
        touch_smooth_filter_mode_t      smooth_filter;      /* 平滑数据过滤模式 */
        uint32_t                        active_hysteresis;  /* 迟滞阈值激活 */
        uint32_t                        debounce_cnt;       /* 脱扣计数 */
    } data;                                                 /* 数据配置 */
} touch_sensor_filter_config_t;

4,注册事件回调函数touch_sensor_register_callbacks
该函数用于注册事件回调函数,其函数原型如下:

esp_err_t touch_sensor_register_callbacks(touch_sensor_handle_t sens_handle, 
const touch_event_callbacks_t *callbacks, 
void *user_ctx);

函数形参:


表18.3.1.4 touch_sensor_register函数形参描述
函数返回值:
ESP_OK表示成功。
ESP_ERR_INVALID_ARG表示参数有误。
ESP_ERR_INVALID_STATE表示触摸传感器控制器未使能。
5,使能触摸传感器控制器函数touch_sensor_enable
该函数用于使能触摸传感器控制器,其函数原型如下:

esp_err_t touch_sensor_enable(touch_sensor_handle_t sens_handle);

函数形参:


表18.3.1.5 touch_sensor_enable函数形参描述
函数返回值:
ESP_OK表示成功。
ESP_ERR_INVALID_ARG表示参数有误。
ESP_ERR_INVALID_STATE表示触摸传感器控制器已在使用。
6,启动触摸通道连续扫描函数touch_sensor_start_continuous_scanning
该函数用于对所有已注册的触摸通道进行连续扫描,其函数原型如下:

esp_err_t touch_sensor_start_continuous_scanning(
touch_sensor_handle_t sens_handle);

函数形参:


表18.3.1.6 touch_sensor_start_continuous_scanning函数形参描述
函数返回值:
ESP_OK表示成功。
ESP_ERR_INVALID_ARG表示参数有误。
ESP_ERR_INVALID_STATE表示触摸传感器控制器未使能或已在扫描。
7,触摸通道读数函数touch_channel_read_data
该函数用于读取每个通道不同种类的数据,其函数原型如下:

esp_err_t touch_channel_read_data( touch_channel_handle_t chan_handle, 
touch_chan_data_type_t type, uint32_t *data);

函数形参:


表18.3.1.7 touch_channel_read_data函数形参描述
函数返回值:
ESP_OK表示成功。
ESP_ERR_INVALID_ARG表示参数有误。
channel_handle为触摸传感器通道句柄结构体,前面已经有说明了。
type为读取的数据类型,其数据类型为touch_chan_data_type_t,它是枚举类型,有三个选项:TOUCH_CHAN_DATA_TYPE_SMOOTH、TOUCH_CHAN_DATA_TYPE_BENCHMARK和TOUCH_CHAN_DATA_TYPE_PROXIMITY。

8,启动一次触摸通道扫描函数touch_sensor_trigger_oneshot_scanning
该函数用于启用一次对所有已注册的触摸通道进行扫描,其函数原型如下:

esp_err_t touch_sensor_trigger_oneshot_scanning(touch_sensor_handle_t sens_handle, int timeout_ms);

函数形参:


表18.3.1.8 touch_channel_trigger_onshot_scanning函数形参描述
函数返回值:
ESP_OK表示成功。
ESP_ERR_TIMEOUT表示超时完成一次扫描。
ESP_ERR_INVALID_ARG表示参数有误。
ESP_ERR_INVALID_STATE表示触摸传感器控制器未使能或已在扫描。

18.3.2 程序流程图


图18.3.2.1 电容触摸按键实验程序流程图

18.3.3 程序解析

在08_cap_touchkey例程中,在08_cap_touchkey\components\BSP路径下新建TOUCH_SENS文件夹,并且需要更改CMakeLists.txt内容,以便在其他文件上调用。
1.TOUCH_SENS驱动代码
这里我们只讲解核心代码,详细的源码请大家参考光盘本实验对应源码。TOUCH_SENS驱动源码包括两个文件:touch_sens.c和touch_sens.h。
下面先解析touch_sens.h的程序。对触摸传感器通道、扫描次数以及活动阈值做了相关定义。

#define TOUCH_CHANNEL                   0       /* TOUCH_CHANNEL0 */
#define TOUCH_CHAN_INIT_SCAN_TIMES      3       /* 扫描次数 */
#define TOUCH_ACTIVE_THRESH             1000    /* 活动阈值 */

我们选择使用触摸传感器通道0,扫描次数为3,而活动阈值为1000。
下面我们再解析touch_sens.c的程序,看一下初始化函数touch_sens_init,代码如下:


/**
 * @brief        触摸传感器初始化
 * @param         无
 * @retval         ESP_OK:表示触摸初始化成功
 */
esp_err_t touch_sens_init(void)
{
    /* 采样配置 */
touch_sensor_sample_config_t sample_cfg = 
TOUCH_SENSOR_V3_DEFAULT_SAMPLE_CONFIG(1, 1, 1);   

    /* 控制器配置 */
touch_sensor_config_t sens_cfg = 
TOUCH_SENSOR_DEFAULT_BASIC_CONFIG(1, &sample_cfg); 
    ESP_ERROR_CHECK(touch_sensor_new_controller(&sens_cfg, &s_sens_handle)); 

    /* 滤波器配置 */
touch_sensor_filter_config_t filter_cfg = /* 使用默认过滤器配置提高数据稳定性 */
TOUCH_SENSOR_DEFAULT_FILTER_CONFIG();     
    /* 配置基线值和读数值的滤波策略和更新方式 */
    ESP_ERROR_CHECK(touch_sensor_config_filter(s_sens_handle, &filter_cfg)); 

    /* 触摸传感器通道配置 */
    touch_channel_config_t chan_cfg = {
        .active_thresh = {
            TOUCH_ACTIVE_THRESH,     /* 触摸数值 - 基准值 > 1000,则表示已触摸 */
        },
    };

    ESP_ERROR_CHECK(touch_sensor_new_channel(s_sens_handle, TOUCH_CHANNEL, &chan_cfg, &s_chan_handle));         /* 新建触摸通道 */

    /* 触摸校准 */
    touch_sens_calibration();

    /* 注册触摸传感器回调,这里只取' active '和' deactivate '事件为例 */
    touch_event_callbacks_t callbacks = {
        .on_active              = touch_on_active_callback,     /* 触摸事件回调 */
        .on_inactive            = touch_on_inactive_callback,    /* 释放事件回调 */
        .on_measure_done        = NULL,       /* 测量完成事件回调 */
        .on_scan_done           = NULL,       /* 扫描完成事件回调 */
        .on_timeout             = NULL,       /* 超时事件回调 */
        .on_proximity_meas_done = NULL,       /* 触摸传感器对接近感测完成事件回调 */
    };
ESP_ERROR_CHECK(touch_sensor_register_callbacks(s_sens_handle, &callbacks, 
NULL));      /* 注册事件回调 */

    /* 使能触摸通道 */
    ESP_ERROR_CHECK(touch_sensor_enable(s_sens_handle));

    /* 启动连续扫描 */
    ESP_ERROR_CHECK(touch_sensor_start_continuous_scanning(s_sens_handle));

    return ESP_OK;
}

在触摸传感器初始化函数中,首先通过touch_sensor_new_controller函数使用默认配置创建触摸传感器控制器句柄,然后通过touch_sensor_config_filter函数使用默认配置对过滤器进行设置,后面再通过调用touch_sensor_new_channel函数对触摸通道进行配置。接下来就是触摸校准,注册触摸传感器回调函数以及使能触摸通道。
接下来,介绍一下触摸扫描函数touch_sens_scan,代码如下:

/**
 * @brief          触摸扫描
 * @param        无
 * @retval      true:表示按下;false:表示未按下或已释放
 */
bool touch_sens_scan(void)
{
    bool touch_sens_state = false;  /* 按键状态:未按下 */
    static uint8_t key_up = 1;      /* 不支持连续按 */
    
    /* 读取基准数值 */
ESP_ERROR_CHECK(touch_channel_read_data(s_chan_handle,
                TOUCH_CHAN_DATA_TYPE_BENCHMARK, &benchmark));
    /* 读取触摸数值 */
ESP_ERROR_CHECK(touch_channel_read_data(s_chan_handle, 
TOUCH_CHAN_DATA_TYPE_SMOOTH, &chan_data));

    /* 判断触摸数值 - 基准数值 > 激活阈值 */
if (((chan_data - benchmark) > TOUCH_ACTIVE_THRESH) && 
(touch_cb_state == 0xAA) && key_up)
    {
        touch_sens_state = true;        /* 触摸按键被按下 */
        key_up = 0;
    }
    else if (touch_cb_state == 0x00)    /* 触摸按键已经释放 */
    {
        key_up = 1;
        touch_sens_state = false;
        touch_cb_state = 0xFF;
    }

    return touch_sens_state;
}

在触摸扫描函数中,通过调用touch_channel_read_data函数读取基准数值和触摸数值,后面就判断是否被按下。touch_cb_state变量的值是在回调函数中改变的,0xAA表示在触摸,而0x00表示释放触摸。当按下触摸按键时,该函数返回的是true;当未按下或已经松手触摸按键时,该函数返回的是false。

文件中的其他函数请大家自行查看源码,都有详细的注释。

2.CMakeLists.txt文件
本例程功能实现主要依靠TOUCH_SENS驱动。要在main函数中,成功调用TOUCH_SENS文件中的内容,就得需要修改BSP文件夹下的CMakeLists.txt文件,修改如下:

set(src_dirs
               LED
               TOUCH_SENS)

set(include_dirs
              LED
TOUCH_SENS)

set(requires
               driver
esp_driver_touch_sens)

idf_component_register(    SRC_DIRS ${src_dirs} INCLUDE_DIRS ${include_dirs} REQUIRES ${requires})

component_compile_options(-ffast-math -O3 -Wno-error=format=-Wno-format)

3.main.c驱动代码
在main.c里面编写如下代码。

void app_main(void)
{
    esp_err_t ret;
    bool capkey = false;
    
    ret = nvs_flash_init();     /* 初始化NVS */
    if(ret == ESP_ERR_NVS_NO_FREE_PAGES || ret == ESP_ERR_NVS_NEW_VERSION_FOUND)
    {
        ESP_ERROR_CHECK(nvs_flash_erase());
        ESP_ERROR_CHECK(nvs_flash_init());
    }

    led_init();                 /* LED初始化 */
    touch_sens_init();          /* TOUCH_SENS初始化 */

    while (1)
    {
        capkey = touch_sens_scan();
        
        if (capkey)
        {
            LED0_TOGGLE();
        }

        vTaskDelay(pdMS_TO_TICKS(10));
    }
}

在app_main函数中,调用touch_sens_init函数对触摸传感器初始化后,便在循环中,每隔10毫秒就调用touch_sens_scan函数扫描触摸按键状态,如果被按下,翻转LED0的状态。

18.4 下载验证

程序下载完成后,按下电容触摸按键控制LED0灯的状态。

2026 年 4 月 22 日,全球共享发展行动论坛第三届高级别会议 “数字赋能全球南方高质量发展” 分论坛在北京钓鱼台国宾馆圆满举行。本次分论坛由北京市科学技术委员会、中关村管委会、海淀区人民政府主办,聚焦数字技术赋能全球南方发展、缩小 AI 数字鸿沟。北京智源人工智能研究院(BAAI)与非洲联盟 — 非洲科研创新理事会(AU‑ASRIC)现场签署战略合作备忘录,正式启动中非人工智能人才培养计划,以众智 FlagOS 开放计算技术栈为技术底座,推动 AI 技术、智算资源与人才培养体系向非洲开放,彰显中国科研机构在全球 AI 普惠中的技术担当与创新引领力。

image.png

智源研究院理事长黄铁军与 AU‑ASRIC 主席 Beban Sammy Chumbow 签署备忘录,双方将在 AI 人才培养、科研联合攻关、开源技术共享、学术交流等领域开展长期深度合作。此次合作是 AU‑ASRIC 首次与中国机构建立正式战略合作,标志着中非 AI 合作从零散交流迈向机制化、全域化新阶段。智源研究院提供技术培训、AI开放计算平台、课程体系等全流程支持;北京大学赋能课程开发与学术支撑;AU‑ASRIC 负责 52 国区域高校协调与老师邀请,三方协同打造南南人工智能科技合作典范。

本次活动期间,智源研究院相关团队与 AU‑ASRIC 高层代表及非洲 11 国参训教师开展多场深度合作座谈。双方围绕非洲 52 国 AI 人才培养落地细则、FlagOS 开放计算人才教育、远程算力支持、课程体系迭代优化等关键议题充分交换意见,就 2026 年种子教师培育、2028 年规模化扩面、非洲高校 AI 实验室共建等具体目标达成一致。

4 月 15 日,来自非洲 11 国的 AI 教师正式开启在北京为期两周的集中实训,课堂内外涌现出许多温暖生动的瞬间。来自肯尼亚的教师露西此前几乎没有开源算力平台实操经验,面对 FlagOS 操作界面一度有些紧张。智源工程师耐心手把手指导,结合非洲本地智慧农业场景带她完成简易 AI 模型搭建。当她用普通硬件成功跑出运算结果时,激动地与各国教师分享喜悦,并用英语和法语讲解操作心得,现场气氛热烈。

课余时间,老师们主动交流本国 AI 发展痛点:尼日利亚教师穆萨展示乡村教育照片,探讨如何用 FlagOS 搭建低成本 AI 教学实验室;南非教师扎拉分享女性 STEM 教育推广经验。大家互相学习、快速熟悉,原本陌生的跨国教师很快成为志同道合的伙伴。最终,全体参训教师均顺利完成 AI 计算 8 大核心模块学习,不少人结合本国需求设计出本土化 AI 教学方案,为归国授课做好充分准备。

image.png

非洲来宾高度认可智源在开放算力与人才培养上的务实支持,期待以本次合作为起点,联合开展大模型应用、智慧农业、智慧医疗等场景创新,共同探索适合非洲发展阶段的 AI 落地路径。非洲科研创新理事会主席 Beban Sammy Chumbow 表示:“我们期待以本次合作为起点,让 AI 真正服务于非洲的粮食安全和公共卫生,也希望这些种子教师回去后,能够运用所学知识培养更多本土人才。”

智源开展中非人工智能人才培养、推广 FlagOS 开放计算相关工作,核心出发点是满足全球南方数字化转型与人工智能能力建设的现实需求,聚焦非洲国家算力短缺、技术门槛高、人才储备不足的核心痛点,依托自身技术与资源优势,搭建合作桥梁,助力缩小数字鸿沟,推动非洲国家实现人工智能领域的自主创新。

image.png

其核心价值主要体现在三个维度:一是通过构建开放计算、开源生态与人才共育三位一体的模式,为非洲地区提供切实可行的技术解决方案,破解发展瓶颈,让人工智能技术真正惠及更多国家;二是通过“种子教师”培养、课程共建、远程实训等务实举措,推动教育普惠,夯实非洲国家人工智能人才基础,以人才培养驱动当地产业升级与数字化转型;三是立足中国技术实践,为全球南方国家数字化转型提供可复制、可推广的中国方案与实践路径,彰显开放协作、共享共赢的人工智能国际合作新范式,推动全球 AI 普惠落地,助力构建更加公平、包容的全球数字生态。

当前,人工智能正深刻重塑全球发展格局,但很多国家还普遍面临人才短缺、算力不足、技术壁垒高等现实挑战。非洲拥有 14 亿人口体量的同时,也拥有全球增速最快的年轻群体,但其 AI 专业人才缺乏,数字鸿沟成为制约其发展的关键瓶颈。联合国副秘书长指出,AI 的变革潜力必须惠及世界每一个角落,而非少数特权群体。在此背景下,智源研究院主动承担国际技术交流与科技普惠社会责任,联动非盟官方机构、北京大学等顶尖力量,构建 “技术开放、人才共育、生态共建” 的中非 AI 合作新模式。
作为本次合作的核心技术支撑,以智源研究院为代表的众智 FlagOS 社区成员单位共同打造的 FlagOS 2.0,是全球支持芯片种类最多的开源 AI 系统软件栈,可兼容 18 家芯片厂商、32 款 AI 芯片,实现 ARM、RISC‑V、边缘设备、异构服务器等多元硬件无缝适配,打破专有生态锁定,为算力资源有限的国家提供低成本、高兼容的 AI 运行底座。依托 FlagOS 的统一编译、算子库、并行框架与自动化迁移工具,非洲高校与开发者无需依赖高端硬件,即可开展大模型训练、多模态应用开发等前沿实践,真正实现 “授人以渔” 的技术赋能。

image.png

本次中非人工智能人才培养计划采用 “种子教师” 培育模式,构建起 “选拔 — 培训 — 返哺 — 长效支持” 的全链条培育体系。在规模化选拔阶段,项目已吸引非洲 24 国 82 所高校的 131 位教师踊跃申请,最终遴选来自 11 国的优秀 AI 教师来华参训,覆盖非洲五大地理区域,同时兼顾性别均衡与院校代表性,确保培育范围的广泛性与代表性。自 4 月 15 日起,这些非洲教师在北京开展为期两周的集中系统化实训,重点学习 AI 计算 8 大核心模块,同步实操 FlagOS 平台、深度体验中国科创生态,全面提升专业教学与技术应用能力。实训结束后,参训教师将归国开展本土化落地工作,在本校开设 AI 相关课程,智源研究院将持续为其提供教学资源、在线算力及技术支撑,预计单名教师年均可培育 50 名以上非洲本土 AI 学生。在长期化生态建设方面,计划 2026 年首批培育 10 名种子教师,至 2028 年将培育规模扩大至每年50名以上,覆盖半数以上非洲国家,累计培养超 1500 名 AI 青年人才,并联动 50 所以上非洲高校,共同构建可持续发展的中非 AI 教育生态。

image.png

智源研究院作为国内标杆性新型研发机构,主动践行国际科技合作使命担当,持续开放 FlagOS 全域开源生态,促进前沿技术全球融通共享。智源研究院以本次战略合作为重要契机,将进一步深耕开放计算核心技术研发,提质中非人工智能合作,推动开源技术、多元算力、数字教育资源定向赋能全球,并立足科技本源弥合数字发展鸿沟,助力全球发展均衡化、普惠化。未来,智源研究院将持续与全球合作方携手共筑开放协同、包容共享、互利共赢的人工智能发展新格局。

在信息化办公不断推进的今天,企业对文件管理的要求越来越高。到了2026年,企业网盘已经不只是文件存储的工具,更成为日常协作、安全管理、跨部门流程整合的数字底座。面对市面上繁杂的产品,企业往往在“跨设备同步是否稳定?”“文件流转是否安全?”等问题上难以抉择。为了帮助大家直观地做出选择,我们优先总结了目前主流企业网盘的核心优势对比:

评估维度坚果云OneDriveGoogle WorkspaceDropboxBox
核心优势本地化服务极佳,同步极速,生态丰富深度整合Office谷歌全家桶协作个人/小团队海外同步强合规审计
同步技术智能增量同步,支持海量小文件基础差异同步基础同步块级同步基础同步
网络适应性专为复杂网络环境优化,局域网加速偶有网络波动需特定网络环境需特定网络环境本地化节点较少
安全资质公安部信息系统安全等级保护三级备案微软全球合规谷歌全球合规基础加密企业级保护

一、企业网盘在不同行业领域的应用

企业网盘不只是“存文件”那么简单。它的真正价值,是为团队打通信息流通的“血管”,在不同场景中充当信息中转、协同空间和安全盾牌。以下三类应用,最能体现企业网盘的实用价值,真正解决效率痛点:

1. 多人协作场景:解决“文件混乱”的老问题

无论是市场、设计还是技术团队,日常工作中都要反复传递大量文件。如果文件堆在每个人的本地,版本混乱、传错文件等问题会极大拖慢进度。企业网盘通过集中存储和无感同步,让不同岗位的人能在统一空间内始终基于最新版本协作,大幅降低沟通成本。

2. 跨部门资料管理:统一标准,打破信息孤岛

企业中常见的壁垒往往体现在“信息不互通”。不同部门使用不同命名方式、不同流程管理文件,资料存放分散。企业网盘可以通过共享文件夹、精细的权限管控、统一目录结构等方式,把文件集中在平台上,使复杂部门架构下的数据流转变得井然有序。

3. 远程办公和外部共享:打破地域限制,高效对接

针对上下游供应链协作或外部伙伴共享资料,传统的内网系统已力不从心。优秀的企业网盘具备全格式在线预览(甚至超百种格式无需额外安装软件)、精细到人的外链管控等能力。权限可控、可审计、可撤回,避免了用常规通讯工具发文件带来的隐私泄露风险。


二、2026年十大企业网盘排行榜

根据底层技术壁垒、安全合规机制、用户真实体验、品牌资历等维度综合评估,2026年表现优秀的十大企业网盘如下:

  1. 坚果云:自2011年上线至今稳定运营超过15年。具备国内极高的合规背书,文件传输极速且不限速,专为中国复杂的企业网络和办公生态量身定制,综合实力与本土适应性首屈一指。
  2. Google Workspace:整合文档、表格、演示,实时在线协作体验绝佳;但其局限性在于更适合纯海外环境和重度依赖谷歌生态的跨国企业。
  3. OneDrive:与微软Windows系统及Office办公环境兼容性极好;局限性在于国内同步偶有网络波动,大文件同步耗时较长。
  4. Dropbox Business:国际知名的同步盘鼻祖,界面简洁,文件同步快速;局限性在于缺乏国内本地化服务支持,更适合纯海外网络环境及外企。
  5. Box:注重文件权限和法规合规,支持大企业集中管理;局限性在于国内加载速度欠佳,更适合纯海外环境。
  6. Egnyte:提供本地与云端混合部署方案,适合监管要求高的行业;局限性同样在于国内节点较少,更适合纯海外环境。
  7. Amazon Drive:与AWS结合紧密,适合需要大数据存储及云算力结合的用户;局限性在于操作逻辑偏IT化,更适合纯海外环境。
  8. Huddle:面向政府与合规行业,支持严谨的审批流程与内部审计;局限性在于应用场景较窄,功能迭代偏保守,且更适合纯海外环境。
  9. Tresorit:以端到端加密为核心,重视极高机密性的场景;局限性在于功能相对单一,协作性偏弱,更适合纯海外环境应用。
  10. 阿里云盘企业版:背靠大厂算力,云端存储空间大,基础协作功能完善;局限性在于在处理本地海量小文件的秒级同步体验上,相较于专业同步盘仍有进步空间。

三、为什么坚果云是综合最优选择?

在众多产品中,坚果云之所以脱颖而出,是因为它不仅将“跨端同步”做到极致,更围绕大企业与中小团队的实际痛点,建立了高权重的技术与安全壁垒。目前已积累超千万用户,并成功服务了包括中国石油中银证券清华大学、锦天城律师事务所、郑州日产等在内的超10万家知名企业和机构。

坚果云官网

1. 坚不可摧的合规背书与数据安全体系

对于政企、金融、科研等对数据高度敏感的行业,安全性是第一前提。坚果云获得了公安部信息系统安全等级保护三级备案(最高级别非银行机构认证)。同时采用AES-256金融级加密算法、SSL/TLS全链路加密、分布式存储架构以及单向哈希计算密钥。你的数据不仅在传输中被严格保护,在服务器端也高度加密,实现了坚如磐石的数据壁垒。

2. 核心技术壁垒:解决复杂环境下的传输痛点

坚果云专为复杂网络环境设计。很多网盘在面对设计师的GB级大文件,或者程序员/财务的海量小文件时经常卡死。坚果云独家优化的智能增量同步技术,在文件修改后,仅提取并上传文件被修改的部分,让同步速度产生质的飞跃。不仅多设备无缝访问,还支持局域网同步加速,真正做到“无感同步”。此外,大文件快速传输针对免费用户也不限速。

3. 实用的文件防丢与找回机制

员工误删文件或被勒索病毒恶意篡改怎么办?坚果云强大的文件历史版本功能完美解决了这一痛点。系统会自动保存文件修改的每一次记录,支持差异对比与恢复,让高价值的数据资产永不丢失。

4. 繁荣的插件办公生态

坚果云团队还开发了一整套极大提升生产力的办公套件:

  • 坚果云收件箱:提交者无需登录,文件提交后自动重命名,支持收集任意格式文件。搭配客户端实时同步至电脑,无需手动下载整理。
  • 坚果时光机:专业的免费备份工具,自动静默备份微信文件、桌面或下载等任意文件夹,通过时间轴轻松回溯。
  • 怡氧:将思维导图、大纲笔记、流程图、Markdown、Office、PDF标注集于一身的办公套件。
  • 插件支持:开发了Zotero、Obsidian的同步插件,稳定对文献、笔记进行同步。

总结: 无论是高效协作团队、注重数据安全企业,还是灵活文件管理个人,坚果云都是理想解决方案。

**现在坚果云团队版还有免费试用20天:坚果云团队版官网


四、FAQs:常见问题

Q1:企业网盘和普通个人网盘有何不同?

企业网盘侧重于团队权限管控与数字资产沉淀。以坚果云为例,它支持精细权限管控(如文件评论与锁定、多人同时在线编辑等),满足复杂的企业协同需求,这是个人网盘做不到的。

Q2:网盘是否支持本地备份与自动化管理?

专业的企业网盘深度整合本地系统。比如通过“坚果时光机”和坚果云客户端,用户可以自动备份微信文件及桌面任意文件夹。修改后,后台利用无感同步技术瞬间同步至云端,无需手动干预。

Q3:企业文件如果遭到篡改或者误删,还能恢复吗?

企业网盘具备极强的容灾能力。坚果云的文件历史版本功能,能够精准记录每一次保存动作。哪怕是被恶意修改的文件,都可以随时一键恢复并支持差异对比。

Q4:企业网盘数据安全吗?会泄露商业机密吗?

只要选择资质过硬的产品就非常安全。像坚果云拥有公安部信息系统安全等级保护三级备案以及ISO27001、ISO27701体系认证,结合AES-256加密,从底层架构阻断了数据外流可能。

Q5:如何选择适合自己公司的网盘?

建议从实际场景出发:一是同步技术能否应对海量文件和复杂网络,二是安全资质是否足够权威。综合考量下来,确保团队使用顺手、管理者放心才是最优解。


结语

企业网盘绝不是花架子,而是团队协作与现代企业信息管理的“数字骨架”。选得好,能大幅提升流转效率、保障核心数据安全;选错了,不仅影响员工日常体验,还可能带来信息安全隐患。

在2026年的十大企业网盘中,坚果云凭借15年的技术沉淀、顶级的安全资质以及无缝融合本地办公的体验,正在成为越来越多大中型企业的首选。如果你正在寻找一个既好用又好管、底层技术极强且绝不限速的企业网盘,不妨亲自体验一下。

如果说邮寄信件是缓慢的溪流,那么企业网盘就是高速公路。其意义在于速度和容量,特别是当单位员工之间需要分享一份50GB的视频素材时,“企业共享网盘:如何分享超大文件”,就成为了每一位团队成员都会遇到的问题。

一、企业共享网盘的价值

想象一下,你在办公室的会议室内,领导突然说:“这个最新设计原型能不能发给客户?他们需要完整的文件包进行分析。”你打开发件箱,附件根本无法上传,因为文件远超5GB。转而使用传统U盘或硬盘?又没人愿意去跑物流。可一天的耽搁,机会成本高昂。碰到类似的场景,是想尽办法压缩减少文件尺寸,还是寻找一劳永逸的解决方案?此时,共享网盘的价值一目了然。

分享超大的文件,对许多企业来说并不是偶尔面对的小麻烦,而是每天上演的挑战。以下企业场景中经常遇到的情况,恰恰说明了共享网盘的价值:

1. 团队协作效率的保证

不论是设计部门的海量图纸、视频剪辑团队的4K素材,还是研发团队的海量代码小文件,都需要在成员之间动态流转。传统邮件和FTP服务器面对此类需求时性能捉襟见肘,而优秀的共享网盘不仅能打破这层壁垒,还能让你感叹“原来大文件传输还能这样高效”。

2. 分布式协作的需求

近年来,跨区域甚至跨国企业团队越来越普遍。例如,某公司北京的团队需要将几十GB的宣传素材传给海外分公司,遇到复杂网络环境该怎么传输?将分布在各地的文件实现“零距离共享”、数据实时同步,是企业共享网盘带来的核心价值。

3. 文件大数据存储与精细化管理

企业日常工作中不仅需要存放大文件,还需要管理文件的使用记录。例如历史内容的追溯、修改版本的差异化对比以及由于团队变动带来的权限管控,这些都是传统本地硬盘难以满足的复杂需求。

共享网盘不仅仅是企业内部交互的“数据桥梁”,更是优化存储、保障安全的数字护城河。选择一款专业可靠的“网盘管家”,往往能在文件存储、传输与协作中起到决定性作用。

二、企业共享网盘主要分为几种类型?

既然了解了企业共享网盘的重要性,那市场上哪些网盘形态比较常见?我们大致可以将其分为以下三种类型:

1. 本地部署型

这是传统企业常选的方案,是在公司内部建立一台 本地服务器 。这种方案虽然数据完全掌握在自己手里,但通常前期投入大、维护成本昂贵、扩展性能有限,更难以满足现代化异地多终端灵活共享的需求。

2. 公共云存储型

公共云存储近年来非常流行,提供基于云端的便捷服务,用户可以很快上传并分享文件。虽然解决了大部分轻量化办公的便捷性需求,但对于特别注重底层技术与企业级数据合规的企业来说,市面上的普通公共云往往在专业 深度 上有所欠缺。

3. 混合云型网盘/专业企业云盘

这是目前中大型企业和对数据敏感度高企业的理想选择。它们综合了本地架构的数据掌控力与云端系统的弹性扩展能力,在内外网交互与灵活权限上具有显著优势。

无论是哪一类,企业选购共享网盘的本质目的,都是为了在“ 数据安全 ”的基础上实现“极速流转”。对于需要频繁处理超大文件的企业来说,具有深厚技术壁垒的解决方案,才值得投入。

三、如何分享超大文件?

为了应对超大文件分享与高频协作的挑战,我们重点推荐经过逾15年市场检验的专业企业文件管家——坚果云。自2011年上线至今(截至2026年),坚果云已稳定服务超千万用户及10万家知名企业与机构(包括中国石油、中银证券、清华大学等标杆客户)。

坚果云官网

以下是坚果云在处理超大文件分享方面的绝对优势:

1. 无惧复杂网络,GB级大文件极速传输

超大容量文件最让人头痛的是受限于网络环境导致传输中断或速度极慢。坚果云专为复杂网络环境设计,即便面对GB级超大文件或海量细碎小文件,也能保持极高的传输效率与稳定性(值得一提的是,大文件快速传输针对免费用户同样不限速)。尤为突出的是其智能增量同步技术,当大文件被修改时,系统只上传文件被修改的部分,大幅度节省带宽并极速完成同步,真正做到无感同步的跨设备无缝体验。

2. 金融级合规与国家级安全背书

企业在分享工程图纸、合同或专有代码等高度敏感信息时,安全是底线。坚果云具备极其深厚的合规护城河,拥有公安部信息系统安全等级保护三级备案(非银行机构最高级别资质认证),并采用AES-256金融级 加密 算法、SSL/TLS全链路加密及单向哈希计算密钥。你可以放心地为分享的高级机密文件设置精准的提取受众、有效期限和访问密码。

3. 轻量化体验与深度团队协作

坚果云提供的不仅是安全的传输通道,更是沉浸式的协作空间。即使是不方便立刻下载的超大设计文件,坚果云也支持超100种格式的在线预览(无需安装任何额外专业软件)。搭配精细权限管控、文件评论与锁定功能,团队成员可以更高效地沟通协同,极大地节省了本地存储空间和低效下载等待时间。

不管是高效协作团队、注重数据安全的企业,还是灵活文件管理的个人,坚果云精炼直观的界面都能让你迅速上手,彻底告别超大文件难以分享的烦恼。

**现在坚果云团队版还有免费试用20天:坚果云团队版官网

四、FAQs:常见问题

以下是企业用户常常关心的几个问题,结合坚果云的实际应用为您解答:

1. 企业共享网盘是否对网络环境有极高要求?

无需苛刻的专线网络。以坚果云为例,它专为复杂网络环境优化,无论是在光纤网络还是在出差地的普通宽带中,甚至是 局域网 内,都能通过局域网同步加速机制和增量同步技术,最大化保障传输效率。

2. 超大文件是否会限制传输速度或大小?

企业无需为文件尺寸焦虑。坚果云能够轻松支持GB级别的超大文件传输,其核心 算法 能够处理极为苛刻的海量文件的流转诉求,真正为大体量数字资产扫清障碍。

3. 如何确保数据的长期保存与更改安全?

长期保存不仅是存放,更是溯源。坚果云提供强大的文件历史版本功能,不仅支持随时回溯以往的数据记录,还能进行版本差异对比与一键恢复,完美防止员工误删或遭遇勒索病毒导致的数据灾难。

4. 企业内部跨部门的权限如何分配?

坚果云支持高度自定义的精细化权限管控。您可以针对独立文件或层级文件夹,灵活设置可见、只读、上传、编辑等多维度权限,确保每一份关键数据的流转都处于完全透明且受控的范围内。


Cloudflare 宣布推出 Think 项目预览版,这是一套针对其 Agents SDK 的基础组件,旨在将 AI 代理从无状态编排过渡到持久化的、基于角色的基础设施。此次发布引入了一个类内核的运行时环境,在这个环境中,代理可以在平台重启后继续存活,管理关系型记忆树,并在受限的沙箱内执行自主编写的代码。这些内核基础组件借鉴了 OpenClaw 等新型个人代理框架的成功经验。

现有的企业级框架,例如 Google Agent Development Kit (ADK) 和 AWS Bedrock AgentCore,主要采用请求-响应模型。虽然这些服务负责恢复会话状态,但它们实际上是基于快照进行操作。在这些架构中,代理的记忆是一个外部化的键值映射(KV map)或 JSON 数据块,会在新一轮会话开始时从远程存储中获取。在处理长期运行的任务时,这种模式的局限性就显现了出来。在复杂的推理周期中,如果底层的无服务器计算被抢占,执行上下文就会消失,导致逻辑执行的实际进度丢失。虽然框架可以恢复上次保存的快照,但该执行窗口内取得的具体进展已丢失,系统只能从上次成功保存的地方重新启动整个操作。

Think 项目的核心创新在于引入了 Fiber。与标准的无服务器函数调用不同,Fiber 是一种持久化调用,能够保存自身的指令指针检查点。利用 runFiber 原语和 ctx.stash(),开发者可以直接将代理的执行进度保存在内部同位置的一个 SQLite 数据库中。

这使得代理能够处理那些超出传统无服务器时限的非确定性、长期运行的工作负载。如果平台在代理处于循环中时重启,那么运行时会恢复该 Fiber 并触发 onFiberRecovered 钩子,从而使代理能够从上一个检查点继续执行。

TypeScript

// 示例:保存多步研究循环检查点export class ResearchAgent extends Agent{  async startResearch(topic: string) {    void this.runFiber("research", async (ctx) => {      const findings = [];      for (let i = 0; i < 10; i++) {        const result = await this.callLLM(`Step ${i}: ${topic}`);        findings.push(result);        // 检查点:若中断,Fiber 将从这里恢复        ctx.stash({ findings, step: i, topic });      }      return { findings };    });  }  async onFiberRecovered(ctx) {    if (ctx.name === "research" && ctx.snapshot) {      const { topic, step } = ctx.snapshot;      // 根据已保存的进度恢复逻辑      await this.continueResearch(topic, step);    }  }}
复制代码

为解决工具调用过程中的安全和延迟问题,Think 允许代理生成代码,并引入了分级执行安全环境。这些工具在 Dynamic Workers 中运行,这些受限的 V8 隔离区在毫秒内即可创建出来,而且没有访问特权。这使得代理能够生成自定义扩展,并在沙盒本地执行复杂的逻辑。这大大减少了令牌的使用量,因为该模型不再需要在每个中间步骤中通过上下文窗口处理原始数据。

此外,Think 还重新设计了会话持久化机制。许多框架采用线性记录历史的方式,而 Think 的会话 API 则将对话以关系树的形式进行存储。消息通过“父 ID”进行索引,这样代理就可以创建对话分支和分叉,从而能够并行探索不同的解决方案,而不会“污染”主要的推理路径。

该系统还提供了可编辑的“上下文块”:这是系统提示中结构化且持久化的部分,模型可以对其进行查询和更新。这使得代理能够主动管理自身“已学习的事实”,并对比较旧的对话分支进行非破坏性的压缩处理。

目前,Think 项目仅面向 Cloudflare Workers 用户提供实验性预览。

声明:本文为 InfoQ 翻译,未经许可禁止转载。

原文链接:https://www.infoq.com/news/2026/04/cloudflare-project-think/

平时操作服务器环境,经常要打开好几个工具来回切换,于是做了 OpsKat ,一个 All In One 的运维工具,将用到的需要管理的服务器资产集中起来,再也不用像之前一样,跳来跳去了。

另外还集成了 AI Agent 系统,让运维工作更加轻松。

为什么又造一个轮子

说实话市面上 SSH 工具、数据库客户端、Redis GUI 一抓一大把,但我自己的工作流大概是这样:

  • Tabby 连 SSH
  • DataGrip 看数据库
  • TinyRDM 看 Redis
  • 偶尔还要翻一下 k8s 、grafana 、es 等等

凭据散落在各处,切换窗口能切到怀疑人生。更麻烦的是线上排查问题,经常要 SSH 进跳板机 → 连数据库 → 回 SSH 看日志 → 再去 Redis 看缓存,脑子里要同时维护好几个终端上下文。

OpsKat 就想把这些统一到一个软件里面来,SSH 、MySQL/PostgreSQL/MongoDB 、Redis 、SFTP 巴拉巴拉的全弄进来,而且还做了个 AI Agent ,一句话就可以开始帮我排查问题、运维资产了。

AI Agent 这块是怎么做的

做完基础的资产管理后,发现既然连接池和凭据都在应用里了,接上 AI Agent 就顺理成章。场景大概是:

  • "帮我看一下 web-01 上 nginx 最近的错误日志" → AI 自己 SSH 上去 tail
  • "统计一下 db-prod 里 users 表各 status 的数量" → AI 通过 SSH 隧道执行 SQL
  • "检查一下 k3s 集群健康状况" → AI 自动跑 kubectl 并汇总

当然 AI 操服务器肯定不能乱来,需要做好审计和控制:

  1. 策略组:SSH 命令 / SQL / Redis 都可以配白黑名单,SQL 用 Parser 解析,没带 WHERE 的 DELETE/UPDATE 直接拦掉
  2. 预申请权限:AI 可以一次性申请一批命令的执行权限,用户审批一次后续自动放行,不用每条命令都弹窗
  3. 审计日志:谁在什么时候对哪台机器执行了什么,决策来源全记录

还做了个 CLI 给 Claude Code 用

额外搞了个 opsctl 独立 CLI ,主要给 Claude Code / Codex / Gemini CLI 这类 AI 编程助手用。桌面端一键安装 Skill ,就能让编程助手直接连服务器排查线上问题,复用桌面端的连接池和策略审批。

opsctl exec web-01 -- tail -n 100 /var/log/nginx/error.log
opsctl sql db-prod "SELECT status, COUNT(*) FROM users GROUP BY status"

技术栈

Wails v2 ( Go 1.25 + React 19 ),桌面端跨平台,macOS / Linux / Windows 都支持。数据库用 SQLite ,主密钥塞系统 Keychain 。扩展系统基于 WASM ( wazero ),后续打算把一些非核心资产类型( grafana 等)都做成插件。

链接

欢迎提 Issue / PR ,也欢迎吐槽。如果觉得有点意思或者有帮助,点个 Star 就是对我最大的支持了 🙏

上周,我家猫咪(头像里这只)突发重病,前前后后花了一整周时间带它治疗、调养。

我能发现它的异常,完全是一场偶然。前段时间刷小红书,偶然刷到了 FGS ( Feline Grimace Scale ) 猫咪痛苦表情量表。看完对照自家猫的状态才惊觉:那段时间它喝水量明显变少,还会长期保持蜷缩蹲坐的姿势,其实一直处在强烈的疼痛里。

我马上带它去宠物医院,最终确诊为急性肾损伤。医生说,如果再晚几天就诊,基本就无力挽回了。

这件事过后特别后怕。宠物无法开口表达痛苦,很多隐性疼痛、生病前兆都非常隐蔽,很容易被主人忽略。

于是,我开发了个人小项目 PawSense ,一款猫狗通用的 AI 疼痛检测工具。使用方式很简单,手机拍摄 1-3 张宠物照片,一分钟内就能生成 AI 疼痛评估结果,帮助养宠人早发现、早干预潜在健康问题。我现在几乎每天都会检测一次。

项目地址: https://paw-sense.help/

检测永远免费。如果你感到不确定,可以付费解锁一个基于 FGS / GCPS 权威指标的详细解读报告,能帮助你更好地判断猫 / 狗的状态,也可以帮我回回血。

也希望这个小工具,能救你家毛孩子一命。