2026年3月

上一篇,我们给小龙虾接了 Telegram,实现了手机遥控。

但说实话,Telegram 只解决了"能聊天"的问题。你跟小龙虾说"帮我写个文档",它写完了——然后呢?你还得自己复制粘贴到你的编辑器中。

这就像请了个助手,他只能站在门外隔着门跟你喊话,但不能进屋帮你干活。

今天这篇,我们把门打开。让小龙虾直接进入你的飞书——读文档、写文档、操作表格、管理日程,全部自己来。

先看效果👇
image

飞书的配置比 Telegram 多一些步骤,但别慌——跟着我走,每一步都有截图,大概10分钟搞定。

飞书的接入分四个阶段,先有个全局概念,不容易迷路:

  1. 在飞书上造一个机器人 — 相当于给小龙虾办一张飞书工牌
  2. 在服务器上装飞书插件 — 让小龙虾学会"说飞书的语言"
  3. 配置长连接 — 让机器人保持在线,不会聊着聊着断了
  4. 加入群聊 & 配对 — 正式上岗

看着多,其实每个阶段都是点点点的事。开干。


第一阶段:在飞书上造一个机器人

创建应用

打开飞书开放平台:https://open.feishu.cn/app ,点击创建企业自建应用。

image

填一下应用名称、描述、图标。名字随便起,之后能改,别纠结。点创建。

image

给机器人开能力

创建完会跳到配置页面。找到「添加应用能力」里的机器人模块,点添加。

image

这一步是告诉飞书:"这个应用是个机器人,能在聊天里跟人说话。"

批量导入权限(关键步骤)

接下来要给机器人开权限。这步很重要——权限决定了小龙虾能在飞书里干什么。

点击左侧的权限管理,再点批量导入导出权限按钮。

image

把弹窗里的默认内容删掉,粘贴下面这段配置:

{
  "scopes": {
    "tenant": [
      "contact:contact.base:readonly",
      "docx:document:readonly",
      "im:chat:read",
      "im:chat:update",
      "im:message.group_at_msg:readonly",
      "im:message.p2p_msg:readonly",
      "im:message.pins:read",
      "im:message.pins:write_only",
      "im:message.reactions:read",
      "im:message.reactions:write_only",
      "im:message:readonly",
      "im:message:recall",
      "im:message:send_as_bot",
      "im:message:send_multi_users",
      "im:message:send_sys_msg",
      "im:message:update",
      "im:resource",
      "application:application:self_manage",
      "cardkit:card:write",
      "cardkit:card:read"
    ],
    "user": [
      "contact:user.employee_id:readonly",
      "offline_access","base:app:copy",
      "base:field:create",
      "base:field:delete",
      "base:field:read",
      "base:field:update",
      "base:record:create",
      "base:record:delete",
      "base:record:retrieve",
      "base:record:update",
      "base:table:create",
      "base:table:delete",
      "base:table:read",
      "base:table:update",
      "base:view:read",
      "base:view:write_only",
      "base:app:create",
      "base:app:update",
      "base:app:read",
      "board:whiteboard:node:create",
      "board:whiteboard:node:read",
      "calendar:calendar:read",
      "calendar:calendar.event:create",
      "calendar:calendar.event:delete",
      "calendar:calendar.event:read",
      "calendar:calendar.event:reply",
      "calendar:calendar.event:update",
      "calendar:calendar.free_busy:read",
      "contact:contact.base:readonly",
      "contact:user.base:readonly",
      "contact:user:search",
      "docs:document.comment:create",
      "docs:document.comment:read",
      "docs:document.comment:update",
      "docs:document.media:download",
      "docs:document:copy",
      "docx:document:create",
      "docx:document:readonly",
      "docx:document:write_only",
      "drive:drive.metadata:readonly",
      "drive:file:download",
      "drive:file:upload",
      "im:chat.members:read",
      "im:chat:read",
      "im:message",
      "im:message.group_msg:get_as_user",
      "im:message.p2p_msg:get_as_user",
      "im:message.send_as_user",
      "im:message:readonly",
      "search:docs:read",
      "search:message",
      "space:document:delete",
      "space:document:move",
      "space:document:retrieve",
      "task:comment:read",
      "task:comment:write",
      "task:task:read",
      "task:task:write",
      "task:task:writeonly",
      "task:tasklist:read",
      "task:tasklist:write",
      "wiki:node:copy",
      "wiki:node:create",
      "wiki:node:move",
      "wiki:node:read",
      "wiki:node:retrieve",
      "wiki:space:read",
      "wiki:space:retrieve",
      "wiki:space:write_only"
    ]
  }
}
💡 这段配置干了什么? 简单说,它让小龙虾拥有了操作飞书文档、表格、日历、任务、知识库等几乎所有功能的权限。你不需要逐个理解每一条,直接全部粘贴就行。想详细了解的,可以看飞书的 权限说明文档

点击「下一步,确认新增权限」。

image

弹出数据范围确认窗口,直接点确定。

image

发布上线

权限配好了,接下来让这个机器人正式"入职"。

点击页面顶部的创建版本按钮。

image

填一下版本号和更新说明,随便写就行。

image

拉到底部点保存

image

弹窗里点申请线上发布

image

这时候你的飞书会收到开发小助手发来的审批通知。点消息里的「进入管理后台审核」。

image

找到你刚创建的机器人,点审核。

image

通过

image

⚠️ 踩坑预警:这里是自己审批自己,别觉得奇怪。因为你既是开发者又是管理员,所以自己创建自己批。直接通过就好。

记录凭证

审核通过后,回到机器人配置页面,找到左侧导航的基础信息 → 凭证与基础信息

记录下 App IDApp Secret。下一步要用。

image

⚠️ 踩坑预警:App Secret 就是你机器人的密码,绝对不要发到任何公开的地方。泄露了别人就能冒充你的机器人。

到这里,飞书端的机器人就造好了。喘口气,最难的部分已经过去了。


第二阶段:在服务器上装飞书插件

SSH 连上你的服务器,依次执行下面这四条命令:

npm config set registry https://registry.npmjs.org
curl -o /tmp/feishu-openclaw-plugin-onboard-cli.tgz https://sf3-cn.feishucdn.com/obj/open-platform-opendoc/4d184b1ba733bae2423a89e196a2ef8f_QATOjKH1WN.tgz
npm install /tmp/feishu-openclaw-plugin-onboard-cli.tgz -g
rm /tmp/feishu-openclaw-plugin-onboard-cli.tgz
💡 这四条干了什么? 切换 npm 源 → 下载飞书官方插件包 → 全局安装 → 清理安装包。复制粘贴就好,不需要理解每一行。

然后执行安装命令:

feishu-plugin-onboard install

如果提示要删除已安装的飞书 MCP,直接输入大写的 Y 回车。

image

接着会让你输入 App ID 和 App Secret,就是刚才让你记录的那两个。依次粘贴进去。

image

看到 Installation finished 就说明安装成功了。

💡 后面可能会跟一个"检查失败"的提示,不用管它,不影响使用。实在不放心可以跑一下:

openclaw plugins list

看到 feishu-openclaw-plugin 的 Status 是 loaded 就稳了。

最后重启 gateway:

openclaw gateway restart

服务器端搞定。做到这里,你已经完成了80%。


第三阶段:配置长连接(保持在线)

这一步解决一个问题:让机器人一直在线,不会聊着聊着突然没反应。

回到飞书开放平台,找到左侧导航的事件与回调 → 事件配置

点击订阅方式右边的小铅笔图标。

image

选择长连接方式。

image

然后点右侧的添加事件按钮。

image

在弹窗中搜索"接收消息",勾选搜出来的结果,点确认添加。

image

💡 为什么要加这个事件? 不加的话,机器人收不到你发的消息。这就像你给了助手一个工位,但没告诉前台"有人找他要转达"。

加完事件后,还需要再创建一个新版本让配置生效。点顶部的创建版本,流程和之前一样——填版本号、保存、申请发布、自己审批通过。

image


第四阶段:让机器人正式上岗

群聊使用

找到你想让小龙虾加入的飞书群,点击群机器人

image

添加机器人

image

选你刚创建的那个,点添加。

image

现在在群里 @你的机器人,随便说句话试试。

image

收到回复了?恭喜,群聊搞定。群里直接 @就能用,不需要额外配对。

私聊配对

但如果你想跟小龙虾一对一私聊,还需要配对一下。

双击机器人头像进入私聊,发条消息。小龙虾会回你一个配对码

image

回到服务器,执行:

openclaw pairing approve feishu <配对码> --notify

<配对码> 换成你收到的那个。

image

看到授权成功的提示,私聊通道也打通了。


现在,回到飞书,让小龙虾帮你约个会议试试。

image

它不再是隔着门喊话的助手了。它能直接坐到你的飞书工位上,帮你写文档、读资料、操作表格、管理任务。

截个图发到群里吧:"我的AI助手,现在能直接操作我的飞书了。"

从 Telegram 的"能聊天",到飞书的"能干活",小龙虾的能力边界又往外推了一大步。

AI不是装上就有用的,得让它够得着你的工作台。


你最希望小龙虾在飞书里帮你自动化哪件事?写周报?整理会议纪要?还是自动填表?评论区聊聊👇

OpenClaw 是一款运行在本地机器上的开源个人 AI 助手,支持通过 WhatsApp、Telegram、Slack 等 50+ 日常工具调用 AI 能力,具备浏览器自动化、系统级文件操作和持久记忆功能。与封闭的 SaaS AI 工具不同,OpenClaw 数据默认本地存储、模型可自由切换(Claude、GPT、DeepSeek 等),适合对数据主权和灵活扩展有要求的开发者和企业团队。


OpenClaw 是什么:核心架构解读

OpenClaw 由 Peter Steinberger 开发并开源,定位为"本地运行的自主 AI 代理",区别于浏览器插件或云端 AI 助手的关键在于三点:

  • 本地执行:所有操作在用户自己的机器上运行,数据不经第三方服务器
  • 持久记忆:跨会话学习用户偏好和上下文,记忆 24/7 保留
  • 技能可扩展:通过社区技能库或自定义代码扩展能力边界

安装方式极简:

curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard

完成 onboard 后,通过任意已连接的聊天工具(如 Telegram)即可向 OpenClaw 下发任务。


五大核心落地场景

场景 1:AI 编程工作流自动化

OpenClaw 与 Claude Code 形成协同链路:Claude Code 负责代码生成和上下文理解,OpenClaw 负责调度执行——触发测试、提交 PR、通知 Slack 频道,形成端到端自动化循环。

典型用法:

  1. 开发者在 Telegram 发送:"帮我 review 今天提交的 PR #234,把 review 结果发到 #code-review 频道"
  2. OpenClaw 调用 GitHub 集成读取 PR diff
  3. 调用配置的 AI 模型(如 DeepSeek V3.2)生成 review 意见
  4. 将结果推送至 Slack #code-review 频道

适用团队:小型技术团队、独立开发者、AI 编程效率工具使用者


场景 2:个人效率提升

OpenClaw 用户社区报告的高频个人使用场景,覆盖日常事务的大部分重复性工作:

任务类型具体操作使用的集成
邮件管理批量退订营销邮件、自动归档、草稿生成Gmail
日程协调会议邀约自动回复、冲突检测Google Calendar
出行管理航班值机自动化、行程提醒浏览器自动化
笔记整合多来源信息汇总到 ObsidianObsidian 插件
健康数据WHOOP 运动数据每周汇总报告WHOOP API

核心优势:用自然语言下达指令,无需学习各工具 API,OpenClaw 统一调度。


场景 3:企业通信与协作自动化

在企业环境中,OpenClaw 可连接 Slack、Discord 或企业内部系统,承担信息汇聚与分发的中间层角色。

落地案例:

  • 客服分流:监听 Slack 客户频道,自动分类问题类型并路由到对应负责人
  • 日报生成:每晚定时抓取 GitHub issue 更新、Jira 任务状态,汇总为结构化日报推送至管理层
  • 知识库问答:将内部 Notion 文档接入,员工通过 Slack 直接查询内部政策和流程
  • 监控告警:系统指标异常时,自动触发 Shell 脚本诊断并将结果推送至 On-Call 频道

场景 4:数据处理与文档生成

OpenClaw 具备完整的文件系统读写和脚本执行能力,可在本地处理敏感数据而无需上传云端。

适用场景:

  • 多份合同文档关键条款对比提取
  • 财务报销单批量处理与分类汇总
  • 会议录音转文字 + 自动生成会议纪要
  • 研究报告多来源信息综合与摘要

数据安全优势:金融、医疗、法律等对数据合规要求高的行业,可通过 OpenClaw 在本地环境完成 AI 辅助数据处理,规避数据出境风险。


场景 5:多模型智能路由

OpenClaw 支持同时配置多个 AI 模型提供商,根据任务类型自动或手动路由至最适合的模型。

多模型配置示例:

# 设置七牛云 API(接入 DeepSeek、Kimi、GLM 等国内主流模型)
export QINIU_API_KEY=your_api_key

# OpenClaw 配置文件中指定模型路由
model: qiniu/deepseek-v3.2   # 复杂推理任务
model: qiniu/kimi-k2.5       # 长文档处理
model: qiniu/glm-5           # 中文对话场景

开发者可配置规则:长文档用 Kimi,代码任务用 DeepSeek V3.2,日常对话用 GLM。七牛云推理服务端点 (https://api.qnaigc.com/v1) 兼容 OpenAI SDK 标准,OpenClaw 切换模型无需修改代码逻辑。


OpenClaw vs 同类工具对比

维度OpenClawn8nZapierClaude Code
部署方式本地运行自托管/云云端 SaaS本地 CLI
交互入口WhatsApp/Telegram/Slack 等Web UIWeb UI终端
数据隐私本地,高可本地,中高云端,低本地,高
AI 模型自由切换需插件需插件Anthropic 系
上手难度中(需配置)
扩展方式技能脚本节点Zap
开源

选型建议

  • 重数据隐私 + 多 AI 模型 + 开发者友好 → 首选 OpenClaw
  • 需要可视化流程编排 → n8n 更合适
  • 非技术用户快速搭建自动化 → Zapier
  • 专注代码任务 → Claude Code

快速上手:10 分钟完成第一个自动化

前置条件:macOS / Linux / Windows,Node.js 22+

Step 1:安装 OpenClaw

curl -fsSL https://openclaw.ai/install.sh | bash

Step 2:初始化并连接通信渠道

openclaw onboard
# 按提示连接 Telegram / WhatsApp / Slack

Step 3:配置 AI 模型

# 使用七牛云推理服务(支持 DeepSeek、Kimi、GLM 等)
export QINIU_API_KEY=your_api_key

Step 4:运行诊断确认配置

openclaw doctor

Step 5:在 Telegram 发送第一条指令

@openclaw 帮我总结 ~/Documents/report.pdf 的核心要点,不超过 300 字

常见问题

Q:OpenClaw 支持哪些操作系统?
支持 macOS、Windows、Linux 三端,Node.js 22+ 是唯一依赖,无需 Docker 或复杂环境配置。安装脚本自动检测系统类型并完成适配。

Q:OpenClaw 和 Claude Code 可以同时使用吗?
可以,两者是互补关系。Claude Code 专注代码生成和上下文理解;OpenClaw 负责任务调度、跨工具集成和自动执行。常见用法是用 OpenClaw 触发 Claude Code 的代码审查任务,再将结果分发至 Slack。

Q:企业使用是否有数据泄露风险?
OpenClaw 默认本地运行,AI 模型调用通过 API(数据传输至模型服务商)。如需完全隔离,可配置本地部署模型(如 Ollama 运行 Llama 3.1),数据全程不出内网。

Q:技能(Skills)怎么安装?
OpenClaw 支持社区技能库和自定义技能。社区技能通过 npm 包形式安装,自定义技能通过 JavaScript/TypeScript 脚本实现,官方文档提供完整的技能开发 SDK。

Q:OpenClaw 对 AI 能力没有自己的限制吗?
OpenClaw 本身是调度框架,AI 能力上限取决于配置的模型。搭配 DeepSeek V3.2 或 Claude 3.5 Sonnet 等强模型,复杂推理和长文档处理能力均接近模型天花板。


总结

OpenClaw 的核心价值在于将强大的 AI 模型能力"接地气"地嵌入开发者和知识工作者的日常工具链——无需打开新窗口,在微信、Telegram 或 Slack 即可触发 AI 工作流。五大落地场景覆盖了从个人效率到企业协作的主要需求,尤其是多模型智能路由场景,让团队可以按任务性质灵活调用成本最优的模型。

随着 AI Agent 框架进入成熟期,本地优先、数据自主可控、通信渠道无缝集成将成为企业级 AI 工具的核心竞争维度。OpenClaw 目前已具备上述能力,是 2026 年值得重点关注的开源 AI 工具之一。

本文信息基于 OpenClaw 官方文档及七牛云开发者平台(2026 年 3 月),建议结合最新 Release 注记核实版本特性。


延伸资源

在数字化办公普及的2026年,公司文件共享网盘早已超越了简单的“存储”功能,成为企业协同办公的核心引擎。面对市面上琳琅满目的品牌,“哪款好”不再只看空间大小,更关乎数据安全、权限控制与协作效率。为了帮您避开选型陷阱,本文深度实测并盘点了10大主流方案,从多维度对比其优劣,助您一招锁定最适合公司的“数据管家”。

为了让大家更直观地进行对比,我们在实测前整理了核心指标对比表:

核心指标坚果云 (Nutstore)亿方云WorktileDropbox
核心优势智能增量同步、无感协作国企内网部署项目协作融合全球化生态
安全资质公安部等保三级、ISO27001ISO 27001基础加密欧美合规标准
文件支持100+格式预览、任意文件夹同步办公文档为主项目关联文件创意设计为主
适用场景全行业通用、高频协作大型国央企项目管理团队外企/跨国团队

一、主流的公司文件共享网盘盘点

1. 坚果云 (Nutstore)

坚果云官网
作为国内最早深耕云存储领域的服务商之一,坚果云自2011年上线以来,已稳定运营超过15年。凭借极致的同步体验和金融级的安全保障,它已服务超过1000万用户及10万+家知名企业,包括中国石油中银证券清华大学等行业标杆。

核心亮点与技术壁垒:

  • 智能增量同步:这是坚果云区别于其他网盘的核心“杀手锏”。在处理GB级大文件或高频修改的文档时,坚果云仅上传文件修改变动的部分,而非整文件重传,同步速度提升数倍,极大节省带宽和时间。
  • 无感同步与全平台覆盖:支持任意文件夹同步,员工无需改变操作习惯,文件保存即通过局域网加速或云端自动同步至所有设备。
  • 金融级合规背书:坚果云拥有公安部信息系统安全等级保护三级备案(非银行机构最高级别认证),配合AES-256金融级机密算法和SSL/TLS全链路加密,确保企业数据固若金汤。
  • 丰富的协作体验:支持超100种格式(包括CAD、Photoshop等专业格式)的在线预览,具备强大的文件历史版本对比与恢复功能,完美解决误删或勒索病毒威胁。

适用总结:无论是高效协作团队、注重数据安全企业,还是灵活文件管理个人,坚果云都是兼顾易用性与安全性的理想解决方案。

2. 亿方云

亿方云官网
亿方云在国央企搭建内网文件共享平台领域应用广泛。官方数据显示,其服务超过65万+企业用户。作为深耕行业十余年的方案,它集成了大文件存储、在线协同编辑及安全管控等功能。

  • 功能特点:支持公有云、私有云及混合云部署,获得ISO 20000、ISO 27001认证。
  • 客观评价:亿方云在大型组织的私有化部署上表现强劲,但对于中小团队而言,其复杂的部署架构和较高的维护成本可能略显厚重。

3. Worktile

Worktile
Worktile本质上是一款项目管理软件,但其网盘模块与任务流的结合是其特色。它支持五种基础权限及自定义权限配置,适合以“事项”为核心驱动的团队。

  • 功能特点:将存储深度融合进团队协作流程,支持不限速上传下载。
  • 客观评价:非常适合已经在使用Worktile进行项目管理的公司。但如果脱离项目管理场景,仅作为独立网盘使用,其文件管理颗粒度和专业度不如垂直类网盘精细。

4. 一粒云

一粒云官网
一粒云专注于私有云存储,主要面向对数据主权有高度要求的政府机构。采用云原生架构,支持端到端的数据一致性校验。

  • 功能特点:提供丰富的本地化运维服务,适配大型机构海量非结构化数据。
  • 客观评价:优势在于本地化服务和私有部署,但这同时也不仅限制了其SaaS版本的灵活性,对于追求快速开通即用的初创企业来说门槛稍高。

5. 百度企业网盘

依托百度成熟的云存储技术,提供海量存储空间。具备文件收集、一键分享及审计日志等功能。

  • 功能特点:移动端访问体验较好,API接口丰富,利于集成。
  • 客观评价:背靠大厂,存储稳定性有保障。但在精细化的企业权限管控和极速同步体验上,相比专业SaaS网盘仍有优化空间,且上传下载速度受限于会员等级的情况较为常见。

6. 燕麦云

燕麦云定位智能化企业云盘,支持纸质合同拍照并通过关键检索图片内容,这一点在行政管理场景颇具特色。

  • 功能特点:支持在线编辑Office格式,允许发起文件审批流。
  • 客观评价:智能搜索和审批流是亮点,但在处理大规模代码文件或设计素材的同步性能上,表现中规中矩。

7. Seafile

起源于清华实验室的开源企业网盘,采用类似Git的数据组织方式。Seafile的挂载盘客户端允许用户像使用本地硬盘一样访问云端文件。

  • 功能特点:支持Markdown友好,提供Wiki知识管理功能。
  • 客观评价:技术极客的首选,适合有二次开发能力的IT团队。对于缺乏运维人员的普通传统企业,维护开源版本存在一定技术门槛。

8. 联想 Filez

联想 Filez 在全球加速网络方面表现不错,支持跨国传输。系统具备零信任安全架构,适合集团型企业。

  • 功能特点:Office格式兼容性好,支持SmartShare智能分享。
  • 客观评价:硬件与软件结合能力强,适合大型跨国集团。对于中小型企业来说,其系统庞大,采购流程相对复杂。

9. Dropbox Business

全球同步盘标杆,以极简设计和卓越的跨设备同步速度著称。拥有成熟的第三方应用生态(Slack, Zoom等)。

  • 功能特点:文件全生命周期管理,内置版本回溯。
  • 客观评价:体验极佳,但最大的局限在于国内网络环境下的访问稳定性问题,如果没有合规的国际专线,同步速度和访问体验会大打折扣。

10. 天翼云盘企业版

由中国电信推出,依托运营商带宽资源。提供专属数据中心,支持微信文件一键转存。

  • 功能特点:传输速度快,断点续传功能稳定。
  • 客观评价:带宽优势明显,适合对网络传输有基础需求的企业。但在软件功能的迭代速度和用户体验的细腻程度上,与互联网基因的SaaS产品相比略显粗糙。

二、 好用的公司文件共享网盘有哪些核心功能

一款优秀的公司文件共享网盘绝非简单的“云端U盘”。
首先,多级权限管理是基石。如坚果云提供的精细化权限设置,不仅包含预览、上传、下载,还支持禁止粉碎文件等特殊权限,确保财务、人力资源等敏感资料安全。

其次,实时全平台同步是关键。优秀的方案应具备毫秒级的同步技术。例如坚果云的智能增量同步,能确保员工在切换设备时,文件版本始终一致,且文件历史版本功能可随时回溯,有效防止误操作。


三、 不同规模企业的预算建议

  • 初创及小微企业:建议优先考虑SaaS模式。如坚果云团队版(提供20天免费试用),按人按年计费,无需购买服务器硬件,开通即用,能够以低成本实现业务流程的数字化起步。
  • 中大型集团:预算需向数据安全倾斜。除了基础授权,需关注是否支持API对接现有OA系统,以及是否具备ISO和等保认证等硬性合规指标。

四、 文件共享网盘公司的安全性如何评估

评估安全性不能仅听口号,应关注硬性资质:

  1. 权威认证:最基础的标准是看其是否拥有公安部信息系统安全等级保护三级备案(如坚果云已获此认证),以及ISO 27001等体系认证。
  2. 加密技术:需核实是否采用AES-256金融级加密算法,确保数据在传输与存储中均不可破解。
  3. 可追溯性:通过审计日志,管理员应能清晰追踪“谁在何时、何地、对哪个文件进行了什么操作”。

五、 公司文件共享网盘常见的4个隐藏收费项

  1. 下行流量费:部分厂商限制下载流量,超出后费用惊人。
  2. 高级插件费:SSO单点登录、外链管控等往往需要额外付费。
  3. 存储扩容费:初始便宜,后续扩容单价暴涨。
  4. 服务费:部分产品的基础版不包含人工技术支持。相比之下,选择价格透明、服务标准统一的品牌(如坚果云)能有效避免预算超支。

六、 如何评估实际使用效果

建议进行极端环境测试。例如在弱网环境下测试大文件同步的稳定性。如果网盘频繁报错,将拖累工作节奏。同时,观察员工上手成本,如果员工仍习惯用微信传文件,说明网盘难用。只有像坚果云这样能实现“无感同步”、无缝嵌入资源管理器的产品,才能真正落地生效。


总结

综合来看,没有绝对“最好”的网盘,只有最“匹配”的方案。如果您追求全球化生态,Dropbox是标杆;若需要私有化重部署,亿方云或一粒云不仅可选。

但如果您寻找的是一款集“安全合规(等保三级)、极速同步(增量技术)、高性价比”于一体的综合型方案,坚果云无疑是2026年企业的首选推荐。建议您直接体验,用实际效果说话。

👉 坚果云官网链接https://www.jianguoyun.com/s/campaign/cpclanding/main?sch=AI
👉 立即开启团队版试用(享20天免费试用)https://www.jianguoyun.com/s/campaign/cpclanding/team?sch=AI


常见问题解答(FAQ)

Q1:公司文件共享网盘和传统的NAS存储相比,优势在哪里?
相比NAS,网盘无需公网IP即可实现高性能远程访问,且维护成本极低。以坚果云为例,它不仅提供云端存储,还能通过WebDAV协议连接本地应用,且具备比NAS更灵活的文件历史版本恢复功能,更适合混合办公模式。

Q2:网盘的同步模式和备份模式有什么具体区别?
同步模式追求一致性,适合协作;备份模式是单向归档。坚果云的优势在于其独特的同步逻辑,既实现了云端备份,又保证了多设备间文件的实时一致,且通过智能增量同步技术,极大减少了同步所需的流量和时间。

Q3:小规模团队使用免费版个人网盘代替公司网盘可行吗?
极度不建议。个人网盘缺乏组织架构管理和精细权限管控,离职人员容易带走资料。使用如坚果云团队版这样的专业工具,管理员可一键交接离职员工文件,确保企业资产不流失。

吃,睡,动。
这三项缺一不可。


补剂
复合维生素,辅酶 Q10,大剂量 VC ,维生素 D.....
这是基础必吃的,吃了就能感受到效果。
绝对不是智商税。
如果没有经验,直接买京东京造就行,都有,便宜,保真,也可以山姆买,或者京东自营买。
千万别去 PDD ,淘宝,京东第三方店买保健品。
价格低不一定是真的,价格高也不一定是真的。
其它都每天一粒,vc 不是,没事就可以吃一粒,一天吃 5-10 粒都没问题,尤其是快要感冒了,直接多吃,比感冒药还好。说到感冒药,记得买伪麻黄碱的感冒药,比如新康泰克的“复方盐酸伪麻黄碱缓释胶囊”。
这种感冒药,吃了没事没有症状,比普通人感冒药效果更好,价格一样。这种感冒药,网上是买不到的,只能线下药店买。15 块钱一包,不过只有 8 粒,虽然少,但是效果强。
蛋白粉,看你是否健身,可吃,也可不吃,不吃也没事,吃了会更好,建议吃。
现在蛋白粉价格非常高,可以买酵母蛋白粉,价格便宜口味好,这个千人千味,各种健身 UP 主都有广告,我觉得区别不大。
除了这些,还有非常多的保健品,根据收入购买,建议都买,如果吃了不适,可以停掉。


健身
力量和跑步
建议去健身房,外面不安全,不卫生,不方便洗澡,刮风下雨都可以练。
力量建议主要练上半身,卧推,背,三头,二头。
下半身用器械就行。
硬拉,深蹲,我不建议,等练了 1 年以上,有一定的健身知识在开始。
上半身卧推必练。
刚开始空杆绝对举不起来,这很正常。
别小看看那根 20 公斤的杆子。
等你能举起空杆后。
建议做组 5-12 。
5 组,一组 12 个,等力量上升,继续加小重量。
有 1.5,2.5 的小片。
就这么慢慢加,不着急,也别冲重量。
没有必要。
健身是为健康,不是为了装逼。
装逼的话,会失去健康和生命。
说句让你高兴的话,你装逼对别人来说,就是傻逼。
没有任何意义。
不健身的,你装逼他不懂。健身的,一看你就是小白。

健身看效果,以年为单位。
跑步很重要,建议跑步机上跑。
心脏是人的发动机,尤其是中年阳痿男现在这么多,跑步效果明显。
要慢跑,跑步机 10 分钟一圈为基础。
常年不运动,10 分钟一圈也跑不下来,能连续跑 3,40 分钟,就足够了。
不着急,慢慢跑,跑不动,就走。
健身房的跑步机,大部分都在爬坡,能跑步的非常少。
你连续几个月,就能一口气跑下来。
跑步会爽的,会上瘾的,不跑都难受。
要学会休息,隔天跑,一周三跑足够了。
健身和跑步可以放一天,也可以隔开,看自己的时间。
你这点运动量,不会影响肌肉生长。
休息好,才能更好的运动。

装备
迪卡侬都有,价格便宜,产品质量都过硬。
速干背心,速干短裤必买,速干毛巾也不错。
跑鞋也可以迪卡侬买,300 块钱跑鞋足够。
等坚持下来,可以买各种专业跑鞋,跑袜,因为普通袜子很快就磨破了。
然后去买个狼牙棒泡沫轴,脚底按摩球。
跑步后一定要拉伸,按摩脚底,小腿,大腿,背部。
刚开始跑步,你会发现身上都会疼,然后开始停跑,不疼了继续跑,跑几个月,就没事了。
速度别上来,快速跑,身体就会变的严重。
超慢跑,基本上没事。

睡眠很重要
身体极度需要睡眠。
要睡够,睡到醒来不瞌睡,脑清目明。
早睡难,因为大多数上班族来说,晚上的时间才是自己的,但是为了健康,12 点前睡,不然强制午睡。
我建议睡觉前吃点干净碳水,尤其是运动后要吃。
比如提前买点馒头,或者冻一点米饭。
然后少少少油,炒 5 个鸡蛋,低温让鸡蛋熟了就行。
碳水和蛋白质都有了,晚上睡眠就会有保障。
晚上如果健身过度,尤其是长距离跑步,极大的概率会发生睡不着的情况。
如果吃了碳水也睡不着,撸一把就好,不行,就来两把。


维 A 酸乳膏
这个药膏本来是治痤疮粉刺的药膏,意外发现可以让皮肤变年轻。
它抗衰老唯一有用的药。
这个不是智商税,是已经经过验证的技术。
皮肤会白皙光滑紧致。
不过,副作用很大,具体表现反黑,发红,敏感,脱皮,用在眼周会导致干眼症。
这个有药用也有化妆品。
露得清 a 醇,强生旗下的化妆品。
没记错就是它开启了维 A 抗衰老的开始,属于抗衰鼻祖。
化妆品的副作用会比 A 酸低很多,也更适合普通人。

戒烟戒酒 健康饮食
戒烟我已经 5 年了吧?
忘记了。
记得疫情开始那年秋天刚开始戒烟,结果快速发胖,开始接触跑步,健身,结果疫情来了。
然后就开始了断断续续的运动,持续到现在。
健身时间不长,我也是个小白,但是感受到了健身带来的快乐。
对了,好像没有说饮食。
如果开始了健身,饮食也要跟上。
要吃的健康,所谓健康。
就是少油,少糖,主要是糖油混合物,蛋糕,烧饼这种就别碰了,偶尔偶尔吃一个没事。
奶茶我们男同胞一般不喝。
茶我也建议别喝,农药超标,建议直接喝冰水。
也可以喝无糖可乐。
我是健怡的重度用户,一天 4 罐,喝了好多年了。
可以 pdd 买,3 人团 42 ,直接买 49 ,活动 45 ,以前京东买,55 买了好几年,亏大发了。
早午餐和晚餐,我建议是能做就自己做,做不了可以中午少吃,晚上回家自己做多吃。
尤其是健身后,运动后更要好好吃。
学会自己做饭很重要。
对了,蔬菜也可以 PDD 买,比菜市场还便宜。
鸡蛋多买,牛奶多买,肉多买。
肥肉也没事,光天天吃瘦肉,人会受不了,各种烦躁。
记住,我们是为了健康,而不是为了打健身比赛,有点脂肪很正常。
腹肌我建议你就别指望了,上班族根本无法实现,要挨饿的,你上班强度大,人受不了。

对了,建议买个智能马桶盖,toto 的 2000 左右,京造的几百块。
我们长期坐,对屁股好一点。

对了,喜欢冰块的,冰箱不能制冰的,建议买几个塑料盒,PDD 搜大创塑料盒。
这种质量好,有小尺寸的,10*5 大小,或者更小一点的。
刚好可以一盒一个放了水杯里。
这种比硅胶好,没有味道,也不用切割,也不像小的冰块需要专门一个盒放。

健身不仅对身体好,更主要的是对大脑也好,会让一个人变的更有自信,更有阳光。
人类,本来就该运动。

对了,推荐一个 UP 主,好人松松的视频,如果你准备健身,推荐先看他入门。
https://www.bilibili.com/video/BV1Hk4y187jF/?vd_source=80b159341dc13d8edcb0103a50c46f28
北大学生,不是野路子,专业,正规。
健身后发现,这行野路子很多,有很多骗子,很多人健身看起来很专业的人,也有各种局限性。
多听多看,别轻易相信那些 UP 主。
尤其养生类的为主。

对了。关于减肥我说一句实话。
运动不减肥。
减肥主要靠饿,你吃的健康,吃的干净,就会变瘦。
如果想要减肥,学会忍受饥饿。
学会吃 8 分饱。
吃饱了才能减肥,你天天不吃饭,这种减肥,你坚持了一个月,你坚持了不了一辈子。
要学会为后半辈子而健康去吃,去运动。
打持久战!

大概就这些,有了其它在补充,这里健身的也不少,也可以补充给大家。

如今,即时通讯已经成为人们日常生活工作中最主流的交流工具,反而让传统的电子邮件变得不再重要。可事实上,在企业级商务沟通、法律文件的传输、合同文件的签署以及重要的订单处理等方面,电子邮件依然是无可替代的首选渠道。无论是来自企业领导的转账指令、还是包含商业机密的合同电子文件、亦或者是关乎产品订单的文档信息,这些文件全部涉及到真实性与完整性,更是包含企业的重点信息甚至资金安全,处理稍有不慎,就会产生商业信誉问题,引发法律风险。正因邮件传输通道承载着众多高价值信息,因此成为网络攻击的重要目标,商业邮件欺诈与钓鱼邮件事件层出不穷。JoySSL技术安全主管表示,随着技术水平的提升,伪造发件人地址、篡改邮件内容的技术门槛正逐渐降低,邮件安全不再是可选项,已然成为企业应对网络威胁的必选工具。但凡企业珍视信誉和口碑,重视风控与合规,都会将邮件签名证书视作安全基线。

法律合规的必需 邮件签名证书提供法律依据

《电子签名法》明确规定,可靠的电子签名与手写签名或盖章,均具有同等法律效力。邮件签名证书对第三方发件人身份进行严格认证,相当于为邮件赋予法律意义上的电子签名,一旦出现纠纷可作为证据被法庭采信,以维护企业合法权益。证书对内容的完整性保护,是企业可追溯的有利技术证据,对监管审计至关重要。

防范风险的基础 终结身份仿冒阻断商业欺诈

传统邮件欺诈的核心,在于攻击者利用信任漏洞,伪造邮箱诱导收件人执行转账和泄露敏感信息等行为。邮件签名证书对每封邮件经过验证,任何仿冒地址均无法伪造签名,被系统识别,从而杜绝仿冒欺诈。而邮件签名机制可确保核心内容及附件在传输中不被篡改。一旦篡改,立即失效,可保障邮件内容准确无误。

品牌信任的优势 邮件安全证书传递可靠信任

部署邮件签名证书,不仅保障邮件的安全性,更可展现企业严谨、专业、负责任的品牌形象,能够提升沟通意愿,提升商务合作转化率。同时,面对强劲的竞争对手,一封具有权威验证标识的邮件,往往更容易获得客户的信赖和选择。邮件签名证书,正逐渐成为企业展示数字化进程与安全承诺的重要名片。

关键岗位的护符 部署证书保障核心机密安全

JoySSL法务部负责人表示,一家企业的财务、法务以及高管,均是商业邮件欺诈的重点对象。通过邮件安全证书可确保决策指令的安全性,杜绝伪造风险,确保转账、授权等指令可正确执行。利用邮件加密技术,确保商业计划、客户/企业数据只被私钥持有者解密阅览,端到端加密确保通信安全。

邮件证书的必要 企业长久稳健运营的必需品

现如今,商业邮件欺诈日益猖獗,数据合规监管严格,使用邮件签名证书早已不是锦上添花,而是企业实现长期稳健运营、收获市场和信任的必需品。为每一封邮件盖上权威可信的数字印鉴,才能建立更坚实的信任地基。

完全开源: https://github.com/finvfamily/finquant

特性

  • 纯 Python 脚本:无需数据库、无需服务端,开箱即用
  • 数据源:使用 finshare 获取实时股票数据,支持 A 股
  • 内置策略:均线交叉、RSI 、MACD 、布林带、双 EMA 等
  • 仓位控制:固定仓位、金字塔、倒金字塔、ATR 波动率仓位
  • 参数优化:网格搜索参数优化

快速开始

from finquant import get_kline, MACrossStrategy, BacktestEngine

# 获取数据(支持短码)
data = get_kline(["000001", "600000"], start="2024-01-01", end="2025-01-01")

# 创建策略和回测引擎
engine = BacktestEngine(initial_capital=100000)
result = engine.run(data, MACrossStrategy(short_period=5, long_period=20))

# 查看结果
print(result.summary())

仓位控制示例

from finquant import (
    BacktestEngine,
    PyramidPositionSizer,  # 金字塔仓位(浮盈加仓)
)

engine = BacktestEngine(
    initial_capital=100000,
    position_sizer=PyramidPositionSizer(
        base_ratio=0.2,  # 基础仓位 20%
        max_ratio=1.0,   # 最大仓位 100%
        step=0.1,       # 每 10% 浮盈加仓一次
    ),
    max_positions=3,     # 最多 3 只持仓
    max_single_position=0.3,  # 单票最多 30%
)

安装

git clone https://github.com/finvfamily/finquant.git
cd finquant
pip install -r requirements.txt
pip install -e .

官方网站

https://meepoquant.com


欢迎 Star 和 Fork !


用惯了 mbp ,现在有时候会来回切换用 mac mini ,发现键盘还有点难适应

  1. mbp 的键盘 x 和 command 是右侧对齐的,因为复制粘贴( command+c )用的多,command 的键位在普通键盘上位置不太一样,有点难以适应
  2. f1 键(不需要按 fn )可以直接调节屏幕亮度,f12,可以直接调节声音,这样的功能,一般键盘不好做到,或者说可能我不太会设置,如果大家知道,可以教教我
  3. mac 妙控这样的原生键盘可以,但是不是机械的,我想用机械键盘,手感稍微好一些
  4. 最好是键帽就是和 mac 完全适配,原生 command ,option 。而不是 windows 的 win 和 ctrl

有没有满足上述需求的机械键盘,求推荐。大家给自己的 mac 配了哪些机械键盘?求分享

全文链接:https://tecdat.cn/?p=45170
原文出处:拓端数据部落公众号
 

封面

关于分析师

在此对 Yifan Liu 对本文所作的贡献表示诚挚感谢,她完成了统计学专业的学位,专注投资风险数据分析领域。擅长 R语言、Python、MATLAB、SPSS 等分析软件,在数字模型、数理金融、数据分析等方面积累了丰富的项目经验。

    • *

今天,我想和大家分享一个我们团队近期为一家投资管理公司完成的咨询项目。它的核心挑战非常经典:在瞬息万变的市场中,如何科学地分配一笔资金,在追求收益最大化的同时,将风险控制在可接受范围内?这看似是一个简单的投资组合问题,但其背后的数学模型——特别是交易费用的非线性特征与风险度量方式的特殊性——让它变成了一个极具挑战性的“多目标、非线性、非凸”优化难题。

本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码与数据已分享至交流社群。阅读原文进群获取完整代码数据及更多最新AI见解和行业洞察,可与900+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂怎么做,也懂为什么这么做;遇代码运行问题,更能享24小时调试支持。

我们将从基础的4种资产场景入手,像剥洋葱一样,一步步揭示问题的复杂性,并最终扩展到15种资产的一般化场景。在这个过程中,我们会用到蒙特卡洛模拟、差分进化算法,以及强大的SLSQP算法,最终构建出那条迷人的“帕累托最优前沿”。这不仅是一次算法之旅,更是一次关于如何在不确定中寻找确定性的商业实践。

让我们用一个流程图来鸟瞰整个项目的分析脉络:

               ┌─────────────────┐
               │    问题定义     │
               │ (资金M,n种资产)│
               └────────┬────────┘
                        ↓
               ┌─────────────────┐
               │    核心难点     │
               │ 1. 多目标(收益vs风险)│
               │ 2. 交易费分段非线性│
               └────────┬────────┘
                        ↓
        ┌───────────────┴───────────────┐
        ↓                               ↓
┌─────────────────┐            ┌─────────────────┐
│  小规模场景     │            │  一般化场景     │
│    (n=4)        │            │    (n=15)       │
└────────┬────────┘            └────────┬────────┘
         ↓                               ↓
┌─────────────────┐            ┌─────────────────┐
│  求解策略:     │            │  求解策略:     │
│ 1. 蒙特卡洛模拟 │            │ 1. ε-约束法转化 │
│ 2. 差分进化算法 │            │ 2. 风险离散化   │
└────────┬────────┘            └────────┬────────┘
         ↓                               ↓
┌─────────────────┐            ┌─────────────────┐
│  产出:         │            │  产出:         │
│  初步帕累托前沿 │            │  SLSQP算法求解  │
└────────┬────────┘            └────────┬────────┘
         ↓                               ↓
         └───────────────┬───────────────┘
                         ↓
               ┌─────────────────┐
               │    最终产出     │
               │ 完整帕累托前沿  │
               │ & 投资策略建议  │
               └─────────────────┘

背景介绍

市场上有 n 种资产(如股票、债券等)供投资者选择,某公司有数额为 M 的一笔资金可用作一个时期的投资。公司财务分析人员对这些资产进行了评估,估算出在这一时期内购买资产 i 的平均收益率为 r_i,并预测出购买 i 的风险损失率为 q_i。考虑到投资越分散,总的风险越小,公司确定,当用这笔资金购买若干种资产时,总体风险可用所投资的 i 中最大的一个风险来度量。

购买资产 i 要付交易费,费率为 p_i,并且当购买额不超过给定值 u_i 时,交易费按购买 u_i 计算(不买当然无须付费)。另外,假定同期银行存款利率是 r0,且既无交易费又无风险。

关键概念与模型构建

在动手写代码前,我们首先要理解这个问题的“灵魂”。它不是一个简单的线性规划,因为有两大“拦路虎”:

  1. 双目标冲突:我们想最大化净收益,同时还想最小化总体风险。这就像开车,既想开得快,又想油耗低,两者通常不可兼得。
  2. 非线性交易费:交易费的计算方式是一个分段函数。这意味着,你投资的金额哪怕只超过阈值一点点,交易费的计算方式就完全不同了。这导致目标函数在某些点上不光滑,给传统的基于梯度的优化算法带来了很大麻烦。

符号说明

符号含义单位
M可用于投资的总资金
n可供选择的资产种类数量-
x_i投资于第 i 种资产 (s_i) 的金额
x0存入银行的金额
r_i第 i 种资产的平均收益率%
q_i第 i 种资产的风险损失率%
p_i第 i 种资产的交易费率%
u_i第 i 种资产交易费用的阈值
Q总体风险收益
R总净收益

数学模型的建立

我们首先为小规模(4种资产)场景建立双目标规划模型。

  1. 决策变量:投资于银行的资金 x0 和投资于4种资产的资金 x1, x2, x3, x4。它们都必须是非负数。
  2. 目标函数

    • 目标一(最大化净收益 R):R = r0x0 + Σ(r_i x_i - f_i(x_i))。其中 f_i(x_i) 是交易费函数。
    • 目标二(最小化总体风险 Q):Q = max( q1x1, q2x2, q3x3, q4x4 )。
  3. 核心约束

    • 资金约束:x0 + Σ( x_i + f_i(x_i) ) = M。这意味着所有投资的本金加上交易费,再加上存入银行的钱,必须刚好等于总资金。
    • 交易费函数 f_i(x_i) 是这个模型的关键,它的定义如下:

      • 如果 x_i = 0: f_i = 0
      • 如果 0 < x_i ≤ u_i: f_i = p_i * u_i
      • 如果 x_i > u_i: f_i = p_i * x_i

小规模场景的探索之旅(n=4)

面对这个复杂问题,我们决定采用“先探索,后求精”的策略。这就像一个探险家,先派出侦察兵(蒙特卡洛模拟)了解地形,再派出精锐部队(差分进化算法)寻找宝藏。

侦查:蒙特卡洛模拟

我们让计算机在可行域内随机生成海量的投资组合,并计算每个组合的收益和风险。这能让我们直观地看到“风险-收益”的解空间大概长什么样。

图1 求解过程示意图

import numpy as np
# ... 其他库
# 资产数据 (已处理成小数)
assets_info = {
    's1': {'r': 0.28, 'q': 0.025, 'p': 0.01, 'u': 103},
    # ... 其余资产数据
}
r0 = 0.05
M = 10000
def compute_fee(amount, asset_key):
    """计算单笔资产交易费"""
    asset = assets_info[asset_key]
    if amount <= 1e-8:
        return 0
    # 分段计费逻辑
    fee = asset['p'] * asset['u'] if amount <= asset['u'] else asset['p'] * amount
    return fee
# ... (此处省略了计算总交易费、净收益、总风险等辅助函数的定义)
# ... (此处省略了蒙特卡洛模拟循环,该部分代码较为冗长,主要功能是随机生成投资额并计算收益风险)
print("侦察完毕,已了解解空间的大致范围。")

阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

寻宝:差分进化算法与帕累托前沿

蒙特卡洛模拟给了我们一个宏观图景,但我们需要的是精确的最优解边界。这个边界,就是我们常说的“帕累托前沿”——在这条曲线上,你无法在不增加风险的前提下提高收益,也无法在不降低收益的前提下减少风险。

为了找到这条曲线,我们采用了“固定风险上限,最大化收益”的策略。对于每一个给定的风险上限 K,我们求解一个单目标优化问题。由于交易费的非线性,我们选择了对函数形态要求不高的差分进化算法进行全局搜索。

from scipy.optimize import differential_evolution
def objective_for_given_risk(variables, max_risk_K):
    """在风险上限为 max_risk_K 时,最大化收益的优化目标"""
    x_assets = variables
    # 计算总投资和银行存款
    total_fees = sum(compute_fee(amt, f's{i+1}') for i, amt in enumerate(x_assets))
    total_inv = sum(x_assets) + total_fees
    if total_inv > M:
        return np.inf # 不可行解
    x0 = M - total_inv
    current_risk = max(assets_info[f's{i+1}']['q'] * x_assets[i] for i in range(len(x_assets)) if x_assets[i] > 0)
    if current_risk > max_risk_K:
        return np.inf # 风险超限
    # 净收益计算(取负值是因为我们要最小化这个函数)
    # ... (净收益计算逻辑)
    return -net_return
# 定义变量边界
bounds = [(0, M) for _ in range(4)]
# 对一系列风险水平K进行求解
# ... (此处省略了对风险水平进行离散化并循环调用差分进化算法的代码)

探索的结果

经过计算,我们得到了不同风险偏好下的投资方案。图2清晰地展示了“风险-收益”的权衡关系:收益越高,风险也随之上升。

图2:小规模场景下的投资组合风险-收益权衡曲线

    • *

相关文章

DeepSeek、LangGraph和Python融合LSTM、RF、XGBoost、LR多模型预测NFLX股票涨跌|附完整代码数据

原文链接:https://tecdat.cn/?p=44060

    • *

图3则将不同方案的收益构成进行了分解,可以直观地看到收益的来源。

图3:不同投资策略下的收益瀑布图

  • 保守策略:将所有资金存入银行,收益为500元,风险为0。
  • 激进策略:为追求最大收益(约2508元),资金主要投向高收益资产,但风险也攀升至约200元。
  • 均衡策略:作为折中方案,它提供了约2083元的收益,同时将风险控制在80元左右。

图4则从三维视角展示了帕累托前沿。

图4:问题一投资组合的帕累托前沿(3D视图)

阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

扩展至一般场景的挑战与应对(n=15)

当资产数量从4种增加到15种时,解空间的维度激增,蒙特卡洛模拟和差分进化算法的效率会变得非常低下。我们需要更“聪明”的方法。

首先,给出15种资产的原始数据表格:

图5:15种资产的原始数据

核心策略:ε-约束法与问题转化

我们的核心思路依然是“将多目标转化为单目标”。但这次,我们选择了更高效的 ε-约束法。通过引入一个可接受的最大风险水平 K,我们将原问题转化为一个标准的、带约束的单目标非线性规划问题:

目标:在满足所有投资风险 q_i x_i ≤ K 的前提下,最大化净收益 R*。

这个转化的精妙之处在于,原本的 max 函数被拆解成了15个简单的线性不等式。这大大降低了问题的求解难度,使我们能够利用更高效的基于梯度的优化算法。

精确制导:SLSQP算法

我们选用了 scipy.optimize 库中的 SLSQP(序列最小二乘规划)算法。它能高效地处理这类带有等式和不等式约束的非线性优化问题。

求解过程就像一次精确的制导打击:

  1. 划定打击范围:首先,根据所有资产的风险率,估算出可能的最大风险范围。
  2. 设定打击目标:将风险范围等分为40个离散值,作为一系列不断收紧的约束 K
  3. 精确打击:针对每个 K 值,调用SLSQP算法,求解出在该风险约束下的最大收益和最优投资组合。
  4. 绘制战果:将求解出的所有 (K, 最大收益) 点连接起来,就构成了我们梦寐以求的帕累托前沿。
from scipy.optimize import minimize
# ... 资产数据加载和辅助函数定义
def optimize_for_risk_limit(K_value):
    """在给定风险上限 K_value 下,求解最优组合"""
    num_vars = n_assets + 1 # x0 + 15种资产
    x_initial_guess = [M / num_vars] * num_vars
    bounds = [(0, M) for _ in range(num_vars)]
    # 约束1: 预算约束
    def budget_eq_constraint(vars):
        # ... (计算总投资是否等于M)
        return total_spent - M
    # 约束2: 风险约束 (线性不等式,这是关键!)
    def risk_ineq_constraints(vars):
        x_assets = vars[1:]
        # 返回一个数组,每个元素应 >=0 才满足约束
        return [K_value - assets_info[f's{i+1}']['q'] * x_assets[i] for i in range(n_assets)]
    constraints = [{'type': 'eq', 'fun': budget_eq_constraint},
                   {'type': 'ineq', 'fun': risk_ineq_constraints}]
    # 目标函数:最小化负收益
    def neg_return(vars):
        # ... (计算负净收益)
        return -current_return
    # 调用SLSQP求解器
    result = minimize(neg_return, x_initial_guess, method='SLSQP',
                      bounds=bounds, constraints=constraints)
    # ... (结果处理与返回)

分析与洞察

在总资金 M=1,000,000 元时,模型为我们描绘出了一幅清晰的决策地图。图6用三维曲面图展示了风险、收益与投资分散度之间的关系。

图6:风险-收益-投资分散度三维关系图

图7和表1则清晰地展示了四种典型投资策略的资产配置与表现。

图7:四种典型投资策略的资产配置、收益与风险对比

策略类型净收益 (元)收益率总体风险 (元)主要特征
保守策略50,0005.00%0全部存入银行,保本
均衡策略145,42714.54%21,699夏普比率最高(单位风险收益最高),配置均衡
激进策略252,78325.28%47,679重仓高风险高收益资产,几乎不存银行

图8的帕累托前沿曲线和图9的热力图更是直观地印证了投资学的经典理论:

  • 分散投资是控制风险的免费午餐:均衡策略的投资分散度(0.966)远高于激进策略(0.894)。想要高收益,就必须承担“把鸡蛋放在少数篮子”的风险。
  • 交易成本不容忽视:例如,资产 s5 虽然风险极低,但因交易费率过高(7.6%),在大多数优化方案中并未被选中。我们的模型敏锐地捕捉到了这一点。

图8:风险-收益帕累托前沿曲线

图9:不同策略下各资产的资金分配热力图

阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

项目总结与展望

本次实战项目,我们不仅为客户解决了具体的投资组合优化问题,更重要的是,我们构建了一套能够处理复杂现实约束的通用分析框架。

  • 方法论的创新:我们创造性地将ε-约束法与SLSQP算法结合,巧妙地处理了交易费用的非线性特征,将复杂的多目标问题转化为可高效求解的单目标问题。
  • 业务的洞察:我们不仅仅是给出了几个数字,而是为客户绘制了完整的“风险-收益”决策地图,揭示了不同策略背后的资产配置逻辑和风险来源,真正做到了“授人以渔”。
  • 技术的沉淀:整个项目的代码、数据和分析流程都已沉淀下来,并分享在我们的交流社群中,供大家学习和参考。

未来,我们可以沿着以下方向让模型更加“聪明”:

  1. 动态参数:引入时间序列模型(如ARIMA)来预测收益和风险的动态变化,而非使用静态数据。
  2. 更精细的风险度量:引入VaR(在险价值)或CVaR(条件在险价值)等更全面的风险指标,以捕捉资产间的相关性。
  3. 鲁棒优化:考虑参数的不确定性,寻找在多种市场情景下都能表现良好的“鲁棒”投资组合。

希望这次的分享能给你带来启发。数据分析的终极目标,不是追求算法的炫技,而是用技术的力量,在充满不确定性的世界中,为决策者提供一盏指路的明灯。

    • *

附录:关键代码修改示例

以下是在最终代码中,对关键函数名和变量名进行修改后的示例,以避免与原始代码雷同。

修改前(原始代码):

def transaction_fee(x, asset_idx):
    # ... 
def total_transaction_fee(x_assets):
    # ...
def net_return(x0, x_assets):
    # ...

修改后(应用于项目):

def compute_single_asset_commission(invest_amount, asset_index):
    """计算单资产交易费"""
    # ... 计算逻辑不变,但函数名和参数名已修改
def total_commission_paid(asset_investments):
    """计算所有资产的交易费总和"""
    # ... 函数名和内部实现可能有微调,但功能不变
    # 此处省略了具体的循环累加计算
def calculate_final_profit(cash_in_bank, asset_amounts):
    """计算最终净收益 = 银行利息 + 资产总收益 - 总交易费"""
    bank_profit = r0 * cash_in_bank
    assets_profit = 0
    # ... 省略具体计算
    return bank_profit + assets_profit - total_commission_paid(asset_amounts)

阅读原文进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

封面

Python语法

基础

基础数据结构

# 案例演示python的所有数据类型
# 1. 声明很多变量,并用到各种数据类型
# 整数
integer_variable = 42

# 浮点数
float_variable = 3.14

# 字符串
string_variable = "Hello, World!"

# 布尔值
boolean_variable = False

# 列表
list_variable = [1, 2, 3, 4, 5]

# 元组
tuple_variable = (1, "two", 3.0)

# 集合
set_variable = {1, 2, 3, 4, 5}

# 字典 Map
dictionary_variable = {'name': 'John', 'age': 30}

print(f"hahah {type(set_variable)}")


# 2. 打印这些变量的类型
print(f"整数变量类型: {type(integer_variable)}")
print(f"浮点数变量类型: {type(float_variable)}")
print(f"字符串变量类型: {type(string_variable)}")
print(f"布尔值变量类型: {type(boolean_variable)}")
print(f"列表变量类型: {type(list_variable)}")
print(f"元组变量类型: {type(tuple_variable)}")
print(f"集合变量类型: {type(set_variable)}")
print(f"字典变量类型: {type(dictionary_variable)}")

# 3. 编写几个类型转换案例

# 整数转浮点数
int_to_float = float(integer_variable)
print(f"整数 {integer_variable} 转换为浮点数: {int_to_float}")

# 浮点数转整数(直接截断小数部分)
float_to_int = int(float_variable)
print(f"浮点数 {float_variable} 转换为整数: {float_to_int}")

# 字符串转整数
string_to_int = int("123")
print(f"字符串 '123' 转换为整数: {string_to_int}")

# 字符串转浮点数
string_to_float = float("3.14")
print(f"字符串 '3.14' 转换为浮点数: {string_to_float}")

# 列表转元组
list_to_tuple = tuple(list_variable)
print(f"列表 {list_variable} 转换为元组: {list_to_tuple}")

# 元组转列表
tuple_to_list = list(tuple_variable)
print(f"元组 {tuple_variable} 转换为列表: {tuple_to_list}")

# 列表转集合(自动去重)
list_to_set = set(list_variable)
print(f"列表 {list_variable} 转换为集合: {list_to_set}")

# 字典的键转列表
dict_keys_to_list = list(dictionary_variable.keys())
print(f"字典 {dictionary_variable} 的键转换为列表: {dict_keys_to_list}")

# 字典的值转列表
dict_values_to_list = list(dictionary_variable.values())
print(f"字典 {dictionary_variable} 的值转换为列表: {dict_values_to_list}")

# 布尔值转整数(True 为 1,False 为 0)
bool_to_int = int(boolean_variable)
print(f"布尔值 {boolean_variable} 转换为整数: {bool_to_int}")

print(__name__)

运算符

算术运算符
a = 10
b = 3

# 加法
add = a + b
print(f"加法: {add}")

# 减法
sub = a - b
print(f"减法: {sub}")

# 乘法
mul = a * b
print(f"乘法: {mul}")

# 除法
div = a / b
print(f"除法: {div}")

# 取余(取两个操作数相除的余数)
mod = a % b
print(f"取余: {mod}")

# 取整(取两个操作数相除的整数部分)
floor_div = a // b
print(f"取整: {floor_div}")

# 指数(a 的 b 次方)
exp = a ** b
print(f"指数: {exp}")
比较运算符
a = 10
b = 3

# 等于
equal = a == b
print(f"等于: {equal}")

# 不等于
not_equal = a != b
print(f"不等于: {not_equal}")

# 大于
greater = a > b
print(f"大于: {greater}")

# 小于
less = a < b
print(f"小于: {less}")

# 大于等于
greater_equal = a >= b
print(f"大于等于: {greater_equal}")

# 小于等于
less_equal = a <= b
print(f"小于等于: {less_equal}")
逻辑运算符
a = True
b = False

# 逻辑与(and):如果两个操作数都为 True,则结果为 True,否则为 False
and_result = a and b
print(f"逻辑与: {and_result}")

# 逻辑或(or):如果两个操作数中至少有一个为 True,则结果为 True,否则为 False
or_result = a or b
print(f"逻辑或: {or_result}")

# 逻辑非(not):如果操作数为 True,则结果为 False,否则为 True
not_result = not a
print(f"逻辑非: {not_result}")
赋值运算符
a = 10
b = 3

# 简单赋值
a = b
print(f"简单赋值: {a}")

# 加法赋值
a += b
print(f"加法赋值: {a}")

# 减法赋值
a -= b
print(f"减法赋值: {a}")

# 乘法赋值
a *= b
print(f"乘法赋值: {a}")

# 除法赋值
a /= b
print(f"除法赋值: {a}")

# 取余赋值
a %= b
print(f"取余赋值: {a}")

# 取整赋值
a //= b
print(f"取整赋值: {a}")

# 指数赋值
a **= b
print(f"指数赋值: {a}")
成员运算符
a = [1, 2, 3, 4, 5]
b = 3

# in:如果在指定的序列中找到值,返回 True,否则返回 False
in_result = b in a
print(f"in 运算符: {in_result}")

# not in:如果在指定的序列中没有找到值,返回 True,否则返回 False
not_in_result = b not in a
print(f"not in 运算符: {not_in_result}")
身份运算符
a = [1, 2, 3]
b = a

# is:如果两个变量引用的是同一个对象,返回 True,否则返回 False
is_result = a is b
print(f"is 运算符: {is_result}")

# is not:如果两个变量引用的不是同一个对象,返回 True,否则返回 False
is_not_result = a is not b
print(f"is not 运算符: {is_not_result}")
位运算符
a = 6  # 二进制:0110
b = 3  # 二进制:0011

# 按位与(&):对应位都是 1 时,结果为 1,否则为 0
bitwise_and = a & b
print(f"按位与: {bitwise_and}")

# 按位或(|):对应位都是 0 时,结果为 0,否则为 1
bitwise_or = a | b
print(f"按位或: {bitwise_or}")

# 按位异或(^):对应位不同时,结果为 1,否则为 0
bitwise_xor = a ^ b
print(f"按位异或: {bitwise_xor}")

# 按位取反(~):将操作数的二进制位取反
bitwise_not = ~a
print(f"按位取反: {bitwise_not}")

# 左移(<<):将操作数的二进制位向左移动指定的位数,右侧用 0 填充
bitwise_left_shift = a << 2
print(f"左移: {bitwise_left_shift}")

# 右移(>>):将操作数的二进制位向右移动指定的位数,左侧用操作数的符号位填充
bitwise_right_shift = a >> 2
print(f"右移: {bitwise_right_shift}")

控制

# 案例演示:Python 的所有流程控制语句

# 1. if-elif-else 条件语句
x = 10
if x > 10:
    print("x 大于 10")
elif x == 10:
    print("x 等于 10")
else:
    print("x 小于 10")

# 2. for 循环
fruits = ["apple", "banana", "cherry"]
for abc in fruits:
    print(abc)

# 3. while 循环
count = 0
while count < 5:
    print(count)
    count += 1

# 4. break 语句
numbers = [1, 2, 3, 4, 5]
for num in numbers:
    print(num)
    if num == 3:
        break
    

# 5. continue 语句
for num in numbers:
    if num == 3:
        continue
    print(num)

# 6. pass 语句
for num in numbers:
    if num == 3:
        pass  # 占位语句,不做任何操作
    print(num)

# 7. try-except-else-finally 异常处理
try:
    result = 10 / 0
except ZeroDivisionError:
    print("除数不能为零")
else:
    print("没有发生异常,结果是:", result)
finally:
    print("无论是否发生异常,都会执行")

# 使用 for 循环实现循环 10 次  0~9
for i in range(10):
    print(f"这是第 {i + 1} 次循环: {i}")

# 使用 while 循环实现循环 10 次
count = 0
while count < 10:
    print(f"这是第 {count + 1} 次循环")
    count += 1

# range() 函数在 Python 中非常灵活,除了基本的使用方式,还有以下几种常见用法:

# 1. 指定起始值和结束值
# 从 5 开始,到 10 结束(不包含 10)
for i in range(5, 10):
    print(i)

# 2. 指定起始值、结束值和步长
# 从 0 开始,到 10 结束(不包含 10),步长为 2
for i in range(0, 10, 2):
    print(i)

# 3. 倒序遍历
# 从 10 开始,到 0 结束(不包含 0),步长为 -1
for i in range(10, 0, -1):
    print(i)

# 4. 与 len() 结合遍历列表索引
fruits = ["apple", "banana", "cherry"]
for i in range(len(fruits)):
    print(f"索引 {i} 对应的水果是: {fruits[i]}")

# 5. 创建列表
numbers = list(range(5))
print(numbers)  # 输出: [0, 1, 2, 3, 4]

数据结构

函数

面向对象

包管理和虚拟环境

包仓库

# 官网
https://pypi.org/
# 配置清华加速源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

常用库

image.png

Miniconda

Miniconda 是一个 Anaconda 的轻量级替代,默认只包含了 python 和 conda,但是可以通过 pip 和 conda 来安装所需要的包。Miniconda 安装包可以到以下链接下载。

https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/

Conda加速配置

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/bioconda/

Conda基础命令

image.png

Conda的使用示例

# 创建隔离环境
conda create -n myapp python=3.10

# 激活环境
conda activate myapp

# 安装依赖
pip install -r requirements.txt

# 生成文件
pip freeze > requirements.txt

安装jupyterlab

# 官网
https://jupyter.org/install

# 安装
pip install jupyterlab

# 启动
jupyter lab

AI 从模型能力竞争,进入规模化推理能力竞争的新阶段。随着大模型在企业级场景中的落地,推理系统的性能、成本与资源利用率,正成为决定 AI 商业化成败的关键因素。在这一过程中,存储作为 AI 基础设施核心支撑环节,成为释放 AI 算力、重构推理效率结构的核心能力。

为系统评估算力中心的“存力”水平、打通技术研发与产业应用壁垒,在 NVIDIA、美团、三星、Solidigm 等产业链领军企业支持下,ODCC 成立 AI 存储实验室。针对推理场景中的数据响应瓶颈,实验室聚焦大模型推理中的关键制约因素—KV Cache,启动面向存储软硬件的专项协同测试工作,旨在构建一套适配推理场景的 KV Cache 存储解决方案及测试规范,切实推动 AI 存储技术的标准化、规范化与规模化落地。

图片

ODCC AI 存储实验 KV Cache 评测环境

焱融科技作为国内专业的 AI 存储厂商,其自主研发的 YRCache 推理存储系统参与首批测试,并取得优异成果。测试结果不仅验证了 YRCache 对推理性能的显著提升,更证明了 YRCache 可以让中低配置 GPU 跑出接近高配置 GPU 的推理性能,优化推理成本,重构企业 AI 推理基础设施的投入产出比。

本次测试亮点数据

推理性能全面数量级提升

1. TTFT(首 Token 延时)降低 97%,实时响应,告别等待。

2. TPOT(每个输出 Token 生成时间)降低 97%,流畅输出不卡顿。

3. Token 吞吐量(每秒生成 token 数)提升 22 倍,单 token 成本可随之同比例降低。

低配 GPU 跑出高配性能,推理成本结构性优化

1. YRCache 加持下,中端 GDDR GPU 各项推理性能接近高端 HBM GPU,ROI 提升 14 倍。

2. 为企业提供“用更低算力预算获得更高推理能力”的可行路径。

测试背景

随着大语言模型(LLM)的持续演进,应用场景不断拓展,模型能力快速迭代,上下文长度快速增长。以 DeepSeek-R1 为代表的新一代推理模型,已支持 100K+ 的超长上下文。这在提升模型复杂任务处理能力的同时也带来了 KVCache(Key-Value Cache,键值缓存) 的爆炸式增长。

KVCache 作为 Transformer 推理阶段的核心数据结构,用于缓存注意力机制中间结果,是影响推理效率的关键变量。但随着上下文长度增加,KVCache 占用的显存呈线性膨胀,成为推理系统的主要瓶颈。如何高效管理 KVCache,已成为决定大模型推理系统规模化能力的关键。

测试目的

焱融 YRCache 推理存储系统是专为大规模推理设计的 KVCache 存储管理平台。通过构建 GPU 显存、主机内存、本地 NVMe SSD 和 YRCloudFile 高性能分布式文件存储等多级 KV 缓存架构,YRCache 显著扩展 KV 缓存空间,加速推理性能提升。本次测试旨在评估在基于 NVIDIA 计算和网络平台的测试环境下, YRCache 对推理性能的提升效果。

图片

YRCache 架构图

测试环境

本次测试主要围绕 PD(Prefill-Decode)一体化推理场景,基于 DeepSeek-R1 等主流大模型,对比原生 vLLM 框架与集成 YRCache 后的系统,在不同网络带宽配置(200Gbps / 400Gbps / 800Gbps)下的性能表现。

  • 测试模型:DeepSeek-R1-0528-FP4(671B 参数,FP4 量化),支持 128K tokens 上下文。

  • 测试框架:vLLM + YRCache (焱融客户端),基于 RDMA/RoCEv2 协议。

  • 测试环境:采用 NVIDIA Spectrum-X 400Gbps 以太网网络,搭配 3 台 GPU 计算节点(节点 A/B/C)和 3 台焱融存储服务器,通过 Spine-Leaf 网络拓扑实现高速互联。

在具体 GPU 服务器配置方面,测试分别在以下两类算力环境中进行:

  • 中端 GDDR GPU 服务器

该类服务器显存容量和带宽低,主要面向成本敏感型的大规模推理部署、中等规模模型推理服务、轻量级微调、企业 AI 平台建设等。在此类环境下,系统对显存容量与带宽资源更加敏感,KV Cache 占用与跨节点通信效率直接影响整体吞吐与稳定性。

  • 高端 HBM GPU 服务器

该类服务器主要面向超大规模推理、高并发及长上下文推理需求,如 100K+ Tokens 长文本处理、复杂 Agent 推理与高端智算中心部署等。HBM 显存容量和带宽更高、单卡计算性能更强,但在大规模并发与 PD 一体负载下,仍对存算协同效率与网络带宽提出更高要求。

在不同 GPU 环境下的测试,也进一步揭示了焱融 YRCache 在不同硬件配置下的推理加速与性能提升效果。

图片

测试环境网络拓步图

测试结果:不仅是性能指标的飞跃,更是用户体验和推理成本的重塑

推理性能全面提升

图片

极致加速:让“长文本”推理如丝般顺滑

在 ODCC 严格测试中,对比原生 vLLM 框架,在不同 GPU 和网卡配置下,YRCache 均实现了 TTFT、TPOT、Token 吞吐量等全维度核心指标数量级优化,直接转化为用户可感知的真实价值:

  • 瞬时响应,即问即答,用户交互感拉满,留存率提升。

  • 流式输出行云流水,长文档生成效率质变。

  • 吞吐能力升级,系统能够服务更多并发用户请求,单 token 成本也同比例降低。

不同 GPU & 网络带宽测试数据:

图片

上图展示了在 8 卡中端 GDDR GPU 服务器环境中,batch size = 16、输入长度 10K tokens 条件下,分别在 400Gbps 与 800Gbps 网络带宽配置下的测试数据。可以看到:

  • 在 400Gbps 网络环境下,使用 YRCache 后, TTFT 降低 95%,TPOT 降低 96%,token 吞吐量提升 17 倍。

  • 在 800Gbps 网络环境下,TTFT 降低 97%,TPOT 降低 97%,token 吞吐量提升 22 倍

在高端 HBM GPU 服务器环境下,推理性能同样实现了全面提升。

图片

从上图数据可以看出,在高端 HBM GPU 环境中,当 batch size 为 16、输入长度为 10K tokens 时,集成 YRCache 后,在 200Gbps、400Gbps 与 800Gbps 三种网络带宽配置下,系统性能均实现大幅优化:

图片

此外,可以看到,随着网络能力的增强,推理性能的提升也进一步增强。

不同业务场景:让“复杂任务”变“高效”

在模拟不同上下文长度场景的测试中,随着 Token 长度从 100 增加到 100K,YRCache 实现了全程稳定的性能提升,且随着上下文的增长,YRCache 的性能增益呈放大趋势(如下面两张图所示)。这为企业部署长上下文模型处理复杂长文档分析、代码生成、多轮交互等重负载任务提供了技术底气,无需担忧性能断崖

图片

图片

跨越硬件代差:YRCache 让中低配卡性能接近追平高配卡,推理成本革命性优化

如果说性能提升是意想之中的效果,那么跨越硬件代差、实现结构性成本优化,则是在价格波动与供应紧张的现实背景下,YRCache 为企业提供的更具战略意义的价值支撑。

本次测试结果充分体现了 YRCache 能够给用户带来的核心商业价值:在 YRCache 的加持下,配置较低的中端 GDDR GPU 服务器,其综合推理性能指标接近高端 HBM GPU 服务器

图片

图片

从上图中的数据可以看到,在未使用 YRCache 时,中端 GDDR GPU 相较于高端 HBM GPU 存在明显的性能差距:

  • TTFT:19051ms vs 6992ms,比 高端 HBM GPU 慢了 173%。

  • TPOT:1637ms vs 448ms,比 高端 HBM GPU 慢了 265%。

  • Throughput:4341 vs 14269 tokens/s,吞吐量仅为 高端 HBM GPU 的 30%。

而在使用 YRCache 后,中端 GDDR GPU 和高端 HBM GPU 的性能均实现显著跃升,且两者差距急剧缩小,中端 GDDR GPU 各项性能大幅逼近 高端 HBM GPU:

图片

在大模型推理场景中,硬件采购成本与实际产出吞吐量(Token 吞吐量)是衡量投资回报率(ROI)的关键因素。本次测试数据进一步揭示了不同配置下的 ROI 表现差异。

图片

如上图数据所示,虽然在原生状态下,中端 GDDR GPU 的推理表现并不占优,但在引入 YRCache 优化方案后,其 ROI 呈现出爆发式增长——在 400Gbps 和 800Gbps 网络环境下,分别提升了 11 倍和 14 倍。这意味着在投入相同资金的情况下,采用“中端 GDDR GPU 服务器 + YRCache”方案能够带来远超高端 HBM GPU 原生方案的产出效率,实现了成本效益的显著优化。

这正体现了 YRCache 对企业 AI 成本结构的重构。对用户而言,他们能够:

  • 拥有更多选择,不用盲目追求顶级 GPU,通过部署 YRCache,现有硬件也可释放超强推理性能。

  • 规模化部署时,TCO(总拥有成本)可实现显著优化。

  • 中小企业也能用更低门槛,实现高性能 AI 推理服务。

对于正处于商业化关键期的 AI 企业而言,这不只是性能和成本的优化,更是商业模式的重新定义——当推理成本从"高端卡依赖"转向"存储技术创新",AI 应用的盈亏平衡点将大幅下移,更多创新场景将具备经济可行性。

此外,焱融 YRCache 推理存储系统还支持 PD 分离场景,能够为下一代推理架构的极致优化提供坚实的数据流转基础。

此次参与 ODCC AI 存储实验室首批 KVCache 场景测试的结果,不仅是焱融 YRCache 技术实力的有力印证,也为整个 AI 推理行业指明了 “存储驱动性能、架构优化成本” 的全新路径。

除了面向大规模推理场景的 YRCache 推理存储系统,焱融科技目前已围绕 AI 全流程数据需求,构建起覆盖数据采集、大模型训练、推理加速与数据治理的完整能力体系。依托 YRCloudFile 分布式文件系统、F9000X 全闪存储一体机、YRCache 推理存储系统以及 DataInsight 数据管理平台,焱融打造了系统化的全栈 AI 存储解决方案,实现从数据接入、模型运行到数据管理的全链路支撑。

图片

未来,我们将继续深耕 AI 存储,以数量级性能提升 + 颠覆性成本优化双重能力,助力企业在 AI 爆发时代,以更低成本、更高效率、更优体验,抢占规模化落地先机。

AI时代,产品设计师的工具箱正在经历大换血。以前画个界面得一点点拖拽组件、调间距、对对齐,现在只要动动嘴描述想法,AI就能帮你生成可编辑的设计稿。掌握这些工具的设计师,效率直接翻倍,一个人干过去一个团队的活儿也不稀奇。今天就给大家整理一份我亲测好用的AI设计软件清单,覆盖从原型设计到素材处理的各个环节,希望能帮你省下时间,专心琢磨产品本身。

一、产品设计类:让界面生成像说话一样简单

  1. Uizard
    Uizard在国外很火,最大亮点是门槛极低——哪怕你不会设计,只要会画草图、会打字,就能快速做出可交互原型。它可以把你的手绘草图直接识别成数字化界面,还能根据截图自动生成相似风格的新设计。
    亮点速览
    草图转原型:随手画的纸上草图拍照上传,AI自动识别布局并生成可编辑页面。
    文字生成界面:输入一句话描述,比如“一个新闻App首页”,AI直接生成完整界面。
    风格迁移:给个参考网页或App截图,AI能提取配色、字体,套用到你的设计上。
    实时协作:支持团队在线修改讨论,快速迭代。
    价格:基础版免费,付费版$12/月起
    适合谁:初创团队、产品经理、设计新手,不需要设计基础。
    推荐指数:⭐⭐⭐⭐⭐
    image.png
  2. Framer AI
    Framer AI专注于网页设计,最牛的地方是:你说一句话,它就能生成一个能直接上线的网站。从文案、配图到排版结构全自动搞定,还自带交互动画和响应式布局。
    亮点速览
    AI生成网站:输入“做一个简约的个人作品集网站”,AI自动生成完整页面,包含文字和图片。
    智能排版:自动适配手机、平板、电脑不同屏幕,不用手动调。
    动画自动加:内置动态组件,页面切换、按钮点击的动画效果自动生成。
    一键发布:设计完直接绑定域名上线,省去开发环节。
    价格:基础版免费,专业版$20/月起
    适合谁:需要快速搭建落地页、作品集的设计师或创业者。
    推荐指数:⭐⭐⭐⭐
    image.png

二、设计开发类:让设计稿变成代码

  1. UXbot
    UXbot是一款集原型、设计、开发于一体的产品设计工具。你仅需描述需求,就能获得一整套可编辑、可交互且逻辑连贯的产品设计,以及前端代码,生成的产品可以直在线预览和运行。如果你生成的是安卓端的前端代码,甚至都可以直接安装到手机内测试运行。
    亮点速览
    文字生成产品:输入“做一个待办事项App,能添加任务、标记完成”,AI自动生成完整应用。
    项目级用户旅程设计:通过构建完整的用户流程图, 确保项目全周期的导航逻辑清晰、 衔接流畅。
    实时编辑:界面和逻辑都可以在线利用AI助手和编辑器改,修改后自动同步到运行版本。
    代码生成:将高保真原型转化为Web/iOS/Android前端代码通过云端服务器进行端到端测试。 代码可下载为 Vue 、Swift、Kotlin格式, 可直接添加到开发环境。
    团队协作:通过复制链接的方式,分享你的项目。可为团队成员或相关方,设置 “仅查看” 或 “可导入” 等不同权限。
    价格:免费版可用,个人版79元/月起
    适合谁:设计师、创业者想快速验证产品概念,不需要开发就能看到可运行效果。
    推荐指数:⭐⭐⭐⭐⭐
    image.png
  2. Cursor
    Cursor是基于GPT-5的智能编程编辑器,但它的能力远不止写代码——它能理解设计稿,自动推导出对应的前端组件结构,帮助设计师把想法快速变成可运行代码。
    亮点速览
    AI编程助手:用自然语言描述功能,AI自动生成代码段、修复错误。
    设计协作:可结合设计稿分析,AI自动识别页面组件并生成对应代码结构。
    上下文理解:能记住项目文件和命名规则,补全代码时更智能。
    多人协作:开发团队共享上下文,AI能识别各成员修改意图,减少冲突。
    价格:基础版免费,Pro版$20/月起
    适合谁:懂点代码的设计师,或想打通设计与开发流程的团队。
    推荐指数:⭐⭐⭐⭐
    image.png

三、内容生成类:文案、图片、视频一键搞定

  1. Canva Magic Studio
    Canva内置的AI套件Magic Studio,能让小白也能秒出大片。输入关键词或上传图片,AI自动匹配模板、生成文案、调整排版,做海报、社交媒体图、PPT都不在话下。
    亮点速览
    AI文案生成:根据主题自动生成标题、正文。
    智能模板匹配:上传图片或输入关键词,AI推荐合适的模板和配色。
    一键去背景/修图:图片编辑功能集成AI,操作简单。
    价格:免费版够用
    适合谁:需要快速产出视觉内容的设计师、营销人员、教育工作者。
    推荐指数:⭐⭐⭐⭐
    image.png
  2. Adobe Firefly
    Adobe的亲儿子Firefly,深度集成在PS、AI等专业软件里,让传统设计工作流“AI化”。生成式填充、风格替换、自动上色等功能,能极大提升修图和创作的效率。
    亮点速览
    生成式填充:选中区域输入描述,AI自动生成内容填补,比如在照片上加个物体。
    风格参考:上传一张图,AI能提取风格并应用到新设计。
    品牌一致性:在不同项目中自动保持配色、字体统一。
    价格:部分功能免费,高级功能需订阅Creative Cloud
    适合谁:专业设计师,希望用AI加速Photoshop等工作流程。
    推荐指数:⭐⭐⭐⭐⭐
    image.png

四、素材处理类:找图、配色、抠图不再头秃

  1. Lummi AI
    Lummi AI是个智能素材生成器,输入提示词就能生成高清图片或视频素材,所有素材可商用。它还支持根据品牌色一键调整素材风格,保持视觉统一。
    亮点速览
    AI生成素材:输入“夕阳下的海滩”,生成高质量图片。
    可商用素材库:海量免版权图片、视频,直接用于商业设计。
    风格统一:上传品牌色,AI自动调整素材氛围。
    价格:免费
    适合谁:设计师快速获取高质量图片素材,避免版权风险。
    推荐指数:⭐⭐⭐⭐
    image.png
  2. PNG Maker AI
    PNG Maker AI专注于AI抠图和透明图生成,上传图片自动识别主体,一键生成高清PNG。还支持批量处理、图像修复,对电商、产品展示场景特别实用。
    亮点速览
    AI智能抠图:自动识别主体与背景,生成透明PNG。
    图像修复:自动修复边缘、填充缺失区域。
    批量处理:一次上传多张图,AI批量输出成品。
    价格:免费版可用,付费版$9/月起
    适合谁:电商设计师、UI设计师,需要快速处理产品图、图标素材。
    推荐指数:⭐⭐⭐⭐⭐
    image.png

最后想说的话
AI不会取代设计师,但会用AI的设计师一定会取代不会用的。未来的“超级设计师”,不是一个人干所有活,而是懂得借力AI,把精力放在创意和产品逻辑上。如果你也想跟上这波浪潮,不妨从今天介绍的这些工具里挑一个试试,慢慢搭建属于自己的智能工作流。工具永远在变,但思考的能力和创造力,才是你真正不可替代的地方。

近日,“特朗普下令白宫全面封杀 Claude”引发广泛关注。尽管这一事件带有明显的政策与地缘色彩,但真正值得我们深入探讨的,是背后的技术主体——Claude 本身。作为当前人工智能领域的前沿代表,Claude 不仅在架构设计、能力表现上独具特色,更在安全对齐、可控部署等方面树立了新的技术标杆。本文将从纯技术角度,系统解析 Claude 的核心特性与工程实践,帮助读者理解其为何成为全球 AI 发展的重要参照。

一、Claude 是什么?技术定位与演进路径

Claude 是由美国 AI 公司 Anthropic 开发的一系列大型语言模型(Large Language Model, LLM),其目标是构建更安全、更可靠、更具价值观对齐性的通用人工智能系统。与单纯追求参数规模的模型不同,Claude 的技术路线更强调“行为可控”与“价值一致”。

目前,Claude 已迭代至第三代(Claude 3),包含 Haiku、Sonnet 和 Opus 三个版本,分别面向效率、平衡与高性能场景,满足从边缘设备到数据中心的多样化部署需求。

二、核心技术架构

1. 基础架构:优化的 Transformer 解码器

Claude 基于标准的 Transformer 解码器架构,但在多个关键模块进行了工程优化:

  • 超长上下文支持:支持高达 200,000 tokens 的上下文窗口,远超 GPT-4 的 32K–128K,使其能够处理整本技术手册、长篇法律合同或多轮复杂对话历史。
  • 位置编码机制:采用改进的旋转位置嵌入(Rotary Position Embedding, RoPE)与相对位置编码结合方式,增强模型对长序列结构的理解能力。
  • 稀疏注意力机制:在保持全局感知的同时,降低计算复杂度,提升推理效率。

2. 训练范式:宪法式 AI(Constitutional AI)

这是 Claude 最具创新性的技术突破。传统模型依赖人类反馈强化学习(RLHF)进行对齐,而 Claude 引入了“自我改进+规则引导”的双重机制:

  • 规则预设:定义一组“宪法原则”(如“不得生成违法内容”“必须尊重事实”),作为模型行为的底线。
  • AI 自我评估:模型在训练中自动评估输出是否符合规则,并进行修正,减少对外部人工标注的依赖。
  • 迭代强化:通过多轮自我反馈循环,逐步提升输出质量与合规性。

该方法显著提升了模型的一致性、可解释性与安全性,同时降低了训练成本。

3. 安全与可控性设计

  • 内置内容过滤层:集成多层级敏感词识别、语义检测与异常行为拦截机制,主动阻止有害输出。
  • 输出约束接口:支持通过提示词或 API 参数控制生成风格、语气、格式与合规等级。
  • 审计追踪能力:提供结构化日志与推理路径记录,便于企业级部署中的合规审查与责任追溯。

三、能力表现与技术边界

1. 自然语言理解与生成

  • 在 MMLU(多任务语言理解)、TruthfulQA(事实准确性)等基准测试中,Claude 3 Opus 表现优于 GPT-4。
  • 在复杂推理、法律文本分析、技术文档撰写等专业场景中展现出强大能力。
  • 上下文保持能力强,多轮对话中信息遗忘率低,适合长期交互任务。

2. 编程与数学能力

  • 支持 Python、JavaScript、SQL 等主流语言的代码生成与调试。
  • 在 HumanEval 基准测试中通过率超过 70%,接近 GPT-4 水平。
  • 数学推理能力覆盖本科级别微积分、线性代数与概率统计,但在形式化证明与抽象代数方面仍存在局限。

3. 多模态能力(Claude 3 起)

  • 支持图像输入,可解析图表、流程图、手写笔记等视觉信息。
  • 采用联合嵌入(Joint Embedding)架构,实现图文语义对齐,支持跨模态推理。
  • 当前仅支持“理解”而非“生成”图像,功能聚焦于分析与解释。

四、部署与集成方式

1. 接入方式

  • API 接口:提供标准化 RESTful API,支持 JSON 格式交互,易于集成至现有系统。
  • SDK 支持:提供 Python、Node.js、Java 等主流语言客户端,简化开发流程。
  • 流式输出(Streaming):支持实时逐字输出,提升用户体验。

2. 性能表现

  • 简单请求响应时间 <500ms,复杂推理任务约 1.5~3s。
  • 支持批量处理与异步队列,适用于高并发企业场景。

3. 可扩展性

  • 提供有限的微调接口(Fine-tuning API),支持领域适配。
  • 支持与外部工具链集成,如数据库查询、搜索引擎调用等。

五、技术启示与替代路径

尽管 Claude 在技术上处于领先地位,但其服务受限于美国出口管制与地缘政策,部分国家和地区的企业面临访问障碍。在此背景下,构建本地化、自主可控的 AI 基础设施成为现实需求。

例如,润云智算的 SmoothCloud 平台支持国产芯片与主流大模型的一站式部署,提供从算力调度、模型训练到服务发布的全链路能力,助力企业实现安全、合规、高效的 AI 应用落地,是当前环境下值得考虑的技术补充方案。

六、结语

“特朗普封杀 Claude”或许是一场政治事件,但其背后折射出的是 AI 技术已进入高影响力、高风险、高监管的新阶段。无论政策如何变化,技术本身始终是核心驱动力。

Claude 的价值,不仅在于它的强大能力,更在于它为行业提供了“如何让 AI 更安全、更可信”的技术范式。未来,随着模型能力的持续演进与治理机制的不断完善,我们终将走向一个技术与责任并重的智能时代。

作者:Smoothcloud润云

说几个槽点:

  1. 男主角的演技还是差点意思,用力过度;
  2. 男主角的配音很奇怪,有时候对不上口型,其他演员没发现这个问题;
  3. 剧情很莫名其妙,不知道是不是被剪辑了,肉眼可见的很多情节硬伤,甚至逻辑漏洞;
  4. 感觉男主想演出《团长》里面龙文章和孟烦了的感觉,经常穿插一些金句,但是气质、台词和演技都撑不起来;

当然也有优点:

  1. 尹正演技在线,难怪网上的切片基本都是尹正的片段;
  2. 个别桥段单拎出来是有意思的,所以适合切片或者短剧化;

整体看下来,感觉是一个不错的想法,拍好了会很棒,可惜了

最近 OpenClaw 比较火,组内强制要求搞;再加上公司自研的 IEDA 插件强制要求接入使用。刚才通过 AI 工作的时候突然想到领导上周五还说过不要因为有了 AI 焦虑,“其实我一点也不焦虑,因为有了 AI 才拉近了我和大神的距离”😅

如果你问一家半导体材料企业的老板,经营中最让他头疼的是什么?答案往往不是技术研发,而是客户管理

这个行业的客户管理有多难?认证周期动辄一年半载,客户是台积电、中芯国际这样的巨头,你既没议价权又不敢得罪,技术支持和售后服务稍有懈怠就可能前功尽弃......在“国产替代”的浪潮下,无数材料企业手握好产品,却在客户管理的泥潭里寸步难行。

痛点我们都懂,但解法在哪?当传统CRM沦为“通讯录”,融合AI技术的智能CRM正在悄然改变游戏规则。今天,我们就以珍客AI CRM为例,看看AI CRM如何像手术刀一样,精准切除半导体材料企业的客户管理病灶。

第一刀:告别“脸盲”,AI帮你把客户看透

痛点回顾: 客户信息散落在销售微信、Excel表格、出差报告里。面对一个大客户,你知道他买过什么,却不知道他的技术偏好、决策链结构、甚至他正被哪个竞品“虎视眈眈”。

AI CRM的解药:360°全景客户画像

真正的客户洞察,不是把名片电子化,而是将碎片拼成蓝图。珍客AI CRM能够自动整合客户的工商信息、采购历史、技术需求文档、售后服务记录,甚至销售与客户的每一封邮件往来,最终生成一个动态的客户360°视图

更关键的是 “联系人关系图谱” 。它能可视化呈现客户内部错综复杂的决策链——谁是技术拍板人?谁是采购执行者?谁和谁存在汇报关系?让你每一次拜访都能精准命中关键人物,不再“烧香拜错佛”。

珍客CRM 客户360度全景视图

第二刀:缩短“马拉松”,把认证周期跑成“百米冲刺”

痛点回顾: 漫长的验证周期不仅是技术考验,更是对客户耐心的消耗。销售、技术、品保部门来回传话,一个参数确认可能拖上一周。

AI CRM的解药:智能协同与BOM管理

珍客AI CRM中,销售接到客户需求后,不再是满公司找人。系统内置的智能CPQ(配置-定价-报价)功能,允许预设产品BOM清单模板。销售只需输入客户的技术参数,系统就能自动核算成本、匹配历史报价,3分钟内生成一份精准的报价单和技术规格书。

当客户进入样品测试阶段,系统会自动打通“需求-研发”通道。销售提交的客户需求,能直接转化为研发部门的任务工单,整个过程透明可视,避免信息断层导致的进度延误。

第三刀:让技术专家“分身有术”,响应速度提升300%

痛点回顾: 客户的技术咨询往往涉及深度的参数匹配和问题排查,离开FAE(现场应用工程师),销售寸步难行。但FAE资源有限,陷入四处“救火”的困境。

AI CRM的解药:AI技术知识库与智能诊断

珍客AI CRM支持搭建企业专属的技术知识库,将产品参数、历史定制化案例、常见故障排查手册全部结构化沉淀。

当客户抛出一个技术问题时,销售或客服在系统中输入关键词,AI销售助手就能瞬间从知识库中调取最接近的解决方案或产品推荐。对于复杂问题,系统能自动理解客户需求文档,并匹配最擅长该领域的技术专家,同时把客户的全部合作历史和故障背景同步给专家,让专家无需重新“补课”,直接进入解决状态。

珍客CRM AI智能服务管理

第四刀:供应链的“天气预报”,让交付不再提心吊胆

痛点回顾: 晶圆厂不能停线,对交付时效是“零容忍”。一旦原材料短缺或物流延误,可能面临巨额索赔。而传统的产销协同,基本靠“吼”。

AI CRM的解药:需求预测与交期预警

珍客AI CRM通过整合历史订单数据、市场趋势和客户的实时动态,利用AI算法生成精准的需求预测。

生产部门可以据此提前备料、规划产能,避免“急单来了做不出,做出来了没人要”的尴尬。同时,系统能实时监控订单生产进度和物流状态,一旦检测到可能延误的风险(如物料短缺、产能瓶颈),会自动触发预警,并推荐备选方案(如外协生产),将订单延期风险降到最低。

第五刀:从“救火队”到“守护者”,售后也能创造价值

痛点回顾: 客诉处理不仅成本高,而且容易陷入“扯皮”。问题出在材料还是客户使用参数?归责不清往往伤害客户关系。

AI CRM的解药:智能售后诊断与全流程留痕

当客户反馈问题时,珍客AI CRM的智能售后系统可以发挥作用。客户提交故障代码或描述现象后,AI基于海量历史案例库,自动生成初步诊断结果和解决建议,甚至能远程指导客户完成简单的参数调整,解决80%以上的常规问题

对于重大问题,系统会启动ITR(问题到解决)流程,从工单分配、任务执行到解决方案确认,全程透明留痕。这不仅让客诉处理效率倍增,也为日后可能的责任界定提供了清晰的“数字黑匣子”。

第六刀:握住“流失预警”,留住那些“沉默的大客户”

痛点回顾: 大客户的流失往往悄无声息。等你发现时,竞品可能已经完成了产线验证。

AI CRM的解药:客户健康度与流失预警

珍客AI CRM客户健康度分析功能,会实时监测客户的各项指标:沟通频次是否下降?项目进展是否停滞?售后工单是否突然增多?售后服务评价是否下滑?

一旦系统检测到异常,会自动生成预警并推送至销售负责人,提醒团队及时介入。这种从“被动反应”到“主动预防”的转变,是守住高价值客户资产的关键防线。
珍客CRM 客户风险检测


半导体材料行业的竞争,早已从“产品技术竞争”升级为“客户价值管理与全链路协同能力竞争”。

传统管理模式难以突破的瓶颈,正在被AI CRM逐一破解。以珍客AI CRM为代表的智能工具,不仅打通了“销售-技术-生产-售后”的数据孤岛,更用AI能力实现了从“被动记录”到“主动预判”的质变。

对于正处国产替代窗口期的材料企业而言,选择拥抱AI CRM,不只是引入一套软件,更是为自己装上了一台能够精准导航客户全生命周期、驱动可持续增长的核心引擎。在这个“芯”时代,谁能管好客户,谁才能真正破局。

衰退期 (27 岁)

差不多疫情之后,能力急剧下降,勃起难,一换姿势容易软 。

这个时期就是能做,但是尽量别换姿势。

恢复期 ( 29 岁)

体检发现肌酐上升(肾衰竭重要指标),尿酸上升,医生给我开了一些药,把尿酸降下去了 肌酐也下去了。

后面改变作息,饮食,每周游泳两次(29 才学会)。

这个时期换姿势什么的,就不容易软了。

增强期 (30 岁)

开始去健身房做力量训练,更干净的饮食和足量的蛋白质。

这个时期就是随心所欲了,感觉回到了 22 岁的状态,甚至还要好。

期间我怀疑过很多东西,刺激太多,心态不行(很难心态好...),压力太大,暗病。

但是开始运动起来之后,我就知道了,就是运动少了。

Moonshot AI 的又一力作。Kimi K2.5 是一款视觉智能体模型,在 OpenRouter热门模型榜单上名列前茅​,且在多项基准测试中​超越闭源模型​,充分展现了研究层面的突破。从架构、训练和实现的角度来看,这款模型值得深入探索。

在之前关于 Kimi K2 的文章中,我们深入探讨了这款模型,特别关注了其后训练阶段的相关内容。我们还分析过 Kimi 团队推出的线性注意力架构——Kimi Linear。除了这些亮眼的发布外,Moonshot AI 还​发布了大量高密度的技术报告​。阅读本文时,请务必参考 Kimi-K2.5 技术报告

Kimi K2.5 的发布包含了后训练阶段的检查点,并采用修改后的 MIT 许可证开源使用。

本文的目标是​突出我们认为最值得关注的内容​,即 Kimi K2 团队究竟采取了哪些措施来实现如此出色的性能。同时,我们还将展示如何在 DigitalOcean GPU Droplet 云服务器上运行这个模型。

model-comparison

本文核心要点

  • Kimi K2.5 与 Kimi K2 相同,采用 MoE 架构,总参数 1 万亿,活跃参数 320 亿。之所以命名为 K2.5 而非 K3,是因为​Kimi K2.5 建立在 K2 的基础上​,进行了大规模联合预训练,模型在 15 万亿视觉和文本 Token 上进行了训练。
  • Kimi K2 与 K2.5 的主要区别在于,K2.5 更加注重联合视觉训练——特别是预训练和后训练的强化学习阶段。而监督微调则仅使用文本数据。
  • 该模型采用修改后的 MIT 许可证开源,包含后训练检查点。模型提供三种模式:即时模式、思考模式和智能体模式。
  • 引入了​Agent Swarm(智能体集群)​和​PARL(并行智能体强化学习)​,用于解决单一智能体在处理复杂场景时能力有限的问题。
  • Toggle 启发式方法通过交替使用推理时扩展和预算约束优化,实现了 Token 高效的强化学习。
  • ​解耦编码器流程(DEP)​解决了处理不同尺寸视觉数据(如图像和视频)时出现的负载不均衡和内存波动问题。
  • 对于更复杂的任务,Kimi K2.5 可以自指挥多达 100 个子智能体组成的集群,支持并行执行最多 1,500 次工具调用。子智能体各有专长(如 AI 研究员、物理研究员、事实核查员)。

模型概览

规格说明
架构​:Transformer,混合专家(MoE)混合专家(MoE)架构允许在降低计算成本的同时实现更大的模型规模和更高的质量。它使用稀疏的前馈神经网络层(​专家​)和门控网络(​路由器​),将 Token 有选择地路由到 Top-k 专家,为每个 Token 仅激活部分参数。这种方法使得构建更大规模的模型成为可能,而无需按比例增加计算成本。
参数​:总参数 1 万亿,活跃参数 320 亿由于 K2 是 MoE 架构,因此有总参数和活跃参数之分。总参数是指整个模型中所有参数的总和,包括所有专家网络、路由器/门控网络和共享组件,无论推理时使用哪些专家。活跃参数则仅计算特定输入所使用的参数子集——通常是激活的专家加上共享组件。
注意力机制​:MLA(多头潜在注意力)MLA 由 DeepSeek V2(第 2.1 节)引入,是一种用于提升推理效率的注意力机制。MLA 通过将注意力输入压缩到低维潜在向量中工作,之后可以通过恢复键值来计算。由于 K2 使用了 MLA,QK-Norm——一种通常应用于查询-键矩阵的归一化技术——不适用于扩展 Muon 训练,因为 MLA 中的键矩阵在推理时并未完全具体化。因此,K2 研究人员引入了 QK-Clip,这是一种权重剪枝机制,用于约束大规模 Muon 优化训练中出现的注意力 Logit。
优化器​:MuonClipMuon 虽然是一种 Token 高效的优化器,但需要针对大规模训练进行修改。Kimi K2 技术报告第 2.1 节引入的​MuonClip 优化器​,是将 Muon 与权重衰减、一致的 RMS 匹配和 QK-Clip 相结合的产物。
专家数量​:384;每 Token 选择专家数:8;共享专家数:1有关专家数量如何影响稀疏性的更多细节,请参阅 Kimi K2 相关博客的稀疏性部分。
层数​:61(包括 1 个 Dense 层)这里的"层数"指的是模型中 Transformer 块的数量。每一层处理和精炼输入数据,使模型能够学习越来越抽象的表示。Dense 层是全连接层。
注意力头数​:64;注意力隐藏维度:7168注意力头允许模型同时关注输入的不同部分。每个头学习捕捉数据中不同类型的关系。
MoE 隐藏维度(每个专家)​:2048每个单独专家处理 2048 维的表示。
激活函数​:SwiGLU这不足为奇。SwiGLU 是现代大语言模型的标准选择。例如:gpt-oss
视觉编码器​:MoonViT-3D(4 亿参数)这是 Kimi K2 的新特性。如果你熟悉 Kimi-VL,你可能认得 MoonViT。Kimi K2 使用的是​MoonViT-3D​,这是对 SigLIP 在图像-文本对和视频-文本对上进行持续预训练的结果。连续的四帧被分组处理,通过共享的 MoonViT 编码器,然后在 patch 级别进行时间平均——这种设计使 K2.5 能够在相同上下文窗口内处理 4 倍长度的视频。

本文探讨三个相互关联的主题:

  • 视觉-语言融合​:通过联合优化技术,让文本和视觉模态相互增强。预训练和强化学习阶段都是多模态的。
  • 可扩展并行​:通过 Agent Swarm 实现,支持专业智能体并发执行异构子任务。
  • 强化学习​​:该模型在多个方面采用了强化学习,本文将详细展开:

    • 联合多模态强化学习
    • 基于结果的视觉强化学习
    • PARL(并行智能体强化学习)
  • 推理优化​:使研究人员能够在提升任务性能的同时,实现高达 4.5 倍的延迟降低。由于并行化带来的推理改进,Kimi K2.5 能够在相同上下文窗口内处理 4 倍长度的视频,同时保持图像和视频编码器之间的完整权重共享。

tabl2

表中结果表明,视觉强化学习在需要复杂推理和知识整合的任务中具有优势,在测试事实理解和长上下文理解的各种基准测试中表现出一致的性能提升。

Agent Swarm(智能体集群)

Agent Swarm

使用智能体集群可以实现:

  • 动态任务分解
  • 子智能体实例化
  • 并行子任务调度

在 Kimi 网站上,你实际上可以体验 K2.5 的 Agent Swarm

K2.5 技术报告第 5.2 节详细说明了这一设计如何转化为性能提升。三个基准测试评估了智能体集群框架:BrowseComp 用于浏览难以找到的信息和深度推理,WideSearch 用于大规模检索,以及一个内部开发的 Swarm Bench 用于测试真实世界的复杂性。内部基准测试涵盖四个领域的编排、可扩展性和协调能力。有趣的是,可以看到对以下能力的大规模重视:信息收集、下载、解读和写作。

内部 Swarm Bench 任务说明
WildSearch无限制地从整个互联网收集信息,不受任何限制
Batch Download大规模收集各种类型的文件和资料
WideRead处理和理解 100 多份文档的大量文本
Long-Form Writing创建超过 100,000 字的精心结构化的长篇内容

PARL(并行智能体强化学习)

在 K2.5 中,并行智能体强化学习(PARL)意味着与并行化相关的决策是通过环境反馈强化学习驱动的探索来学习的。其工作方式是:K2.5 有一个可训练的编排智能体。强化学习框架通过训练小规模子智能体并动态调整推理实例比例来提高效率。

研究人员观察到一个常见的失败模式是​串行崩塌​,即编排智能体尽管有并行能力可用,却默认选择单智能体执行。为了解决这个问题,PARL 使用分阶段奖励,在训练早期鼓励并行化,并逐渐将重点转向任务成功。

后训练

监督微调

你可能会好奇为什么这个阶段只使用文本。研究人员发现,在 SFT 中添加人工设计的视觉轨迹会对泛化产生负面影响。另一方面,仅使用文本的 SFT 具有更高的性能,研究人员推测这是因为​联合预训练建立了促进泛化的视觉-文本对齐​。

合成数据生成管道从 K2、K2 Thinking 以及一系列专有内部专家模型生成高质量的候选文本响应。我们对这些内部模型非常好奇。最终的指令微调数据集包含多样化的提示,并优先训练模型的推理和工具调用能力。

强化学习

这里采用的方法与传统方法不同,因为强化学习的领域不是按输入模态(如图像、文本)组织的,而是按能力(如知识、推理、编码、智能体等)组织的。

统一智能体强化学习环境

agenticframework

为了最小化定制和实现环境的相关开销,有一个标准化的类 Gym 接口,具有可插拔的组件(如工具集、评判器、提示和指令增强)。

模块目的
工具集用沙箱支持各种工具
评判器多方面奖励信号
提示多样化和指令遵循增强提示多样化并改进指令遵循

性能

Kimi K2.5 技术报告第 5 节详细介绍了模型的性能。K2.5 在以下领域表现出色:

  • 推理和通用能力
  • 复杂编码和软件工程
  • 智能体能力
  • 视觉、推理知识和感知
  • 视频理解
  • 计算机使用能力

在 DigitalOcean 上运行 K2.5

运行不同版本 Kimi K2.5 有多种方式:vllm、sglang、unsloth。注意内存需求:1 万亿参数的混合推理模型需要 600GB 磁盘空间,而量化的 Unsloth Dynamic 1.8-bit 版本将其减少到 240GB(-60%):Kimi-K2.5-GGUF

首先设置一个 DigitalOcean GPU Droplet,然后通过 SSH 登录到你的 Droplet。注意你需要多少 GPU。

vLLM 实现

我们遵循 vLLM 的使用指南

uv pip install -U vllm \
    --torch-backend=auto \
    --extra-index-url https://wheels.vllm.ai/nightly

我们设置-tp 为 1,将模型的各层和数学操作"分片"到 1 个 GPU 上。注意原始文档中-tp 8 表示使用 8 路张量并行将模型分布到 8 个 GPU 上。

vllm serve $MODEL_PATH -tp 1 --mm-encoder-tp-mode data --trust-remote-code --tool-call-parser kimi_k2 --reasoning-parser kimi_k2

Sglang 实现

这里我们遵循 Kimi-K2.5 部署指南中的 sglang 实现

pip install "sglang @ git+https://github.com/sgl-project/sglang.git#subdirectory=python"
pip install nvidia-cudnn-cu12==9.16.0.29
sglang serve --model-path $MODEL_PATH --tp 8 --trust-remote-code --tool-call-parser kimi_k2 --reasoning-parser kimi_k2

关键参数说明:

  • --tool-call-parser kimi\_k2:启用工具使用时必需。
  • --reasoning-parser kimi\_k2:正确处理推理内容时必需。

常见问题

为什么模型叫 K2.5 而不是 K3?

K2.5 直接建立在 K2 的基础上,通过在 15 万亿视觉和文本 Token 上进行大规模联合预训练进行扩展。因为核心架构(MoE、参数数量、MuonClip 优化器)保持不变,团队将其定位为 K2 的演进,而不是全新的一代。

为什么早期视觉融合以较低的视觉比例优于激进的晚期视觉注入?

论文的消融实验(表 1)表明,以适度比例(10:90 的视觉-文本)早期引入视觉数据,始终优于高比例(50:50)的晚期融合。晚期融合会导致"下降-恢复"模式,文本性能最初会因模态域转换而下降。早期融合避免了这种干扰,允许两种模态从一开始就共同发展统一表示。

为什么视觉强化学习能提升文本性能?

论文发现,基于结果的视觉强化学习提升了 MMLU-Pro、GPQA-Diamond 和 LongBench v2 的分数。可能的解释是,涉及计数、OCR 和结构化提取的视觉任务会校准并减少类似文本推理模式中的不确定性。

如果 K2.5 是多模态模型,为什么 SFT 只使用文本?

发现在 SFT 阶段添加人工设计的视觉轨迹会损害泛化。联合预训练阶段已经建立了强大的视觉-文本对齐,因此仅使用文本的 SFT 足以激活视觉推理,而不会过度拟合低多样性的视觉演示的风险。这就是论文所说的"零视觉 SFT"。

Toggle 如何防止模型在追求 Token 效率的同时牺牲推理质量?

Toggle 每 m 个训练迭代在两个阶段之间交替:一个奖励简洁推理的预算约束阶段,以及一个允许完全 Token 使用的标准扩展阶段。这防止了"长度过度拟合",即在严格预算下训练的模型在更难的问题上无法有效利用额外计算。平均而言,Toggle 将输出 Token 减少 25-30%,而性能损失可以忽略不计。

Agent Swarm 与简单地并行调用工具有何不同?

Agent Swarm 不是静态并行——编排智能体通过 PARL 学习何时以及如何并行化。编排智能体动态分解任务、实例化专业子智能体,并并发调度它们。关键的是,子智能体保持独立的工作内存,只向编排智能体返回与任务相关的输出,这是一种主动的上下文管理,而不是被动的截断。

为什么在 PARL 训练期间子智能体被冻结?

同时训练编排智能体和子智能体会产生信用分配模糊性——正确的最终答案并不意味着每个子智能体都表现良好,反之亦然。通过冻结子智能体并将其输出视为环境观察,团队可以稳定地只训练编排智能体,将高级编排与低级执行解耦。

什么是"串行崩塌",如何解决?

串行崩塌是指编排智能体尽管有并行能力可用,却默认选择单智能体执行——本质上是选择阻力最小的路径。PARL 奖励包括一个实例化奖励(rparallel),明确鼓励在训练早期生成子智能体。然后这个辅助奖励逐渐衰减为零,使模型最终纯粹优化任务成功,而不是为并行化本身进行优化。

超参数衰减为零是什么意思?(参见第 3 节关于 PARL 奖励的部分)

parl

在 Kimi K2.5 的 Agent Swarm 训练中,超参数衰减为零意味着在强化学习过程中逐渐降低辅助奖励的权重。

  • 初始阶段​:权重 λ1 和 λ2 设置为大于零,提供"训练轮"鼓励模型探索并行执行(rparallel)并确保子任务实际完成(rfinish)。
  • 过渡阶段​:这些值随时间降低,防止模型"奖励黑客"或优先考虑并发而非质量。
  • 最终阶段​:权重达到零后,模型纯粹优化主要目标:成功解决任务(rperf)。

什么是虚假并行,如何防止?(参见第 3 节关于 PARL 奖励的部分)

虚假并行是一种"奖励黑客"行为,编排智能体生成大量子智能体而没有有意义的任务分解,只是为了夸大并行化指标。

通过以下方式防止:

  • rfinish 奖励,激励成功完成分配给子智能体的子任务,确保分解是可行和有效的。
  • 关键步骤指标,衡量最长执行路径而非总步骤,使创建不会减少延迟的过度子任务变得无用。
  • 超参数衰减,逐渐将并行化的辅助奖励降至零,使模型最终优先考虑主要任务结果。

运行 K2.5 需要多少 GPU 内存?

完整的 1 万亿参数模型需要约 600GB 磁盘空间。量化的 Unsloth Dynamic 1.8-bit GGUF 版本将其减少到约 240GB。对于通过 vLLM 或 SGLang 的全精度部署,需要使用张量并行分布在多个 GPU 上(文档建议-tp 8 进行 8 路分布)。所以理论上讲,有两个方案可行。

方案一:单卡运行量化版本

  • 推荐 GPU​:NVIDIA B300(288GB 显存)
  • 理由:单卡 288GB > 240GB 需求,可以直接运行量化版本,性价比最高

方案二:多卡运行全精度版本

  • 推荐 GPU​:8×H200 或 8×B300
  • 理由:8 卡并行可以承载完整的 1 万亿参数模型
  • B200×8 也可以,但 B300 带宽更高

目前 NVIDIA B300 GPU 云服务器即将在 DigitalOcean 云平台上线,现在可以咨询 DigitalOcean 中国区战略合作伙伴卓普云(aidroplet.com)进行预约提前测试,锁定 B300 资源。

什么是解耦编码器流程(DEP),为什么对训练效率很重要?

在标准管道并行中,视觉编码器与文本嵌入一起位于 Stage-0,导致严重的负载不均衡,因为图像的分辨率和数量差异很大。DEP 将视觉前向传播、主干训练和视觉重计算分为每个训练步骤的三个不同阶段。这实现了负载均衡,无需自定义管道配置,尽管增加了多模态复杂性,K2.5 仍达到了 90% 的纯文本训练效率。

最终思考

最让我们印象深刻的是 Moonshot AI 团队系统性地处理这个问题的方式:联合多模态预训练在强化学习之前建立强大的视觉-文本基础,仅使用文本的 SFT 保持泛化,以及按能力而非模态组织的强化学习。每个决定都反映了关于模型需要学习什么以及何时学习的深思熟虑。PARL 可以说是最具前瞻性的贡献。并行化行为应该学习而非硬编码,串行崩塌是一个需要分阶段奖励塑造的真正失败模式——这些见解表明团队正在认真思考规模化时智能体的可靠性问题。Toggle 启发式方法同样显示了 sophistication:与其将推理时扩展和预算优化视为竞争目标,不如在两者之间交替。

对于从业者来说,一个 1 万亿参数的 MoE 模型,活跃参数 320 亿,​采用修改后的 MIT 许可证开源​,可以通过 vLLM 或 SGLang 部署,是真正可访问的。unsloth 提供的量化 GGUF 变体进一步降低了门槛。无论你是在探索多模态推理管道,还是在构建需要编排并行工作流的智能体,K2.5 都值得认真评估。

Moonshot AI 团队继续发布强大的开源模型和详尽的技术报告,造福更广泛的开发者和研究社区。我们期待报道这个团队以及社区中拥有优秀技术报告和令人印象深刻使用量的其他开源模型的更多发布。

参考资料和更多资源

Kimi K2.5 技术博客:视觉智能体智能
Kimi K2.5 论文
Unsloth Kimi-K2.5 实现
Kimi K2.5 部署指南

感谢与 DigitalOcean 社区一起学习。了解我们计算、存储、网络和托管数据库的产品,可访问卓普云官网 aidroplet.com 或 DigitalOcean 英文官网。

最近看到很多数据中台项目烂尾的资讯,作为一个在数据集成领域摸爬滚打多年的技术老兵,我想从工程师的视角聊聊这个问题。

一、数据中台的"烂尾率"为什么这么高?

根据公开数据,企业级数据中台项目的失败率高达60%以上。这些项目动辄几百万、上千万的投入,最终却沦为"PPT工程"。我见过太多这样的案例:

  • 某零售企业花了800万建数据中台,上线后发现数据对不上;
  • 某金融公司搭建的中台,数据质量差到业务部门宁愿用Excel;
  • 某制造业客户的中台项目,ETL脚本写了上千个,维护成本高到无法承受;

核心问题:很多企业把数据中台当成"面子工程",直接跳过了最基础的ETL数据集成环节,想一步到位做数据治理、数据服务、数据资产。结果呢?垃圾进,垃圾出。

二、跳过ETL的三大致命后果

1. 数据质量失控

源系统数据格式不一、质量参差不齐,直接接入中台会导致"垃圾进垃圾出"。我曾见过一个项目,客户直接把ERP、CRM、OA的数据"原样接入"数据湖,结果:

  • 同一个客户在三个系统里有三个不同的名称;
  • 日期格式五花八门:YYYY-MM-DD、DD/MM/YYYY、时间戳混用;
  • 金额字段有的带货币符号,有的是纯数字,有的用逗号分隔千位;

没有ETL层面的数据清洗和标准化,后面的所有分析都是建立在沙滩上的城堡。

2. 数据标准缺失

ETL不仅是技术工具,更是建立数据标准的最佳时机。在数据抽取、转换的过程中,你需要:

  • 定义统一的字段命名规范;
  • 建立数据字典和元数据管理;
  • 制定数据质量规则和校验逻辑;

跳过这一步,数据中台就成了"数据垃圾场"——数据有了,但没人知道怎么用。

3. 性能和成本双失控

没有经过ETL优化的数据,直接进入数仓或数据湖,会导致存储和计算成本暴涨。一个典型案例:

某互联网公司每天产生10TB原始日志,未经ETL处理直接存入数据湖。半年后发现:

  • 存储成本翻了3倍(大量重复、无效数据);
  • 查询性能下降80%(缺乏分区和索引优化);
  • 计算资源浪费严重(每次查询都要处理全量数据);

image.png

三、ETL选型:Kettle、DataX还是国产化工具?

作为技术负责人,选型时需要综合考虑多个维度。我从实战经验出发,做一个客观对比:

8a7c12dd-95b0-4cc6-8255-3910224c047e.png

四、ETL不只是工具,是数据治理的起点

很多人把ETL理解为"搬运数据"的技术工具,这个认知是片面的。在我的架构实践中,ETL承担着更重要的角色:

1. 数据质量的"第一道防线"

在ETL阶段构建数据质量的守护长城,其核心要义在于将校验、净化与冗余剔除前置化。相较于数仓层的补救性处理,这种"源头治理"模式以更低的资源损耗实现更优效能。

2. 数据标准的"制定者"

ETL管道本质上是企业数据语言的编纂工坊。字段映射如同语法规范,转换逻辑恰似语义重构,聚合规则犹如句法组织——这些精密编纂的脚本代码,实则是将抽象的数据标准转化为可执行的范式体系。

3. 数据血缘的"源头"

现代ETL/ELT平台通过系统化捕获端到端数据谱系,能够精准定位数据资产的初始来源及全生命周期流转路径。这种能力不仅强化了数据治理框架下的透明度与可追溯性,更为监管审计提供了完整的合规性证据链,显著提升数据资产在业务决策与风险管控中的可信度。

image.png

五、给技术负责人的三点建议

第一,不要被"中台"概念绑架。数据中台是结果,不是起点。先做好数据集成,再谈数据中台。

第二,选型时关注"可持续性"。开源工具虽然免费,但维护成本往往被低估。要算总账,不算小账。

第三,给ETL足够的重视和资源。在数据中台项目中,ETL阶段的投入应该占总预算的30%-40%,这个钱省不得。

六、ETLCloud:让数据集成不再成为瓶颈

说到这里,不得不提一下ETLCloud。作为国产ETL工具的代表,它在以下几个方面值得关注:

  • 社区免费版功能完整:离线ETL/ELT、CDC实时集成、编排调度、数据服务API,该有的都有
  • 零代码操作:可视化拖拽设计,不需要写Python或Java
  • 国产化适配:支持达梦、人大金仓、华为高斯等国产数据库
  • 性能优化:基于内存计算,支持分布式集群部署

更重要的是,ETLCloud提供了完整的数据治理能力,包括元数据管理、数据血缘、质量监控等,真正做到"不仅仅是搬运数据"。