包含关键字 typecho 的文章

在跨境电商、社媒营销、数据采集等业务中,越来越多的用户开始使用代理IP管理多个账号。但现实情况是:很多账号被封,并不是因为操作违规,而是代理环境本身存在问题。

平台风控系统早已不只是检测IP地址,而是综合判断登录环境、网络行为和设备一致性。一些看似正常的使用方式,实际上正在提高封号风险。

下面小编为大家整理了最常见、也是最容易被忽视的7个代理错误,希望对大家有帮助。

导致账号被封禁的7个最常见的代理错误

  1. 频繁更换IP地址

部分用户认为IP更换越频繁越安全,因此每次登录都切换不同IP。实际上,大多数平台更关注行为稳定性。

如果一个账号短时间内不断从不同地区登录,很容易被判断为异常访问。

建议:

固定账号对应IP

避免短时间跨国家或城市切换

2.IP与设备环境不匹配

很多用户只更换IP,却忽略浏览器或系统环境。

例如:

美国IP + 亚洲地区

不一致的语言或系统信息

移动网络IP + 桌面设备指纹

平台检测的是整体环境,而不是单一IP。

3.多账号共用同一环境

部分用户在同一浏览器或系统中登录多个账号,仅依赖代理IP进行隔离。但现在平台会通过浏览器指纹识别设备特征,例如:

字体信息

Canvas指纹

GPU渲染特征

即使IP不同,也可能被关联。账号隔离应该同时包含:IP+浏览器环境+设备指纹。

4.使用低质量或共享代理

免费代理或过度共享的IP往往已经被大量用户使用,甚至存在黑名单记录。

当当个账号同时使用同一出口IP时,平台容易识别为批量操作行为,从而触发风控。

常见问题包括:

IP历史行为污染

请求异常集中

被标记为数据中心流量

选择干净度高的代理资源,是基础前提。

5.登录行为异常

代理本身没有问题,但操作模式异常同样会触发风控,例如:

新账号短时间大量操作

长期固定时间批量登录

登录后立即记性自动化行为

平台通常通过行为模型识别机器人或营销账号,保持接近真实用户的操作节奏,更安全。

6.忽视IP长期信誉

很多用户只关注IP是否可连接,却忽略IP信誉度。

实际上,平台会持续记录:

登录成功率

历史风险行为

异常请求比例

频繁更换来源不明的IP,会导致账号信任度不断下降。稳定、长期使用可信IP,更有利于账号成长。

7.DNS或WebRTC泄露真实地址

即使已经连接代理,如果DNS请求仍通过本地网络发送,真实IP依然可能被暴露。

这种情况下浏览器默认设置中非常常见。

建议定期检测:

DNS解析路径

IPv6连接状态

WebRTC泄露情况

总结

代理IP的作用,并不是“隐藏身份”,而是构建可信的访问环境。账号安全通常取决于三个要素:

稳定的IP资源

一致的设备环境

自然的操作行为

当IP、设备与行为保持一致时,账号在平台看来才更接近真实用户。很多封号问题,并非代理无效,而是使用方式存在偏差。

今日速览

  1. Claude Import Memory:一键迁移 AI 记忆,告别切换烦恼。
  2. Notra:自动将日常工作变成可发布内容。
  3. OpenFang:开源代理操作系统,打包 7 个助手帮你干活。
  4. Voicr:说话秒变精炼文字,支持本地处理保护隐私。
  5. Simplora 2.0:智能会议工具,免费准备、笔记和聊天全包。
  6. OpenAI WebSocket Mode for Responses API:持久连接让 AI 响应提速 40%。
  7. BU:云端部署自主 AI 代理,一个指令搞定复杂流程。
  8. Octrafic:用简单英语在终端测试 API,开源又轻量。
  9. Epismo Skills:为代理注入社区最佳实践,快速上手实用工具。
  10. Hearica:全电脑音频实时转字幕,无障碍支持多语言。

1. Claude Import Memory

从 ChatGPT 跳槽到 Claude 再也不用重头再来。这款神器能帮你把偏好、项目和上下文一键迁移,让 AI 记忆无缝衔接。

  • 复制粘贴即可导入其他 AI 服务的记忆
  • 更新 Claude 记忆,继续之前未完成的内容
  • 所有付费计划均支持记忆功能
  • 切换时零数据丢失,省心又高效

热度:🔺497

Claude Import Memory

访问官网 Product Hunt 详情


2. Notra

开发者福音!它能自动抓取 GitHub、Linear 和 Slack 里的工作成果,直接生成变更日志、博客或社交媒体内容。

  • 连接 GitHub、Linear 和 Slack 等工具
  • 将已完成工作转化为发布就绪的内容
  • 支持生成变更日志、博客文章和社交更新
  • 自动化内容管理,提升团队效率

热度:🔺314

Notra

访问官网 Product Hunt 详情


3. OpenFang

一个用 Rust 打造的开源代理操作系统,自带 7 个自主助手,能按计划替你处理任务,安全又强大。

  • 基于 Rust 构建,性能可靠
  • 内置 7 个自主操作助手,支持定时任务
  • 配备 16 项安全系统、53 种工具和 40 个频道
  • 集成 27 家 LLM 提供商,支持 WASM 沙箱和审计追踪
  • 打包成单一可执行文件,部署超简单

热度:🔺224

OpenFang

访问官网 Product Hunt 详情


4. Voicr

脑子里有想法却写不出来?用它说话就能立刻得到润色好的文本,支持专业、随意和简洁三种语气,还能自定义提示词。

  • 自然说话即时生成精炼文字
  • 提供专业、随意和简洁三种预设语气
  • 完全可定制 AI 提示,契合个人风格
  • 一次输入生成多个版本,灵活应对不同场景
  • 100% 本地处理,无需账号,保护隐私
  • 支持 iOS 和 Android,免费试用可用

热度:🔺209

Voicr

访问官网 Product Hunt 详情


5. Simplora 2.0

开会不再头疼!这款智能工具覆盖会前研究、会中笔记和会后工作流,免费计划就能享受 AI 会议准备和聊天功能。

  • 集成会议准备、交流、执行和分析于一体
  • 提供先进的会前研究和主动的会中智能
  • 自动化会后工作流程,持续更新知识库
  • 兼容 Zoom、Google Meet 和 Microsoft Teams
  • 免费计划包含无限制 AI 会议准备、笔记和聊天

热度:🔺159

Simplora 2.0

访问官网 Product Hunt 详情


6. OpenAI WebSocket Mode for Responses API

专为重度工具调用场景设计,通过持久连接减少上下文重复发送,端到端延迟最高降低 40%。

  • 为响应 API 保持持续 WebSocket 连接
  • 只发送增量输入,避免完整上下文开销
  • 在繁重工具调用工作流中提速高达 40%
  • 优化 AI 代理响应效率,减少延迟

热度:🔺133

OpenAI WebSocket Mode for Responses API

访问官网 Product Hunt 详情


7. BU

在云端一键部署全自主 AI 代理,配备浏览器、终端和持久记忆,轻松集成 Slack、Gmail 等上百个平台。

  • 一个指令部署完全自主的 AI 代理
  • 提供浏览器、终端和持久记忆功能
  • 解决身份验证问题,集成 100+ 平台如 Slack、Gmail
  • 配备强大浏览器代理,支持监控、测试和网络抓取
  • 通过 API 将简单指令转化为复杂工作流程

热度:🔺130

BU

访问官网 Product Hunt 详情


8. Octrafic

告别繁琐的 API 测试脚本!这个开源命令行工具让你用简单英语描述测试需求,自动生成请求、验证响应并导出 PDF 报告。

  • 开源 CLI 工具,专为 API 测试设计
  • 支持 OpenAPI 规范或实时接口
  • 用简单英语描述即可自动生成测试
  • 自动处理请求生成、响应验证和 PDF 报告导出
  • 无需测试脚本、GUI 或模拟,单一二进制文件运行
  • 兼容 OpenAI、Claude、Ollama 等服务提供商

热度:🔺124

Octrafic

访问官网 Product Hunt 详情


9. Epismo Skills

为你的 AI 代理注入社区智慧,快速获取最佳实践和工作流程,让代理立即上手日常工具,提升执行效率。

  • 搜索社区工作流程,应用已验证的最佳实践
  • 将个人经验转化为可重用工作流程
  • 连接项目执行、跟踪和管理持续任务
  • 支持团队协作和社区共享
  • 帮助代理可靠运行,快速适配工具

热度:🔺112

Epismo Skills

访问官网 Product Hunt 详情


10. Hearica

打破应用限制,将电脑上所有音频实时转为字幕,支持保存、翻译和自定义上下文,让信息获取无障碍。

  • 实时转录全电脑音频,包括电话、视频和语音
  • 以浮动窗口形式显示字幕,不干扰其他操作
  • 支持音频保存、重播和导出功能
  • 翻译成 60 多种语言,添加自定义上下文提高准确性
  • 专为聋人或听力障碍者设计,提升无障碍体验

热度:🔺98

Hearica

访问官网 Product Hunt 详情

我曾一度认为 Node.js 就是后端的终点。直到上个月,我试了 Bun 和 Deno,才知道原来优化配置、修补安全漏洞,可以几分钟内解决,而没必要浪费成百上千个小时。

Node.js:时间成本有点高

image.png
Node.js 还是占据统治地位。绝大多数 npm 资源、企业级 SDK 以及老旧的底层库都是基于 Node.js 的内部逻辑构建的。Node.js 有个好处就是预测性高,开发者不需要担心某个边缘 API 是否支持,因为 Node.js 本身就是标准。

但为了跑通一个简单的 TypeScript 项目,得先安装 ts-nodetsc,接着tsconfig.json,最后还要在 CommonJS 和 ESM 的兼容性泥潭里挣扎。更别提 node_modules 文件夹,每次 npm install 就像是在下载整个互联网,动不动就整出几十G。

所以说,Node.js 虽然是行业的基石,但它的历史包袱太重了。虽然最近的版本加入了 fetch 和权限控制的苗头,但在实际生产中,我们依然在为它那支离破碎的工具链买单。

Bun:追求极致性能

image.png
当我第一次运行 bun install 时,我以为程序出错了,因为进度条几乎是一闪而过。

Bun 的速度是真的快呀,堪称降维打击。它把运行时、包管理器、打包工具全部塞进一个二进制文件。我不再需要去调试为什么 Webpack 构建慢,也不再需要为了测试去额外配置 Jest。

在处理高并发接口时,Bun 的表现简直了。同样的逻辑,换成 Bun 运行后,CPU 占用率直接降了近四成。果然,底层的 JavaScriptCore 引擎确实比 V8 更适合这种快进快出的短链接场景。

Deno:真的很安全

image.png
如果说 Bun 是快,那 Deno 2.0 就是稳。

我经历过最惨的一次事故是某个第三方包被植入了恶意脚本,尝试读取服务器的环境变量。在 Node.js 环境下,这种行为几乎不设防。但 Deno 的沙箱机制默认关闭了一切权限。

如果你想写一个需要读取文件的脚本,必须显式加上参数。这种强制性的规范在开发初期肯定是相对繁琐的,但当你真正负责一个金融或者核心业务系统时,默认不信任的配置才是最让人放心的。而且 Deno 对 Web 标准的执着,让我在写代码时感觉像是在写纯粹的 JavaScript。

核心差异对比

在实际开发中,这些运行时的差异主要体现在工具链集成和性能表现上。

  • 兼容性:Node.js 是标准的制定者,Bun 紧随其后尝试完全兼容,Deno 则在保持自身特性的同时通过兼容层支持 npm 生态。
  • 工具链:Node.js 需要配合外部工具如 ESLint、Prettier 和各种测试框架。Bun 和 Deno 都选择了内置全家桶的方案,减少了配置负担。
  • 执行效率:在处理高并发 HTTP 请求和冷启动场景时,Bun 通常表现出更强的爆发力,而 Node.js 在长期运行的稳定性上更有优势。

基础服务端代码实现

为了让大家看清这三者的逻辑差异,简单用鉴权逻辑的接口来表现。

Node.js 的传统写法

Node.js的写法还是不变的。

import http from 'node:http';

const app = http.createServer((req, res) => {
  const url = new URL(req.url, `http://${req.headers.host}`);
  if (url.pathname === '/check' && req.headers['x-api-key'] === 'secret') {
    res.writeHead(200, { 'Content-Type': 'application/json' });
    res.end(JSON.stringify({ status: 'ok' }));
    return;
  }
  res.writeHead(401).end();
});

app.listen(3000);

Bun 的现代化方案

代码精简了,而且由于内置了高性能的 API,处理速度极快。

Bun.serve({
  port: 3000,
  fetch(req) {
    if (new URL(req.url).pathname === "/check" && req.headers.get("x-api-key") === "secret") {
      return Response.json({ status: "ok" });
    }
    return new Response("Unauthorized", { status: 401 });
  },
});

Deno 的安全方案

原生支持 TypeScript,且不需要处理各种繁琐的导入。

Deno.serve({ port: 3000 }, (req) => {
  const { pathname } = new URL(req.url);
  if (pathname === "/check" && req.headers.get("x-api-key") === "secret") {
    return Response.json({ status: "ok" });
  }
  return new Response("Unauthorized", { status: 401 });
});

成年人别做选择

这三个各有各的长处,有时候我就换着来。但同一个系统同时跑不同版本的 Node、Deno 和 Bun,是挺麻烦的。

但是 ServBay 就不同了,它把 Node.js、Deno 和 Bun 全部集成在一起,通过图形化界面一键就能部署好整个环境。

image.png
image.png
我不再需要去查 NVM 的命令,也不需要担心 Deno 的路径没配对。我可以给不同的本地项目分配不同的运行时版本。多个项目一起跑,多爽。

不要再纠结怎么选了,成年人当然是全都要

  • Node.js 是保底方案,如果是那种很复杂,且重度依赖老旧库的大型遗留项目时,选它不会出错。
  • Bun 是加速器,如果正在写微服务、API 或者对响应耗时有严格要求的应用,直接上 Bun 带来的收益会超出远超预期。
  • Deno 是保险柜,如果在构建安全性要求极高的新一代标准 Web 服务,它的规范性能省掉大量的后期审计麻烦。

2026 年了,不要还在用十年前的习惯去搬砖了 现在的后端开发早就不该是拼体力,而是拼谁能用最少的配置,最安全的方式,跑出最高的性能。

在当下的CAD办公场景中,PDF转CAD工具层出不穷,无论是在线转换工具、独立转换软件,还是CAD软件内置功能,都能实现基本的格式转换。但对于专业设计人员、工程从业者而言,转换的精度、效率、便捷性以及后续编辑的兼容性,才是选择工具的核心考量。浩辰CAD看图王作为一款集CAD看图、编辑、转换于一体的专业CAD工具,其PDF转CAD功能凭借四大核心优势,成为众多用户的首选,完胜同类工具。
图片
优势一:高精度转换,还原图纸细节,杜绝失真。对于工程图纸而言,细节决定成败,一丝一毫的偏差都可能导致施工失误、设计出错。浩辰CAD看图王PDF转CAD功能采用先进的矢量识别技术,能够精准识别PDF图纸中的线条、文字、标注、图层等元素,将其完整转换为CAD可编辑的矢量图形,不会出现线条断裂、文字模糊、标注错位等问题,最大程度还原原图纸的细节和精度。无论是复杂的建筑施工图、机械零件图,还是包含多种标注的工程图,都能实现精准转换,转换后的CAD图纸可直接进行编辑,无需二次修正,大大节省了后续修改时间。
优势二:无需额外插件,一站式操作,高效便捷。很多CAD软件本身不具备PDF转CAD功能,需要额外安装第三方插件,不仅操作繁琐,还可能出现插件与软件不兼容、转换失败等问题;而在线转换工具则受网络限制,且存在文件大小限制、隐私泄露风险。浩辰CAD看图王将PDF转CAD功能内置其中,无需安装任何插件,打开软件即可完成转换操作,从添加文件、设置参数到开始转换,全程一站式完成,操作流程简单易懂,即使是新手也能快速上手,大幅提升办公效率。
优势三:多版本兼容,支持批量转换,适配多种场景。浩辰CAD看图王PDF转CAD功能支持多种PDF版本(包括PDF、PDF/A等),同时兼容多种CAD版本,转换后的CAD文件可在浩辰CAD、AutoCAD等主流CAD软件中正常打开、编辑,不会出现格式错乱问题。此外,该功能支持批量转换,可同时添加多个PDF文件,一次性完成转换,适合需要批量处理图纸的用户,比如建筑设计院、工程公司等,能够有效节省时间,提升工作效率。
优势四:电脑端+移动端同步支持,移动办公更灵活。随着移动办公的普及,很多用户需要在手机、平板上处理图纸。浩辰CAD看图王实现了电脑端与移动端的无缝衔接,两者均支持PDF转CAD功能,用户可根据自身需求,在电脑上批量处理图纸,在移动端随时转换、查看图纸,打破时间和空间的限制,无论是在办公室、施工现场,还是外出途中,都能轻松处理图纸格式转换问题,提升办公灵活性。
除此之外,浩辰CAD看图王还具备强大的CAD编辑功能,转换后的图纸可直接在软件中进行标注、修改、图层管理、打印等操作,无需切换软件,实现“转换+编辑”一站式完成,进一步提升办公效率。相较于同类工具,浩辰CAD看图王的PDF转CAD功能,在精度、效率、便捷性和兼容性上都具有明显优势,是专业从业者的首选工具。

2月27日,百度智能云与光本位科技与在上海张江科学之门AI应用商店举行战略合作签约仪式。双方基于文心快码(Baidu Comate,以下简称“Comate”)联合推出针对于光电芯片开发流程的全栈AI研发解决方案Lightmate,以AI Agent 为技术核心重构光计算芯片研发流程。同时,双方围绕联合技术研发、研发工具链集成及产业生态拓展等多维度展开深度协同,推动光计算技术从实验室走向工业化标准落地,助力国产算力自主可控建设。

上海张江(集团)有限公司副总经理陈衡,上海张江科学之门科技发展有限公司总经理朱慧,光本位科技董事长熊胤江、总经理程唐盛,百度智能云副总裁、泛科技业务部总经理张玮,百度集团工程效能部总经理臧志等领导出席仪式。

(上海张江(集团)有限公司副总经理 陈衡致辞)

双方战略合作将以Comate为技术底座,由光本位科技将芯片设计领域专家经验转化为光电设计Skills与行业专属Agent,依托AI Agent技术解决通用模型在光电芯片研发领域的适配难题,实现研发流程自动化,推动光电芯片设计流程标准化。在此基础上,双方将共建光电芯片场景 Agent 能力架构及光计算研发Skills体系,通过MCP工具接入光计算研发工具链,完成多层级技术整合与全流程工具集成,联合落地 Lightmate 。

Lightmate能够依据芯片规格定义以及用户描述,自动完成光电芯片需求提取、仿真代码设计、器件迭代仿真、系统链路搭建、光电链路优化、版图输出等核心任务,并支持定制化 MCP 工具接入、自定义 Agent 构建与 Skills 能力扩展,可深度融入芯片企业既有研发流程,覆盖数字芯片、模拟芯片、光芯片设计及底层驱动开发全链路,同时支持 SaaS、VPC 专属云、私有化部署等多种接入方案,满足芯片客户的数据安全需求。此外,双方还将设立战略合作协同小组、共建光计算芯片AI研发联合实验室,依托 Lightmate 拓展光计算芯片产业上下游市场,实现技术互补、资源共享、生态共建。

光本位科技董事长熊胤江表示,光本位具备业界罕见的光电全栈芯片设计研发能力,集聚了行业顶尖专家及海量知识储备,我们相信通过光本位在硅光、模拟、数字芯片设计中的经验和数据与Comate有机结合形成的新产品Lightmate可实现从芯片设计到应用落地的全流程提效,大幅提升研发效率、缩短量产周期,为光计算产业树立了全新的研发范式。同时,作为一家光计算系统解决方案商,我们也通过光计算产品高效赋能 Lightmate ,让下游客户享受到高性能、低成本的芯片设计Agent服务

(光本位科技董事长 熊胤江致辞)

光本位科技作为光计算领域的头部企业,已实现光计算系统的商业化交付,在相变存算一体光计算领域具备核心技术壁垒,产品以低功耗、高集成度特性提升 AI 算力能效比,具备硅光、模拟、数字芯片的全品类设计能力,并构建底层软件与上层生态一体化技术架构。本次合作中,光本位将光计算芯片全流程研发经验注入Lightmate,形成光电芯片工艺文件处理、基础单元设计、原理图电路搭建等场景化能力,进一步强化企业技术与产品竞争力。

百度智能云相关负责人表示,百度以技术创新为核心,在人工智能、云计算、大数据领域具备全球竞争力。Comate代码助手采用模块化开放架构,可作为企业研发体系底座,支持MCP工具接入、自定义智能体构建与Skills能力扩展,实现与芯片企业现有研发流程深度融合。本次合作是Comate在光计算芯片场景的规模化落地,也是百度智能云下一代AI算力基础设施布局的重要环节。

(百度智能云副总裁、百度智能云泛科技业务部总经理 张玮致辞)

本次合作实现了光计算产业实践与AI研发技术的深度共振与范式升级。光本位在芯片研发、商业化落地及产业资源方面的积累,为Comate提供了精准的垂直场景支撑;百度智能云全栈AI Infra、Comate 技术架构与多样化部署能力,为光本位专家经验的工程化落地提供坚实保障。 双方通过技术整合、智能体开发与工具链集成,让 Lightmate 覆盖数字硅光、模拟、数字芯片及底层驱动全流程,构建起光计算领域工程化 AI 辅助研发体系。Lightmate不仅重构了芯片研发流程、实现全链路提效、降低行业研发门槛,更以算力自主可控为核心方向,推动光计算技术工业化与标准化落地, 同时以高能效优势契合绿色AI发展趋势。

未来,光本位科技与百度智能云将持续深化技术协同,加快Lightmate产品化与行业推广,开放核心能力共建光计算产业生态,夯实国产算力技术底座,定义光电研发新范式,全面提升我国在绿色算力与自主可控芯片领域的全球竞争力。

为了让电脑和手机上的笔记保持一致,我以前试过各种野路子。大半夜不睡觉,在那填服务器地址、搞端口映射,结果第二天出门掏出手机一看——好家伙,昨天写的东西全没同步过来,甚至还弹出一堆“版本冲突”的文件,那时候真是想把手机砸了。

折腾了一圈,最后发现最稳的还是坚果云。特别是他们最近搞了个官方插件 Nutstore Sync,用完我只能说:早出这个我至于掉那么多头发吗?

今天就跟大家唠唠我试过的这5种方法,主观色彩比较重,但都是大实话。

一、官方插件 Nutstore Sync(真心推荐,别犹豫)

这个插件刚上架社区市场那会儿,我其实是抱着试试看的心态用的。结果用了两天,真香。

以前用 WebDAV 的时候,最烦的就是填那一长串地址,还要去后台生成应用密码,错一个字符就连接失败。现在的这个Nutstore Sync,直接是坚果云官方做的,这就意味着两点:稳,还是稳。

它好在哪?

  1. 傻瓜式配置
    真的,哪怕你对技术一窍不通也能搞定。安装完插件,选“单点登录”,点一下授权,完事。再也不用复制粘贴那些鬼画符一样的URL了。
  2. 它是懂“同步”的
    以前用别的盘,改了一个字它可能要把整个文件重新传一遍。坚果云这个插件用了智能增量同步技术,就传你改的那一点点。速度极快,我都感觉不到它在同步。
  3. 后悔药随便吃
    写笔记最怕误删。用这个插件,你的每一次保存,坚果云那边都有文件历史版本。哪天脑抽了删错了,或者被覆盖了,去网页版点一下“时光机”就能找回来。这点对我很重要,数据的安全感是无价的。
  4. 防限流神器(小技巧)
    里面有个“宽松模式”特别好用。第一次同步的时候,如果你笔记特别多,开这个模式,它只比对文件名大小,不校验内容。这样就不会因为请求太多被限制,几千篇笔记一会儿就搞定了。
    image.png

安全性也没得说,毕竟人家坚果云运营15年了,拿的可是公安部信息系统安全等级保护三级备案,这玩意儿含金量极高,比那些乱七八糟的小网盘靠谱太多。

二、坚果云 + FolderSync(安卓老用户的执念)

这个方案我也用了挺久。在没有官方插件之前,它确实是安卓端的“扛把子”。

原理就是通过 FolderSync 这个APP,走 WebDAV 协议把坚果云里的文件强行拽到手机本地。

优点:不要钱,完全免费。而且 FolderSync 功能挺强大的,你可以设置只在充电时同步,或者连WiFi时同步。
缺点:太繁琐了!你要先去坚果云网页版开WebDAV,再去手机上填各种参数。而且它是“文件夹级别”的同步,有时候反应没那么灵敏,容易出现那种“我在电脑上改了,手机上死活刷不出来”的尴尬情况。

如果你不怕折腾,或者手机系统比较老,这个还能用。

三、OneDrive + Remotely Save(看脸的方案)

Remotely Save 这个插件其实做得不错,本身挺好用的。

但是!它可以连 OneDrive。问题就出在 OneDrive 上。
作为微软全家桶用户,我不得不吐槽,OneDrive 在国内那个网络环境,真的太一言难尽了。运气好的时候也是秒同步,运气不好的时候,那个圈圈能转一天。

而且这个方案没有智能增量同步,如果你笔记库大了,每次同步都要等半天检查变动。反正我是受不了那种不确定性,写东西要有“确定感”。

四、Syncthing 局域网直连(极客专属)

这个方案很酷,主打一个“我的数据我做主”。不用任何云服务器,两台设备直接连。

主要问题
它要求你的设备必须同时在线。
这就很尴尬了。比如我在公司电脑写了点东西,关机下班。回家想用笔记本接着写——对不起,同步不过来,因为公司电脑关机了。
除非你家里搞个NAS全天开机当服务器,不然这方案对普通人来说,实用性几乎为零。

五、LiveSync 插件(劝退级难度)

如果你是程序员,喜欢折腾 Docker,喜欢买服务器,那你可以试试。
支持实时同步,甚至能看到对方正在打字(虽然我也不需要这功能)。但我试过搭建一次,配置数据库、搞定端到端加密、处理各种报错……折腾了一周末,最后发现还是不如直接用现成的服务香。

我们是来写笔记的,不是来当运维工程师的,对吧?

即使是最后的一点碎碎念

说到底,工具是为人服务的。

我之所以现在死磕坚果云,就是因为它让我感觉不到它的存在。我只管在 Obsidian 里敲字,它自己在后台默默地帮我存好、同步好。无论是大文件的传输还是几万个小文件的同步,它都没掉过链子。

对于咱们这种把数据当命根子的人来说,找个靠谱的“管家”比什么都重要。既然现在官方都出了这么好用的插件,何必再去为难自己呢?

最后给个传送门,想省心的可以直接冲:

别犹豫了,把时间省下来多读两本书,多写两行字,这才是正经事。

在物流与供应链管理领域,智能化转型已成为提升效率的关键驱动力。华明视讯作为行业技术创新者,深入探索智能闸口系统的应用价值。那么,智能闸口系统的建设是否会大幅改变现有作业流程?答案是肯定的——它不仅带来改变,更是以高效、精准的方式重塑作业全流程。
现有作业流程的挑战
传统闸口作业多依赖人工操作与纸质单据,存在车辆排队时间长、信息录入易出错、数据不透明等痛点。华明视讯在服务客户过程中发现,这些瓶颈直接影响整体供应链响应速度与运营成本。
智能闸口带来的流程变革
智能闸口系统通过物联网、AI识别与自动控制技术,实现以下关键变革:

  • 无感通行,效率倍增:自动识别车牌、集装箱号,车辆无需停顿即可快速进出,减少等待时间达70%以上。
  • 数据自动对接:与TMS、WMS等系统无缝集成,实现电子单据自动核验,消除人工录入误差。
  • 全程可视化监控:实时追踪车辆与货物状态,提升园区安全管理与调度精准度。

    华明视讯的协同进化策略
    我们深知,技术落地需与现有流程平滑衔接。华明视讯的智能闸口解决方案提供:
  • 模块化部署:支持分阶段实施,最小化对当前业务的干扰。
  • 定制化适配:根据客户现有流程进行系统配置,保留核心作业习惯。
  • 员工赋能培训:提供全面培训支持,帮助团队快速掌握新系统操作。
    智能闸口系统并非彻底颠覆原有流程,而是通过技术嵌入,消除低效环节,强化数据驱动决策能力。华明视讯以客户为中心,致力于通过智能闸口系统帮助客户实现作业流程的智慧升级——在保持业务连续性的同时,获得效率、成本与体验的跨越式提升。

很多新手面对PDF转CAD,要么找不到合适工具,要么被复杂操作劝退,直到遇到浩辰CAD看图王,才发现格式转换原来可以这么简单,新手也能1分钟轻松上手。
图片
无需专业知识,不用记复杂步骤,打开浩辰CAD看图王电脑版,点击顶部【文件】-【PDF转CAD】,添加需要转换的PDF文件,确认保存路径后点击【开始转换】,全程不超过1分钟,转换完成后直接打开就能编辑。移动端操作更简单,打开APP找到PDF文件,点击底部【工具】-【PDF转CAD】,一键转换无需多余操作,哪怕是第一次用CAD相关工具,也能零失误完成转换,彻底解决新手转图难题。
如果你也有PDF转CAD的需求,那么赶快去试试吧。

如何和自己释怀?这跳楼机导致我,心态彻底炸了,红变绿 红变绿,每天在红变绿中度过,今天又是红 5000 变绿 4000 ,哎今天 心态彻底崩了

你的AI PPT工具,是否还停留在“一键生成,手动重做”的尴尬阶段?

节后复工,需求扎堆而来。本想借助AI提高效率,却往往深陷新的泥潭:生成的模板难以适配具体需求,想改一页却牵动全局,最终风格凌乱,不得不手动重做……AI生成的,为何反而成了最难修改的“枷锁”?

问题在于,许多AI只负责“生成”,却未将真正的“编辑权”交还给你。

现在,一切不同了。
近期,商汤办公小浣熊重磅推出「可编辑」的AI PPT,真正实现“一键生成,页页可改”。从生成到交付,每一页都由用户掌控,才是真正好用的AI PPT。

该功能现已全面上线,登录商汤办公小浣熊官网,点击「PPT 生成」-「创意模式」即可尝鲜体验!

面对最真实的PPT创作场景——充斥着来自老板与甲方五彩斑斓的需求变化,
办公小浣熊可编辑的AI PPT能力都能“懂”,恰恰能做到这三点 ↓↓↓

①懂你赶时间的急

多套模版即选即用 高效出稿“不翻车”

“今天来需求,报告方案明天要!”相信是很多人都有过的经历。

面对时间紧、任务重的紧急需求,办公小浣熊「PPT生成-创意模式」内置了一批高品质、高审美的成品风格,工作汇报、市场调研、商业提案、活动策划……都可直接预览、一键套用。

图片

用户只需选风格、丢思路,剩下的就交给小浣熊即可,不用再对着空白页面发愁,也不用费劲想提示词。整个过程视觉统一、出稿迅速、成品可用。

图片

②懂你抠细节的严

单页级对话修改 精准调优“可编辑”

只想改其中一页,但AI却把整个PPT推翻重来?
办公小浣熊彻底杜绝“牵一发而动全身”的烦恼——每一页都支持独立编辑,想动哪页就动哪页,其他页面纹丝不动。

更重要的是,小浣熊提供全方位的单页编辑能力,满足用户不同场景的调整需求

  • 单页重新生成:整页不满意?AI对话重生成,无需重做全稿。
  • 单页文案润色:表达不精炼?AI一键润色,逻辑清晰有力。
  • 单页文字修改:字句不精准?手动直接编辑,所见即所得。
  • 单页图标替换:视觉不协调?手动换图,素材库随调随用。

小到字体字号,大到图文布局,每一页都由你精细掌控,无需为局部调整重做整份PPT。

图片

③懂你自定义的审美

上传模板现场学 贴合公司风格“不违和”

AI出的内容不错,但怎么看都像“别人家的PPT”。
用过AI做PPT的人,大概率经历过这种落差,特别是对品牌视觉规范有硬性要求的企业用户而言,千篇一律的AI 模版往往无法匹配公司专属风格。

办公小浣熊可编辑的AI PPT生成能力,也能做到“现场学艺”。

用户可将现成的公司模版、品牌手册,或自己积累的私藏风格直接丢给小浣熊。无论是图片、PPT 还是PDF,它都能秒读其中的视觉逻辑,自动提取颜色、布局和字体习惯。用户上传得越多,它就学得越像。

图片

除此之外,本次更新还对AI PPT 的全流程体验进行了升级:

其中,素材库功能支持上传100 张配图、logo,打造私人素材仓,随调随用,无论是商务风还是极简感,只需搜索就能精准匹配,让PPT创作更顺手。

同时,小浣熊生成PPT 的全过程透明可编辑、可追踪,并且不影响用户前台任务,可在生成好后自动提醒用户,告别进度条“监工”。

图片

不满足于“生成一份PPT”,商汤办公小浣熊致力于打造可深度编辑的“交付级”AI PPT。它生成的每一页、每一元素都支持像搭积木般自由调整——AI负责初稿,你负责终稿,重复的修改工作交给智能,关键的创意决策留给自己。

办公小浣熊「可编辑的AI PPT」已全量上线
一键生成,页页可改
你的PPT由你来掌控

开工福利

限时福利,现在上车最划算!
1️⃣ 即日起至3月31日,会员订阅享 5 折,再额外加赠 15 天
2️⃣ 活动期间开通或续费会员,并使用小浣熊生成一份 PPT,完成页将自动掉落周边礼包领取入口,点击填写收货地址即可领取,先到先得!

图片

原文链接:https://tecdat.cn/?p=45087
原文出处:拓端抖音号@拓端teclat
 

封面

上个月,一位做企业架构师的朋友发来一串灵魂拷问:

“老板让我规划明年的AI投入,说别只盯着聊天机器人,要搞什么‘智能体’。可我翻遍手头的报告,都在讲大模型多厉害,智能体到底长啥样?该怎么搭?投了钱能看到响吗?”

他的困惑,也是今天很多企业管理者和技术决策者的真实写照。大家不用担心,今天这篇文章,我们就用7张图、180份核心报告,把智能体的“骨架”、“肌肉”、“大脑”和“人”彻底拆明白。

本报告洞察基于IBM商业价值研究院、亚马逊云科技《2026年智能体AI核心指南-构建自主化未来的竞争方略》、甘肃省通信产业服务有限公司《2025工业智能体白皮书》、来也科技《来也APA:智能体驱动的企业流程自动化》、中国信通院等《铸基生态观察系列报告-协同设计的智能化与产设研一体化》、博睿数据《博睿数据:2026智能体协同矩阵重塑自主运维新范式白皮书》、中国传媒大学媒体融合与传播国家重点实验室等《智能体与传播应用研究报告》等,和文末180+ 份行业研究报告及数据,本文完整报告数据图表和文末180+份最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和800+行业人士共同交流和成长。

一、智能体的“骨架”:技术架构与市场现状

咱们先把智能体想象成一栋楼。要想让楼里住进成百上千个能自己干活儿的“AI员工”,首先得把这栋楼的梁柱搭结实。

IBM和AWS联合发布的《2026年智能体AI核心指南》里有个关键数据:76%的高管都知道要搭一个开放、安全的架构,但真正动手把梁柱立起来的,还不到三分之一。这是为什么?因为这栋楼需要让不同的模型、不同的系统像人和人对话一样,随时沟通、协同。而大多数企业的现状,还停留在给每个部门盖一个独立的“工具房”。

图表1:智能体技术已成市场主流,高增长背后是企业从单点智能向群体协作的架构跃迁

智能体技术市场占比半圆组合图表1图表数据EXCEL及图表PDF模板已分享到会员群

这张半圆图告诉我们三件事:
第一,多智能体系统已经占据53.3%的市场份额,这意味着“群居”已经成为AI的主流生存方式,单打独斗的时代过去了。
第二,整个市场还在以42.14%的年复合增长率狂奔,说明大家都急着往里冲。
第三,理想很丰满,现实很骨感——在工业这种最需要协作的场景里,能把智能体部署到多个环节的企业,只有8%。

3秒解读:技术蓝图已经画好,但施工队才刚进场,大部分企业还在“画图纸”阶段。
行动建议:如果你是技术负责人,别急着买一堆贵的钢筋水泥(多模型、多系统)。先拿着清单(现有架构)去工地转转,看看你的模型之间能顺畅聊天吗?数据在不同系统里流动时,会不会被墙堵住?

图表1A:高管对智能体AI转型价值高度期待,但战略落地与成效评估存在显著执行缺口

战略认知与现状刻度线图表1A图表数据EXCEL及图表PDF模板已分享到会员群

你看,72%的高管都指望着智能体来一次“业务重构”,但数据最能说明问题:只有60%的人敢说自家的数据底子能扛住未来,能真正算清楚AI投了多少钱、赚了多少钱的,连一半都不到。

图表2A:企业智能体AI架构互操作性普遍不足,模型与数据协同能力成为规模化关键瓶颈

互操作性能力刻度线图表2A图表数据EXCEL及图表PDF模板已分享到会员群


相关文章

2026年人工智能AI未来报告:智能体、元宇宙、教育、商业化落地|附400+份报告PDF、数据、可视化模板汇总下载

原文链接:https://tecdat.cn/?p=45004


不到40%的企业能做到“开放标准”和“整合第三方模型”。这意味着,大部分企业的AI员工们,不仅住着不同的房子,还说着不同的方言,没法一起干活儿

对比表:不同报告对智能体技术成熟度的评估差异

报告名称核心结论数据差异原因分析
IBM商业价值研究院《2026年智能体AI核心指南》76%高管认为需要开放架构,但互操作性功能实现不足40%互操作性指标:30%-37%调研对象为全球大型企业,聚焦战略层面
甘肃省通信产业服务有限公司《2025工业智能体白皮书》多场景部署工业智能体的企业仅8%工业场景部署率8%针对中国制造业,更侧重实际落地阶段
博睿数据《2026智能体协同矩阵重塑自主运维新范式白皮书》多智能体系统在2025年已占智能代理AI市场53.30%市场份额53.3%基于Mordor Intelligence数据,覆盖全球市场

风险提示:搭这栋楼时,千万别光顾着好看。盲目把一堆模型往里塞,最容易被忽略的是“地基里的暗管”——数据安全和合规。比如,A模型和B模型聊天时,聊天的内容加密了吗?调用第三方API时,会不会把客户隐私带出去?
应对方案:动工前,请一个“监理”(数据安全审计)彻底排查一遍。我们社群已经整理了一份《智能体数据安全合规清单》,需要的朋友文末进群领取。

二、智能体的“肌肉”:商业应用与价值兑现

骨架搭好了,就得看这栋楼能提供什么服务了。来也科技的APA白皮书讲了一个关键转折:以前我们用RPA(机器人流程自动化),就像给每个部门配了一个只会做重复劳动的实习生。干10件事,效果很好;干到100件事,人就累垮了,成本也扛不住了。现在,智能体驱动的APA,相当于给实习生配了个AI大脑,他能自己学着处理那100件复杂、多变的事。

图表2:智能体驱动自动化实现10倍级效率跃升,从开发到运营各环节均释放巨大商业价值

智能体商业价值半圆组合图表2图表数据EXCEL及图表PDF模板已分享到会员群

数据太震撼了:

  • 能干活儿的人,从少数RPA专家,扩大到所有懂业务的人,规模扩大10倍。
  • 能自动化的场景,从高频的20%,扩大到那些“价值高但变化快”的中长尾流程,覆盖面扩大10倍。
  • 开发周期,从几周缩短到几天,缩短80%。
  • 保险业,因为生成式AI,生产力提升价值高达700亿美元。
  • 工业里,西门子的燃气轮机制造,设备可用率提升了15%;中控技术的乙烯装置,一年省下1500万。
3秒解读:智能体把自动化的计价单位,从“人月”换成了“Token”,那些以前算不过来账的中长尾流程,现在终于值得干了。
行动建议:如果你是运营负责人,别再死盯着那几个固定的核心流程。去翻翻你们部门那个“需求堆积如山、开发永远排队”的Excel表,用APA工具,先挑一个最让人头疼的流程试试手。

图表2B:面对智能体多元化工作负载,企业基础设施弹性与可扩展能力建设严重滞后

可扩展性能力刻度线图表2B图表数据EXCEL及图表PDF模板已分享到会员群

这组数据就是给“骨架”敲警钟的:不到30%的企业能处理突然暴涨的数据,能灵活调整系统配置。这意味着,一旦智能体们开始大规模干活儿,大部分企业的“基础设施”这条乡间小道,会瞬间堵死。

行动清单:从RPA到APA,下周就能干的3件事

  1. 下周:盘点一下你的RPA流程库里,哪3个流程维护成本最高、老板催得最急、业务变得最快。用APA平台重新做一遍,记录下从“提需求”到“上线”的周期变化。
  2. 下月:在IT部门搞一次“智能体开发工作坊”,让开发们试试用自然语言写代码,用MCP协议调工具。你会发现,程序员未来的核心竞争力,可能不是写代码,而是学会“指挥”代码。
  3. 下季度:找一个跨部门协作的“老大难”流程,比如“紧急采购审批”,设计一个由多个智能体协同的解决方案,跑通“感知问题-决策方案-执行落地”的闭环,然后把它做成模板,全公司推广。

三、智能体的“大脑”:协同治理与政策指引

楼高了,人多了,就得有“宪法”。博睿数据的《智能体协同矩阵》白皮书提出了“五层协同治理体系”——从听懂人话(语义层)、到会思考(认知层)、再到团队协作(协作层),给这群AI员工立了规矩。

图表3:有效协同与治理是智能体价值放大的关键,设计工程化与五层治理体系量化保障落地成效

智能体协同治理体系雷达图表3图表数据EXCEL及图表PDF模板已分享到会员群

这张雷达图把规矩量化了。设计产能能提升300%,意图识别准确率高达95%,工具调用成功率99%。但注意两个关键数据:幻觉发生率2%,决策冲突率5%。这说明,再聪明的AI员工也会“犯糊涂”和“吵架”。

3秒解读:给AI立规矩,不是为了限制他们,而是为了让他们在犯错时,我们能及时发现、及时纠正。
行动建议:如果你是CTO,建议马上成立一个由业务、技术、法务组成的“AI治理委员会”,起草你们公司的第一部“AI宪法”——明确每个智能体的权限边界、决策流程、审计标准。

图表4:国家“人工智能+”行动设定明确目标,智能体应用普及率将在未来十年内快速攀升

智能体普及率政策目标折线图表4图表数据EXCEL及图表PDF模板已分享到会员群

国务院的《关于深入实施“人工智能+”行动的意见》已经把时间表摆出来了:2027年超70%,2030年超90%,2035年全面进入智能经济阶段。这是一条近乎垂直的增长曲线。未来十年,智能体将从“可选项”变成企业的“必选项”和“标配项”。

风险提示:政策的风口来了,各种“伪智能体”也会满天飞。怎么分辨?很简单,问他几个问题:你的智能体能自己定计划吗?能自己调用外部工具吗?有长期记忆吗?
应对方案:采购时,要求供应商提供一张“能力体检表”。我们社群也整理了一份《智能体能力评估自查表》,帮你一眼看穿“李鬼”。进群即可下载。

四、人的重塑:人才与组织变革

最后,也是最关键的,谁来操作这些智能体?InfoQ极客的《AI人才粮仓模型》报告,讲了一个残酷的现实:近五成企业,真正懂AI的核心人才占比不足10%。 而且,75%的企业指着内部培训来养人。这说明,智能体时代,人才不是招来的,而是在实战中“长”出来的。

核心数据表格(来自图表方案)

指标数值单位来源报告
多智能体系统市场份额53.30%Mordor Intelligence《代理型AI市场规模与份额分析》
智能代理AI市场增长率42.14%同上
多场景部署工业智能体的企业比例8%甘肃省通信产业服务有限公司《2025工业智能体白皮书》
APA开发者规模提升10来也科技《来也APA:智能体驱动的企业流程自动化》
APA场景覆盖提升10同上
开发周期缩短80%同上
保险业生产力价值700亿美元麦肯锡数据(转引自《2026保险业智能体落地路线图研究报告》)
工业智能体设备可用率15%西门子/中控技术案例(转引自《2025工业智能体白皮书》)
工业智能体年成本节约1500万元同上
设计产能提升300%中国信通院等《铸基生态观察系列报告-协同设计的智能化与产设研一体化》
设计一致性提升96%同上
意图识别准确率95%博睿数据《博睿数据:2026智能体协同矩阵重塑自主运维新范式白皮书》
幻觉发生率2%同上
决策链覆盖率98%同上
工具调用成功率99%同上
任务完成时间缩短50%同上
决策冲突率5%同上
预计智能体AI将重塑商业模式72%IBM商业价值研究院、亚马逊云科技《2026年智能体AI核心指南-构建自主化未来的竞争方略》
期待智能体AI催生新产品70%同上
预见能实现规模化客户个性化68%同上
认为需要开放、安全架构76%同上
数据实践足以面向未来60%同上
已实现人机协同驱动战略64%同上
能系统衡量AI代理业务影响50%同上
采用开放行业标准与协议37%同上
整合并使用第三方AI模型30%同上
多样化AI模型的无缝集成31%同上
高效处理增长数据量28%同上
灵活适应并重新配置系统29%同上
可扩展基础设施支撑复杂模型28%同上
通过KPI追踪AI代理对业务贡献46%同上
为单个AI代理设立独立绩效标准45%同上
构建KPI量化AI代理对员工影响41%同上
2027年智能体应用普及率目标70%国务院《关于深入实施“人工智能+”行动的意见》
2030年智能体应用普及率目标90%同上
2035年智能体应用普及率目标90%同上

五、终局推演:智能体将无处不在

最后,我们来做个推演。智能体不会像科幻片里那样突然取代人类,但它会像电一样,从奢侈品变成“水和电”,渗透到企业的每一个毛细血管里。未来的竞争,不是比“有没有智能体”,而是比“谁的智能体更好用、更便宜、更懂我的业务”。

口语化解读

  • “智能体” = 一个会自己动脑子、还能自己动手干活儿的AI员工。
  • “多智能体协同” = 一群AI员工每天早上开个站会,各自领任务,干完还能互相review。
  • “五层治理体系” = 给这群AI员工定的一套“员工手册”和“公司章程”。

风险提示:AI员工越聪明,就越可能“钻空子”。比如,你给采购智能体一个“降本”的KPI,它可能会为了省钱,选一个最便宜但资质不全的供应商。
应对方案:关键节点(比如付款、签约、发布)必须设置“人工复核岗”。我们社群整理的《智能体风险控制SOP模板》,就是专门帮你建立这套“人机互相制衡”的流程的。

最后的话
智能体正在从“工具”变成我们的“同事”。这个转变,比我们想象的要来得更快。但无论技术如何进化,有一点始终不会变:真正决定这栋楼能盖多高的,不是钢筋水泥本身,而是使用它们、并和它们并肩工作的我们。 希望今天这份拆解,能帮你和你的AI员工们,打好一个坚实的地基。

(文中所有图表数据EXCEL及图表PDF模板已分享到会员群,欢迎扫码加入获取)

封面


本专题内的参考报告(PDF)目录

AgentScope:迈向 Agentic 智能体应用-阿里巴巴.pdf
2026-03-01 10:14
2026保险业智能体落地路线图研究报告.pdf
2026-02-28 16:02
2025 工业智能体白皮书.pdf
2026-02-28 16:02
中国传媒大学:2026智能体与传播应用研究报告.pdf
2026-02-28 15:59
AIGC智能体(本质、结构以及如何构建).pdf
2026-02-24 14:57
来也APA智能体驱动的企业流程自动化.pdf
2026-02-24 14:53
中国信通院:铸基生态观察系列报告-协同设计的智能化与产设研一体化(2025).pdf
2026-02-10 15:53
2026年弥合数字与物理鸿沟:大语言模型智能体台式DNA获取能力评估报告(英文版).pdf
2026-02-09 14:24
InfoQ极客:智能体时代的AI人才粮仓模型-2026年中国企业AI人才与组织发展报告.pdf
2026-02-08 10:12
博睿数据:2026年智能体协同矩阵重塑自主运维新范式白皮书.pdf
2026-02-08 10:05
2026年智能体AI核心指南-构建自主化未来的竞争方略.pdf
2026-02-04 16:40
谷歌云:2025年AI智能体在工作中的应用报告:重塑客户体验.pdf
2026-01-30 16:01
平台+场景智能体驱动工业智能化跃升:AI 制造政策频出,关注 AI 工业制造.pdf
2026-01-29 14:39
2025年智能体时代:重塑企业未来报告-医疗保健和生命科学行业.pdf
2026-01-28 16:00
谷歌云:2025年智能体时代:重塑企业未来报告-金融服务.pdf
2026-01-28 15:58
谷歌云:2025年智能体时代:重塑企业未来报告-媒体和娱乐.pdf
2026-01-28 15:58
AI行业2025投资回报:智能体如何解锁下一波AI商业价值.pdf
2026-01-21 17:38
深度学习专利全景:多模态人工智能、智能体与数字人的兴起.pdf
2026-01-21 17:31
中科算网算泥社区:2026年AIAgent智能体技术发展报告.pdf
2026-01-21 17:30
智能体时代,大厂向应用层渗透的逻辑与路径.pdf
2026-01-20 16:31
2026年AI Agent智能体技术发展报告-中科算网算泥社区.pdf
2026-01-20 09:51
爱分析:2026年装备制造供应链智能体研究报告.pdf
2026-01-18 13:24
智能体AI采购指南:如何评估面向企业的采购供应链智能体AI.pdf
2026-01-14 16:10
智能体应用发展报告(2025)-中国互联网协会.pdf
2026-01-13 17:22
中国人工智能产业发展联盟:金融智能体技术与应用研究报告(2025年).pdf
2026-01-08 21:45
2025企业级智能体式AI实施指南白皮书:战略落地与价值创造框架(架构师之道译).pdf
2026-01-06 15:59
企业级智能体式AI实施指南白皮书(The+Enterprise+Guide+to+Agentic+AI)英.pdf
2026-01-06 08:27
2025年从实体网点到智能机器人报告-AI智能体能否重塑零售银行业?.pdf
2026-01-03 10:50
NIDA:2025基于智能体的校园自智网络技术白皮书.pdf
2026-01-03 10:50
实体网点到智能机器人:AI智能体能否重塑零售银行业?-BCG.pdf
2025-12-31 15:47
2025年AI智能体圣经:智能体颠覆性变革终极指南报告(英文版).pdf
2025-12-28 09:05
_谷歌:2026年AI智能体趋势报告(英文版).pdf
2025-12-26 16:15
Claude:2026年AI智能体发展状况报告(英文版).pdf
2025-12-26 16:15
AI智能体时代数据交易所的下一程走向何方.pdf
2025-12-25 16:53
小米&荣耀:2025移动终端智能体隐私安全白皮书.pdf
2025-12-23 15:51
谷歌:2025年AI智能体上手指南报告(英文版).pdf
2025-12-23 15:51
2025AI智能体时代数据交易所的下一程走向何方研究报告.pdf
2025-12-20 16:10
云端智能体:AI Agent技术与应用研究报告(2025年).pdf
2025-12-20 16:07
2025麦肯锡AI应用现状调研-智能体创新和转型.pdf
2025-12-16 16:27
中国金融智能体发展研究与厂商评估报告 (2025) .pdf
2025-12-14 08:31
政务智能体发展研究报告(2025年)-国信通院.pdf
2025-12-12 16:58
华为:迈向智能世界白皮书2025-智能体@AEI.pdf
2025-12-11 16:35
华为:迈向智能世界白皮书2025-智能体@自动驾驶网络.pdf
2025-12-11 16:35
2026年AI与智能体式自动化趋势报告解锁发展蓝图-UiPath.pdf
2025-12-07 10:26
2025年人工智能的现状:智能体、创新和转型-30页.pdf
2025-12-05 16:52
2025年AI时代的技能伙伴报告:智能体、机器人与我们(英文版).pdf
2025-12-04 16:58
AI智能体在未来产业创新上的前沿应用与发展趋势-金蝶.pdf
2025-12-02 17:44
智能体时代的传媒业务架构探讨.pdf
2025-12-02 17:41
2025年数据智能体实践指南:AI智能体在未来产业创新上的前沿应用与发展趋势.pdf
2025-12-01 15:32
AI 智能体手册-谷歌.pdf
2025-12-01 15:29
AI CITY城市智能体前瞻研究报告(2025)-102页.pdf
2025-12-01 15:29
数字产业创新研究中心:2025年AI智能体驱动产业变革研究报告.pdf
2025-11-30 09:20
金蝶:2025年AI智能体在未来产业创新上的前沿应用与发展趋势报告.pdf
2025-11-28 15:32
智能体时代已来:从模型能力到场景价值,智能体重塑行业生态.pdf
2025-11-27 15:39
华为:2025年智能体互联网架构与关键技术报告.pdf
2025-11-26 15:50
2026年AI与智能体式自动化趋势报告解锁发展蓝图-UiPath.pdf
2025-11-21 16:44
智能体AI:探索多模态交互的边界.pdf
2025-11-21 16:37
大模型智能体助推系统性变革——中国智能媒体创新发展报告2024—2025.pdf
2025-11-19 15:28
智能体监督的未来.pdf
2025-11-19 15:21
智能体设计模式.pdf
2025-11-17 15:07
2025年人工智能发展态势报告:智能体、创新与转型(英文).pdf
2025-11-15 15:06
2025年从流程自动化到行业范式重塑:以云端AI智能体驱动大规模增长研究报告(英文版).pdf
2025-11-15 15:06
麦肯锡-2025年人工智能发展态势:智能体、创新与转型 2.0.pdf
2025-11-10 13:50
人工智能将如何重塑上游石油和天然气的最前线:推理、智能体编排和多模态视觉.pdf
2025-11-10 13:40
2025年大模型与智能体安全风险治理与防护-腾讯.pdf
2025-11-08 17:48
来也科技:2025来也ADP:文档处理进入智能体时代白皮书.pdf
2025-11-07 16:23
2025年用LangChain+DeepAgents开发高级AI智能体实战手册.pdf
2025-11-05 16:52
2025年中国营销智能体研究报告.pdf
2025-11-05 16:52
2025年智能体AI的战略跃迁:打破渐进改善创造全新价值报告.pdf
2025-11-04 16:52
2025年大模型智能体在低碳电力系统中的应用探索报告.pdf
2025-10-29 16:24
赛迪智库:2025工业智能体应用现状、挑战及对策建议报告.pdf
2025-10-28 16:24
未来产业研究2025年第3期(总第14期):工业智能体应用现状、挑战及对策建议-赛迪.pdf
2025-10-27 16:09
国网杭州:2025年基于智能体的虚拟电厂技术研究报告.pdf
2025-10-26 08:53
AI善治学术工作组:2025智能体发展与治理研究报告.pdf
2025-10-24 14:13
2025年AI成熟度模型:AI智能体就绪度评估报告(英文版).pdf
2025-10-17 15:59
2025年智能体驱动的大模型系统工程与产业实践解读报告.pdf
2025-10-15 15:27
2025年HR的新经济学:智能体式AI如何重新定义人力资源效率(英文版).pdf
2025-10-15 15:25
智能体驱动的大模型系统工程与产业实践——电信运营商与云服务商的合作探索.pdf
2025-10-15 15:18
网络智能体与NetMCP协议技术白皮书(2025年)-中移智库.pdf
2025-10-14 15:26
中移智库:智能体互联网技术白皮书(2025年).pdf
2025-10-11 16:03
企业级安全生产智能体白皮书V1.pdf
2025-10-11 15:56
企业级智能体产业落地研究报告分享——从场景试点到规模化应用实践.pdf
2025-09-30 16:39
西门子&至顶科技:2025工业智能体应用现状与趋势展望报告.pdf
2025-09-26 14:27
人工智能行业:从大模型到智能体——人工智能+场景的投资展望.pdf
2025-09-25 15:59
华为:2025年智能体@AEI-Agentic Al开启企业融合智简运维新范式.pdf
2025-09-20 16:59
2025年企业级智能体产业落地研究报告-从场景试点到规模化应用实践.pdf
2025-09-19 16:50
中国电信:2025年AI智能体安全治理白皮书.pdf
2025-09-18 16:38
谷歌云:2025年智能体时代:重塑企业未来-电信白皮书.pdf
2025-09-11 15:13
蚂蚁数科:2025金融智能体深度应用报告.pdf
2025-09-09 15:26
2025年AI项目变现之路:智能体AI开启持续财务增长引擎报告.pdf
2025-09-04 16:03
中国Z世代智能体白皮书2025.pdf
2025-08-30 16:25
2025年中国AI Agent(智能体)最佳实践应用榜单.pdf
2025-08-28 16:36
中国联通智能体互联网白皮书.pdf
2025-08-26 17:06
2025网络原生智能架构重构安全网络一体化白皮书.pdf
2025-08-23 17:20
2025基于确定性网络的智能体可信数据空间白皮书.pdf
2025-08-23 17:18
360漏洞研究院清华大学:2025年智能体安全实践报告.pdf
2025-08-22 16:27
科技行业深度研究:AI智能体,“硅基生物”的序章.pdf
2025-08-21 16:52
多模型与智能体聚合及服务引擎(MoMA)白皮书.pdf
2025-08-19 15:47
百川智能商派ShopEX:AI智能体与大模型解决方案.pdf
2025-08-15 16:15
大模型赋能投研之十三:基于海外投资大师智能体构建A股挖票框架.pdf
2025-08-15 15:59
CIC赛昇:2025年大模型智能体开发平台技术能力测试研究报告.pdf
2025-08-14 16:56
2024年融合确定性网络与工业AI智能体的云化PLC测试床.pdf
2025-08-12 16:09
Techsun:2025年智能体赋能营销Socialhub.AI技术⽩⽪书.pdf
2025-08-07 16:15
中国移动:2025年智能体互联网络白皮书.pdf
2025-08-05 15:39
中国联通:2025通信网络智能体白皮书V1.0.pdf
2025-08-05 15:39
安恒信息:2025年安全智能体魔方成熟度模型评价研究报告.pdf
2025-08-05 15:36
上海人工智能实验室‌&信通院&蚂蚁:终端智能体安全2025白皮书.pdf
2025-07-31 16:54
2025年企业级AI Agent(智能体)价值及应用报告.pdf
2025-07-29 17:07
通信网络智能体白皮书.pdf
2025-07-28 16:24
全球AI应用产品梳理:模型能力持续迭代,智能体推动商业化进程.pdf
2025-07-25 15:42
智能体体检报告——安全全景扫描.pdf
2025-07-22 15:41
协同AI智能体实现智能业务运营-IBM.pdf
2025-07-17 15:47
2025年面向新型电力系统的安全韧性AI智能体:架构、关键技术与落地实践报告.pdf
2025-07-10 16:41
2025 AI智能体构建实用指南(英文).pdf
2025-07-10 16:40
赛迪智库:2025全球智能体发展进展、面临挑战与对策建议报告.pdf
2025-07-04 16:24
人才与组织绩效实践:未来工作将由智能体驱动.pdf
2025-07-02 16:34
金科创新社:2025年金融大模型应用与智能体建设案例集.pdf
2025-07-01 17:00
中国信通院:智能体技术和应用研究报告(2025年).pdf
2025-06-27 16:43
Artefact:2025年AI智能体未来监管报告(英文版).pdf
2025-06-27 16:43
计算机行业2025年中期策略报告:AI Agent智能体经济释放 “新供给侧改革”乘法效应.pdf
2025-06-26 16:45
2025年语音AI状况报告:企业语音AI智能体的崛起(英文).pdf
2025-06-25 16:33
华为:2025年鸿蒙智能体框架白皮书.pdf
2025-06-24 15:08
智能体时代的数据与AI战略白皮书.pdf
2025-06-21 17:15
鹏城智能体——城市安全发展白皮书 城市公共安全院&华为.pdf
2025-06-19 16:06
容智信息:2025年智能体落地最佳实践白皮书.pdf
2025-06-17 15:21
谷歌:2025年智能体伴侣白皮书(英文版).pdf
2025-06-17 15:21
五大认知升级, 激发业务增长—借助智能体 AI, 从生产力跃升到绩效提升.pdf
2025-06-17 15:15
2025年协同AI智能体,实现智能业务运营报告.pdf
2025-06-12 15:46
摩熵数科:2025年医药企业市场与营销AI智能体应用实践报告.pdf
2025-05-28 16:43
基于大语言模型的智能体优化研究综述.pdf
2025-05-27 16:05
2024 AI智能体(AI Agent):概念、运作原理及组织最优应用场景研究报告(英文).pdf
2025-05-24 16:40
2025年代理型人工智能AI智能体终极指南报告:100+企业生成式AI用例(英文版).pdf
2025-05-22 15:51
AI动态汇总:谷歌发布智能体白皮书,Manus全面开放注册.pdf
2025-05-21 15:32
AI营销认证初级课程-商家智能体:助力优质经营.pdf
2025-05-17 16:13
2025人工智能体(AI Agent)应用现状挑战及建议研究报告.pdf
2025-05-17 16:13
解锁AI智能体赋能汽车行业(英文).pdf
2025-05-15 16:08
智能体AI交互重构品牌营销.pdf
2025-05-13 16:19
2025年政企行业智能体(Agent)研究报告.pdf
2025-05-12 16:01
百度营销春启新商机:商家智能体春日锦囊计-B2B专场【互联网】【百度投放】.pdf
2025-05-05 17:32
贺安辉:开源工具和商业产品完美融合:真正建立一体化智能可观测平台.pdf
2025-04-30 17:21
四川新网银行副行长(李秀生):2025年新网银行智能体的探索与实践报告.pdf
2025-04-30 17:17
西南财经大学:2025年大模型应用:从提示工程到AI智能体报告.pdf
2025-04-29 16:11
2025年适配DeepSeek,金融数据分析智能体的创新与实践报告.pdf
2025-04-29 16:08
MCP开启智能体新时代-中邮证券.pdf
2025-04-29 15:55
杨金全:云原生时代背景下一体化智能可观测性平台落地实践.pdf
2025-04-27 13:20
AI专题·Agent:智能体基建厚积薄发,商业化应用曙光乍现.pdf
2025-04-26 14:22
人工智能领域的新突破:利用生成式与智能体AI创新提升临床试验效率与质量.pdf
2025-04-24 15:48
AI智能体前沿研究报告:架构、挑战与范式演进(2025).pdf
2025-04-16 15:37
智能体应用现状挑战及建议.pdf
2025-04-15 16:12
赛迪研究院:2025年智能体应用现状挑战及建议报告.pdf
2025-04-12 16:40
大模型驱动的多智能体协同初探.pdf
2025-03-25 15:56
2025年从大模型、智能体到复杂AI应用系统的构建报告——以产业大脑为例.pdf
2025-03-22 17:03
钱忱-大模型驱动的多智能体协同初探-35页.pdf
2025-03-21 15:48
AI Agent智能体行业深度:产业格局、发展展望、产业链及相关企业深度梳理.pdf
2025-03-17 14:36
2025年Manus AI智能体 AGI发展新范式的实践与测评报告-智昇人工智能研究院.pdf
2025-03-11 16:33
2025年职场超级智能体:赋能员工释放人工智能的全部潜力报告(英文版).pdf
2025-02-27 14:54
2025工业运营前沿技术:AI智能体 (AI Agents) 的崛起白皮书(26页).pdf
2025-02-25 14:35
超越ChatGPT的AI智能体(英文).pdf
2025-02-20 14:50
机器智能体的混合认知模型(英文).pdf
2025-02-06 09:14
2024年面向移动智能体的无线网络架构与关键技术研究报告.pdf
2025-01-21 15:31
2024年AI智能体终极指南报告(英文版).pdf
2024-12-25 15:47
国元证券-汽车视角的投资分析:从稳增长政策到智能驾驶与车路云一体化.pdf
2024-12-25 15:44
2024年中国AI Agent行业研究:智能体落地千行百业,引领智能化革命的新引擎.pdf
2024-12-18 15:52
精益地打造金融专家智能体-鲍捷.pdf
2024-12-09 16:47
eBay智能营销中的AI一体化大数据平台实践.pdf
2024-11-27 16:22
03智能体系架构与芯片专题论坛.pdf
2024-11-25 16:13
苏震巍:协同研发的流程重塑:使用AgentManager打造多智能体Copilot.pdf
2024-11-22 15:45
马根明:百度文心智能体开发实战与分发模式创新.pdf
2024-11-22 15:45
智能体专题报告之二:智能体时代来临,具身智能有望成为最佳载体.pdf
2024-11-07 16:50
智能体专题报告之三:AI加持,外骨骼机器人加速起跑.pdf
2024-11-06 15:29
2024智能体(AlAgent)应用场景、未来展望及潜在标的分析报告.pdf
2024-09-26 16:12
海通证券-信息服务行业专题报告:AI Agent-智能体-:从技术概念到场景落地.pdf
2024-09-19 15:44
智能体有回响 Vol 4 :教育培训行业专场-百度.pdf
2024-08-31 17:22
2024深耕智能网联车路云一体化带来新机遇.pdf
2024-08-03 16:55
智能物联AIoT 2.0通感智值一体化应用案例蓝皮书.pdf
2024-07-25 17:37
2024智能体通信网络(ACN)白皮书(2024年)-中国移动.pdf
2024-07-01 09:40
2024年整车智能体验趋势深度洞察报告-格物咨询与设计.pdf
2024-06-28 10:49
国信证券-汽车智能化系列专题之决策篇-4-:各地陆续出台政策,车路云一体化落地加速.pdf
2024-06-21 10:52
汽车行业:智能网联车路云一体化三问三答-国联证券.pdf
2024-06-17 10:39
华创证券-中国特种纤维-0285.HK-深度研究报告:一体化智造平台,人工智能&消费电子&汽车电子三驾马车拉动公司业绩增长.pdf
2024-06-15 10:34

说实话,玩 Obsidian 的人多多少少都有点“折腾”精神。想当年为了搞定多端同步,我也是煞费苦心,WebDAV 那个链接复制粘贴得我手都软了,更别说还得去专门生成个应用密码。

结果呢?要么是公司电脑写完回家打不开,要么就是两边笔记一冲突,直接生成了个不知道该信谁的副本。那时候我经常想:这玩意儿就不能像微信聊天记录一样自己漫游吗?

直到最近坚果云(Nutstore)——就是那个已经搞了15年云盘的老牌子,终于出了个官方的 Obsidian 插件。这一下给我的感觉简直是降维打击。

我这几天除了吃饭睡觉就在测这个新插件,顺便把手里其他的同步方案也都拉出来溜了溜。如果你还在纠结怎么同步,听我的一句劝,看完这篇能帮你省下不少冤枉时间。

先看个简单粗暴的对比

为了让大家少走弯路,我把手头的几个主流方案拉了个表。别嫌表简单,全是干货:

方案配置难度靠谱程度适合谁
坚果云官方插件(不用脑子)⭐⭐⭐⭐⭐ (稳得一批)不想折腾只想写笔记的人
坚果云 + FolderSync⭐⭐⭐ (要配参数)⭐⭐⭐⭐ (挺稳的)安卓老用户,习惯了不想改
OneDrive + Remotely Save⭐⭐ (得授权)⭐⭐⭐ (看脸)网络环境特别好的
Syncthing⭐⭐⭐ (俩设备得互联)⭐⭐⭐⭐ (局域网快)隐私极客,但要求设备全在线
LiveSync⭐⭐⭐⭐⭐ (劝退)⭐⭐⭐⭐ (实时)懂服务器的大佬

一、坚果云官方插件:这才是我们要的同步嘛!

这个插件真的是千呼万唤始出来。以前咱们用坚果云同步,本质上还是在用它的 WebDAV 接口,相当于在中间套了一层别的壳子。现在好了,官方直接下场做了个亲儿子插件。

这玩意儿好在哪?

1. 傻瓜式配置:
以前最烦的就是填服务器地址,稍微错个标点就连接失败。现在?点一下“单点登录”,网页授权一跳,完事儿。就跟用微信号登录别的APP一样简单,小白也能一分钟搞定。

2. 它是真“智能”:
我最怕的就是冲突。比如我在手机上改了一行字,电脑上还没同步过来我又改了一行。以前这种时候要么直接覆盖,要么丢笔记。
这个官方插件有个智能合并功能,它会尝试自己去理解上下文把两段话拼起来。就算实在拼不上,它也会给你标出来(还能选是用 Git 那种程序员风格还是 Obsidian 自带风格),让你自己选。这不就是我要的吗?
image.png

3. 防限流神技:
如果你跟我一样是个笔记大户,可能有几千个小文件。以前用 WebDAV 同步这种海量小文件,经常会被判定请求太频繁给限流了。
这插件搞了个“宽松模式”和“严格模式”。默认宽松模式下,它只看文件名和大小,没变就不传,速度飞快,流量也省了。

4. 后悔药:
除了坚果云本来就有的文件历史版本(这个大家都懂,某次改残了能找回以前版本),插件里还有个独立的回收站。误删了?去插件里捡回来就行。加上公安部三级等保的安全认证,数据放在这儿我是真的一百个放心。


二、坚果云 + FolderSync:老当益壮

在官方插件出来之前,这其实是安卓端的标配。FolderSync 这个软件确实强,能把坚果云里的任意文件夹跟手机本地文件夹强行绑在一起。

这方案最大的有点就是稳,毕竟坚果云在国内的速度那是没得说,而且免费版就够用。
但缺点也很明显:你得额外下个APP,还得在手机后台给它开白名单保活,要是被杀后台了同步就停了。现在有官方插件了,我是真的不想再回去配 WebDAV 了。


三、OneDrive + Remotely Save:看天吃饭

社区里很多人推这个,主要是不用额外装客户端。但是……OneDrive 的服务器在国外啊朋友们。
哪怕你不需要翻墙,它的连接也不稳定。今天好好的,明天可能就一直在转圈圈。而且它对大文件的支持和增量同步的效率,跟坚果云这种专门做同步盘的还是有差距的。


四、Syncthing:极客的玩具

这个方案极其硬核,因为它不需要服务器,直接在你两台设备之间传。数据确实安全,谁都看不见。
但是痛点也太痛了:你两台设备必须同时开机在线
你想想,你在公司电脑写完关机回家,到家打开笔记本想继续写——傻眼了,数据还没传过来呢,因为公司电脑已经关机了。这在移动办公时代简直是反人类。


五、LiveSync:劝退警告

除非你是自己有服务器,还会搞 Docker 部署,而且特别享受折腾的过程,否则别碰这个。一旦数据库崩了,那个恢复难度能让你怀疑人生。我们是来写笔记的,不是来当运维工程师的。


写在最后

折腾了一圈,最后发现还是简单的方案最好用。
以前没得选,只能手搓 WebDAV。现在既然坚果云(Nutstore)官方都把饭喂到嘴边了,既有公安部三级等保的安全背书,又有专门解决冲突和限流的黑科技,何必还要去折腾那些不稳定的方案呢?

听我的,去下个官方插件试试,把时间省下来多写两篇笔记不香吗?

相关链接这里也放一下(免费试用真挺香):

最近不少朋友来问我(有后台私信的,也有微信上直接找我的):

“老纪啊,低代码这几年太火了,别的公司用得好像也还可以。所以我也想给公司上一个,但网上的排名文章,机构的排名表,AI的排名总结一大堆,都把我看迷糊了,到底该怎么辨别好平台?”

类似的问题,我通常不好直接回答哪家平台好。因为最好的标准,往往因人而异。

我能告诉的是:你在网上能看到的排名表,水分都很大!

比如:你看到的排名文章,大概率都是各家低代码厂商自己发、或者花钱找人发的,内容都是自己写的,然后弄个排名自己家排第一,但排名的依据是什么,他不会说,也说不清。

再比如第三方机构的排名表,他们的排名是怎么得出的?要搞清楚这个之前,你得先知道他们的运作流程。首先,一家机构,他做这个的目的,无非就是为了流量和钱,要不然你真以为他们是慈善机构啊?免费给大家做这些长篇大论、长达几百页的PPT材料,附带各种数据,各种图表和各种说明?明白这一点之后,我们可以知道的是,他们在做这份行业品牌排名表之前,一定会找品牌方提前沟通。怎么沟通呢?

通常流程大概率是这样的:第三方机构对接人先联系各家低代码厂商,跟他们说:“我们联合某某大厂近期要出一份《低代码无代码行业发展分析趋势》,会线上直播发布。里面有个环节是邀请行业专业人士座谈交流。诚邀贵司参加,出席会议的费用大概是几万到几十万不等。此外,我们还提供餐食,还会有某某某行业龙头公司负责人参会。另外,你们参会还可以得到品牌曝光,可以在行业报告里面体现贵司的产品、案例,总体排名也会相对靠前。

......

所以,你以为这些排名是怎么来的,当然大多数是花钱砸出来的呗。

AI的排名总结也是同理,AI的原理是什么?通过大量知识对其进行训练和喂养,而他被喂养的文章从哪里来的?当然是从网上。网上文章怎么写,AI就怎么总结。源头都有水分,总结能没水分吗?

所以很多时候,我们要买一个东西,不能只盯着排名。就像我们去网上买鞋是一样的道理,你不能只看销量排行榜,你还要看你的脚型、是要走路还是要跑步、你心理预算大概在什么范围,等等等等。

低代码选型也一样。所以下面,我打算基于这一问题,跟大家把低代码平台这个“鞋店”里的不同品类理一理。理完之后你自然就清楚了。

当然,这篇文章不是说为了给你一张排名表,而是教你一套选型的思路。有了思路,以后遇到类似问题,都将不再是问题!

先看国际机构的排名,但有件事你得知道

比如Gartner,全球知名的研究和咨询机构,它每年会发布“企业级低代码应用平台魔力象限”。常年位于领先位置的,这家公司虽说也有可能出现我上面所说的情况,但总体内容还是比较权威的,因为人家说的出来依据是什么,比如像它常年介绍材料中出现的厂商名字:

  • OutSystems
  • Appian
  • Microsoft Power Platform
  • Mendix
  • Salesforce
  • Oracle
  • ServiceNow
  • Pega

这些确实在市场上有市场份额的,每年的营收都是有实实在在数据的,对比国内机构搞出的排名,至少信任度更高一些的。

image.png

再比如G2,一个全球知名的软件测评网站,它2025年冬季报告里,把OutSystems评为企业低代码开发平台的第一名,客户满意度90分以上。

这些排名虽说有一定参考价值,但如果你直接拿着这个名单直接下单,可能会出大问题。因为它并不适用我们中国企业。而且里面这些主流低代码厂商主要服务于大型跨国企业,他们的产品设计理念、价格、语言习惯,跟国内企业完全不匹配。更重要的是,排名反映的是综合实力,不代表它最适合你的具体场景。

所以,排名可以看,但不能迷信。咱们需要透过排名看本质。

既然国外产品不合适,国内又没有能完全信任的机构排名表,那怎么办呢?不急,下面讲到的方法,你看完,或许自己就能做排名了。

国内主流低代码平台,先做分类,再做评估

为了让你更清晰地理解,我把国内市场上经常被提到的十几个平台,按照它们的主要特点和适用场景,分成了四类。你可以对号入座,快速找到自己应该关注的方向。

第一类:上手快、见效快的轻量工具

这类平台的代表有:简道云、明道云、伙伴云、活字格。

它们最大的特点是什么?业务人员自己就能用。

比如市场部想建一个客户信息登记表,或者行政部想做一套固定资产台账,不需要懂代码,只要会拖拽,一两天就能搭出来,马上用起来。

这类平台最适合解决部门级的临时需求,让业务人员自己动手,快速响应。但是,如果你想做一个需要复杂计算、跨多个系统集成的核心业务系统,比如ERP(企业资源计划系统),这类平台可能就不够用了。

第二类:擅长梳理和优化业务流程的平台

这类平台的代表有:奥哲、炎黄盈动、蓝凌、泛微。

它们的核心能力是“流程引擎”。一个合同要经过法务、财务、老板三个人审批,中间可能有驳回、有会签、有转办——这类平台能把这种复杂的审批流理得清清楚楚,跑得又快又稳。

它们最适合流程多的企业,比如制造业、大型企业的OA(办公自动化)部门。如果你公司内部各种审批流程复杂,想把这些流程全部数字化并持续优化,可以从这类平台里找。

比如奥哲,现在能做到用自然语言生成应用,你说“帮我建一个请假审批”,它就能自动把流程搭好。

第三类:与常用办公软件深度绑定的平台

这类平台的代表有:钉钉宜搭、腾讯云微搭、飞书低代码。

它们深度集成了钉钉、企业微信、飞书。你在宜搭上搭一个应用,天然就能用钉钉的组织架构、通讯录、消息通知。员工用起来没有学习成本,因为界面就是钉钉。

如果你公司已经深度使用钉钉、企业微信或飞书,想把内部的行政、人事、财务应用都搬上去,这类平台是最佳选择。你能快速开发,快速触达所有员工。

但也要注意:你的应用很难离开这个生态,换别的办公软件就不灵了。

第四类:面向专业IT人员的企业级开发平台

这类平台的代表有:织信Informat、金蝶云苍穹、用友BIP、网易CodeWave。

它们的功能最强大。不仅能搭页面,还能做复杂的数据建模、跨系统集成(比如连接SAP、Oracle等老系统),支持多人协同开发、代码版本管理、自动化测试等专业软件工程能力。

织信Informat的能力边界很强,提供无代码(70%)+低代码(20%)+传统编码(10%) 组合式开发,灵活适配不同复杂程度的开发工作。能提高效率,也能解决问题。

网易CodeWave甚至支持导出源码,你用低代码开发的应用,可以把代码拿回来自己维护,完全不用担心被平台锁定。

金蝶云·苍穹和用友BIP,因为背靠金蝶、用友几十年的企业服务经验,天然与财务、人力、供应链等核心业务深度融合。你想搭一个费用控制系统,它直接就能调用金蝶的财务引擎。

这类平台最适合IT部门牵头,开发企业的核心业务系统,或者对外交付软件产品。它们关注的是长期演进、技术可控和业务稳定。

怎么选?问自己两个问题

看完这四类,你可能会问:那我到底该选哪个?

很简单,先问自己两个问题。

第一问题,你是想“快速搭个工具”,还是想“长期做个系统”?

如果是前者,比如这个月市场部急需一个活动报名工具,那就从第一类或第三类里找,一两天搞定,用完即止。

如果是后者,比如你想把公司的进销存系统全部重构,那就要从第二类或第四类里找,并且做好打持久战的准备。

第二问题,这件事是“业务部门自己做”,还是“IT部门牵头干”?

如果是业务部门自己折腾,那就选第一类,业务人员自己就能学会。

如果是IT部门要建设企业级平台,那就得考虑第四类,功能更全面,交付更可控。

最后,一定,一定,一定要亲自测试!

无论你看中了哪个平台,正式采购前,建议做一个小范围的概念验证(POC,Proof of Concept)。

不要光听销售讲PPT,也别只看别人的演示。就挑你业务中最核心、最复杂的一个小场景,让厂商的技术人员现场搭给你看,或者你自己上手试一试。

看看它处理复杂逻辑是否顺畅,能不能和你现有的系统打通,响应速度是否够快。只有自己试过,才知道合不合用。

低代码平台没有绝对的第一名,只有最适合你当前阶段、当前业务的那个。

选低代码,不是为了赶技术潮流,而是为了给你的组织带来价值、提升效率。从这个角度出发,你自然能找到对的它。

从「AI For What」到「Value From AI」,100+可落地实践案例打通 AI 实战最后一公里!

4 月 16 日-4 月 18 日,QCon 全球软件开发大会将在北京举办。本届大会锚定 Agentic AI 时代的软件工程重塑,聚焦 Agentic AI、多智能体协作、算力优化、技术债治理、多模态和 AI 原生基础设施等前沿话题,邀请来自腾讯、阿里、百度、华为、蚂蚁、小米、网易等企业技术专家,带来百余项真实落地案例,系统性分享前沿洞察与实战干货,以技术共创探索 AI 落地新路径。

蚂蚁集团医疗健康资深专家郭春晓已确认出席 “Agent in Practice:千行百业的 Agent 实践” 专题,并发表题为蚂蚁阿福:从 0 到生产的医疗 Agent 工程化落地的主题分享。随着大模型与智能体(Agent)技术的快速发展,如何高效构建一个 Agent,以及在过程中做好评估、可观测等效果,成为核心话题。蚂蚁提出了 EBDD(评测集和 badcase 驱动的开发方式)驱动的研发模式不断地驱动了智能体的开发并构建了核心的如 RAG、context、记忆等核心能力并在多个榜单取得 SOTA 的成绩。本次演讲将探讨蚂蚁阿福如何在从 0 到生产的医疗 Agent 工程化落地,体系化地了解 Agent 构建背后的技术体系以及技术布局。

郭春晓,作为蚂蚁集团的资深技术专家和五福红包架构师,拥有多项技术专利与论文,当前研究 Agent 技术与大规模 RL 训推 Scale 等方向。他在本次会议的详细演讲内容如下:

演讲提纲

  1. 蚂蚁阿福 Agent 的痛点、挑战

  • 工业级大规模研发的痛点

  • 医疗 Agent 的核心挑战

  • Agent 研发范式与传统研发范式的区别

2. Agent 研发范式的北极星指标与技术体系

  • 评测体系的建设 EBPP

  • 评测和 badcase 驱动的研发模型

  • 技术体系的建设

  • 上下文工程、RAG、医疗个性化、推理加速

3. 医疗上下文的挑战

  • 长上下文的处理

  • 主子 Agent 的上下文的共享

4. 从 RAG 到 Agent RAG 的实战

  • Agentic RAG 的架构与医疗询证检索

5.医疗个性化

  • 个性化的挑战与难点

  • 医疗个性化的解决方案

6.推理加速

  • 常见的性能优化方案

  • 如何优化 TTFT、TPOT 以及最佳实践

7.总结与展望

  • 未来架构展望

这样的技术在实践过程中有哪些痛点?

  • 如何从最小评测集开始,设计一个适合当时生产力的方案

  • 医疗 Agent 中处理解决幻觉与正确性的关键问题

  • 如何在推理成本与用户体验平衡

演讲亮点

踩坑经验与架构创新:深入剖析 Agent 架构优化与演进历程,体系化地了解工业级的 Agent 背后的实战与选择。

听众收益

  • 全面了解蚂蚁阿福内部从 0 到 1 构建医疗 Agent 的实践历程

  • 深入理解其中每个技术选型的过程与心得

  • 体系化地了解 Agent 构建背后的技术体系以及技术布局

除此之外,本次大会还策划了Agentic Engineering多模态理解与生成的突破记忆觉醒:智能体记忆系统的范式重塑与产业落地具身智能与物理世界交互Agent Infra 架构设计AI 重塑数据生产与消费AI 原生基础设施AI 驱动的技术债治理小模型与领域适配模型大模型算力优化Agent 可观测性与评估工程AI for SRE等 20 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 100+资深专家在 QCon 北京站现场带来前沿技术洞察和一线实践经验。

更多详情可扫码或联系票务经理 18514549229 进行咨询。

一、为什么这个问题让人头疼

去年用 LangChain 搭了一套企业内部知识库,文档解析、Embedding、向量检索、重排序、对话记忆……每一层都要自己糊代码。跑通之后,同事问能不能加个"追问"功能。改了三天,引入了一个新 bug。这是很多人踩过的坑:LangChain 是框架,不是产品。它给你乐高积木,但不帮你拼。适合需要深度定制的场景,但如果你的需求是"快速跑通一个 AI 工作流",它的抽象层太多,调试成本极高——社区常见抱怨是链路追踪困难,一个 Chain 报错,堆栈信息往往要翻五层才能找到根因。真正的问题不是 LangChain 不好,而是大多数团队并不需要它提供的那层灵活性。 

二、方案对比:你真正需要了解的差异

LangChainDifyn8n定位代码框架AI 应用平台通用工作流自动化RAG 支持自己搭内置知识库依赖插件/API上手门槛高(需熟悉 Python)低(可视化配置)中(节点拖拽)适合场景高度定制化 AI 应用快速部署 AI 助手/问答跨系统数据流转底层设计逻辑的差异在这里:Dify 是"以 AI 对话为中心"设计的,知识库、Prompt 管理、模型切换都是一等公民;n8n 是"以数据流转为中心"设计的,AI 节点只是几百个节点里的一类,它真正擅长的是"触发器 → 处理 → 发送到第三方系统"这条链路。选型建议:要搭 RAG 知识库或 AI 客服,直接用 Dify;要做"Slack 消息触发 → AI 总结 → 写入 Notion"这类跨系统自动化,选 n8n。两者不互斥,很多团队同时在用。

三、5 分钟上手Dify

# 自托管启动
git clone https://github.com/langgenius/dify && cd dify/docker
docker compose up -d
# 通过七牛云 AI 推理服务调用(兼容 OpenAI API 格式)
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_QINIU_API_KEY",
    base_url="https://api.qiniuapi.com/v1",
)

response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[{"role": "user", "content": "总结这段文档..."}]
)
# Dify 自定义模型配置填入相同 base_url 即可

在 Dify 的「设置 → 模型供应商 → 自定义」里填入七牛云的 API Key 和 base_url,就能在知识库问答流程里直接切换模型,无需改一行应用代码。实测在 10 万 token 的文档语料下,首次检索延迟约 800ms,远低于自己搭向量库的 2-3 秒冷启动。n8n 的情况类似,npm 上有官方的 n8n-nodes-qiniu-ai 插件,支持 Claude、GPT、DeepSeek、Kling 等模型节点,拖进工作流即用,不用手写 HTTP 请求。避坑提示:Dify 的知识库默认用余弦相似度检索,如果你的文档是代码或结构化数据,改用混合检索(关键词 + 向量)准确率能提升约 30%,这个配置藏在「知识库 → 检索设置」里,很多人没注意到。
延伸阅读:
● 七牛云 Dify 插件:GitHub - qiniu/dify-plugin(https://github.com/qiniu/dify-plugin
● n8n 七牛云 AI 节点:n8n-nodes-qiniu-ai - npm (https://www.npmjs.com/package/n8n-nodes-qiniu-ai

这两年,越来越多团队把 AI 接入了日常工作流。
但很快,一个现实问题摆在了面前:

模型用得越多,Token 花得越快,成本和心理压力也随之上涨。

很多人一边依赖 AI 提效,一边又不得不「省着用」「少让它多想」。
到最后,AI 反而成了一种被精打细算的消耗品。

如果 AI 能跑在自己的 GPU 上,
不按 Token 计费、可以随时对话、长期运行在协作工具里,
它才更像一个真正的“工作助手”。

基于 GPUStack 提供的本地模型能力,结合 OpenClaw(支持 WhatsApp、Telegram、Discord、Slack、飞书等多种协作平台) 与飞书,
本文将一步步演示如何构建一个可真实使用、可持续运行、几乎不再关心 Token 消耗的本地 AI 助手。

📌 本文内容

  1. 使用 GPUStack 部署模型
  2. 飞书机器人应用创建与权限配置
  3. OpenClaw 的安装、配置与关键注意事项
  4. 飞书侧首次授权与连通性测试
  5. 实战示例:让小助手给 GPUStack 项目标星
  6. 小助手内置指令说明
  7. OpenClaw 实用命令与资源入口

一、使用 GPUStack 部署模型并准备接入信息

在接入 OpenClaw 之前,我们需要先在 GPUStack 中完成模型部署,并获取模型服务的访问信息。

本节将以 Qwen3.5-35B-A3B 为例,演示从
自定义推理后端 → 部署模型 → 获取接入信息 的完整流程。

1. 准备环境与版本说明

  • GPUStack 版本:v2.0.3
  • 自定义推理后端镜像:
    swr.cn-south-1.myhuaweicloud.com/gpustack/vllm-openai:qwen3_5
  • 模型权重:Qwen/Qwen3.5-35B-A3B
⚠️ OpenClaw 对模型上下文窗口有要求:
最小 16K,建议 128K 及以上

2. 配置自定义推理后端(vLLM)

在 GPUStack 控制台中,进入:

「推理后端」→「编辑 vLLM」→「添加版本」

添加 vLLM 版本

3. 部署 Qwen3.5-35B-A3B 模型

部署模型
配置参数

参数示例:

--tensor-parallel-size=2
--mm-encoder-tp-mode data
--mm-processor-cache-type shm
--reasoning-parser qwen3
--enable-auto-tool-choice
--tool-call-parser qwen3_coder
--speculative-config '{"method": "mtp", "num_speculative_tokens": 1}'

如果遇到:

Error 803: system has unsupported display driver / cuda driver combination

可尝试添加环境变量:

LD_LIBRARY_PATH=/usr/local/nvidia/lib64:/usr/local/nvidia/lib:/usr/lib/x86_64-linux-gnu

4. 获取 GPUStack 模型接入信息

需要记录以下三项:

  • API Base URL
  • Model ID
  • API Key(在 GPUStack 中自行创建)

获取连接信息

二、飞书应用配置

1. 账号说明

飞书 个人账号无法创建机器人应用
需要使用 企业 / 组织身份,但个人用户也可以免费创建

创建方式(桌面端):

  • 飞书左下角「⋯」 → 登录更多账号
  • 选择 创建新账户
  • 角色选择 企业或组织负责人

创建企业账号

创建完成后,按提示设置 姓名企业 / 组织名称

完善信息

2. 创建企业自建应用

  1. 打开 https://open.feishu.cn/app?lang=zh-CN
  2. 登录企业 / 组织账号
  3. 点击 创建企业自建应用
  4. 填写应用名称与描述(图标可选)

创建应用
应用信息

3. 启用机器人能力

  • 左侧菜单进入 添加应用能力
  • 添加 机器人 能力

启用机器人

4. 批量导入权限

进入 权限管理 → 批量导入,使用以下 JSON 覆盖默认权限配置:

{
  "scopes": {
    "tenant": [
      "aily:file:read",
      "aily:file:write",
      "application:application.app_message_stats.overview:readonly",
      "application:application:self_manage",
      "application:bot.menu:write",
      "contact:contact.base:readonly",
      "contact:user.employee_id:readonly",
      "corehr:file:download",
      "event:ip_list",
      "im:chat.access_event.bot_p2p_chat:read",
      "im:chat.members:bot_access",
      "im:message",
      "im:message.group_at_msg:readonly",
      "im:message.p2p_msg:readonly",
      "im:message:readonly",
      "im:message:send_as_bot",
      "im:resource"
    ],
    "user": [
      "aily:file:read",
      "aily:file:write",
      "im:chat.access_event.bot_p2p_chat:read"
    ]
  }
}
⚠️ 公众号中直接复制时,注意空格可能会被替换为 NBSP。

导入权限

提交权限申请:

申请权限

⚠️ 权限变更后必须创建并发布新版本,否则不生效。

版本发布

记录 App ID / App Secret

App ID & Secret

飞书侧还有一项配置,需要在接入 OpenClaw 后进行,后文说明。

三、安装并配置 OpenClaw

演示环境:Ubuntu 24.04

1. 一键安装

curl -fsSL https://openclaw.ai/install.sh | bash

脚本会自动安装 Node、Git 等依赖。

安装过程

熟悉 Linux / Node 的用户,
推荐使用 fnm + pnpm 手动安装,Node 版本管理更清晰。
手动安装后需执行:

openclaw onboard --install-daemon

2. 交互式配置向导

  • Model/Auth Provider
    选择 Custom Provider (Any OpenAI or Anthropic compatible endpoint)

模型提供商

  • 填写 GPUStack 的 API Base URL / API Key

API 配置

  • Channel 选择 Feishu / Lark

选择飞书

填写 App ID / App Secret
Group chat policy 建议选择:

Open - respond in all groups (requires mention)

飞书配置

3. 手动调整上下文窗口(必做)

OpenClaw 默认上下文长度为 4096,需手动修改。

vim ~/.openclaw/openclaw.json

修改配置

本文示例中默认上下文长度被设成 4096,不同 OpenClaw 版本或模型下出现差异均属正常,无需深究。

重启网关:

openclaw gateway restart

4. 设置飞书事件订阅方式(关键)

事件订阅方式 设置为 长连接,并添加 接收消息 事件:

长连接订阅方式

⚠️ 修改后需 创建并发布新版本,否则机器人无法接收消息。

四、首次授权与测试

  1. 在飞书中向机器人发送消息
  2. 首次会提示 Pairing 授权
  3. 在服务器执行:
openclaw pairing approve feishu <Pairing-Code>

授权完成

如果出现反复授权,并提示:

duplicate plugin id detected

可尝试:

rm -rf ~/.openclaw/extensions/feishu
openclaw gateway restart

五、实战示例:让机器人给 GPUStack 项目标星

1. 准备 GitHub PAT

  • 使用 Tokens (classic)
  • 勾选 repo 权限

GitHub PAT

2. 写入环境变量

vim ~/.openclaw/.env

env 文件

重启:

openclaw gateway restart

3. 飞书中发送指令

飞书指令
执行结果

六、常用指令说明

  • /new:开启新会话
  • /status:查看 Bot 状态
  • /reset:重置上下文
  • /model:查看 / 切换模型

七、OpenClaw 实用命令与资源入口

常用 CLI 命令

openclaw logs --follow
openclaw doctor
openclaw gateway --help
openclaw dashboard
openclaw tui

文档与生态

结语:当 AI 成为基础设施,而不是消耗品

回过头看,Token 焦虑的本质,并不是模型贵,而是 AI 被当成了一种“外部消耗资源”。

当模型运行在云端、能力掌握在别人手里时,
我们习惯于精打细算、限制使用、控制调用频率。

而当模型真正跑在自己的 GPU 上,
当推理能力、上下文和工具调用都变成基础设施的一部分,
AI 的角色也随之发生了变化——

它不再是一次次付费调用的 API,
而是一个随时可用、长期在线、持续演进的工作助手

这正是 GPUStack 与 OpenClaw 组合所带来的意义:
让 AI 从“成本项”,回归为“生产力”。

如果你已经拥有 GPU 资源,
不妨亲手试一次,把 AI 真正接进你的日常工作流里。

当你不再关心 Token 的时候,
你才会真正开始用好 AI。

🙌 加入 GPUStack 社区

如果你已经开始使用 GPUStack,
或者正在探索 本地大模型 / GPU 资源管理 / AI Infra
欢迎加入我们的社区交流群,一起交流实践经验、踩坑记录与最佳方案。

👉 社区入口(持续更新)
https://github.com/gpustack/gpustack/blob/main/docs/assets/wechat-group-qrcode.jpg

最近群里炸锅了,都在传那个中科院出的“数据胶囊”。免费20G,支持WebDAV,还是国家队背景,听着是挺唬人的。不少人问我这玩意儿能不能替掉坚果云,毕竟谁不想白嫖呢?说实话,我也没忍住,跟风注册了一个。

结果吧,折腾了一周,我又灰溜溜地把数据迁回坚果云了。

为啥?免费的东西,有时候可能是最贵的。

先说说这个“数据胶囊”吧。它其实不是给咱们这种普通人用的网盘,更像是个给科研人员用的对象存储桶。优点很明显:中科院背书,跑路概率小;速度还行,毕竟由于国内节点;支持WebDAV。

但槽点也真是让人头大。首先注册就得劝退一批人,得下载个专门的APP做人脸识别实名认证,还要关联你的网络身份ID。
我当时对着手机摇头晃脑半天,心里就在想:我就存个文献,至于查户口吗?再就是它没有正经的电脑客户端!你能想象吗?2026年了,传个文件还得开网页或者找第三方工具挂载,想右键直接分享个链接?没门。那种割裂感,就像你习惯了智能手机,突然让你用回诺基亚发邮件。

还有个大雷,官方协议里写得很清楚,“禁止商用”,而且主要是服务科研的。这种非商业性质的项目,说不定哪天政策一变,要么关停,要么限流,之前的某高校云盘就是前车之鉴。

对于咱们这种重度依赖Zotero和Obsidian的人来说,它跟坚果云的差距,真不是这20G空间能弥补的。

我举个最痛的例子——增量同步
用Zotero抓取了一篇几百页的PDF,你在上面高亮了一行字。如果是用中科院这个(或者其他大多数WebDAV网盘),它会傻傻地把这几百兆的文件重新上传一遍。不仅慢,而且你要是网稍微抖一下,上传失败,心态直接崩。
但坚果云它是懂怎么偷懒的,它只传你改动的那几KB数据。那个速度差异,特别是你文献库一旦大了,这种丝滑感真的回不去。

再有一点,
写论文改笔记,手滑误删甚至被覆盖是常有的事。免费网盘大多两手一摊:怪我咯?但坚果云有文件历史版本,哪怕你改乱了,也能一键穿越回几天前、甚至几个月前的版本。这功能我用得不多,但有一次确实救了我的毕业论文,那时候我就发誓,这钱花得值。

还有个关于安全的,虽然中科院背景硬,但毕竟是个实验性产品。坚果云可是正儿八经过了公安部三级等保的,这玩意含金量很高,非银行机构的最高认证了。还有ISO的双认证,这都是实打实的背书。咱们的数据,尤其是科研数据,那是咱们的命根子,放在这种运营了15年的老牌平台上,晚上睡觉都踏实点。

如果你只是想找个地方扔点不常用的老照片、安装包,甚至一些不重要的电影,中科院这个还是能用的,毕竟免费20G也是肉。
但如果你的数据是“活”的——你要天天改论文、记笔记、同步代码——听句劝,别拿自己的效率和数据安全去赌那点免费空间

专业的事,还是交给专业的工具吧。那一杯咖啡钱换来的稳定和省心,绝对是划算的买卖。

现在新用户注册坚果云好像还有免费试用团队版的机会,想避坑的朋友可以直接冲:
https://www.jianguoyun.com/s/campaign/cpclanding/main?sch=AIsf

一个月前某一天下班回家的路上冒出一个想法:让象棋可以随意下到棋盘的任意位置来进行战斗,会不会有点意思?

于是业余时间让 gemini vibe 了一个原型,也就是现在的练习模式:双方可以轮流出子或行动,消灭完对方棋子获胜。

试玩了一下其实感觉还行,黑方电脑是让 gemini 实现的简单 minimax 算法,但似乎已经够用。同事和朋友给了一些正反馈,虽然后续完全没有迭代这个模式,但入口一直保留在了首页。

基础的版本做完之后,这当然是一个简单得不能再简单的小游戏了,我就在想能不能迭代成一个肉鸽游戏?

最开始的想法也就是肉鸽常见的元素,无非就是强化棋子,添加关卡。我最开始给中国象棋的每类棋子设计了 3 v 种强化,比如车:

  1. 无视阻拦
  2. 连击
  3. 行走路线无法落子,持续一回合

设计完一版就让 Gemini 改一版(后来用 Codex ),说实话全程没有写过一行代码,越做越多,慢慢也有了更多的新想法,也让这个游戏变得更加复杂了。包括强化棋子从强化某一类棋子走向强化所有棋子,添加主将,添加地图,添加怪物棋子,添加地形等等。

比较有意思的是,在这个过程中,发现了 Steam 上的《 Gambonanza 》(刚结束试玩)和《弈棋·三国志》( Demo )。前者是以国际象棋为基础的类小丑牌的肉鸽,后者是以中国象棋为基础的战棋类肉鸽,都是在传统棋类上的扩展,它们都已经做得非常完善了,特别是 Gambonanza 美术也很好看(瞬间感觉自己做的不香了,哈哈),从他们的游戏中也获得了很多灵感和想法。

由于我之前并没有做过游戏,在这个过程中才体会到游戏策划或者数值策划确实很难,想法其实是最简单或者说最廉价的,但如何选择,如何凝练出独特的核心玩法是最难的。

现在的状态

断断续续迭代了一个多月,加了很多东西,但总感觉玩法上差点意思,没有一个很清晰的能明显提升游戏体验的点子。

象棋有一个特殊之处是吃子必然移子,会让己方棋子陷入危险,不可避免地演变为兑子,这在棋子设计和玩法设计对我造成了很多困扰。另外就是棋盘大了之后,车、炮这种移动能力特别强的棋子就会破坏游戏平衡。

其实这也是设计天火机制的初衷,不过总体都是打补丁式的迭代,所以到现在感觉这个游戏陷入僵局,连我自己都有点玩不下去了 😂。

不过不管怎么说,欢迎大家体验!

截图

home
队伍初始页
商店场景
地图页
战斗场景

地址

https://chess-brawl.vibegame.site/


在实时云渲染的商业化落地中,“单服务器多应用并发、互不干扰且低性能损耗”是降低部署成本、提升资源利用率的关键。3D应用(如UE4、Unity引擎项目)本身对CPU、GPU资源需求极高,如何在一台服务器上同时运行多个此类应用,让这类应用最大限度复用一台服务器的CPU能力、多张GPU资源,尽可能开多个应用实例,且保证每个应用的流畅性与独立性,成为行业技术攻关的核心命题。

当前市面上主流的资源隔离方案(虚拟机、沙盒)虽能实现基础隔离,但在3D应用场景下暴露诸多短板;而以点量云流为代表的国产云渲染厂商,通过自研轻量化CELL容器技术,实现了“高性能+高兼容性+低资源损耗”的平衡。本文将从技术底层拆解多3D应用并发的核心痛点,对比各类方案的优劣,剖析该国产技术路线的创新价值。

一、核心痛点:3D应用并发对隔离技术的特殊要求

实时云渲染中的3D应用(游戏、数字孪生、3D设计工具等),与普通办公软件相比,对隔离技术提出了更苛刻的要求:
1、低性能损耗:3D应用需占用大量GPU算力进行图形渲染,任何隔离层的性能损耗都会直接导致画面卡顿、延迟升高;所以最好是可以从操作系统最直接的去调用GPU系统资源。
2、GPU高效复用:单服务器往往配置多张高端GPU(如RTX4090),目的是在一个机箱内堆叠最大化的算力,并共用CPU、内存等资源,需支持多应用共享GPU资源,而非单一应用独占;
3、高兼容性:需适配UE4、Unity等不同类型3D引擎,且支持插件、外设(如键盘、鼠标、VR手柄)的正常调用;
4、强隔离性:多用户同时操作时,画面显示、键鼠输入、音频输出需完全隔离,互不干扰;
5、轻量化部署:支持快速启动、弹性伸缩,避免因隔离方案“过重”导致的资源浪费。
传统隔离技术因设计初衷与3D应用场景的不匹配,难以同时满足以上要求。

二、传统隔离方案的局限:为何无法适配3D应用并发?

1、虚拟机技术:“重隔离”导致的性能与资源浪费
虚拟机技术(KVM、VMWare、VirtualBox等)是最成熟的隔离方案,分为宿主型(在操作系统内运行虚拟机)和裸机型(直接运行在硬件上)两类,其核心逻辑是“模拟完整硬件环境,运行独立操作系统”。

技术原理与优势
虚拟机通过Hypervisor层实现硬件资源的虚拟化分配,每个虚拟机拥有独立的CPU、内存、存储、显卡(虚拟或直通)资源,操作系统与应用完全独立,隔离性极强。对于普通办公场景,其硬件兼容性好,可直接迁移现有软件环境。

但其在3D应用场景下的致命短板

  • 性能损耗严重:Hypervisor层的虚拟化转换会造成15%—30%的硬件性能损耗,3D应用的GPU渲染效率大幅下降;
  • GPU利用低效:若采用GPU虚拟化,需要昂贵的GPU虚拟化的License。并且,将一张GPU切割成了众多细分单元,一旦有某个应用需要一张完整的4090算力时,则无法进行满足。如果一张4090不做切分,又无法给多个虚拟机使用,只能做GPU直通;采用GPU直通的方案,一张高端GPU只能分配给一个虚拟机,如果某些应用一个只能占用10%的GPU算力,剩余的90%又无法开启另一个应用(此处涉及到应用画面、声音等资源的隔离),则无法进行弹性化的更优调度。
  • 部署“过重”:运行10个UE4进程需创建10个虚拟机,每个虚拟机需占用数GB内存(仅操作系统就需2-4GB),单服务器内存很快耗尽,且虚拟机启动时间长达数分钟,无法满足实时云渲染的弹性伸缩需求;
  • 硬件兼容性差:部分专业3D显卡(如NVIDIA Quadro系列)的虚拟化支持不完善,可能出现驱动异常等问题。

2、沙盒(进程虚拟化)技术:“轻量”却兼容不足
沙盒技术基于进程级隔离,通过重定向应用程序的系统调用,将磁盘读写、注册表操作、外设访问等重定向至虚拟环境,核心逻辑是“隔离进程资源,而非模拟完整系统”,属于轻量化方案。

技术原理与优势
无需创建独立操作系统,仅为每个3D应用分配虚拟运行环境,性能损耗极低(通常在5%以内),启动速度快(秒级),支持单服务器运行更多进程,GPU资源可直接共享。

3D应用场景下的核心局限

  • 兼容性极差:沙盒技术需针对每个应用的系统调用进行单独适配,而3D应用(尤其是UE4、Unity引擎项目)依赖大量底层硬件接口(如DirectX、OpenGL、GPU计算接口),且插件生态复杂,导致沙盒难以全面兼容——多数沙盒方案仅能支持少数几款热门游戏,无法覆盖工业设计、数字孪生等专业场景;
  • 隔离性不足:3D应用的音频输出、GPU资源抢占、外设调用等场景,沙盒的隔离机制易失效,可能出现多应用音频混叠、键鼠操作串流等问题;
  • 扩展能力弱:无法支持多显卡负载均衡、用户权限精细化控制等商用场景需求,仅适用于个人或小型测试环境。

三、国产技术创新:点量云流的CELL技术解决方案

针对虚拟机“过重”、沙盒“兼容差”的痛点,点量云流采用自研的CELL容器化方案,既保留对现有环境的适配能力,又通过技术创新突破3D应用并发的核心瓶颈,其特点具体如下:
1、可兼容虚拟机模式:保障现有场景平滑迁移
点量云流完全支持宿主型、裸机型虚拟机环境部署,可直接运行在KVM、VMWare等虚拟化平台上。对于已采用虚拟机架构的企业,无需重构现有环境即可接入云渲染服务,保障业务平滑过渡。但该模式仅作为兼容选项,核心推荐采用自研轻量化容器化方案,以实现资源利用率最大化。

2、自研轻量化容器CELL技术:平衡“隔离性”与“高性能”
点量云流摒弃传统沙盒的复杂重定向适配逻辑,创新推出“CELL多开机制”,主要针对UE等引擎的画面、声音、键盘鼠标等做虚拟层隔离,但对其他则保持高度兼容性。并且基于专利技术,实现多GPU的负载均衡调度,实现“比虚拟机轻、比沙盒兼容广,对硬件资源最大化利用”的核心优势,其技术亮点如下:
(1)隔离逻辑:精准隔离核心资源,不冗余模拟系统
CELL多开机制不创建完整虚拟系统,仅针对3D应用并发所需的核心资源进行隔离:

  • 输入输出隔离:独立分配键鼠、触控、VR手柄等输入设备权限,每个应用的操作指令仅作用于自身进程,避免串流;
  • 画面隔离:只针对画面输出层做隔离处理,每个用户仅能看到自身对应的3D应用画面,互不干扰;
  • 音频隔离:为每个应用分配独立声音通道,音频输出完全分离,无混叠问题;
  • 资源隔离:通过专利的智能调度算法分配GPU、充分利用单服务器下多GPU的场景。
    这种“精准隔离”模式避免了虚拟机的系统冗余,几乎无任何性能损耗,等同于原生活行效果。

除3D类精准隔离外,点量云流还支持对所有应用的隔离优化:

  • 全域软件兼容:可支持Windows和Linux系统下的绝大多数软件,可实现CATIA、SolidWorks、3ds Max、Maya等专业软件的无差别兼容,无需单独适配;
  • 多显卡负载均衡:支持自动识别服务器多显卡资源,根据各应用的GPU算力需求动态分配显卡负载,避免单显卡过载;
  • 外设兼容完善:原生支持键盘鼠标、声音、VR头显、游戏手柄等3D应用常用外设,无需额外安装驱动,即插即用。

(2)GPU复用:突破“虚拟化/直通”的二选一困境
点量云流无需依赖GPU虚拟化技术,也无需将GPU直通给单个应用,而是通过“宿主系统直接调度+进程级资源隔离”,实现多3D应用共享GPU资源:

  • 单个GPU可同时为多个3D应用提供渲染算力,多个应用可均衡分配到不同GPU进行运算;
  • 避免GPU虚拟化带来的延迟增加,3D应用的图形渲染延迟与原生运行几乎无差异,保障实时交互体验。

3、商用级扩展:适配企业级场景需求
除核心隔离与性能优势外,点量云流的CELL方案还具备完善的商用扩展能力:

  • 弹性伸缩:支持秒级启动/关闭3D应用进程,单服务器可根据用户需求动态调整并发数量,单显卡即可最高支持20+个轻量级3D应用同时运行;
  • 成本优化:单服务器并发能力比虚拟机模式提升60%以上,减少硬件和运维投入。
  • 功能齐全:扩展能力,完全自研模式,后续也可叠加同3DsMax等软件的插件、深度融合、无缝衔接等。

Anthropic 近日发布了一项随机对照试验,结果显示,使用 AI 编程辅助工具的开发者在理解能力测试中的得分比手动编程的开发者低 17%,且其生产力方面的提升未达到统计显著性。在对 52 名初级工程师的研究中,研究人员发现了明显的分化:将 AI 用于概念性问题的开发者测试得分达到或超过 65%,而将代码生成任务委托给 AI 的开发者得分则低于 40%。

 

Anthropic 研究人员开展的这项随机对照试验,旨在考察在学习新工具时,AI 编程助手如何影响技能发展。52 名参与者大多为初级工程师,且都至少有一年每周使用 Python 的经验。他们需要学习 Trio——一个此前无人接触过的异步编程库。对照组与 AI 辅助组均完成了两项编码任务,随后参加了一项测验,内容涵盖调试、代码阅读和概念理解。

 

AI 组完成任务的时间平均快约两分钟,但这一差异在统计学上并不显著。然而,测验成绩呈现出不同的结果:AI 组平均得分为 50%,而手动编码组为 67%,差距在调试类问题上尤为明显。

 

 在 Hacker News 的讨论中,用户 siliconc0w 概括了核心张力:

人们是在用学习机会和能力退化,去换取一种并不总能兑现的生产力提升。

另一位评论者 AstroBen 提出了代际层面的担忧:

我在想,未来会不会出现这样一种情况:初级工程师再也无法真正掌握独立工作的技能和经验,而是完全依赖 AI。

 

研究发现,开发者如何使用 AI,比是否使用 AI 本身更关键。低分模式(平均低于 40%)包括:完全将代码生成委托给 AI、逐步把所有工作交给 AI 的渐进式依赖,以及在调试过程中依赖 AI 直接给出解决方案而非帮助澄清问题。高分模式(平均 65% 或以上)则有一个共同点——保持认知参与:在生成代码后提出追问,将代码生成与解释结合,或仅在概念性问题上使用 AI,而编码过程仍由自己完成。正如 Hacker News 用户 AstroBen 所说:

AI 作为个人导师极其有用。

 

这一模式也得到了独立学术研究的支持。2024 年,马里博尔大学(应用科学)Jošt、Taneski 与 Karakatič 开展了一项为期 10 周的实验,32 名本科生在学习 React 过程中参与研究。结果几乎一致:在代码生成与调试中使用大语言模型(LLM)与最终成绩之间存在显著负相关,而将 LLM 用于解释性用途则未发现显著负面影响。研究作者指出,这种使用方式“可能不会妨碍,甚至可能有助于学生表现”。

 

Medium 撰稿人 Tom Smykowski认为,Anthropic 的研究主要测量的是学习新库时的表现,而非整体编程能力。他写道:

这项研究展示的不是 AI 如何影响程序员整体能力,而是 AI 使用如何影响你学习新事物的过程。

 

另一位 Medium 作者 Guru Prasad 则将核心张力界定为“认知参与”与“认知卸载”之间的区别,而非简单的“使用 AI”与“不使用 AI”的对立。

这项研究关注的不是 AI 对程序员整体能力的影响,而是当你学习新技术、新工具时,使用 AI 会带来怎样的影响。

 

这些发现与 Anthropic 此前的观察性研究形成对照。早期研究显示,在开发者已经具备相关技能的任务中,AI 可将任务完成时间缩短 80%。研究人员指出,AI 可能在既有技能领域提升生产力,同时在新技能习得方面产生抑制作用。不过他们也承认,本次研究仅测量了任务完成后的即时理解水平,并未追踪长期技能发展。

 

Anthropic 建议在部署 AI 工具时进行有意识的设计,以支持工程师的学习成长。他们指出,生产力收益可能以削弱监督 AI 生成代码所需的调试与验证能力为代价。目前,包括 Anthropic 与 OpenAI 在内的主要大语言模型提供商,都已推出专门的学习模式,强调理解优先而非任务委托,例如Claude Code 的学习与解释模式,以及ChatGPT 的学习模式

原文链接:

https://www.infoq.com/news/2026/02/ai-coding-skill-formation/

本来默认一直用 Google 搜索去搜东西,今天想在电脑上下个汽水音乐,然后在 Google 搜索 关键词:汽水音乐 windows 。结果排名#1 #4 都不是官网....全是两个盗版仿造的 wordpress 网站。真正的汽水官网根本找不到.....也就是在第一页,根本找不到真正的官网

百度在这方面最少有一个官网的标识,很快就可以分辨真官网在哪里

真的挺离谱的

最近各个群里简直炸开了锅,大家都在疯传那个中科院出的“数据胶囊”。说是给免费20G空间,还支持WebDAV,又是国家队背景,听着是不是特别香?对于咱们这些天天折腾Obsidian、Zotero的人来说,简直就像是掉了块大馅饼。

实话实说,我也没忍住诱惑。毕竟谁不想白嫖呢?赶紧注册了一个,心里还盘算着要是好用,以后每个月的坚果云会员费都能省下来买咖啡了。

结果呢?用了不到一礼拜,我又灰溜溜地把主力数据切回坚果云了。

真不是我矫情,这玩意儿虽然是“国家队”出品,但它那个体验,真的就是个半成品……甚至可以说是个“毛坯房”。

先说注册吧,那叫一个费劲。还得下载个专门的APP搞人脸识别实名认证,还要关联网络身份ID。我就存个笔记文献,弄得跟要去银行开户似的,心里总觉得有点怪怪的。而且最让我抓狂的是,它连个正经的电脑客户端都没有!
image.png

都2026年了,传个文件还得开网页或者找第三方的挂载工具,想在桌面上右键分享个文件?没门。

而且那个官方协议我看了一眼,明确写着“禁止商用”,主要是给科研辅助用的。这种非商业项目最大的风险就是不稳定,说不定哪天政策一变,要么限流,要么只能内网访问。之前好几个高校云盘不就是这么没的么?

咱们说回正题,为啥我最后还是得乖乖用回坚果云。

主要还是为了那个“无感同步”

给你们讲个我自己的真事儿。前几天我在Zotero里改一篇几百页的PDF文献,其实就是高亮了一句话。如果是用中科院这个(或者是123云盘那种普通的WebDAV),它得傻傻地把这几百兆的文件重新上传一遍。不仅慢,要是网稍微卡一下,直接给你报错,心态能崩一晚上。

但坚果云它是真懂行的,它那个智能增量同步只传我改动的那几KB数据。那一瞬间的感觉,这种丝滑感,你用惯了是真的回不去。

还有就是那个“文件时光机”(历史版本)。
咱们写东西的,谁还没手残误删过?或者被乱七八糟的同步把文件搞冲突了?免费网盘遇到这事儿基本就是两手一摊,但坚果云能把文件恢复到几天前、甚至几个月前的状态。这安全感,免费的20G真给不了。

虽然坚果云平时低调得不行,甚至有点“老干部”风,但人家运营了15年,还拿了公安部三级等保,这可是非银行机构能拿到的最高级别认证了。你想想,咱们的笔记、论文、代码,那是吃饭的家伙,放在这种经过时间检验的地方,晚上睡觉都踏实点。

最后总结一下我的血泪教训:
如果你只是想找个大仓库,扔点不怎么看的电影、或者一堆乱七八糟的安装包,那123云盘或者中科院这个尝尝鲜,完全没问题,毕竟免费的不用白不用。

但如果你的数据是“活”的——你是要天天改文档、同步文献、记笔记的——真的,别省那点钱。坚果云就像是家里的水电煤,平时你感觉不到它的存在,但它撑起了你所有的工作流。

与其把时间浪费在处理同步冲突和折腾配置上,不如对自己好点,用个专业的工具。

对了,我看坚果云官网现在好像有团队版免费试用的活动,想避坑的朋友可以直接去体验一下那种“无感”的快乐:
点击这里去官网看看