2026年1月

GitHub Copilot SDK 介绍

简介

GitHub Copilot SDK 是一个多平台的软件开发工具包,允许开发者将 GitHub Copilot Agent 集成到自己的应用程序和服务中。通过这个 SDK,你可以在自己的代码中以编程方式调用 GitHub Copilot CLI 的功能。

注意:目前所有 SDK 都处于技术预览阶段,在正式发布之前可能会有破坏性的变更。

支持的语言平台

语言安装命令
Node.js / TypeScriptnpm install [@github](/user/github/about)/copilot-sdk
Pythonpip install github-copilot-sdk
Gogo get github.com/github/copilot-sdk/go
.NETdotnet add package GitHub.Copilot.SDK

核心功能

  • 编程式访问 Copilot CLI:通过代码调用 GitHub Copilot 命令行工具的各种功能
  • 多语言支持:提供 JavaScript/TypeScript、Python、Go、C# 等主流语言的 SDK
  • 进程管理:SDK 自动管理 Copilot CLI 进程的生命周期
  • 灵活连接:支持连接到外部 CLI 服务器

工作原理

所有 SDK 通过 JSON-RPC 协议与 Copilot CLI 服务器进行通信:

复制
你的应用程序
    ↓
SDK 客户端
    ↓ JSON-RPC
Copilot CLI(服务器模式)

快速开始

第一步:安装 Copilot CLI

按照 Copilot CLI 安装指南 安装 CLI,或确保 copilot 命令在你的 PATH 环境变量中可用。

第二步:安装 SDK

根据你使用的编程语言,选择对应的安装命令(见上表)。

第三步:开始使用

查看各个语言 SDK 的 README 文档,了解具体的使用示例和 API 参考。

许可证

MIT

资源链接

被举报 AIGC 了,hook 脚本到 github 取吧


时间过得真快,距离上次发话题已经过去几个月,成年人的时间真是不经用。马上过年了,想罢年前一定要发点东西出来的。预祝大家新年快乐。


场景是这样的:
当 claude code 读取代码时,往往倾向于读取整个文件,如果文件非常大(比如 5000 行 +),这样的文本塞进上下文。结果就是:

【AI 编程】拒绝上下文过载:如何让 Claude Code 学会 “渐进式阅读”2

什么是 “渐进式披露”?

举个例子,这就好比一个人类程序员接手新项目时,不会上来就把 10 万行代码从头到尾读一遍。你会先看目录结构(ls),再搜关键字(grep),最后只打开相关的那几十行代码(read)。

Anthropic 的文档里一直强调这一点:让模型先通过搜索定位,再通过切片读取。

但在实际的行时,claude code 执 “太勤快”,往往是直接 Read 整个文件。所以,我们需要给它装一个 “防呆开关”。

这个 Hook 是怎么工作的?

这是一个 Python 脚本,在 PreToolUse 时的 Hook(工具调用前拦截),配合 CLAUDE.md 的提示词,组合引导 claude code 读取精确上下文。

核心逻辑

这个方案由两部分组成:

为什么这个方法 Work?

这利用了 LLM 的一个特性:它们非常听 “报错信息” 的话。

当 Tool Use 失败并返回一个明确的 “推荐路径” 时,claude code 会立刻进行自我修正。

【AI 编程】拒绝上下文过载:如何让 Claude Code 学会 “渐进式阅读”4

这样就强行把它拽回了 “渐进式披露” 的最佳实践路径上。

如何食用

你需要两个东西:一个是配置在项目根目录的规则文件,一个是实际执行拦截的 Python 脚本。

1. 提示词 (CLAUDE.md)

把这段加到你的项目提示词文件 (CLAUDE.md \ AGENTS.md) 中。告诉 claude code 读取策略。

中文版本

### 文件读取策略 **强制规则**:每次调用 Read 工具时**必须**指定 `offset``limit` 参数,禁止使用默认值。

#### 参数要求

| 参数   | 要求           | 说明                          |
| ------ | -------------- | ----------------------------- |
| `offset` | **必须指定** | 起始行号(从 0 开始)         |
| `limit`  | **必须指定** | 读取行数,单次不超过 500 行   |

#### 读取流程 1. **侦察**:先用 Grep 了解文件结构,或定位目标关键词行号。
2. **精准打击**:使用 offset + limit 精确读取目标区域。
3. **扩展**:如果需要更多上下文,再调整 offset 继续读取。

**目标**:保持上下文精准、最小化。如果不遵守,工具调用将被 Hook 拦截。

English Version

### File Reading Strategy **MANDATORY RULE**: Every `Read` tool call **MUST** verify `offset` and `limit` parameters. Default full-file reads are prohibited for non-trivial files.

#### Parameter Requirements

| Param    | Requirement    | Description                   |
| -------- | -------------- | ----------------------------- |
| `offset` | **REQUIRED** | Start line number (0-indexed) |
| `limit`  | **REQUIRED** | Max lines to read (Max 500)   |

#### Workflow 1. **Recon**: Use `Grep` first to understand structure or locate keywords.
2. **Surgical Read**: Use `offset` + `limit` to read only the relevant section.
3. **Expand**: Adjust `offset` to read more context only if strictly necessary.

**Goal**: Keep context precise and minimal. Violations will be blocked by the PreToolUse hook.

2. Hook (Python 脚本)

从上面 github 仓库获取 hook 文件,并配置到你的 claude code(如果不熟悉可以直接把文件丢给 claude code 让他代劳)。

(这个脚本稍微有点长,但逻辑很简单:检查文件大小 → 检查参数 → 决定是放行、自动修正还是报错拦截)

效果

装上这一套之后,你会发现 claude code 的行为模式变了:

【AI 编程】拒绝上下文过载:如何让 Claude Code 学会 “渐进式阅读”5

虽然多了一步交互,但上下文极其干净,Token 消耗量大大降低,而且修改的准确率反而提高了。


📌 转载信息
原作者:
cedricthecoder
转载时间:
2026/1/23 08:59:45

写在前面

按照佬的教程 免费白嫖 2-5 年 Copilot(Microsoft365),可用 GPT-5.2 成功用两个账号分别申请到了 2 年和 5 年的羊毛,激动之余汇总一下自己申请过程中遇到的坑以及如何成功申请五年的。

贴主为在读博士生,自己有 edu 邮箱,所以以下注意点不包括如何获取 edu 邮箱,如有需要可以看这里 关于 “免费白嫖 2-5 年 Copilot” 如何获取 edu 邮箱!

2 年的

我用的是 QQ 邮箱注册的 Microsoft 账号 + 博士学校的 edu 邮箱验证,其实很好成功,就是按照佬最开始的教程里里面手动把链接里的 US 改成 HK,用国区 Visa 绑 Paypal 就可以成功申请了。

这里验证了如果不换区的话国区 Visa 是不能过第一个链接的(来自不死心尝试了很多次的经验)。

这里注意,千万不要这时候直接去过第二个链接,不然只有一年的高级版,请看佬友的血泪教训 白嫖 Microsoft365 血泪:只有 1 年!

5 年的

5 年的重要问题就卡在怎么获取美区支付方式,这里请大家移步海鲜市场,50 软妹币购买一张 5 刀的虚拟卡(注意一定要提前问清是可绑 paypal 和 google pay 的独立卡,而不是只能过验证的虚拟卡,两个不一样不一样说两遍),拿到卡信息后去 google pay 进行注册和绑卡,绑卡成功我们就可以去过链接了。

这里用的是美区 Gmail 邮箱重新注册 Microsoft 账号 + 本科学校的校友邮箱验证(再次证明了邮箱不是重点,支付方式才是),然后一样先点第一个链接,支付方式选择 google pay,验证成功后再点第二个链接–成功升级!五年白嫖到手~

共通的注意事项

  • 节点的干净度非常非常非常重要!一般出现 “对不起我们出问题了请稍后再试” 或者中间突然断掉一般都是节点的问题,而且一定要开全局,我出现了两次换全局模式就好了
  • 第一次过港区的时候,我是换链接(US-HK)同时换了香港节点,两个链接都没出问题地过了
  • 第二次过美区出了个岔子,第二个链接怎么都过不了,显示稍后再试,这个时候注意用无痕模式重新开一个窗口,把链接复制过去打开就好了,我估计是我今天早些时候在没开的情况下上网被检测出来了。

Ok 这就是全部的内容啦,其实佬的教程已经非常详细了,很多解决方案评论区也有,我只是把自己过程中遇到的问题和解决方法汇总整理了一下(主要是出于一定要拿到 5 年的执念),希望能帮大家节省一些时间。

如果有帮助的话默默求个赞~孩子好穷上不起


📌 转载信息
原作者:
Silvia
转载时间:
2026/1/23 08:59:28

经常在对话中 如果是 claude 帮你构建啊 electron 打包啊
导致反代 400 了
opencode 使用技巧之 claude 4001

然后看日志你会发现都在上下文里啊!!
这下好了当前对话崩了只能换 gemini 来修复。。对话后续上才能切回 claude 继续对话

最好的办法就是提示词里安排 gemini 专家去子代理窗口构建打包什么的!
以后只要比较长的输出日志啊 什么的都让子代理 gemini 去干活
指定下~~~


📌 转载信息
原作者:
wuyinfan
转载时间:
2026/1/23 08:59:20

注册后会获得:
Credits: 100.0
Valid for: 7 days

可用模型:
Claude Sonnet/Opus 4.5, Gemini 3 Pro, GPT-5/Codex
~200 frontier model requests


📌 转载信息
原作者:
dkly2004
转载时间:
2026/1/23 08:58:52

分享一下刚开发的浏览器实用小插件【Auto Close Tab】

Chrome 插件商店地址:

插件功能:

  • 自动关闭不活跃的标签页,可以配置超时时间

  • 支持点击激活标签页,即使在不同的浏览器窗口

  • 支持手动锁定标签页,即使在不同的浏览器窗口

  • 支持使用规则自定义锁定标签页,支持 URL、标题、标签页分组

  • 支持规则和设置云同步(数据仅在个人账户上)

  • 支持使用正则表达式配置规则

痛点答疑:

1、浏览器已经有了休眠闲置标签页,这个插件的意义在哪呢?
答:浏览器的标签页休眠并没有真正休眠,它还是会占用你的内存空间;

2、可以用哪些方式添加规则呢?
答:可以根据 URL、网页标题、标签页分组方式,同时还需要配置触发时机;

例子:

URL: baidu
触发时机:仅在匹配时

现象:任意标签页在www.baidu.com时会被锁定,其他网页时则会处于解锁状态;

A网站 --> www.baidu.com --> B网站

3、哪些标签页天生自带锁定属性?
答:固定的标签页和浏览器内置页面,包括但不限于扩展、新标签页、浏览器设置等;

4、被关闭的标签页可以找回吗?
答:可以的,你可以在已关闭标签页 tab 中看到历史记录,可以显示自动关闭还是手动关闭;

5、其他的问题在评论区问吧。。。


PS:5 月就已经有这样的想法了,工作太忙一直没来得及做,当时没想到用 AI 做,仍旧坚持活字印刷,开发进度感人… 前阵子终于用上 AI 了,鞭打了 ClaudeCode 几天,总算是把预期的功能都做出来了;整体来说我自己觉得很满意,分享给佬友们看看佬友们有什么意见或建议。


📌 转载信息
原作者:
laohui
转载时间:
2026/1/23 08:58:37

编者按: 我们今天为大家带来的这篇文章,作者的核心观点是:相较于依赖复杂且高成本的动态 MCP 工具加载机制,以 Skills 为核心的能力摘要与自维护模式,在当前阶段反而更加高效、稳定且可控。

文章系统梳理了延迟工具加载(deferred tool loading)的工程现实与限制,指出即便工具可以延后注入,对话级别的工具集合仍然是静态的,且发现机制高度依赖正则匹配,收益并不如预期。作者进一步深入分析了 MCP 在上下文占用、API 稳定性、缓存失效与推理轨迹丢失等方面带来的隐性成本,并结合 Sentry MCP、Playwright 等实践案例,说明为何将 MCP 转换为 Skills,反而能让 Agent 更好地发挥既有工具的能力。文章最后还探讨了 MCP 是否可能完全转化为 Skills 的可行性,并坦率指出当前协议与生态在稳定性与摘要机制上的不足。

作者 | Armin Ronacher

(作者为 Flask、Jinja2 等开源项目的创建者)

编译 | 岳扬

我正把所有的 MCP 都迁移到 Skills 上,包括之前还在使用的最后一个:Sentry MCP(译者注:Sentry 是流行的应用监控与错误追踪平台)。早前我就已经完全弃用 Playwright(译者注:由 Microsoft 开发的现代 Web 自动化测试和浏览器自动化框架),转向使用 Playwright Skill。

过去一个月左右,关于使用“动态工具配置(dynamic tool loadouts)[1]”来推迟工具定义的加载的讨论一直不少。Anthropic 也在探索通过代码来串联 MCP 调用的思路,这一点我也尝试过[2]。

我想分享一下自己在这方面的最新心得,以及为什么 Anthropic 提出的“延迟工具加载方案(deferred tool loading)”并未改变我对 MCP 的看法。或许这些内容对他人会有所帮助。

01 什么是工具(Tool)?

当 Agent 通过强化学习或其他方式接触到工具定义时,它会被鼓励在遇到适合使用该工具的场景时,通过特殊的 token 输出工具调用。实际上,工具定义只能出现在系统提示词(system prompt)中特定的工具定义 token 之间。从历史经验来看,这意味着我们无法在对话状态的中途动态发出新的工具定义。因此,唯一的现实选择是在对话开始时就将工具加载好。

在智能体应用场景中,我们当然可以随时压缩对话状态,或更改系统消息中的工具定义。但这样做的后果是,我们会丢失推理轨迹(reasoning traces)以及缓存(cache)。以 Anthropic 为例,这将大幅增加对话成本:基本上就是从头开始,相比于缓存读取,需要支付完整的 token 费用,外加缓存写入成本。

Anthropic 最近的一项创新是“延迟工具加载”(deferred tool loading)。我们仍然需要提前在系统提示词(system message)中声明工具,但这些工具不会在系统提示词发出时就注入到对话中,而是会稍后才出现。不过据我所知,这些工具定义在整个对话过程中仍必须是静态的 —— 也就是说,哪些工具可能存在,是在对话开始时就确定好的。 Anthropic 发现这些工具的方式,纯粹是通过正则表达式(regex)搜索实现的。

02 与 Skills 的对比

尽管带延迟加载的 MCP 感觉上应该表现更优,实际上却需要在 LLM API 端做不少工程化工作。而 Skills 系统完全不需要这些,至少从我的经验来看,其表现依然更胜一筹。

Skills 实质上只是对现有能力及其说明文件位置的简短摘要。这些信息会被主动加载到上下文中。 因此,智能体能在系统上下文里(或上下文的其他位置)知晓自己具备哪些能力,并获知如何使用这些能力的“手册链接”。

关键在于,Skills 并不会真正把工具定义加载到上下文中。 可用工具保持不变:bash 以及智能体已有的其他工具。Skills 所能提供的,只是如何更高效使用这些工具的技巧和方法。

由于 Skills 主要教的是如何使用其他命令行工具和类似实用程序,因此组合与协调这些工具的基本方式其实并未改变。让 Claude 系列模型成为优秀工具调用者的强化学习机制,恰好能帮助处理这些新发现的工具。

03 MCP 能否转换为 Skills?

这自然引出了一个问题:既然 Skills 效果这么好,我能不能把 MCP 完全移出上下文,转而像 Anthropic 提议的那样,通过 CLI 来调用它?答案是:可以,但效果并不好。Peter Steinberger 的 mcporter[3] 就是其中一种方案。简单来说,它会读取 .mcp.json 文件,并将背后的 MCP 暴露为可调用的工具:

npx mcporter call 'linear.create_comment(issueId: "ENG-123", body: "Looks good!")'

确实,它看起来非常像一个 LLM 可以调用的命令行工具。但问题在于,LLM 根本不知道有哪些工具可用 —— 现在你得专门教它。于是你可能会想:那为什么不创建一些 Skills,来教 LLM 了解这些 MCP 呢?对我而言,这里的问题在于:MCP 服务器根本没有维持 API 稳定性的意愿。它们越来越倾向于将工具定义精简到极致,只为节省 token。 这种做法有其道理,但对 Skills 模式来说却适得其反。举个例子,Sentry MCP 服务器曾彻底将查询语法切换为自然语言。这对 Agent 来说是一次重大改进,但我之前关于如何使用它的建议反而成了障碍,而且我没能第一时间发现问题。

这其实和 Anthropic 的“延迟工具加载方案”非常相似:上下文中完全没有任何关于该工具的信息,我们必须手动创建一份摘要。我们过去对 MCP 工具采用的预加载(eager loading)方式,如今陷入了一个尴尬的局面:描述既太长,不便预加载;又太短,无法真正教会 Agent 如何使用它们。 因此,至少从我的经验来看,你最终还是得为通过 mcporter 或类似方式暴露出来的 MCP 工具,手动维护这些 Skills 摘要。

04 最省事的路线

这让我得出了目前的结论:我倾向于选择最省事的方式,也就是让 Agent 自己以“Skills”的形式编写所需的工具。 这样做不仅耗时不多,最大的好处还在于工具基本处于我的掌控之中。每当它出问题或需要新增功能时,我就让 Agent 去调整它。Sentry MCP 就是个很好的例子 —— 我认为它可能是目前设计得最好的 MCP 之一,但我已经不再使用它了。一方面是因为一旦在上下文中立即加载它,就会直接消耗约 8k 个 token;另一方面,我也一直没能通过 mcporter 让它正常工作。现在我让 Claude 为我维护一个对应的 Skill。没错,这个 Skill 可能有不少 bug,也需要不断更新,但由于是 Agent 自己维护的,整体效果反而更好。

当然,这一切很可能在未来发生变化。但就目前而言,手动维护的 Skills,以及让 Agent 自行编写工具,已成为我的首选方式。我推测,基于 MCP 的动态工具加载终将成为主流,但要实现这一点,可能还需要一系列协议层面的改进,以便引入类似 Skills 的摘要机制,以及为工具内置使用手册。 我也认为,MCP 如果能具备更强的协议稳定性,将大有裨益。目前 MCP 服务器随意更改工具描述的做法,与那些已经固化下来的调用方式(materialized calls)以及在 README 和技能文件中编写的外部工具说明很难兼容。

END

本期互动内容 🍻

❓抛开现有方案,你理想中的AI工具调用范式应该长什么样?用一句话描述你最核心的需求。

文中链接

[1]https://www.anthropic.com/engineering/advanced-tool-use

[2]https://lucumr.pocoo.org/2025/7/3/tools/

[3]https://github.com/steipete/mcporter

原文链接:

https://lucumr.pocoo.org/2025/12/13/skills-vs-mcp/

对于很多企业来说,供应商管理一直是个“老大难”问题——信息散乱、沟通成本高、对账周期长、合作过程不透明。如果全靠Excel和微信来管理,效率低不说,还容易出错。因此,一套好用的供应商管理系统(SRM)成了企业数字化转型中的重要一环。

但市面上的相关产品五花八门,有标准化软件,也有定制化平台,到底该怎么选?今天,我们就结合市场反馈、产品功能和实际应用情况,为大家测评并排名当前较受关注的6款供应商管理系统,希望能给正在选型的你一些参考。

1. 支道

https://www.zdsztech.com

综合评分:★★★★★

定位: 无代码定制化SRM解决方案

适合企业: 成长型企业、多业务场景需求、追求灵活与性价比并重的公司

如果要说近几年在中小企业数字化领域口碑不错的平台,支道 肯定算一个。它并不是一个固定的“标准化SRM软件”,而是一个无代码业务搭建平台,供应商管理只是其能搭建的众多场景之一。

为什么把它放在前面推荐?

首先,它解决了一个核心痛点:企业需求总是在变。今天你可能只管采购比价,明天就需要供应商绩效评估,后天又希望和供应商在线协同订单。标准化软件往往很难跟上这种节奏,而支道让业务人员自己就能通过“拖拉拽”配置流程、表单和报表,快速搭建出贴合实际的管理应用。

从供应商管理具体功能上看,它覆盖了:

供应商全生命周期管理:从准入、分类、评级到淘汰,形成电子档案。

在线询比价与招标:流程在线化,比价更透明,支持自动生成比价单。

订单协同与发货跟踪:供应商可通过门户查看订单、确认交期、更新发货状态,减少来回沟通。

智能对账与绩效评估:自动汇总往来数据,内置评估模型,生成供应商绩效看板。

内外协同便捷:支持通过链接、二维码等方式让供应商参与部分流程,无需对方额外安装系统。

最大的优势在于“灵活”和“性价比”。它没有按功能模块收费,企业可以根据自身发展阶段,先搭建核心的供应商档案与询价功能,后续再逐步扩展绩效、协同等模块。同时支持公有云、私有化部署,成本比许多传统定制开发低不少。

很多使用它的企业反馈:“像是请了一个懂业务的开发团队,但不用养人。” 尤其适合那些业务独特、标准化软件无法满足,又担心定制开发成本高、周期长的企业。

2. 金蝶

综合评分:★★★★☆

定位: 集成的ERP系统,SRM为其重要组成部分

适合企业: 已使用或计划使用金蝶ERP的中大型制造业、贸易企业

金蝶作为国内老牌企业管理软件厂商,其云产品 金蝶云·星空 中的供应链协同模块,提供了比较完善的SRM功能。如果你企业本身就用金蝶处理财务、进销存,那么用它来管理供应商,数据打通会非常顺畅。

它的供应商管理侧重于流程规范和业财一体化

与ERP深度集成:采购订单、入库单、应付账款自动关联,杜绝数据孤岛。

供应商门户:供应商可自助维护信息、接收订单、确认送货单和发票,提升协同效率。

招投标管理:支持线上招标流程,相对规范。

质量管理协同:可与来料检验(IQC)流程关联。

优势是体系成熟、财务衔接好,特别适合管理规范、对财务合规性要求高的大中型企业。不足是作为大型ERP的一部分,整体价格较高,且功能偏标准化,个性化调整需要二次开发,成本和周期都不低。

3. 用友

综合评分:★★★★☆

定位: 用友新一代云ERP的SRM解决方案

适合企业: 成长型创新企业、全链路数字化需求较强的公司

用友的 YonSuite 定位为“成长型企业的云ERP”,其供应商协同云是现代、轻量化的SRM方案。它强调社交化协同和用户体验,试图把复杂的供应商管理做得更“互联网化”一些。

主要功能亮点:

社交化沟通协同:类似商务聊天界面,与供应商的沟通记录可关联业务单据。

全流程线上化:从寻源、询报价、合同到送货、对账,都在一个平台完成。

供应商风险监控:集成一些外部数据,对供应商经营风险进行预警。

移动端应用友好:审核、沟通在手机上操作方便。

优势在于产品设计较新,协同理念突出,适合喜欢轻便、敏捷操作模式的企业。但作为用友云生态的一部分,同样面临与外部系统深度集成时可能需要的定制工作。

4. Oracle NetSuite SRP

综合评分:★★★★☆

定位: 全球性云端ERP内置的供应商管理方案

适合企业: 有跨国业务、需要多语言多币种支持的中大型企业

对于业务涉及海外的企业,Oracle NetSuite 是一个常被考虑的选项。它的供应商关系管理(SRP)模块是其ERP套件的一部分,天生支持全球化的供应链管理。

核心能力包括:

全球供应商管理:轻松管理不同国家地区的供应商,处理多币种报价和结算。

端到端采购流程:从需求计划到付款,全部自动化。

强大的分析报告:提供全球采购开支、供应商绩效等多维度分析。

开放集成平台:易于与其他国际主流系统对接。

优势无疑是其全球化能力和品牌信誉。但劣势也很明显:实施和许可费用昂贵,产品复杂度高,通常需要专业的咨询团队实施,更适合预算充足、业务结构复杂的国际化公司。

5. 甄云科技

综合评分:★★★☆☆

定位: 专注于SRM领域的标准化SaaS产品

适合企业: 采购管理复杂、寻源需求强的大型集团企业

甄云科技 是国内较早专注于SRM赛道的厂商之一。其 甄采SRM 是一款功能深度聚焦在采购与供应商管理的标准化产品。

它的强项在于 采购寻源和成本控制

战略寻源:支持复杂的招标、竞价、谈判流程。

采购成本分析:深入分析采购支出,寻找降本机会。

供应商绩效精细化管理:评估模型可自定义程度较高。

与主流ERP有预置接口:与SAP、Oracle、用友、金蝶等可进行对接。

优势是专业度高,在大型企业的集中采购场景中经验丰富缺点是作为标准化SaaS,虽然功能深,但灵活性有限,且产品主要面向大型客户,对中小企业来说可能功能过重、价格偏高。

6. 纷享销客

综合评分:★★★☆☆

定位: 以CRM为核心,扩展至上下游业务协同的平台

适合企业: 以渠道分销、客户项目管理为核心,需联动供应商的中小企业

纷享销客 本质是一个连接型CRM,但其PaaS平台能力允许它将业务延伸到上下游协同。如果你的企业业务核心是项目和客户,供应商管理作为辅助环节,需要与客户项目打通,那它可以作为一种轻量级选择。

在供应商管理方面,它能实现:

供应商信息作为客户/伙伴管理:在CRM框架内管理供应商基础信息和联系人。

简单询价与订单协同:通过流程和表单功能实现。

与项目、合同关联:便于核算项目成本。

低代码自定义能力:可对其标准功能进行一定调整。

优势在于它从客户侧视角整合供应链,适合项目制销售型企业不足是并非专业的SRM,在复杂的采购寻源、供应商绩效深度分析等方面功能较弱。

总结与选型建议

选供应商管理系统,没有绝对的“最好”,只有“最适合”。

如果你的业务在快速发展,需求多变,希望系统能跟着业务成长,支道 这类无代码平台值得优先考虑。它能以较低成本实现深度定制,且后续调整自主性强,算是大家比较钟爱的选择。

最后提醒一句,无论选哪家,一定要让对方提供同行业的案例参考,甚至安排演示环境亲手试用。供应商管理是“用”出来的,只有贴合你业务实际运作习惯的系统,才能真正用起来、出效果。

点赞 + 关注 + 收藏 = 学会了

整理了一个n8n小专栏,有兴趣的工友可以关注一下 👉 《n8n修炼手册》

不管是在电脑还是 NAS 通过 Docker 部署 n8n,环境变量没配置好的话,使用 Read/Write Files from Disk 节点「读取本地本地」或者「保存文件到本地」,有可能出现这个报错。

这是 Docker + n8n 文件系统权限/路径隔离 的经典问题,不是 n8n 节点用错,而是容器只能访问被允许的目录

⚠️⚠️⚠️

想解决这个问题,首先要将你 n8n 上已有的工作流等数据找个地方保存好。因为要改环境变量,有可能会丢失数据。

⚠️⚠️⚠️

在电脑用 Docker 部署

打开 Docker,首先要在 Containers 里删掉部署好的 n8n。

然后到 Images,假设你没删掉 n8n 镜像的话,重新点击一下运行按钮。

删掉镜像了就重新拉一遍吧。可以参考《『n8n』环境搭建》

点击运行按钮后,需要添加在 Volumes 里添加一项(下图红框)。

在你的电脑,找个位置创建要给文件夹。

  • 上图红框的 Host path 这项就填入你在电脑创建的文件夹的绝对路径。
  • Container path 这项填入 /home/node/.n8n-files,必须是这个值!一个字一个符号都不能少!

然后点击“Run”按钮(弹窗右下角蓝色底色那个按钮)。

之后再浏览器输入 localhost:5678 就能运行 n8n 了。

接下来使用 Read/Write Files from Disk 节点读写文件,都是指向你刚刚在电脑创建的那个文件夹。

比如我的 /home/node/.n8n-files 指向了 文稿/n8n-data 这个文件夹,里面有一个 hello.txt 文件。

在 n8n 里使用 Read/Write Files from Disk 节点时,File(s) Selector 项需要这么写:

/home/node/.n8n-files/hello.txt

可以看到文件读取成功了。

记住记住!用法是这样的,别问为什么⬇️⬇️⬇️

/home/node/.n8n-files/文件名.后缀

在绿联 NAS 部署

如果你是在 NAS 上部署 n8n,通常使用 Docker 部署的吧~

不管你是用群晖还是其他牌子的NAS,如果使用新建项目,用是 yaml 拉镜像。

services:
  n8n:
    image: n8nio/n8n:latest   # 为了汉化成功,这里需要指定镜像版本号
    container_name: n8n
    ports:
      - 5678:5678
    volumes:
      - n8n:/home/node/.n8n # 冒号前面映射n8n文件夹绝对路径
      - n8n-files:/home/node/.n8n-files # 冒号前面映射n8n-files文件夹绝对路径
    restart: unless-stopped

那么 yaml 的代码必须在 volumes 里加一项 - n8n-files:/home/node/.n8n-files。冒号前面的 n8n-files 是允许 n8n 读写文件的文件夹的绝对路径

如果你是使用《『NAS』不止娱乐,NAS也是生产力,在绿联部署AI工作流工具-n8n》里提到的方法,在 Docker 的「镜像」模块里搜索 n8n 下载部署的话,需要这么做。

我用绿联 NAS 举例,其他品牌的 NAS 操作方法大同小异。

在 Docker 的「容器」里找到 n8n,停止运行。

然后编辑它。

在 NAS 的「文件管理」里创建一个文件夹,用来给 n8n 读写文件使用的。

然后在「编辑容器」的「存储空间」里添加一项 /home/node/.n8n-files 指向那个文件夹,提供“读写”权限,如下图红框所示。

点击“保存”按钮,然后运行项目。

我在 NAS 的 n8n-files 文件夹里准备了一个 雷猴世界.txt 文件。

在 n8n 里,使用 /home/node/.n8n-files/雷猴世界.txt 这个路径就能读取到上面这个文件了。

同样,也是这个格式:

/home/node/.n8n-files/文件名.后缀

以上就是本文的全部内容啦,想了解更多n8n玩法欢迎关注《n8n修炼手册》👏

如果你有 NAS,我非常建议你在 NAS 上部署一套 n8n,搞搞副业也好,帮你完成工作任务也好 《『NAS』不止娱乐,NAS也是生产力,在绿联部署AI工作流工具-n8n》

点赞 + 关注 + 收藏 = 学会了

要求:是 UWP 格式的,符合 Fluent UI

Unigram, Apple Music, Dev Toolbox, Harden System Security, App Control Manager, PowerToys, Minecraft Bedrock Edition

要求:使用 Dart/Java/Kotlin 编写,符合 Material Design 3 风格,可在 Google Play/Obtainium/Accrescent 获取,开源,积极维护,Target API 在最新两个大版本

Read You, Signal/Molly, Mastodon/Moshidon, Image Toolbox, PiliPlus, LibreTube, LocalSend, Sing-Box, Tor VPN(Beta), PixEz

部分符合:Apple Music, Telegram(X)

一直使用 vs code 开发 go,主要搞 web ,最近体验了一下 sublime-text ,发现这个曾经流行的开发工具对 GO 的支持很一般,插件还是很多年前的,是不是我不会配置,有没大神使用 ST 开发?

楼主本科软件工程,开发能力自认为还是不错的(大一没 LLM 时接过几个 Django 项目。但是离散,高数这种课确实比较拉,复习一个月 80 份那种。平时计算机方面有意思的领域都有涉及(服务器运维,软路由,操作系统开发以及基础的网安),之后借着 llm 的加持,做了不少项目和比赛,然后保研之后读了人工智能相关的专业,遇到了现在的同门,本科是自动化的,因为不想搞那方面,所以转了 AI 。
他同时还是我室友,我俩在校外合租,刚开学时经常交流,因为他对计算机方面很多东西都很感兴趣,当时第二天看到我的博客之后,他也想搭个博客,那是他第一次,也是少数几次主动问我计算机相关的东西(因为后面他都无师自通了),我当时就把我的博客框架还有啥东西都告诉了他。没想到这是他突飞猛进的开始。
他还是荷兰的,学习能力强这点我之前是知道的,但没想到这么厉害。他自己一个人一天就搞定了博客( twioo 评论啥的,图床之类),当时我是有点震惊,我以前搞博客还研究了好几天,后面还一直迭代好多次。他一天就搞定确实震惊到我了。
而且在科研方面他是比我厉害太多了。做毕设的时候,他做的课题比我复杂得多,而且同时师兄还给他安排了一个新的课题让他做,这俩做的都很好(组会每次都是 4 ,50 页 ppt ,老师和师兄都挺喜欢他的,干活也快)。我做的课题比较简单,而且当时接触了 cursor ,就开始纯 vibe coding 了。每次在实验室看到他手搓代码我都觉得我太菜了。
哦对,做毕设的时候比较闲,他就开始刷算法,看 java 编程(外行接触计算机必经之路是吧),还学了前端三件套以及自己照 b 站视频学了做小程序。上面这么多事都发生在两个月内。
他学东西真的很快,我当时还感叹年轻真好啊。没想到接下来更快了(我的锅)。比如这个学期,导师让我复现一个 LLM 微调的项目,我们开组会的时候提了一下,然后他康齿康齿也自己去折腾自己的 llm 微调了;再比如之后做一个项目需要量化个模型,老师本来指定要我干来着(他负责跑那个模型,我负责量化),结果他直接帮我全干完了,还自己部署好了,也没跟我说。
很多时候我展示一些 skill ,他看到之后,悄咪咪就把这吸收了,也不问我,中间有什么问题他都一个人解决。这时候我就开始心里有点复杂了,不知道是嫉妒他的学习能力,还是我自己钻研的最优解决方案被他直接学去了心里不是滋味。不知道该怎么处理这个情绪。我感觉我像个教师模型,被不断地蒸馏了,哎。
我一开始以为他学东西只是偶然学的,不是从我这获取到 entry ,之前还做了个测试,我故意在他面前说了一句我开 gemini 3 pro 学生优惠白嫖,结果第二天他也用上 gemini 3 pro 了。当然还有我放家里的自组 nas ,他后来也买了台绿联的 nas ,这类例子不胜枚举。
最近他开始学计网了,学的是真快,而且 llm 部分他也看的很多,我能感觉到,同样的领域,我以前学的没他这么快的,照这个速度差下去,迟早我要被超过呀,真不是滋味呀!我跟豆包聊过这个情况,豆包建议我“留一手”从那之后我也有刻意不在他面前干活。
转折点(也就是这几天),我看到他也开始用 notebooklm 以及反重力(我目前主力),已经进化到我当前的 workflow ,实话实说,我真慌了。我从网页对话 到 反重力这种 vibe coding ,中间也过了几年,各种模型,工具尝试了不少,踩了不少坑,现在琢磨出的工作流,也被他学会了。总感觉再过半年我就要被他全面超过了。

✅ 今天的好消息

今天上午,尘封永久封禁将近半年的推特账户,在第 33 次申诉 后,这次提交没几分钟就恢复了,怀疑是审核机器人通过的。

这是第二个成功解封的推特账户啦。

关于恢复账户的,真的难得,有问我看到抽空必答。


❌ 之前收到的“无法恢复”通知(中文自译)

您的账户因多次或重复违反 X 规则而被暂停:

此账户将无法恢复。

此案现已结案,我们将不再监控回复。

当时等于被“正式宣判”无法恢复,所以这次又成功解封,含金量非常高。


✅ 本次成功解封通知(中文自译)

标题

您的帐户已恢复


问候与说明

你好,

我们特此通知您,您的账户已恢复正常。

如果您在重新登录时遇到任何问题,请尝试申请重置密码邮件。

您的关注者和关注数量可能需要大约一个小时才能恢复正常。


之前被暂停的原因说明

请注意,您的帐户之前因违反一项或多项 X 规则而被暂停,例如:

  1. 发送多条未经请求的 @ 回复或提及


    • 详情可见:XXX
  2. 在热门或流行话题下发布多条不相关的更新


    • 详情可见:XXX
  3. 频繁且随意地转发和 / 或点赞其他账号的帖子


    • 详情可见:XXX
  4. 滥用 X 产品功能,包括但不限于:


    • 「关注者流失」——关注大量账号,然后取消关注,以增加自己的粉丝数量;
    • 盲目关注——在短时间内关注和 / 或取消关注大量不相关的账户,尤其是通过自动化方式;
    • 复制其他账号的粉丝,特别是使用自动化手段。

请注意,屡次违反 X 规则可能会导致停赛。


结案说明与署名

此案现已结案,我们将不再监控回复。

谢谢,
X


试试 win11 自带的 google 的 TCP 拥塞算法吧。让发包狂魔 BBR 帮你解决焦虑。

windows11 以管理员身份打开 powershell

查看当前采用的网络算法

Get-NetTCPSetting | Select SettingName,CongestionProvider

可以看到微软原生的是 CUBIC

win11 自带 BBR2 算法,可以在 powershell 中执行命令,切换为 BBR2 算法:

netsh int tcp set supplemental Template=Internet CongestionProvider=bbr2
netsh int tcp set supplemental Template=Datacenter CongestionProvider=bbr2
netsh int tcp set supplemental Template=Compat CongestionProvider=bbr2
netsh int tcp set supplemental Template=DatacenterCustom CongestionProvider=bbr2
netsh int tcp set supplemental Template=InternetCustom CongestionProvider=bbr2
#在 Windows 11 23H2 / 24H2 及更新版本下,启用 BBR v2 可能会造成本地 TCP 连接无法使用(如导致 adb 卡住无法连接、Steam 无法使用等),我们还需要使用以下命令修复本地 TCP 连接。(来源,MSDN )
netsh int ipv6 set global loopbacklargemtu=disable
netsh int ipv4 set global loopbacklargemtu=disable

回退:

netsh int tcp set supplemental template=internet congestionprovider=CUBIC
netsh int tcp set supplemental template=internetcustom congestionprovider=CUBIC
netsh int tcp set supplemental template=Compat congestionprovider=NewReno
netsh int tcp set supplemental template=Datacenter congestionprovider=CUBIC
netsh int tcp set supplemental template=Datacentercustom congestionprovider=CUBIC
netsh int ipv6 set global loopbacklargemtu=enable
netsh int ipv4 set global loopbacklargemtu=enable

我亲测用起来后,网络下载比原来快不少,有兴趣的小伙伴快来试试吧。

PS:linux 也可以切换,用 linux 的也不用手把手教了,这里不做赘述了。

雪花相册清理是一款我开发的 iOS 照片清理和存储优化应用,旨在解决我一直以来遇到的问题:iPhone 存储空间不足和相册整理困难。
从现在开始到 1 月 26 日,终身专业版完全免费。

只需一个应用,即可完成通常需要多个工具才能完成的操作:快速清理、整理照片,压缩照片和视频,释放大量存储空间。

自发布以来的两个月里,我收到了大量真实用户反馈,修复了许多问题,并对用户界面和交互进行了多次改进。
现在雪花相册清理功能更加完善,界面更简洁,使用体验也更加流畅了。

核心功能:

  1. 基于滑动手势的照片整理


    • 基于熟悉且接近原生体验的照片浏览方式。只需向上滑动即可删除照片,一次点击即可快速将照片添加到/从相册中移除——几乎无需学习即可上手。
  2. 多种整理模式


    • 按日期或相册整理,或使用随机模式,让照片整理过程不再枯燥乏味,更加有趣。
  3. AI 智能选择


    • 自动检测重复、相似和模糊的照片,并推荐最佳照片进行保留——帮助您减少选择的烦恼。
  4. 照片和 4K 视频压缩


    • 压缩大型照片和 4K 视频,将 Live Photos 提取为静态图像,并在几乎不损失画质的情况下,释放高达 80% 的存储空间。
  5. 简洁的界面和流畅的交互


    • 没有复杂的设置。打开应用即可立即开始清理。
  6. 100% 离线且注重隐私


    • 所有处理都在您的设备本地进行。

📥 下载

👉 [App Store 链接]https://apps.apple.com/app/id6747161329
或者在 App Store 搜索 Swish Clear / 雪花相册清理

反馈和建议

如果您遇到任何问题、有任何建议或新功能想法,请在评论区留言。

关联帖子: 【💰】每天分享一个 LINUX DO 邀请码给本站活跃用户

分享一个 V2EX 邀请码给 2 友。目前只有一个金币,只能生成一个邀请码。

只限 6 级以上且拥有除了种子用户徽章以外其他徽章的活跃用户

满足条件的可以留下邮箱地址。(邮箱地址请用 Base64 加密功能加密)

screenshot-2026-01-22-22-45-34

再重申一遍,

只限 6 级以上且拥有除了种子用户徽章以外其他徽章的活跃用户

Agent 系统发展得这么快那么检索模型还重要吗?RAG 本身都已经衍生出 Agentic RAG和 Self-RAG(这些更复杂的变体了。

答案是肯定的,无论 Agent 方法在效率和推理上做了多少改进,底层还是离不开检索。检索模型越准,需要的迭代调用就越少,时间和成本都能省下来,所以训练好的检索模型依然关键。讨论 RAG 怎么用的文章铺天盖地,但真正比较检索模型学习方式的内容却不多见。

检索系统包含多个组件:检索嵌入模型、索引算法(HNSW 之类)、向量搜索机制(余弦相似度等)以及重排序模型。这篇文章只聚焦检索嵌入模型的学习方式。

本文将介绍我实验过的三种方法:Pairwise cosine embedding loss(成对余弦嵌入损失)、Triplet margin loss(三元组边距损失)、InfoNCE loss。

成对余弦嵌入损失

正样本对示例

负样本对示例

输入是一对文本加一个标签,标签标明这对文本是正匹配还是负匹配。和 MNLI 数据集里的蕴含、矛盾关系类似。

损失函数用的是余弦嵌入损失,x 和 y 分别是文本对的嵌入向量。

三元组边距损失

输入变成三个文本:一个锚文本、一个正匹配、一个负匹配。

损失函数是 Triplet Margin Loss。公式里 a 代表锚文本嵌入,p 代表正样本嵌入,n 代表负样本嵌入。

InfoNCE 损失

输入包括一个查询、一个正匹配、一组负样本列表。

损失函数采用 InfoNCE,灵感来自 M3-Embedding 论文(arxiv:2402.03216)。公式中 p* 是正样本嵌入,P' 是负样本嵌入列表,q 是查询嵌入,s(.) 表示相似度函数,比如余弦相似度。

比较

哪种方法最好?要看具体场景、数据量和算力。从我的实验来看,InfoNCE 覆盖面最广。但只要实验做得够充分、训练数据比例调得够细,余弦嵌入损失也能达到差不多的效果。三元组边距损失我没有深入探索,不过它可能是介于另外两者之间的一个折中选项。

https://avoid.overfit.cn/post/7958652dd31e4cf5ace899b97e0eac27

作者:Jerald Teo

1、CSS 滤镜反转颜色

/* 代码实现全网站暗黑模式 */
@media (prefers-color-scheme: dark) {
    html {
        background-color: #fff !important;
        color: #000 !important;
    }

    html {
        /* 反转180度颜色 */
        filter: invert(1) hue-rotate(180deg) !important;
    }

    /* 图片、视频等元素不需要处理,可继续添加可以不用处理的元素 */
    img,
    video,
    iframe {
        /* 再反转180度变成原来颜色 */
        filter: invert(1) hue-rotate(180deg) !important;
    }
}

2、JS 库添加蒙板

<script src="https://cdnjs.cloudflare.com/ajax/libs/Darkmode.js/1.5.7/darkmode-js.min.js"></script>
<script>
    // 监听系统暗黑模式变化
    let darkmode = new Darkmode()
    window
        .matchMedia('(prefers-color-scheme: dark)')
        .addEventListener('change', (event) => {
            if (event.matches) {
                // 切换暗黑模式
                if (!darkmode.isActivated()) {
                    darkmode.toggle()
                }
            } else {
                // 切换亮色模式
                if (darkmode.isActivated()) {
                    darkmode.toggle()
                }
            }
        })
</script>

3、CSS 伪类:not() 选择器

/* 代码实现全网站暗黑模式 */
@media (prefers-color-scheme: dark) {
    /* 排除的 a 和 code 元素 */
    html *:not(a, code *) {
        background-color: #000000 !important;
        color: #ffffff !important;
    }

    /* a元素单独设置颜色 */
    a {
        color: #4caf50 !important;
    }
}

4、CSS media 媒体查询

HTML <link> media 属性定义和用法

media 属性规定目标资源针对什么媒体/设备进行了优化。

media 属性指定了被链接文档将显示在什么设备上。

该属性主要与 CSS 样式表一起使用,为不同的媒体类型指定不同的样式。

media 属性可以接受多个值。

<!-- 只在亮色模式下生效 -->
<link
    rel="stylesheet"
    media="(prefers-color-scheme: light)"
    href="/assets/css/light.css"
/>

<!-- 只在暗黑模式下生效 -->
<link
    rel="stylesheet"
    media="(prefers-color-scheme: dark)"
    href="/assets/css/dark.css"
/>

一、智能体的形态

我问大家一个问题,什么是 AI 的产品形态?

大模型只是底层的处理引擎,你总是需要一个应用层产品,对接用户的需求。这种 AI 的应用层,就称为"智能体"(agent)。

那么,问题就变成了,"智能体"应该是什么样?

早期的智能体只是对话应用(上图),后面加入了推理,可以思考复杂问题。

后来,向专业领域发展,演变出编程智能体(coding agent)、图像智能体、视频智能体等等,或者接入 MCP,获得外部应用操作能力,比如生成 Office 文件、操作浏览器。

这些形态基本已经成熟了,很多公司开始探索,下一阶段的智能体会是什么形态?

我最近在用 MiniMax 刚发布的 AI native Workspace(AI 原生工作台),欣喜地觉得,这可能就是答案。

二、Cowork 和 Skill

这个新产品,同时加入了 Anthropic 公司最近提出的两个新概念:Cowork 和 Skill。

所谓 Cowork,简单说,就是一个"计算机操作助手"。它本质是编程智能体的图形界面版,让不懂编程的用户,用自然语言说出需求,再通过 AI 生成底层代码并执行,自动操作本地计算机完成任务。

而 Skill 就更简单了,它是一篇预设的提示词,相当于"使用手册",向 AI 详细描述如何完成某一种特定任务。可以这样理解,每一个 Skill 就是一个专家,让 AI 拥有特定领域的技能。

这两个东西,一个是操作助手,一个是专家模式。前者用 AI 来操作计算机,后者让 AI 具备专门技能。

它们结合起来会怎样?

MiniMax AI native Workspace 就是这样一个产品,探索性地将 Cowork 和 Skill 结合在一起,同时具备两种能力,完全是一种全新的产品形态。

它的桌面端(desktop)提供 Cowork 能力,专家模式(experts)则提供 Skill 能力。

三、桌面端操作助手

下面,我来展示,它跟传统智能体的差异在哪里。

它的桌面客户端定位就是"AI 原生工作台",具备以下能力。

  • 直接访问本地文件:能够读写,以及自动上传或下载文件。
  • 自动化工作流程:能够分解任务,运行 Web 自动化。
  • 交付专业成果:运行结束后可以生成高质量的交付产物,比如 Excel 电子表格、PowerPoint 幻灯片、格式化文档。
  • 长时间运行任务:对于复杂任务,可以长时间运行,不受对话超时或上下文限制的影响。

注意,由于它可以操作计算机,并跟互联网通信,执行之前,一定要指定目录,防止读写不该操作的目录,而且要有备份,防止原始文件被删改。

首先,前往官网下载桌面客户端,Windows/Mac 版本均有,新注册用户目前可以免费试用3天。

安装后运行,直接进入任务界面,就是一个传统的对话框。

这时指定运行目录,就进入"工作台"模式,可以对该目录进行操作。软件会跳出一个警告,提示风险。

这时,就可以让它执行各种任务了。比如,我让它整理各种电子服务的发票 PDF 文件,然后生成一个汇总的 Excel 文档。

这时,它会在当前目录里面,自动安装一个 Python 虚拟环境,然后生成 Python 脚本并执行。

很快就生成好了 Excel 文件。

以此类推,各种文件整理的事情,都能交给它,比如整理照片、文件重命名等等。

它还能进行网页自动化,比如自动浏览某个网页,并提取信息、总结内容。

四、专家系统

上面展示了它的工作台功能,可以担当"数字员工",下面再来看看它的"专家系统"。

所谓"专家系统",就是注入特定的提示词文件,扩展智能体的技能,相当于深度的知识和能力注入。用户还可以上传私有知识库。

大家可以打开它的网页端,点击左边栏的"探索专家"。

系统内置了一些"预设专家",可以直接使用。

我选了一个系统提供的"Icon 制作器",就是制作 Logo 的技能,看看好不好用。

我要求制作一个"熊猫吃冰淇淋"的 Logo,系统提示要选择一种设计风格。

最后生成了两个文件(坐姿和站姿)供选择,效果还不错。

五、创建新技能

除了预设的专家,系统也允许你创建"我的专家",也就是某种自定义技能。

你需要输入能力描述和指令,还可以添加对应的 MCP、SubAgent、环境变量、Supabase 数据库等等。

我直接把 Anthropic 公司提供的 Skill 文件输入,看看效果。

我选了 frontend-design(前端设计)技能,输入以后就可以在"我的专家"分页上看到。

注意,系统目前只支持输入技能描述文件,还不支持上传静态资源文件(asset),希望后面可以加上。

选中这个专家以后,我要求生成一个算法可视化页面。

"生成一个排序算法可视化网站,列出常见排序算法的可视化动画。选中某个算法后,会展示该算法的动画效果。"

生成过程大概十分钟左右,就得到了结果。系统生成了十种排序算法的动画,并直接部署上线。

我后来又调整了一下动画配色,大家可以去这个网站看看效果,还是很酷的。

六、总结

AI native Workspace 将 AI 智能体引入了本地计算机,可以进行自动化操作,同时加入技能接口,允许注入外部知识和能力。并且,所有操作都可以通过自然语言对话完成,对用户的要求低。

这一下子打开了 AI 智能体的想象空间,它所能完成的任务,将不再受限于模型的能力,而只受限于我们的想象力。

我认为,这个产品代表了下一阶段 AI 智能体的发展方向,将开启很多全新的可能性,等待我们去探索。

(完)