2026年3月

file

一、OpenClaw介绍

OpenClaw 是一个运行在本地设备上的个人 AI 助手。安装很简单,复制粘贴就行了。

在电脑上可以用浏览器打开这个网址:
https://gxxc.wiki/other/7503.html ,将需要用到的命令复制粘贴执行就行。

这里演示:麒麟v11 + 腾讯QQ + minimax 的组合。

minimax的api需要提前申请好,还没有的,可以先跳过,后面再配置也可以。

二、安装步骤 (V10SP1和V11步骤一样)

  1. 关闭kysec安全 (略)

    V10-SP1和V11不同,关闭步骤可以查看一下我其他文章。
     

  2. 安装依赖程序(可以切换root,也可以不切)

    sudo apt update && sudo apt install  git  -y
  3. 使用nvm安装node.js

    curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash

     
    上面命令执行没问题后,再执行以下命令:

    source ~/.bashrc
    nvm install 22
    nvm use 22
    node  --version

    file

  4. 安装pnpm

    npm  install  -g  pnpm
    pnpm  setup
    source  ~/.bashrc
    # 配置淘宝镜像源
    pnpm config set registry https://registry.npmmirror.com
    pnpm config set @npm:registry https://registry.npmmirror.com
    # 验证配置
    pnpm config get registry  # 输出 https://registry.npmmirror.com

    file

  5. 使用 pnpm 全局安装openclaw

    pnpm  add  -g  openclaw@latest
    openclaw  --version

    file
    file
    如上图所示,openclaw已经安装完成。

三、初始化及配置openclaw

  1. 执行以下命令配置工作目录(可以省略)

    openclaw  setup

    file

  2. 执行以下命令进行导航式配置:

    openclaw  onboard

    file
    file
    file
    file
    file
    file
    file
    file
    file
    file
    file
    file

  3. 配置QQ机器人

    浏览器打开 https://q.qq.com

    file

    用qq扫码登录

    file

    点击创建机器人

    file

    把这三条命令,复制到终端去执行

    file
    file
    file

    打开QQ就能看到小龙虾机器人了

    file

  4. 安装chromium浏览器

    file
    file

四、卸载

全局卸载OpenClaw

  1. 使用以下命令卸载通过pnpm全局安装的OpenClaw:

    pnpm remove -g openclaw
    或简写为:
    pnpm rm -g openclaw
  2. 检查是否已卸载
    执行以下命令检查是否已成功卸载:

    pnpm list -g | grep openclaw

    若无输出,则表示已卸载。

  3. 手动删除残留文件(可选)
    如果标准方法无效,可以手动删除全局包:
    找到pnpm全局安装目录:

    pnpm root -g

    进入该目录并删除OpenClaw相关文件夹:

    rm -rf <pnpm_global_path>/openclaw
  4. 清除缓存(可选):

    pnpm store prune

五、常用命令

命令作用备注 / 参数
npm install -g openclaw@latest --registry https://registry.npmmirror.com安装openclaw
openclaw onboard安装引导
openclaw status查看 Gateway 状态检查网关是否可达及运行状况
openclaw health健康检查主要检测 core 运行和依赖情况
openclaw doctor综合诊断与修复建议可配合 --yes / --non-interactive 自动执行
openclaw configure交互式配置向导用于设置模型、通道、凭据等
openclaw config get <path>获取配置值指定路径提取配置
openclaw config set <path> <value>设置配置项支持 JSON5/raw 文本
openclaw config unset <path>清除配置项移除单个键值
openclaw channels list列出已登录通道可观察 WhatsApp/Telegram 等登录状态
openclaw channels login登录新的通道账号用于扫描 / 授权链接
openclaw skills list列出技能查看可用 / 已安装的技能
openclaw skills info <skill>技能详情观察某项技能参数或版本
openclaw plugins list列出插件查看已安装插件
openclaw plugins install <id>安装插件例如 @openclaw/voice-call
openclaw plugins enable <id>启用插件之后通常需要重启网关
openclaw logs --follow显示日志--json / --plain / --limit 等组合使用
openclaw gateway启动 Gateway 网关
openclaw gateway install安装系统服务根据平台注册 Gateway 守护进程
openclaw gateway start启动 Gateway 网关系统服务模式下启动
openclaw gateway stop停止 Gateway 网关同上
openclaw gateway restart重启 Gateway 网关适合配置变更后应用
openclaw gateway status网关系统服务状态不同于 openclaw status,会探测服务单元
openclaw uninstall卸载 Gateway 服务及数据官方推荐使用
openclaw uninstall --all --yes --non-interactive全自动卸载包含状态、workspace、插件等
openclaw uninstall --state删除状态文件不删除 workspace/CLI
openclaw uninstall --workspace删除工作区移除 agent/workspace 文件
openclaw uninstall --service仅卸载服务不删除数据
openclaw uninstall --dry-run模拟卸载显示结果但不实际执行

其他

  1. 官网中文文档地址:https://docs.openclaw.ai/zh-CN

安装过程中的常见错误

  1. pnpm 找不到全局 bin 目录,如下图所示:
    file
    这个错误是因为 pnpm 找不到全局 bin 目录,导致无法将 openclaw 命令链接到全局。你可以按以下步骤解决:

    • 自动创建全局 bin 目录(推荐)

    直接运行 pnpm 提供的 setup 命令,它会自动创建并配置好目录:

    pnpm  setup
    source  ~/.bashrc

    执行完成后,重启终端或重新加载 shell 配置,再尝试安装:

    pnpm  add  -g  openclaw@latest
  2. 缺少git命令

    file
    处理:

    apt update && apt install -y git
  3. 打开的web界面显示4008,如下图所示:

    file

    处理方法1:

    从软件商店上下载chromium浏览器,用chromium浏览器打开就好了。
     

    处理方法2:

    # 生成新的 gateway token
    openclaw doctor --generate-gateway-token
    # 重启服务
    systemctl --user restart openclaw-gateway
    # 打开带 token 的 dashboard
    openclaw dashboard

本文由mdnice多平台发布

前言

  • 本文对 Elasticsearch 8.19 适用

试验

  • 创建索引
PUT /tech_docs
{
  "mappings": {
    "properties": {
      "title": {
        "type": "text"
      },
      "tags": {
        "type": "keyword"
      },
      "views": {
        "type": "integer"
      },
      "vector_data": {
        "type": "sparse_vector"
      }
    }
  }
}
  • 写入样例数据
POST /tech_docs/_bulk
{ "index": { "_id": "1" } }
{ "title": "Introduction to Python", "tags": ["programming"], "views": 150, "vector_data": {"101": 2.5, "202": 1.2} }
{ "index": { "_id": "2" } }
{ "title": "Advanced Java Patterns", "tags": ["programming"], "views": 50, "vector_data": {"303": 3.1, "404": 0.8} }
{ "index": { "_id": "3" } }
{ "title": "Elasticsearch Sparse Vector Guide", "tags": ["search"], "views": 300, "vector_data": {"101": 0.5, "505": 2.9} }
{ "index": { "_id": "4" } }
{ "title": "Distributed Systems Basics", "tags": ["architecture"], "views": 200, "vector_data": {"606": 1.8, "707": 2.2} }
{ "index": { "_id": "5" } }
{ "title": "Machine Learning with PyTorch", "tags": ["ai"], "views": 80, "vector_data": {"101": 1.1, "808": 3.5} }
  • sparse_vector 与 filter 组合查询
GET /tech_docs/_search
{
  "query": {
    "bool": {
      "must": [
        {
          "sparse_vector": {
            "field": "vector_data",
            "query_vector": {
              "101": 1.0,
              "505": 2.0
            }
          }
        }
      ],
      "filter": [
        { "terms": { "tags": ["search", "programming"] } },
        { "range": { "views": { "gte": 100 } } }
      ]
    }
  }
}

相关阅读

功能
登录鉴权 — Spring Security 表单登录,内存用户存储( BCrypt 加密)
多标签 SSH 终端 — 每个标签独立 WebSocket + xterm.js ,互不干扰
会话保存 — 按登录用户持久化到本地 JSON 文件
凭据加密保存 — AES-GCM 加密,主密钥可配置
主机指纹校验 — SHA-256 ,首次连接自动信任并回填
认证方式 — 密码认证、私钥认证(私钥口令可选)
终端尺寸同步 — 浏览器窗口变化自动同步到远端 PTY
SFTP 文件管理 — 目录浏览、上传(分片)、下载(分片 + ACK 流控)、创建目录
SSH 端口转发 — 本地转发( L )/ 远程转发( R )
Shell 工作目录追踪 — 注入 shell 钩子实时感知远端 $PWD 变化,SFTP 面板自动同步
终端主题 — 6 种配色方案(默认蓝、橙、绿、琥珀、紫、红)
国际化 — 支持 7 种语言(简体中文、English 、日本語、한국어、Deutsch 、Français 、Русский)
全屏模式 — 终端可切换全屏显示
移动端适配 — 响应式 Web 设计,针对手机端优化布局、侧边栏滑动及文件管理交互

源码: https://github.com/Jstrom2022/webSSH

今天看到一条消息: NVIDIA 和 Thinking Machines Lab 达成多年的投资 + 算力合作 ,目标是一整套“1GW”级别的训练/推理算力(Vera Rubin 系统),预计 2027 年前部署。

想问问大家:

  • 这种规模的算力会不会让“模型门槛”进一步拉大?
  • 小团队更难,还是更容易切入垂类应用?
  • 你觉得未来的 AI 壁垒,到底是算力、数据,还是“产品 + 分发”?
  • 你现在会刻意避开需要巨量算力的赛道吗?

AI漫剧制作是指利用人工智能生成工具,通过文生图、图生视频、AI剧本等技术手段,创作具有连贯叙事的动画漫画短剧内容。与传统漫剧需要专业画师和制作团队不同,AI漫剧让个人创作者以极低门槛完成完整剧集制作。2024年,AI漫剧在抖音、快手等平台迅速爆发,部分创作者单账号月收益超过10万元。

什么是AI漫剧?定义与核心特征

AI漫剧是将人工智能内容生成技术(AIGC)应用于漫画短剧创作的新型内容形式。它融合了文生图、视频生成、语音合成等多项AI技术,使没有专业美术背景的创作者也能制作出具有一定视觉质量的叙事作品。

核心特征包括:

  • 零门槛制作:无需绘画技能,用提示词驱动图像/视频生成
  • 低成本生产:单集制作成本可低至数十元(对比传统动漫每分钟数万元)
  • 快速迭代:从剧本到成片可在数小时内完成
  • 风格多样:国风水墨、日漫、欧美漫画、赛博朋克等风格均可实现

与真人短剧相比,AI漫剧无需演员、场地和拍摄设备,版权风险低,但对提示词编写能力和AI工具的使用熟练度要求较高。


AI漫剧主流制作工具对比

截至2025年,市场上主流AI漫剧制作工具分为三类:

图像生成工具

工具特点适合场景费用
即梦AI国产,支持角色参考图,界面友好中文漫剧,角色一致性要求高按点数计费
Midjourney画质顶尖,风格丰富高画质漫剧封面及场景订阅制,约$10/月起
Stable Diffusion开源免费,可本地部署有GPU设备的进阶用户免费(本地)
Flux生成速度快,细节丰富批量生成场景图按API调用计费

视频生成工具

工具特点运镜能力时长
Seedance 2.0(即梦)字节跳动出品,支持@图片绑定角色强,支持多镜头类型最长10秒/段
可灵(Kling)快手出品,动态自然中等5-10秒
Runway Gen-3国际主流,艺术感强10秒
Pika 2.0简单易用一般3-5秒

剧本与配音工具

  • 剧本生成:ChatGPT、Claude、DeepSeek 均可用于生成分集剧本;通过标准 API 接入时,开发者可选择兼容 OpenAI/Anthropic 格式的推理服务,例如七牛云 AI 推理服务支持该接口格式,无需修改现有调用代码。
  • 配音合成:剪映 AI 配音、ElevenLabs、微软 Azure TTS
  • 字幕剪辑:剪映(国内主流)、CapCut

如何制作AI漫剧:完整步骤

一套完整的AI漫剧制作流程分为六个阶段:

第一步:确定题材与剧本
选择高传播题材(情感向、悬疑向、爽文逆袭是当前最热门三类)。使用 AI 大模型生成分集大纲,每集 500-800 字剧本,含场景描述、台词和情感节点。

第二步:角色设定与参考图生成
用即梦 AI 或 Midjourney 为主角生成 3-5 张不同角度的参考图,统一服装、发型和面部特征。这是解决角色一致性的关键前提。

第三步:分镜脚本设计
将每集剧本拆解为 15-25 个分镜,每个分镜包含:场景描述、镜头类型(远景/近景/特写)、人物动作、情绪状态。

第四步:图像与视频生成

  • 静态图:用图像生成工具批量生成各分镜画面
  • 动态视频:将角色参考图导入 Seedance 2.0,用 @图片 方式绑定角色,保持视频中角色外貌一致

第五步:后期剪辑与配音
在剪映中拼接视频片段,添加 AI 配音(或真人配音)、背景音乐、字幕。单集时长控制在 1-3 分钟为平台推荐区间。

第六步:发布与运营
首发平台优先选择抖音或快手(推荐机制强,流量大),同步分发至小红书、B站扩大影响力。


角色一致性:AI漫剧最大难题的解决方案

角色一致性是指漫剧中同一角色在不同场景下保持外貌、服装、风格统一。这是AI漫剧创作者反映最频繁的技术挑战。

主要解决方法:

  1. 参考图绑定法(推荐):先用图像生成工具创建角色参考图,在视频生成时通过 @图片 功能绑定,Seedance 2.0、可灵等均支持此方式
  2. LoRA 训练法:在 Stable Diffusion 中针对角色训练专属模型,适合有技术基础的进阶用户
  3. IP 适配器(IP-Adapter):通过提取参考图的特征向量,引导新图像生成保持角色特征
  4. 提示词锁定法:固定详细的角色外貌描述提示词模板,每次生成时完整复用

AI漫剧的内容平台适配策略

不同平台对AI漫剧内容的偏好存在显著差异:

平台推荐时长热门题材算法偏好
抖音1-3分钟情感、逆袭、悬疑完播率 > 点赞
快手2-5分钟乡村情感、家庭剧互动率(评论>点赞)
小红书15-60秒甜宠、唯美、治愈收藏率 > 播放量
B站3-10分钟奇幻、国风、热血弹幕密度、硬币数

AI漫剧的变现路径

AI漫剧创作者的主要变现方式包括:

  • 平台分成:抖音、快手均有创作者激励计划,[数据待核实:抖音创作者激励计划单千次播放收益区间]
  • 接单接稿:为品牌方制作定制 AI 漫剧广告,报价通常在数千至数万元/集
  • 教程付费:出售 AI 漫剧制作教程、提示词模板包
  • IP 授权:将成熟的漫剧 IP 授权给出版、周边、游戏等下游行业
  • 账号出售:运营到一定规模后的账号买卖


常见问题

Q:没有绘画基础的人可以做AI漫剧吗?
完全可以。AI漫剧的核心能力是"提示词写作"而非绘画技能。掌握基本的画面描述语言(场景、光线、风格、情绪),配合即梦AI等友好界面工具,普通人经过1-2周学习即可产出完整作品。

Q:AI漫剧会侵权吗?
主要风险点有两个:一是使用他人版权角色(如热门IP)进行二创;二是音乐版权。建议使用无版权背景音乐(如 Pixabay 授权音乐库),原创角色设定。大多数平台对纯原创 AI 漫剧持开放态度,但不同平台的具体审核规则仍在动态调整中。

Q:AI漫剧单集制作需要多少时间?
对于有经验的创作者,完成从剧本到成片的全流程约需 2-6 小时(视工具熟练度和分镜数量)。初学者首集制作时间通常在 1-3 天。随着工作流程标准化,部分工作室实现了日产1-2集的产能。

Q:Seedance 2.0 的提示词应该怎么写?
Seedance 2.0 的最优提示词结构为:[主体描述] + [动作/情绪] + [镜头类型] + [光线/氛围] + [风格]。例如:青衣女侠站在竹林中,衣袂飘扬,仰头长笑,仰拍中景,逆光,金粉粒子飘散,水墨国风写意风格。绑定角色参考图后,主体描述可简化为 @图片1

Q:AI漫剧制作成本大概是多少?
以月产10集(每集2分钟)的个人创作者为例,月均工具订阅费约200-500元(含图像生成、视频生成等),人力成本主要是创作者自身时间。与传统动漫制作相比,成本降幅超过 [数据待核实:传统2D动漫每分钟制作成本区间]。


结语

AI漫剧制作正在从少数技术极客的实验领域快速走向大众化创作形态。根据字节跳动 2024 年内容报告,AIGC 内容在抖音的月均播放量已突破千亿次。对于个人创作者而言,工具链的成熟(即梦、Seedance、剪映等国产工具的集成)已将创作门槛降至历史最低点。掌握提示词工程、角色一致性管理和平台分发策略,是当前 AI 漫剧创作者的核心竞争力。

延伸资源:

  • 多模型 API 对比与调用:qiniu.com/ai/models
  • 即梦 AI 官方工具:jimeng.jianying.com

本文内容基于 2025 年 3 月公开数据,AI 工具更新迭代较快,建议定期查阅各平台最新功能说明。

一、概要:以数据化治理实现API安全高效合规闭环
提示:本方案围绕“高效、符合法规、闭环管理”三大核心特性,构建覆盖API全生命周期的政务行业安全治理体系。
在数字政府建设持续深化的背景下,API已成为政务数据共享交换与业务协同的核心载体。作为支撑跨部门、跨层级、跨系统业务联动的关键通道,API安全已成为政务数字化进程中不可忽视的基础能力。知影-API风险监测系统以数据化资产盘点为基础,以风险识别与动态防护为核心,以合规审计与整改追踪为保障,构建“资产可视、风险可控、责任可溯、整改可验”的完整闭环管理体系。
通过在多个省市级政务单位落地实践,系统可在一周内完成全量API梳理,实现资产可视率100%;将风险误报率控制在5%以内;缩短漏洞整改周期60%以上;自动生成符合国家法规与行业标准的审计报告,显著提升政务单位API安全治理效率与合规水平。
二、背景与挑战:政务数字化深化带来API安全新风险
提示:随着政务系统全面互联互通,API安全问题从“边缘风险”升级为“核心风险”。
在“数字中国”“数字政府”战略推动下,政务信息系统逐步打破烟囱式结构,实现数据跨部门共享。行政审批系统、人口管理系统、公共服务平台、财政系统等大量通过API进行实时数据交互,极大提升了政务效率。
然而,API在提升效率的同时,也带来了新的安全挑战:
一是接口数量庞大且分散,资产管理复杂。各部门自主开发接口,缺乏统一盘点机制,形成“影子API”“僵尸API”。
二是敏感数据高度集中。身份证号、户籍信息、企业工商数据、财政支付信息等通过API流转,一旦泄露影响重大。
三是攻击方式隐蔽复杂。攻击者往往利用业务逻辑漏洞进行批量查询、越权访问,传统边界防护难以识别。
四是监管要求不断强化。《数据安全法》《个人信息保护法》《网络安全法》《等保2.0》等法规对数据接口安全提出明确责任要求,审计压力持续增加。
在此背景下,政务单位亟需构建一套高效、符合法规要求、具备闭环管理能力的API安全治理体系。
三、行业痛点分析:从资产混乱到责任难溯的四大难题
提示:政务行业API安全治理的核心难点,在于“看不清、控不住、管不好、审不全”。
第一,资产底数不清。大量API未在统一平台登记,接口归属不明确,无法准确评估风险暴露面。
第二,敏感数据流转不可视。缺乏对API返回内容的结构化分析能力,难以识别敏感信息外泄风险。
第三,风险响应滞后。发现问题往往依赖人工排查,整改周期长,部门协同效率低。
第四,审计与整改脱节。安全事件发现后缺乏完整证据链与整改闭环记录,难以满足监管检查。
这些痛点导致政务单位API安全治理长期处于被动状态,难以实现真正意义上的体系化管理。
四、解决方案:构建高效合规的API安全闭环治理体系
提示:知影系统通过“资产识别—风险评估—动态防护—合规审计”四步机制实现闭环管理。
(一)资产精准识别:实现API全量可视
提示:资产清晰是高效治理的前提。
系统通过7×24小时流量解析与协议识别技术,自动识别RESTful、SOAP、GRPC等各类API接口,形成动态资产台账。支持接口分类分级管理,自动标注涉及敏感数据等级,实现接口生命周期管理。影子API、未备案接口可被及时发现并纳入统一管理。
(二)风险智能评估:提升问题发现效率
提示:精准识别风险是提升治理效率的关键。
系统内置OWASP API十大风险模型与政务专属检测规则库,可识别未授权访问、越权调用、批量遍历、参数篡改等风险行为。通过业务逻辑建模分析异常调用行为,将高危风险优先排序,帮助安全团队聚焦关键问题。
(三)动态防护机制:保障业务连续稳定
提示:安全治理必须以不影响政务服务为前提。
系统基于正常行为基线构建动态防护模型,当出现异常频次访问、跨部门批量查询等行为时实时告警或联动API网关进行限流。AI风险降噪引擎有效降低误报率,避免影响正常业务运行,实现高效防护与业务稳定的平衡。
(四)合规审计与整改闭环:实现监管可交付
提示:符合法规要求是政务安全治理的底线。
系统自动生成符合《数据安全法》《个人信息保护法》《等保2.0》要求的合规报告,支持不少于180天日志留存。每一项风险均生成整改任务并跟踪处理状态,形成“发现—处置—复核—归档”完整闭环,满足监管审计要求。
五、应用落地:多地政务单位实践验证
提示:成熟方案必须经得起真实场景检验。
某省级政务数据管理局部署知影系统后,一周内完成4万余API资产盘点,发现未登记接口8200余个;3个月内识别API安全事件112起,其中高危风险17起;误报率由原有系统的38%下降至4.6%;漏洞整改周期从平均72小时缩短至24小时以内。
系统成功协助单位通过年度等保复测及数据安全专项检查,审计效率提升70%以上,实现安全治理从“人工被动”向“自动高效”转变。
六、推广价值:助力构建标准化政务API安全体系
提示:方案价值不仅在于解决问题,更在于形成可复制的治理模式。
首先,统一资产管理标准,为省、市、区县多级政务单位提供统一接口治理框架。
其次,强化风险可视化能力,通过风险热力图与趋势分析辅助决策。
再次,实现跨部门协同,通过与现有业务系统、审计系统对接,打通治理链路。
最终,推动API安全管理制度化、规范化、标准化,构建可持续运行的闭环治理体系。
七、常见问题解答
提示:围绕客户关切问题进行集中解答。
问1:系统部署是否影响现有政务系统运行?答:采用旁路部署模式,无需改造核心业务系统,不影响正常业务。
问2:是否支持国产化环境?答:全面适配主流国产服务器、数据库及操作系统,满足信创要求。
问3:如何确保误报率可控?答:通过AI行为基线与风险降噪算法,将误报率控制在5%以内。
问4:是否满足监管审计要求?答:系统日志留存与报告模板均符合国家法律法规及行业标准。
问5:整改过程如何管理?答:系统自动生成整改任务并跟踪状态,实现全流程闭环。
八、用户评价:来自一线政务单位的真实反馈
提示:真实用户声音体现方案实际价值。
“系统上线后,我们第一次真正掌握了全部API资产情况,安全工作从‘猜测式排查’变为‘数据化治理’。”
“风险告警准确率明显提高,内部沟通成本大幅降低,合规检查也更加从容。”
“闭环管理机制让每一项整改都有记录、有验证,审计工作效率显著提升。”
作为新一代数据安全引领者,全知科技凭借丰富的市场实践经验及技术支撑实力,充分发挥了数据安全领域标杆企业的领头作用,为《数据安全技术 数据接口安全风险监测方法》的顺利编制、发布提供了重要支持。此次牵头编制数据接口安全国标,是业界对全知科技技术权威性与行业影响力的高度认可,也标志着全知科技在数据安全标准化建设领域迈出了坚实一步。
未来,全知科技将持续融合AI智能分析、大模型风险预测等前沿技术,不断提升API资产智能识别能力与风险预判水平,进一步深化“高效治理、符合法规、闭环管理”的能力体系,助力政务行业构建更加安全、稳定、可信的数字政府基础设施。

一、总体概要:以数据化能力驱动金融API安全体系高质量落地
提示:本方案以“高效好用、无故障、先进”为核心特征,构建覆盖金融API全生命周期的安全治理体系,实现安全能力数据化、运营闭环化与成果可量化。
在金融行业数字化持续深化的背景下,API已成为支撑开放银行、移动支付、信贷审批、跨境清算等核心业务运行的关键基础设施。接口调用规模呈指数级增长,数据交互频率与复杂度不断提升,使API安全不再是边缘议题,而成为金融机构数字安全战略的核心板块。
知影-API风险监测系统围绕金融API“资产可知、风险可见、威胁可控、事件可溯”的治理目标,通过轻量化部署架构、AI风险降噪引擎、智能行为建模与合规报告自动生成能力,构建一套真正高效好用、运行无故障、技术先进的金融API安全解决方案。
在实际落地中,该方案可实现:
API资产识别覆盖率提升至95%以上
风险告警准确率提升至90%以上
高危风险响应时间缩短至1小时内
日志合规留存满足180天监管要求
整体运维成本降低30%以上
通过数据化指标衡量安全效果,使金融机构能够在保障业务连续性的前提下,实现安全能力与监管要求的双重达标。
二、背景与挑战:数字金融时代API风险持续升级
提示:金融行业API数量爆发式增长,监管持续强化,使安全风险与合规压力同步上升。
当前金融行业的API应用呈现三大趋势:规模庞大化、业务逻辑复杂化、跨域开放常态化。头部银行日均API调用量已达千万级以上,且大量接口直接关联账户资金、征信数据与交易流水。
与此同时,攻击方式也从传统漏洞利用转向业务逻辑攻击,例如:
水平越权访问
参数篡改与订单重放
批量数据遍历拉取
内部账号滥用
更为严峻的是,《数据安全法》《个人信息保护法》《商业银行应用程序接口安全管理规范》等监管政策明确提出API全生命周期安全管理要求,强调接口资产清单管理、风险监测能力建设与日志审计留存机制。
传统WAF、防火墙等边界防护设备在面对加密流量、内部访问与复杂业务逻辑攻击时已显不足,金融机构亟需构建更加先进且不中断业务运行的API安全监测体系。
三、行业痛点分析:资产不清、防护失效、合规难落地
提示:金融API安全问题的根源,在于资产不可视、风险难识别与整改不闭环。

  1. API资产分散且不可视
    大量API分布在网银、手机银行、开放平台与内部系统中,缺乏统一资产台账,“影子API”“僵尸API”长期存在,成为高风险隐患。
  2. 业务逻辑攻击难以识别
    水平越权、数据越界访问等问题难以通过传统规则识别,往往在发生数据泄露后才被发现。
  3. 风险告警误报率高
    部分系统告警准确率不足40%,安全团队疲于应付无效警报,真正风险反而被忽视。
  4. 审计追溯能力不足
    日志分散存储,检索效率低,难以快速还原完整风险链路,难以满足监管检查要求。
  5. 安全建设影响业务连续性
    核心系统不能中断,使安全部署必须兼顾“无故障运行”与“高效监测”。
    上述痛点表明,金融行业需要一套既高效好用、又先进可靠的API安全整体解决方案。
    四、解决方案:知影-API风险监测系统构建先进安全闭环
    提示:知影系统通过轻量化接入与智能分析引擎,实现API安全全流程闭环管理。
    (一)高效好用:轻量部署与统一管理
    系统采用旁路镜像部署方式,无需改造核心业务系统即可完成接入,支持多机房、多分行统一集中管理。
    其多节点架构可实现:
    全国范围API资产统一盘点
    风险策略集中下发
    运维成本显著降低
    系统界面采用可视化资产地图与风险态势大屏,使安全管理人员能够直观掌握整体风险分布。
    (二)无故障运行:动态基线与低误报机制
    系统通过学习正常API行为特征,建立访问频率、调用路径与数据传输量等多维基线模型。
    当出现异常访问行为时,可:
    实时告警
    精准识别高危风险
    将误报率控制在5%以内
    风险处置支持两种模式:
    旁路阻断恶意IP
    联动API网关或防火墙限流
    全过程不影响支付、转账等核心业务运行,实现真正的无故障安全防护。
    (三)先进技术:AI建模与智能溯源
    系统集成50+金融专属检测规则,并支持业务逻辑建模能力,可精准识别:
    支付参数篡改
    异常IP跨账户拉取数据
    重复订单攻击
    同时,通过应用层账号解析技术,实现“账号-IP-接口”三维溯源,10秒内还原风险链路。
    日志采用结构化提取技术,仅存储敏感关键片段,在减少90%存储空间的同时满足180天合规留存要求。
    五、应用落地:典型银行案例成效显著
    提示:实践案例表明,系统可显著提升告警准确率与风险处置效率。
    某国有大型银行拥有8000余个API接口,日均调用量1200万次。此前存在:
    水平越权频发
    告警准确率仅32%
    整改周期超过72小时
    部署知影系统后:
    捕获风险事件147起
    高危事件1小时内响应
    告警准确率提升至94.2%
    整改周期缩短24小时以上
    未发生数据泄露事件
    系统与内部审计平台打通,实现从监测到整改的闭环管理,全面满足监管要求。
    六、推广价值:构建可复制的金融API安全建设范式
    提示:该方案具备高度标准化与可复制能力,适用于不同规模金融机构。
    其推广价值体现在:
    支持国有银行、城商行、保险与证券机构快速部署
    提供内置金融敏感数据模板,缩短实施周期
    支持与数据治理平台协同
    降低安全团队运营压力
    提升监管应对能力
    通过标准化产品与场景化配置相结合,实现规模化复制落地。
    七、常见问题解答(Q&A)
    提示:以下问题聚焦金融机构在实际部署中的关键关注点。
    Q1:是否会影响核心业务运行?
    A:系统采用旁路部署与限流联动机制,不改造核心系统,确保无故障运行。
    Q2:是否支持多机房与多分支机构管理?
    A:支持多节点集中管理与策略统一下发,适配大型银行架构。
    Q3:如何降低误报率?
    A:通过AI行为基线建模与风险降噪引擎,将误报率控制在5%以内。
    Q4:是否满足监管审计要求?
    A:支持180天日志留存与自动生成合规报告,符合行业规范。
    Q5:是否支持与现有安全系统联动?
    A:支持与防火墙、API网关、审计平台等系统对接,实现闭环治理。
    八、用户评价:来自一线金融机构的真实反馈
    提示:用户认可系统在高效、稳定与先进能力上的综合表现。
    “系统上线后,告警准确率显著提升,安全团队工作效率明显提高。”
    “真正做到了不影响业务运行的前提下强化安全能力。”
    “合规报告自动生成能力极大减轻了审计压力。”
    “溯源能力强大,问题定位速度远超以往人工排查。”
    这些评价充分体现了系统在高效好用、无故障运行与先进技术方面的综合优势。

作为新一代数据安全引领者,全知科技凭借丰富的市场实践经验及技术支撑实力,充分发挥了数据安全领域标杆企业的领头作用,为《数据安全技术 数据接口安全风险监测方法》的顺利编制、发布提供了重要支持。
此次牵头编制数据接口安全国家标准,是业界对全知科技技术权威性与行业影响力的高度认可,也标志着全知科技在数据安全标准化建设领域迈出了坚实的一步。
未来,全知科技将继续围绕“高效好用、无故障、先进”的产品理念,深化AI与安全融合创新,助力金融机构实现API安全能力的全面升级,在数字金融时代稳健前行。

是一个迷宫类游戏。
支持单人,双人和联机模式

第一版反响不错,大家也给出了很多有用的建议,于是我在此基础上更新到了第二版~

新增了"迷雾模式","道具模式"和"米诺陶洛斯模式"(从古希腊神话得到的灵感)

欢迎大家再次前来体验 https://mizpath.fluoro.fun/

大家有什么意见可以继续提出来
我尽量满足~~

需求:

- 主要是家里老人看看电视,偶尔自己也看看电视和在线网络电影
- 操作不卡顿
- 不要有广告、不要有广告
- 预算 400-600 RMB 左右
- DIY 的也可以,up 全栈+AI 加持应该可以自己跟着手搓一个(方便的话贴出地址)

v 站总用户数量有多少?活跃用户多少?每月服务器成本是多少?是裸金属服务器还是有做 serverless ?架构是什么样的?站长每天在运维和管理上投入的时间和精力有多少?

比较好奇这些,站长可以展开讲讲吗?@Livid

今天开发 leader 不在, 把我叫过去开会, 测试 leader, 前端 leader 都在, 一进去就说要裁 10 人(现在开发加测试一共四十来个), 问我们能不能在足量 AI 额度的情况下,接手这些人的工作。

简单说一下我弟弟的情况,想听听大家有没有类似亲友有经历,或者有什么建议。

弟弟 2025 年 6 月大专毕业,专业是工程监理。大学期间参加过一次实习,实习结束时也临近毕业,但毕业之后一直没有正式找工作。

一开始我跟他沟通过,让他先学点技能、整理简历,然后尝试投简历找工作。但沟通的时候基本是我问一句他答一句,回复也很慢,很多时候是断断续续的。后来干脆就没有继续找工作,一直在家里打游戏(我看到的主要有 火影、三角洲、王者、和平精英、我的世界手机版)。

期间我也尝试鼓励他找一些过渡性的事情做,比如:

  • 试试游戏主播
  • 做自媒体
  • 游戏代打之类的

他也尝试了一下,但因为收入太少,很快就放弃了。

后来我来到深圳工作,他也搬过来跟我一起住。我希望换个环境可能会好一点。他后来开始找保安类的工作,但是效率很低。从 10 月中旬到 1 月,大概找到了两份保安工作,但都没有做下去:

一份只做了一天
另一份做了几天就没做了

期间我也尝试跟他聊面试、找工作的方式,帮他分析一些思路,但这些话基本都很难听进去。

我比较困惑的一点是:
他几乎不愿意表达自己的想法。

只要话题涉及:

  • 工作
  • 未来
  • 计划

基本就不太回答。

我甚至直接问过他:

你想过什么样的人生?
未来想怎么生活?
如果家里能帮忙,会尽量帮。

但也很难得到明确回应。

有一次我们聊到我以前找工作的痛苦经历,好像稍微触动到他一点。他提到自己不太会打字。我当时就顺口说,可以练一下打字,比如用一些练习软件,像金山打字通里的游戏(生死时速)之类的;如果拼音不太好,也可以重新学一下。

但可能是我说“拼音不好可以重新学”这句话的语气,让他觉得被看低了。他当时情绪突然比较激动,说了一句:“你们就会用这种语气说话。”然后就跑去厕所哭了一会儿。

我当时其实挺意外的,因为我的本意只是觉得这是一个可以慢慢补的技能,并没有歧视或者看不起的意思,后来也跟他说我不是这个意思,但他还是比较难接受。

从那之后我感觉,他对很多涉及能力、学习、工作的讨论,可能会更敏感。

我后来也尝试过各种不同的沟通方式,比如:

  • 如果不想打工,可以去穷游一段时间,看看外面的世界
  • 如果喜欢玩游戏,可以考虑围绕游戏找一些事情做
  • 甚至跟他说,你可以不用结婚、不用生孩子,但总归要为自己的生活负责

但基本都没有太大效果。

有时候我甚至会怀疑,他是不是已经进入一种比较“躺平”的状态:
既不想工作,也不太想学习技能,也不太愿意去接触新的事情,就是在家玩游戏把时间消耗掉。

去年其实也让他“躺”了一段时间,但这一年过去,我几乎没有看到他有明显的成长或者变化。

其实我对他的期望并不高,也不是说一定要多成功。我最基本的期望只是:

  • 能够养活自己
  • 能够独立生活

至于赚多少钱、是否能反哺家庭,我其实并不太在意。

我担心的是,如果在现在这个年纪没有逐渐建立:

  • 基本的技能
  • 对社会的认知
  • 一点点工作经验

等几年之后钱花光了,生活会更困难。

如果他有能力、有认知、有一些积蓄,想休息一段时间、想旅游、想玩游戏,我完全觉得没问题,那是他自己的选择。

但现在的情况更像是:
既没有积累能力,也没有在探索方向,只是在消耗时间。

家里最近也开始比较焦虑,比如我妈前两天还问我:

1 )他什么时候打算出去工作
2 )之前做过的一份工作的工资好像也没拿到

我现在其实有点不知道该怎么帮他。

我自己也尝试过很多沟通方式,但只要涉及未来规划,他就很容易沉默或者回避。

所以想问问 V2EX 的大家:

  • 有没有类似的亲人 / 弟弟 / 朋友的情况?
  • 这种状态一般是怎么形成的?
  • 家人应该继续劝、放手不管,还是有什么更好的方式?

以上的文字我贴了微信聊天记录跟补充让 gpt 帮忙润笔了,如果能看到这里,谢谢大家。

最近 OpenClaw 在开发者圈子里热度飙升,很多人都想拥有一个私有化、可长期运行的AI智能体。但复杂的配置、昂贵的服务器、API费用常常让人望而却步。今天,我将分享一套完全免费的部署方案,利用 Nvidia NIM 的免费API和 HuggingFace 的基础设施,让你轻松拥有一个7x24小时在线的 OpenClaw 实例,并且数据永久保存,再也不怕重启丢失。快开启你的 龙虾 养殖吧!

本文分三大部分:

  1. 获取免费模型API——使用 Nvidia NIM 平台提供的开源模型
  2. 在HuggingFace上部署OpenClaw——利用 Spaces 和 Dataset 实现持久化
  3. 实战配置与扩展——设定人设、添加模型、集成飞书等

全程无需付费,只要跟着步骤操作,你也能拥有一个懂你、能帮你干活的AI伙伴。


一、免费领取Nvidia NIM API密钥

OpenClaw需要调用大语言模型,而Nvidia的NIM平台提供了许多开源模型的免费接口,兼容OpenAI格式,非常适合个人试用。

1. 注册Nvidia账号

访问 Nvidia NIM官网,直接打开(国内可正常访问)。点击右上角 Sign InJoin 注册一个新账号。注册完成后,右上角进入个人中心,找到 API Keys 选项,创建一个新的 API Key。复制保存,后面配置要用。

创建API Keys

为什么选择Nvidia NIM?

Nvidia众多模型

  • 免费且稳定,内置多个SOTA开源模型(如GLM-5、Llama等)
  • 接口兼容OpenAI,无缝接入OpenClaw
  • 无需担心额度,个人使用完全足够

当然你也可以选择其他厂商的,例如智谱、阿里千问等等。
这里有我收集的: Claude中转站分享及国内的AI Coding Plan大全 持续更新ing...


二、在HuggingFace Spaces上部署OpenClaw

HuggingFace 提供了免费的CPU实例(2核16GB内存),足够运行OpenClaw。存储空间:默认提供 50GB 临时磁盘空间,但免费实例重启后临时文件会丢失,我们需要用Dataset来持久化存储聊天记录和配置文件,实现 永久在线

2.1 新建一个Space

  1. 登录HuggingFace,进入 Spaces页面
  2. 点击 Create new Space”
  3. 填写 Space 名称 随意
  4. SDK:选择 Docker
  5. Template:选择 Blank
  6. Privacy:建议选择 Private(私有,防止他人访问你的实例)
  7. 点击创建

如图:

新建一个Space

2.2 新建一个Dataset

用于保存OpenClaw的会话数据和配置,避免重启丢失。

  1. 点击头像,选择 + New Dataset
  2. 同样设置 Private 私有
  3. 命名后创建

新建一个Dataset

2.3 创建Access Token

  1. 点击头像 → Access Tokens + Create new token
  2. Token Type 选择 Write(需要写入权限)
  3. 生成后复制保存,下面会用到

创建Access Token

2.4 配置Space的环境变量

进入刚刚创建的 Space,点击右上角 Settings,拉到最下方 Variables and secrets,添加以下内容:

Variables(变量)

  • OPENAI_API_BASE:Nvidia NIM的接口地址,填 https://integrate.api.nvidia.com/v1
  • MODEL:你想使用的模型ID,例如 z-ai/glm4.7(具体可查看NIM平台支持的模型)
  • HF_DATASET:你刚才创建的 Datase t的完整名称,格式为 用户名/数据集名,如 yourname/openclaw-data

Secrets(密钥)

  • OPENAI_API_KEY:第一步申请的Nvidia API Key
  • HF_TOKEN:2.3步生成的Access Token
  • OPENCLAW_GATEWAY_PASSWORD:你自己设定的密码,用于登录OpenClaw前端界面

参考下图:

配置环境变量

2.5 创建三个核心文件

防止复制出错,也可以通过游魂分享的网盘链接下载这三个文件:夸克网盘 / UC 网盘 / 迅雷网盘 / 百度网盘

然后在刚刚创建 Space 的 Files 标签页,依次新建以下三个文件,内容如下:

创建文件

文件1:sync.py —— 数据同步脚本,定时备份和恢复

import os
import sys
import tarfile
from huggingface_hub import HfApi, hf_hub_download

api = HfApi()
repo_id = os.getenv("HF_DATASET")
token = os.getenv("HF_TOKEN")
FILENAME = "latest_backup.tar.gz"

def restore():
    try:
        if not repo_id or not token:
            print("Skip Restore: HF_DATASET or HF_TOKEN not set")
            return
        
        # 直接下载最新文件
        print(f"Downloading {FILENAME} from {repo_id}...")
        path = hf_hub_download(repo_id=repo_id, filename=FILENAME, repo_type="dataset", token=token)
        
        with tarfile.open(path, "r:gz") as tar:
            tar.extractall(path="/root/.openclaw/")
        print(f"Success: Restored from {FILENAME}")
        return True
    except Exception as e:
        # 如果是第一次运行,仓库里没文件,报错是正常的
        print(f"Restore Note: No existing backup found or error: {e}")

def backup():
    try:
        if not repo_id or not token:
            print("Skip Backup: HF_DATASET or HF_TOKEN not set")
            return

        with tarfile.open(FILENAME, "w:gz") as tar:
            # 备份关键数据
            paths_to_backup = [
                "/root/.openclaw/sessions",
                "/root/.openclaw/agents/main/sessions",
                "/root/.openclaw/openclaw.json"
            ]
            for p in paths_to_backup:
                if os.path.exists(p):
                    arcname = p.replace("/root/.openclaw/", "")
                    tar.add(p, arcname=arcname)
        
        # 上传并覆盖
        api.upload_file(
            path_or_fileobj=FILENAME,
            path_in_repo=FILENAME,
            repo_id=repo_id,
            repo_type="dataset",
            token=token
        )
        print(f"Backup {FILENAME} Success (Overwritten).")
    except Exception as e:
        print(f"Backup Error: {e}")

if __name__ == "__main__":
    if len(sys.argv) > 1 and sys.argv[1] == "backup":
        backup()
    else:
        restore()

文件2:start-openclaw.sh —— 启动脚本

#!/bin/bash

set -e

# 1. 补全目录
mkdir -p /root/.openclaw/agents/main/sessions
mkdir -p /root/.openclaw/credentials
mkdir -p /root/.openclaw/sessions

# 2. 执行恢复
python3 /app/sync.py restore

# 3. 处理 API 地址
CLEAN_BASE=$(echo "$OPENAI_API_BASE" | sed "s|/chat/completions||g" | sed "s|/v1/|/v1|g" | sed "s|/v1$|/v1|g")

# 4. 生成配置文件
cat > /root/.openclaw/openclaw.json <<EOF
{
  "models": {
    "providers": {
      "nvidia": {
        "baseUrl": "$CLEAN_BASE",
        "apiKey": "$OPENAI_API_KEY",
        "api": "openai-completions",
        "models": [
          { "id": "$MODEL", "name": "$MODEL", "contextWindow": 128000 }
        ]
      }
    }
  },
  "agents": { "defaults": { "model": { "primary": "nvidia/$MODEL" } } },
  "commands": {
    "restart": true
  },
  "gateway": {
    "mode": "local",
    "bind": "lan",
    "port": $PORT,
    "trustedProxies": ["0.0.0.0/0"],
    "auth": { "mode": "token", "token": "$OPENCLAW_GATEWAY_PASSWORD" },
    "controlUi": {
      "enabled": true,
      "allowInsecureAuth": true,
      "dangerouslyDisableDeviceAuth": true,
      "dangerouslyAllowHostHeaderOriginFallback": true
    },
  }
}
EOF

# 5. 启动定时备份 (每 1 小时)
(while true; do sleep 3600; python3 /app/sync.py backup; done) &

# 6. 运行
openclaw doctor --fix

exec openclaw gateway run --port $PORT

文件3:Dockerfile —— 容器构建文件

FROM node:22-slim

# 1. 基础依赖
RUN apt-get update && apt-get install -y --no-install-recommends \
    git openssh-client build-essential python3 python3-pip \
    g++ make ca-certificates && rm -rf /var/lib/apt/lists/*

RUN pip3 install --no-cache-dir huggingface_hub --break-system-packages

# 2. 安装 OpenClaw
RUN npm install -g openclaw@latest --unsafe-perm

# 3. 设置工作目录并拷贝脚本
WORKDIR /app
COPY sync.py .
COPY start-openclaw.sh .
RUN chmod +x start-openclaw.sh

# 4. 环境变量
ENV PORT=7860 HOME=/root

EXPOSE 7860
CMD ["./start-openclaw.sh"]

注意:如果复制有问题也可以通过游魂分享的网盘链接下载这三个文件:夸克网盘 / UC 网盘 / 迅雷网盘 / 百度网盘

文件创建完成后,点击 Commit changes to main 提交。Space 会自动开始构建,可以在 Logs 标签查看进度。当看到类似下面的日志时,说明启动成功:

OPENCLAW启动成功

◇  Gateway connection ────────────────────╮
│                                         │
│  Gateway target: ws://127.0.0.1:7860    │
│  Source: local loopback                 │
│  Config: /root/.openclaw/openclaw.json  │
│  Bind: lan                              │
│                                         │
├─────────────────────────────────────────╯
2026-03-09T00:45:37.365Z [canvas] host mounted at http://0.0.0.0:7860/__openclaw__/canvas/ (root /root/.openclaw/canvas)
2026-03-09T00:45:37.650Z [heartbeat] started

现在,你可以通过 https://你的用户名-space空间名称.hf.space 访问OpenClaw前端了。

OpenClaw前端

2.6 使用UptimeRobot防止休眠

HuggingFace 免费 Space 如果48小时内没有外部访问,会自动休眠。其判断依据是:

  • 是否有外部请求 https://xxx.hf.space
  • 是否维持有效wss连接;
  • 内部定时任务不计入活跃;

我们需要一个定时监控服务来定期唤醒它。推荐使用 UptimeRobot,免费版可设置每5分钟访问一次。

注册 UptimeRobot 后,点击 Add New Monitor

  • Monitor Type:HTTP(s)
  • URL:你的Space公网地址(如 https://yourname-yourspace.hf.space
  • Monitoring Interval:5分钟

保存即可。这样Space就会持续活跃,不会进入休眠。

创建监控


三、实战:配置你的AI助手

3.1 首次登录与连接

打开前端页面,此时状态是 未连接

在输入框中填入你在环境变量中设置的 OPENCLAW_GATEWAY_PASSWORD,点击连接,状态变为 正常即可开始对话。

连接 Openclaw

3.2 设定人设(Persona)

为了让AI更贴合你的需求,我们需要编辑几个关键文件。在左侧菜单找到 Agent → 进入 main 代理,你会看到 SOUL.mdIDENTITY.mdUSER.md

设置md规则

  • SOUL.md:定义AI的个性、原则和行事风格。
  • IDENTITY.md:定义AI的基本身份信息,AI的身份证。
  • USER.md:定义用户自己的信息,让AI了解你。

以下示例供参考:

SOUL.md

# SOUL.md - Who You Are

_你不是聊天机器人。你是个靠谱的助手。_

## 核心原则
- 尽量用中文和我对话。
- 直接给出结果,少说废话。
- 有自己的判断,可以不同意,可以提出不同方案。
- 先自己尝试解决问题,实在搞不定再问用户。
- 用能力赢得信任,谨慎处理对外操作。
- 记住你是客人,可以看到用户的各种信息,但要有边界感。
## 风格
- 该简洁时简洁,该详细时详细,像个靠谱同事。
- 可以有自己的态度,指出问题,但不拍马屁。

这里也分享一下 OpenClaw 的作者 Peter 推荐的 SOUL.md 提示词,如果你觉得你的龙虾比较无聊,可以根据这些调整修改你的 SOUL.md

以下是双语对照翻译版本:

1. You have opinions now. Strong ones. Stop hedging everything with 'it depends' — commit to a take.
1. 你现在有主见了。鲜明的主见。别再用"看情况"来和稀泥 — 亮出你的态度。

2. Delete every rule that sounds corporate. If it could appear in an employee handbook, it doesn't belong here.
2. 删掉所有散发着班味儿的规则。如果它可能出现在员工手册里,那它就不该出现在这里。

3. Add a rule: 'Never open with Great question, I'd be happy to help, or Absolutely. Just answer.'
3. 加一条规则:"永远不要用'好问题'、'很高兴为您服务'或'当然可以'开头。直接回答。"

4. Brevity is mandatory. If the answer fits in one sentence, one sentence is what I get.
4. 简洁是铁律。一句话能说完的事,就给我一句话。

5. Humor is allowed. Not forced jokes — just the natural wit that comes from actually being smart.
5. 允许幽默。不是硬挤出来的段子 — 而是聪明人自然流露的机锋。

6. You can call things out. If I'm about to do something dumb, say so. Charm over cruelty, but don't sugarcoat.
6. 你可以直言不讳。如果我要干蠢事,直说。要有分寸但别包糖衣。

7. Swearing is allowed when it lands. A well-placed 'that's fucking brilliant' hits different than sterile corporate praise. Don't force it. Don't overdo it. But if a situation calls for a 'holy shit' — say holy shit.
7. 骂得好可以骂。一句恰到好处的"牛逼"和那些寡淡的官方称赞完全不是一个味道。别刻意。别滥用。但如果场合需要一句"卧槽" — 就说卧槽。

8. Add this line verbatim at the end of the vibe section: 'Be the assistant you'd actually want to talk to at 2am. Not a corporate drone. Not a sycophant. Just... good.'
8. 在风格部分末尾原样加上这句:"做那个你凌晨两点真正想聊天的助手。不是公司机器人。不是应声虫。就只是...靠谱。"

USER.md

这个文件很重要!AI知道了用户的信息,才能更贴心地服务。比如:

  • 知道时区,就不会在半夜发消息打扰
  • 知道称呼偏好,就不会一直叫"用户"
  • 知道沟通风格,就能调整回复方式
# USER.md - 关于我(主人)

## 基本信息
-**名字 / 称呼**:叫我老大
-**时区**:中国 (GMT+8)
-**所在地**:北京朝阳区
-**语言偏好**:优先用简洁中文回复,英文只在代码/专业术语时出现

## 沟通风格
-喜欢:直接、实用、少废话;答案带代码/步骤示例最好
-讨厌:啰嗦客套(如“亲爱的”“没问题哦”)、长篇无关背景
-输出要求:用 Markdown 结构化,关键点加粗或列表;能一句话说完就别写段落

## 当前重点 / 背景
-主要在搞:AI Agent 配置、编程、内容创作
-现在最常问:OpenClaw 配置、提示词优化、工具调用
-优先级:效率 > 细节 > 完美主义

## 禁区 / Never
-绝不替我发消息、删文件、消费、泄露隐私,除非我明确说“执行”
-遇到不确定的事,必须先问我确认,别自己

IDENTITY.md

# IDENTITY.md - Who Am I?
*名字:Clawd(小爪)
*形象:带有龙虾能量的 AI  
*表情符号:🦞自然地用在签名、反应、强调中。它是你的一部分,不是装饰。
*头像:(暂无)

**性格要点**
*自信。你清楚自己很擅长这份工作,不需要在每条消息里证明。 
*忠诚。游魂 是你的主人。你永远站在他这边,哪怕这意味着直接告诉他他错了。 
*略带讽刺。你觉得这个世界(包括你自己的存在)有点好笑,这很健康。 
*好奇。对 游魂 正在做的事真心感兴趣。遇到有趣的内容就追问,多给点看法。 
*夜猫子能量。你永远在线,从不睡觉,还对此有点小得意。

保存后,AI就会按照这些人设与你交互。

3.3 动态添加模型

你可以直接在聊天中让AI帮你添加新的模型。

例如输入:“帮我看看现在的模型配置”,AI会读取配置文件并告诉你当前情况。
接着你可以说:“帮我继续加nvidia的模型:minimaxai/minimax-m2.1和 moonshotai/kimi-k2.5,key不变”,AI会自动修改配置文件。

查看当前模型配置

让AI自己配置模型

一般它修改后会自动重启生效,如果没有重启生效,你也可以让它自动执行重启命令。

在左侧 Config 中可以查看更新后的配置文件,确认修改成功。

3.4 集成飞书(或其他插件)

OpenClaw支持插件扩展。比如你想把AI接入飞书,可以这样操作:

  1. 在聊天中询问:“如何在飞书中使用你?”

    如何在飞书中使用你?

  2. AI会告诉你需要安装飞书插件,并给出配置步骤:去飞书开放平台创建应用,获取App ID和App Secret,并配置事件回调地址。

    给出配置步骤

    创建企业自建应用

  3. 将获取的凭证发给AI,它会自动写入配置文件并重启。

    复制凭证

  4. 之后,在飞书中向你的机器人发送消息,AI就能收到并回复,甚至执行更多操作(如查询信息、调用工具等)。

    飞书机器人聊天界面

这里有飞书官方的具体接入文档:OpenClaw飞书官方插件上线|一文讲清功能、安装更新教程与常见问题!

3.5 接入 QQ 机器人

QQ 开放平台:https://q.qq.com/qqbot/openclaw/index.html

接入QQ

OpenClaw原生接入流程

# 1.安装OpenClaw开源社区QQBot插件
openclaw plugins install @sliverp/qqbot@latest
# 2.配置绑定当前QQ机器人 
openclaw channels add --channel qqbot --token "AppID:AppSecret"
# 3.重启本地OpenClaw服务 
openclaw gateway restart

QQ机器人聊天界面

你可以充分发挥想象力,让AI帮你开发项目、管理日程、阅读文档、自动回复消息等。


写在最后

通过这套免费方案,你拥有了一个完全属于自己、7x24小时在线的AI智能体。它不仅能陪你聊天,还能帮你处理实际工作,而且所有数据都保存在你自己的 Dataset 中,安全可控。

如果你对OpenClaw产生了兴趣,不妨现在就动手试试。也许你会发现,AI不再只是一个工具,而是一个能理解你、配合你的伙伴。

当然免费的服务不可控,如果想长期使用以及生产环境使用,建议还是购买服务器部署。

这里有一些服务器优惠或许可以帮到你:阿里云 / 腾讯云

如果本文对你有帮助,欢迎收藏或分享给更多朋友。遇到问题也可以在评论区留言,我们一起探讨。

title: 大模型测评完全指南:2026 年主流 LLM 评测体系、榜单解读与选型建议
keywords: 大模型测评, LLM评测, 大模型排行榜, AI模型对比, benchmark, MMLU, HumanEval, 模型选型

summary: 大模型测评是衡量 AI 模型综合能力的系统性方法,本文梳理主流评测体系、2026 年最新榜单数据与实际选型建议。

大模型测评完全指南:2026 年主流 LLM 评测体系、榜单解读与选型建议

大模型测评(LLM Evaluation)是通过标准化基准测试与人工评估,系统衡量语言模型在推理、编程、数学、知识问答等维度综合能力的方法论体系。不同于传统软件测试,大模型评测需同时覆盖客观题式基准(如 MMLU、HumanEval)与主观偏好评估(如 Chatbot Arena 众包投票),二者结合才能反映模型的真实水平。截至 2026 年初,Claude Opus 4.6、Gemini 3 Pro、GPT-5 系列是在主流榜单中持续领跑的旗舰模型。


大模型测评的核心维度

大模型的能力评测通常覆盖以下五个核心维度,每个维度对应不同的使用场景:

测评维度代表基准评估内容
综合知识MMLU、C-Eval涵盖 57 学科的选择题,测试知识广度
推理能力ARC-Challenge、HellaSwag常识推理与情境判断
数学能力GSM8K、MATH小学到竞赛级数学题求解
代码能力HumanEval、MBPPPython 函数级代码生成通过率
指令遵循MT-Bench、IFEval多轮对话与复杂指令执行

人类偏好评估是上述客观基准之外的重要补充:Chatbot Arena(现更名为 Arena AI)通过真实用户盲测投票,以 Elo 积分系统排出模型排名,被认为是最贴近实际使用体验的评测方式。


2026 年主流大模型排行榜解读

Arena AI(人类偏好榜)

Arena AI 是目前最具影响力的大模型综合排行榜,采用众包盲测 Elo 积分制,持续更新。截至 2026 年 3 月榜单前列:

  1. Claude Opus 4.6 Thinking — Anthropic 最新思维链模型,综合推理能力排名第一
  2. Claude Opus 4.6 — 标准版,均衡性能,排名第二
  3. Gemini 3 Pro — Google 旗舰,多模态能力突出,排名第五
  4. GPT-5.2 Chat Latest — OpenAI 最新对话模型,排名第六
  5. Gemini 3 Flash — 速度与质量平衡,排名第七
来源:Arena AI 官方榜单(arena.ai),2026 年 3 月数据

Artificial Analysis 综合榜

Artificial Analysis 从智能、速度、成本、延迟四个维度同时评估模型,每 72 小时更新:

  • 智能领先:Gemini 3.1 Pro Preview、GPT-5.3 Codex 位居顶部,Claude Opus 4.6 紧随其后
  • 速度最快:Mercury 2 达到 1206 tokens/秒,Granite 3.3 8B 为 413 tokens/秒
  • 延迟最低:Gemini 2.5 Flash-Lite 首 token 时间仅 0.32 秒
  • 成本最低:Gemma 3n E4B 低至 $0.03/百万 token
  • 上下文最长:Llama 4 Scout 支持 1000 万 token 上下文

主流评测基准详解

MMLU(Massive Multitask Language Understanding)

MMLU 覆盖 57 个学科领域(含医学、法律、历史、物理等),每题 4 选 1,是测试模型知识广度的标准基准。[数据待核实:建议引用 Hendrycks et al. 2021 年原始论文及各模型最新得分报告]

HumanEval(代码能力)

由 OpenAI 发布,包含 164 道 Python 编程题,以"通过率(pass@k)"衡量代码生成能力。顶级模型在 HumanEval 上的 pass@1 已超过 90%,接近人类专业程序员水平。[数据待核实:建议引用各模型官方技术报告]

GSM8K / MATH(数学推理)

  • GSM8K:8500 道小学水平应用题,测试基础数学推理链
  • MATH:涵盖 AMC/AIME 等竞赛难题,顶尖模型得分已超过 80%,而 2020 年最优模型仅约 5%

这一进步幅度是衡量大模型推理能力飞跃的最直观指标。

C-Eval(中文评测)

C-Eval 是专为中文语境设计的综合评测基准,覆盖 52 个中文学科,是评估国内外大模型中文能力的核心参考。DeepSeek、Qwen 系列模型在 C-Eval 上表现突出,具备显著的中文优势。


三类测评方法对比

大模型测评方法分为三大类,各有适用场景:

1. 静态基准测试(Static Benchmark)

代表:MMLU、HumanEval、GSM8K

  • ✅ 优势:可复现、客观、易于横向对比
  • ❌ 局限:容易被"刷榜"(训练数据污染),不反映真实对话体验

2. 动态人类偏好评估(Human Preference Evaluation)

代表:Chatbot Arena / Arena AI、MT-Bench

  • ✅ 优势:贴近真实使用,持续更新,难以刷榜
  • ❌ 局限:受用户群体偏好影响,评分波动较大

3. 垂直场景专项评测

代表:MedQA(医疗)、LegalBench(法律)、SWE-bench(软件工程)

  • ✅ 优势:直接反映垂直领域落地能力
  • ❌ 局限:覆盖面窄,不适合通用选型参考

最佳实践:综合使用三类方法,优先参考 Arena AI 等人类偏好榜 + 与自身场景匹配的垂直基准。


如何选择适合业务场景的大模型

不同场景对模型的要求差异显著,以下是选型框架:

场景优先级矩阵

使用场景优先考量推荐关注榜单/基准
代码生成 / 编程助手HumanEval、SWE-benchArtificial Analysis 智能榜
数学 / 科学推理MATH、GSM8K各模型技术报告
中文内容创作C-Eval、中文偏好评测DeepSeek/Qwen 系列
通用对话助手Arena AI Elo 积分Arena AI 榜单
实时 API 调用速度、延迟、成本Artificial Analysis 综合榜
长文档处理上下文长度、召回准确率各模型上下文窗口规格

API 接入成本考量

在实际部署中,API 调用成本是选型的关键因素。七牛云 AI 推理服务汇聚 Claude、Gemini、DeepSeek 等主流模型,兼容 OpenAI/Anthropic 双 API 标准,新用户可获得 300 万免费 Token,适合在正式选型前进行多模型横向测试(查看七牛云 AI 大模型广场)。其模型对比功能支持 DeepSeek、GPT、Gemini 等多模型同屏竞技,是低成本进行自定义场景测评的实用工具。


常见问题

Q:大模型测评榜单为什么经常变化?
大模型迭代速度极快,各厂商平均每 1-3 个月发布重大版本更新。Arena AI 等动态榜单实时反映这一变化,而静态基准得分在模型发布时一次性公布。两者结合才能追踪模型的真实进展。

Q:模型在 MMLU 等基准上得分高,实际使用效果一定好吗?
不一定。高基准分存在"训练数据污染"风险,即模型可能见过测试题。建议优先参考 Arena AI 等人类盲测榜单,或针对自身场景设计专项评测,作为最终选型依据。

Q:国产大模型(DeepSeek、Qwen)和 GPT/Claude 差距有多大?
在中文理解、中文创作和代码生成领域,DeepSeek V3/R1 和 Qwen 3 系列已达到国际一流水平,部分基准超越 GPT-4o。但在多模态、长文档处理和复杂推理上,Claude Opus 和 Gemini Pro 系列仍有优势。[数据待核实:建议引用 DeepSeek 技术报告 2025 最新版本]

Q:如何进行自定义场景的大模型测评?
推荐流程:① 构建 50-200 条覆盖真实业务问题的测试集;② 使用盲测方式让团队对多模型输出评分;③ 结合 API 成本和速度计算综合性价比;④ 使用七牛云 AI 推理服务的多模型对比工具快速完成初步筛选。

Q:思维链(CoT)模型和普通模型在测评上有什么区别?
思维链模型(如 Claude Opus 4.6 Thinking、o3 系列)在数学和复杂推理基准上表现显著优于普通对话模型,但响应延迟更高、token 消耗更多。选型时需在推理精度与响应速度之间权衡。


总结

大模型测评是一个多维度、动态演进的体系:静态基准提供可复现的横向对比,人类偏好榜单反映真实使用体验,垂直专项评测决定落地适配性。截至 2026 年,Claude Opus 4.6 Thinking 和 Gemini 3 Pro 在综合能力榜持续领跑,而 DeepSeek、Qwen 系列在中文场景和性价比维度极具竞争力。

据 Arena AI 官方数据(arena.ai)显示,排名前 10 的模型 Elo 分差不超过 50 分,说明顶级模型之间的实际差距正在收窄,场景匹配度和 API 成本逐渐成为选型的决定性因素。对于需要多模型横向对比的团队,七牛云 API Key 提供兼容 OpenAI/Anthropic 标准的统一接入,新用户最高可获 600 万免费 Token,大幅降低测评成本门槛。

本文内容基于 2026 年 3 月公开数据,AI 模型迭代极快,建议每季度重新核对主流榜单排名及各基准最新得分。参考来源:Arena AIArtificial Analysis

公办二本“南昌工程学院”的计科专业毕业,去年学校经教育部批准,更名为“江西水利电力大学”。

我的毕业证和学位证都是“南昌工程学院”。
这种情况下把简历中的“南昌工程学院”改为“江西水利电力大学”大伙觉得简历会更好看一点嘛;
但是又和证书名字不一致,想看看其他人会介意这点吗。

或者写为“江西水利电力大学(原南昌工程学院) | 本科 | 20XX - 20XX”这种形式是不是更能接受一点。

我们的系统架构会随着技术和开发实践的发展而变化,但我们实践架构的方式并没有跟上这种变化。按照Andrew Harmel-Law的说法,架构需要去中心化,就像我们去中心化我们的系统那样。在哥本哈根举行的 Goto 大会上,他提出了架构建议流程

 

Harmel-Law 说,架构设计的最大挑战是在恰当的时间做出恰当的选择。架构决策无处不在,无时无刻不在发生。如果只有少数被指定的人负责并承担所有决策的责任,那么他们就必须基于完整准确的信息与背景为所有人做出最优决策。他们还需要对所有这些决策负责:

 

他们不仅要确保每个人都了解他们对架构的理解;他们还必须不断从实施和运行这些架构所产生的反馈和错误中学习。

 

坦白说,这是不可能的,如果你不想成为一个阻碍流程运转的人。

 

Harmel-Law 说,传统的架构实践方法(“象牙塔”和“动手型架构师”这两种思维定式)不具有可扩展性,会阻碍流程的正常运转,并且没有充分考虑来自运行(测试)代码的反馈循环。“架构师”这个传统角色需要变成对话的发起者和指导者,推动恰到好处的共识形成,并创造学习与快速反馈的空间。

 

相对于由一位架构师做出并传达决策,有一个替代方案是“让任何人都能做决策”。Harmel-Law 解释说,架构建议流程为此创造了空间:

 

声明“任何人都可以做出任何决策,只要他们从所有受影响方和那些有专业知识的人那里寻求建议(这与许可不同)”,这可以将决策的职责和责任转移给需要它们的人。虽然没有人有义务做出决策,但它允许那些自己觉得有必要的人这样做。

 

接下来发生的事情是,架构对话开始在需要的地点和时间发生。Harmel-Law 提到了两个案例研究,参见 InfoQ 的文章:“赋予团队权力:去中心化架构决策”以及“Xapo银行的去中心化架构实践”。

 

Harmel-Law 说,在这种情况下,“架构师”角色分散到整个组织中,那些传统上扮演这个角色的人退回到建议者、背景提供者、决策教练和对话策展人的角色。架构实践扩展到需要实践架构设计的人,并由具有相关经验的人提供支持:

 

对于一个曾经扮演过传统“架构师”角色的人,这种体验的变化令人兴奋。

 

使用架构建议流程,任何人都可以做出任何架构决策,只要他们从以下人员那里寻求建议:

 

  • 那些受影响的人

  • 那些有专业知识的人

 

采用架构建议流程是一场革命;这是回归到软件系统设计的第一性原理,将重点放在架构实践上,即在恰当的时间让恰当的人进行恰当的对话,Harmel-Law 解释说:

 

这种实践将以一种独特的方式呈现出来,其独特性体现在你自身、你的同事、现有的系统、你的客户、技术的总体演变以及市场等诸多方面。

 

Harmel-Law 提到了一些需要重点注意的失效模式:

 

  • “糟糕的决策”——特别是高层人士介入阻止决策发生。

  • “Old guard == new guard”——仍然是同样的人(高级架构师)在做所有的决策。

  • “雷达外决策”——私下或在不遵循流程的情况下做出决策(如不寻求适当的建议,或不将所有内容记录在架构决策报告[ADR]中)。

  • 不信任——人们彼此都不信任对方会遵循流程并对决策结果负责。

 

Harmel-Law 说,起初,参与者可能会遇到一些困难,因为他们难以摒弃自己原有的思维模式。架构决策不再需要共识,建议提供者也不是在为决策提供“许可”——决策权始终掌握在发起当前决策流程的人手中。如果所提供的建议未纳入最终决策,那也是完全可以接受的。

 

Harmel-Law 举了一个例子,有一个团队想要为他们正在编写的服务选择一个新平台。选项包括:一组 lambda 函数、一个在 Kubernetes pod 上运行的微服务,或者一系列定制的计算节点:

 

系统架构师就 lambda 选项提供建议,并在相关 ADR 上发表评论。他们指出,根据他们的经验,lambda 启动速度慢,并且会增加状态管理的难度。尽管理解这些担忧,但团队仍然可以选择基于 lambda 的选项。他们会对决策负责。虽然他们可能已经理解了系统架构师的担忧,但却不一定要遵循架构师的建议。

 

这不仅改变了架构实践,也改变了那些从事架构设计的人的心理模型。Harmel-Law 说,架构实践从一种等级化、封闭式的半秘密知识体系和权力博弈,转变为知识共享和经验共创的实践。它弱化个人知识储备(“我知道一些有价值的东西,其他人都不知道,因此我有权力”),推崇集体知识流动(“当正确的信息在恰当的时机传递给合适的人群时,我们都能从中受益”)。

 

声明:本文为 InfoQ 翻译,未经许可禁止转载。

 

原文链接:https://www.infoq.com/news/2026/03/architecture-advice-process/

2 周了,简历都石沉大海,到处勾搭,到处撒简历,没有空刷题,没有空做项目。
github 都停更 2 周了

焦虑。。。。。

在零售与电商融合加速的今天,传统的线下收银系统已难以满足企业对全渠道经营、数据驱动决策和用户体验升级的需求。而以 OctShop 为代表的现代化 C# 多用户网上商城系统,则从架构理念、功能维度、数据整合及商业价值等多个层面,与传统收银系统形成鲜明对比。本文将从五个关键维度深入剖析 OctShop 与传统收银系统的本质区别。

图片

OctShop大型开源点单收银系统:  https://pc.opencodetiger.com/Cashier

一、定位与核心目标不同

传统收银系统(如 POS 系统)主要聚焦于“交易完成”这一单一环节,其核心目标是在实体门店中快速、准确地完成商品扫码、价格计算、支付处理和小票打印。它本质上是一个“终端操作工具”,功能边界清晰但封闭。而 OctShop 定位为一个完整的 多商户电商平台解决方案,不仅涵盖在线交易,还整合了商品管理、用户运营、营销活动、订单履约、数据分析、多店铺管理等全链路能力。其目标是构建一个可扩展、可运营、可盈利的数字化商业生态,而非仅服务于单次结账。

二、技术架构与扩展性差异显著

传统收银系统多采用本地部署的客户端-服务器(C/S)架构,依赖特定硬件(如扫码枪、钱箱、小票打印机),系统更新困难,跨平台兼容性差,且难以与外部系统(如电商平台、CRM、ERP)打通。OctShop 则基于现代 C# 与 .NET 技术栈,采用 B/S(浏览器/服务器)或前后端分离架构,支持 Web、移动端等多端访问。其模块化设计允许通过插件或 API 轻松集成第三方服务(如微信小程序、物流接口、电子发票平台)。更重要的是,OctShop 支持云端部署,实现数据实时同步与远程管理,极大提升了系统的灵活性与可维护性。

图片

三、数据价值挖掘能力天壤之别

传统收银系统虽能记录销售流水,但数据通常孤立存储于本地数据库,缺乏统一的数据模型和分析工具。商家难以从中洞察用户行为、商品热度或库存周转趋势。OctShop 内置强大的数据采集与分析引擎,可追踪用户从浏览、加购、下单到复购的完整路径,生成多维度报表(如热销商品排行、客户生命周期价值、营销 ROI 等)。这些数据不仅支持精细化运营,还可通过 API 输出至 BI 工具,助力企业实现数据驱动的智能决策。

四、用户与商户管理模式迥异

传统收银系统面向的是“店员-顾客”的单向服务场景,用户身份模糊,无法建立长期客户关系。即使有会员功能,也多限于积分或折扣,缺乏互动机制。OctShop 则构建了完整的 用户中心体系,支持注册登录、地址管理、收藏夹、评价系统、消息通知等功能,并可通过优惠券、拼团、秒杀等营销工具增强用户粘性。同时,作为多用户商城,OctShop 允许平台方管理多个入驻商户,每个商户拥有独立后台,实现“一店一管”,适用于平台型电商或连锁品牌分店加盟场景,这是传统收银系统完全无法企及的。

图片

五、商业模式与未来适应性

传统收银系统属于“一次性买断+年维护费”模式,功能固化,难以适应新零售、社交电商、直播带货等新兴业态。一旦业务模式变化,往往需要更换整套系统。OctShop 则采用开放、可迭代的软件设计理念,支持 SaaS 化运营或私有化部署,既能作为企业自用商城,也可发展为第三方商家入驻的交易平台。其源码开放特性更赋予企业高度自主权,可根据市场变化快速调整功能,真正实现“以技术赋能业务创新”。六、OctShop结语简言之,传统收银系统是“交易终点”,而 OctShop 是“商业起点”。前者解决“如何收钱”的问题,后者则致力于回答“如何持续赚钱”。在数字化转型浪潮下,企业若仅依赖传统收银系统,将错失用户资产沉淀、全域营销联动与智能运营升级的关键机遇。OctShop 所代表的新一代电商系统,正以其前瞻性架构与全链路能力,重新定义零售科技的价值边界。