2026年1月

Finger - Burp Suite 自动化指纹识别与主动探测插件
Finger 是一款专为 Burp Suite 打造的模块化指纹识别插件,旨在通过被动流量监控与智能主动探测,快速识别目标站点的技术栈(CMS、框架、中间件、API 接口及敏感路径泄露)。

指纹识别.png


https://github.com/238469/burp-finger
🚀 核心特性

中英文双语支持:内置完善的国际化(I18n)机制,支持中英文界面动态切换,满足不同用户需求。
双模识别:支持被动流量匹配与主动路径探测。
在线规则更新:支持从 GitHub/Gitee 或自定义 URL 实时更新指纹库,并具备“智能合并”功能,在更新官方库的同时保留用户自定义规则。
正则匹配引擎:在传统的字符串匹配基础上,新增正则表达式支持,可对 Header 和 Body 进行更精细的特征提取。
风险提示功能:指纹规则支持 description 描述字段,在识别出指纹的同时,可直接提示关联的敏感路径或潜在漏洞风险。
智能去重机制:
请求级去重:同一 URL 在单次会话中仅进行一次匹配,避免重复扫描。
展示级去重:同一 URL 下的重复指纹会自动压缩显示,保持界面整洁。
智能递归探测:支持多级目录递归扫描,自动向上追溯父级目录,深度可调(0-N)。
精准规则引擎:

规则配置.png


支持 header、body、status、hash (Favicon MurmurHash3/MD5) 多维度匹配。
支持多关键字 AND 逻辑。
支持状态码强校验。
Nuclei 集成:识别指纹后自动生成 Nuclei 扫描标签(Tags),支持右键一键生成 Nuclei 扫描命令。
规则管理:内置 UI 管理界面,支持主动/被动规则过滤、指纹搜索、在线更新、规则导出/导入。
高性能与可配置性:
采用多线程执行、限流保护(Rate Limiting)。
系统配置面板:支持动态调整线程数、每秒发包数(RPS)。
智能过滤:支持全局配置状态码黑名单(如 404, 403)及响应体关键字黑名单,减少无效匹配。
丰富的指纹库:内置 2000+ 指纹规则,覆盖 Spring Boot Actuator、Swagger、GraphQL、常见备份文件、.git/.svn 泄露、主流 Web 编辑器、编程语言、前端框架等。
🛠️ 安装方法

编译项目:
mvn clean package -DskipTests
加载插件:
打开 Burp Suite -> Extensions -> Installed -> Add。
选择 target/finger-1.0-SNAPSHOT-jar-with-dependencies.jar。
配置:
插件加载后会自动在 rules/ 目录下搜索 fingerprints.json。
首次使用建议进入 System Config 标签页配置合适的线程数和过滤规则。

📖 使用指南
1 被动识别
插件会自动监听 Proxy 流量,实时识别经过的所有请求和响应中的技术指纹。识别结果展示在 Finger 标签页的表格中。
2 主动探测
开启/关闭:在 Finger 标签页勾选 Enable Active Scan。
探测深度:通过 Scan Depth 调整递归深度。
0: 仅探测根目录。
1: 探测根目录及当前请求的一级父目录。
触发机制:当正常浏览网页时,插件会根据当前 URL 自动触发对相关敏感路径(如 /actuator/env, .git/HEAD 等)的探测。
3 系统配置 (System Config)

系统配置.png


并发控制:动态设置 Thread Count(建议 10-50)和 RPS(建议 10-100)。
全局过滤:
Exclude Status Codes: 设置不参与匹配的状态码列表(逗号或换行分隔)。
Exclude Body Keywords: 设置包含特定内容时跳过匹配的关键字列表(换行分隔)。 4 Nuclei 集成

nuclei联动.png


在识别结果表格中点击右键,选择 Copy Nuclei Scan Command。
插件会自动根据当前识别到的所有指纹名称,格式化为 Nuclei 的 tags(如 spring-boot,nginx),生成完整的命令行。 5规则管理
内置规则管理器,支持指纹搜索、在线更新、导出自定义规则。

起因

前些时间整了个备案域名,就想着把一些自建服务迁移回国内,原本我的 Bark 服务器是放在 Cloudflare Workers 上的,于是就想着看看能不能迁移到国内公有云的 Serverless 平台上。

选择 EdgeOne Pages 的原因也很简单,想着也许能够免费用,于是就遇到第一个问题:

问题

问题 1:文档没有描述 KV 的计费规则

我打开腾讯云的文档竟然发现完全没有描述 Pages KV 的计费规则,于是我提出售前工单询问计费规则,客服回复让我加微信群问技术支持……所以这个工单系统的作用是什么,电话总机吗?无奈还是加群问了下,技术支持表示是免费的。就算免费也得写一下吧……那好吧就用这个了,毕竟好像找不到第二个免费的……

问题 2: CLI 中环境变量不能设置为 0

设置环境变量为 0 表示禁用应该是挺常见的用法,一开始设置为 0 不行觉得可能是 JavaScript 0 == '' 的问题(后面一想那参数肯定是字符串啊),于是就试着设置成 "0",还是不行。在网页试了下可以设置,不过难道把环境变量设置为空字符串又是什么禁忌吗?

> npx edgeone pages env set EXAMPLE_KEY 0
[cli][✘] Variable name and value cannot be empty.
> npx edgeone pages env set EXAMPLE_KEY ""
[cli][✘] Variable name and value cannot be empty.
> npx edgeone pages env set EXAMPLE_KEY "0"
[cli][✘] Variable name and value cannot be empty.

问题 3:启动开发环境次数有日限

这个文档里写了,但是没写能开多少次,我这边大概不到 20 次就触发日限额了(热重载不算,但是 Debug 的时候发现热重载不是很即时就反复开了下),只能等第二天。

这个开发环境似乎是远程在腾讯云那边起了三个 Worker ,而且对 KV 的读写会影响到生产环境(这要是真有人在重要生产环境用了怕不是会炸掉)……

问题 4:fetch() 不支持 HTTP/2

最后的推送代码写好的时候,发现请求 APNs 服务器的时候连接会被断开,研究半天发现是 EdgeOne Pages Edge Functions Runtime 的 fetch() 不支持 HTTP/2 ,而 api.push.apple.com 是强制使用 HTTP/2 的。我问了下腾讯的员工,说是在规划中,本来我想着可能我是第一个发现的文档没有提示也不奇怪,后面发现似乎我不是第一个问这个的……

本来觉得又白干一天了,突然想起这个 Edge Pages 还有个 Node Functions 用的是 Node.js Runtime ,于是拿 Node Functions 写了个代理就勉强能用了。开发的过程中发现 Edge Functions 的 Catch-all 路由优先级是高于 Node Functions 所有路由的,只好把 Edge Functions 移动到了一个单独的目录下,当然这文档也没说明。

总结

总而言之,头疼的体验主要来自文档不清晰,其次交流严重依赖 IM 而不是工单系统,最后是非常草台的设计。

视频会议国产化安全加密技术深度解析

在国产化视频会议系统的安全体系中,加密技术是保障数据不被窃取、篡改、泄露的核心支撑,其设计遵循全链路覆盖、国密标准合规、分级权限管控三大原则,从终端接入到数据传输、从会议信令到内容存储,构建起无死角的安全防护屏障。

一、 加密技术底座:国密算法的全面落地

国产化视频会议系统摒弃国外通用加密算法,全面采用符合《中华人民共和国密码法》要求的国密算法体系,核心算法包括SM2、SM3、SM4,分别承担身份认证、数据校验、内容加密的核心职能,实现算法层面的自主可控。

  1. SM4对称加密算法:音视频流的实时加密核心
    SM4算法以128位分组长度和密钥长度为基础,具备运算速度快、资源占用低的特性,完美适配视频会议音视频流的实时加密需求。在传输过程中,系统会将音视频数据切割为固定长度的数据块,通过SM4算法进行分组加密,加密后的数据流即使被截获,也无法通过暴力破解还原原始内容。相较于传统AES算法,SM4在国产芯片上的运行效率提升30%以上,可满足4K超高清视频流的低延迟加密需求。
  2. SM2非对称加密算法:身份认证与密钥协商
    针对会议终端接入认证、加密密钥协商等场景,系统采用SM2椭圆曲线公钥密码算法。会议发起前,服务器与终端会互相验证对方的SM2数字证书,确认终端身份合法性,杜绝非法设备接入会议;同时,通过SM2算法完成会话密钥的安全协商,避免密钥在传输过程中被窃取。SM2算法的密钥长度仅需256位,即可达到RSA算法2048位的安全强度,在提升安全性的同时,大幅降低密钥协商的计算开销。
  3. SM3哈希算法:数据完整性校验
    为防止音视频流、会议信令在传输中被篡改,系统引入SM3密码哈希算法。发送端会为每一段数据生成对应的SM3哈希值,随数据一同传输;接收端收到数据后,会重新计算哈希值并与发送端数值比对,若数值不一致,则判定数据被篡改并自动丢弃。此外,SM3算法还用于会议日志、录制文件的完整性校验,确保会议全流程数据可追溯、不可篡改。

二、 全链路加密:从终端到存储的无缝防护

国产化视频会议系统的加密覆盖终端接入、信令传输、媒体流传输、数据存储四大环节,形成端到端的闭环防护,任一环节均不出现加密断点。

  1. 终端接入加密:双重认证+链路加密
    终端接入会议时,需通过“身份证书认证+权限令牌验证”双重关卡。终端内置的SM2数字证书由国产化CA认证中心签发,服务器通过校验证书有效性确认终端身份;同时,管理员为不同参会人员分配分级权限令牌,令牌通过SM4算法加密存储,确保只有授权人员才能加入会议。终端与服务器建立连接的瞬间,即刻启动TLS 1.3协议加密链路,所有接入请求数据均在加密链路中传输,防止接入信息被监听。
  2. 信令与媒体流传输加密:分层加密策略
    会议系统中的数据分为信令数据(会议预约、人员邀请、功能控制指令)和媒体流数据(音视频、屏幕共享内容),针对两类数据的不同特性,系统采用分层加密策略。

◦ 信令数据采用“TLS 1.3 + SM4”双重加密,TLS协议保障信令传输链路安全,SM4算法对信令内容进行二次加密,即使链路被攻破,信令内容仍处于加密状态;

◦ 媒体流数据采用SRTP+SM4协议加密,SRTP协议为实时传输协议提供加密、认证、防重放保护,结合SM4算法的高强度加密,实现音视频流的安全传输。同时,系统支持加密参数动态更新,每10分钟自动生成新的会话密钥,进一步提升传输安全性。

  1. 数据存储加密:分级存储+透明加密
    会议录制文件、签到日志、纪要等数据的存储环节,采用分级加密存储机制。涉密等级较高的会议内容,采用“SM4加密存储+硬件加密机密钥托管”的方式,加密密钥存储于国产化硬件加密机中,与存储数据物理隔离,只有授权人员通过身份认证后,才能调用密钥解密数据;普通会议内容则通过SM4算法加密后存储于国产化数据库中,数据库本身部署于国产服务器,遵循数据不出境的安全要求。此外,系统支持存储数据的透明加密,用户读取数据时自动解密,写入数据时自动加密,不影响用户操作体验。

三、 安全加固:防篡改、防重放、防攻击

除核心加密技术外,国产化视频会议系统还针对会议场景的典型安全威胁,部署多重防护机制,强化加密体系的抗攻击能力。

  1. 防重放攻击:时间戳+随机数校验
    为防止攻击者截取并重复发送合法的会议信令,系统为每一条信令添加时间戳+随机数标识。服务器接收信令时,会校验时间戳的有效性,超过有效期的信令直接丢弃;同时,通过随机数唯一性校验,拒绝重复的信令请求,确保每一条信令都是实时、合法的。
  2. 防篡改攻击:哈希校验+数字签名
    除SM3哈希校验外,系统还为关键信令和录制文件添加SM2数字签名。发送端使用私钥对数据签名,接收端通过公钥验证签名有效性,确认数据未被篡改且发送方身份合法,双重校验机制大幅提升数据完整性保障能力。
  3. 抗DDoS攻击:国产化防火墙联动
    系统可与国产化防火墙、入侵检测系统(IDS)无缝联动,通过流量清洗、异常行为识别等技术,抵御针对会议服务器的DDoS攻击。针对视频会议的流量特性,防火墙可精准识别会议媒体流与信令流,优先保障合法会议流量的传输,避免攻击导致会议中断。

四、 权限管控:加密体系的精细化管理

加密技术的有效落地,离不开精细化的权限管控体系。国产化视频会议系统采用“管理员-主讲人-参会人”三级权限架构,将加密密钥、解密权限与用户角色绑定,实现“密钥不外露、权限不越界”。

• 管理员拥有最高权限,可配置加密算法参数、管理数字证书、分配用户权限,同时掌握硬件加密机的密钥调用权限;

• 主讲人可控制会议加密状态,开启/关闭录制加密功能,指定可查看共享内容的参会人员;

• 参会人仅拥有与其权限匹配的解密权限,普通参会人无法获取会议录制文件的解密密钥,也无法查看超出权限的共享内容。

权限变更操作全程记录于加密日志中,日志通过SM3算法校验,确保权限管理行为可追溯、可审计。

‍当我们审视人工智能的进化脉络时,一场颠覆性的智能变革正深刻重塑行业格局:人工智能正从执行特定指令的工具,蜕变成为能够理解复杂意图、规划执行路径并自主解决问题的自主智能体。

这一转变的关键动力,一方面来自大语言模型所提供的通用推理能力与广泛知识积累,另一方面也离不开高质量数据对模型性能的基础支撑。

曼孚科技作为一家从数据出发,以数据标注和数据管理为核心的 AI 平台型企业,致力于打造全球规模最大的数据处理平台与业界领先的端到端AI平台,通过一站式满足数据、算力、工具、管理、训练及推理等AI全链路需求,为大语言模型驱动的自主智能体发展奠定坚实基础。

这种依托大语言模型构建、由高质量数据赋能的智能体新形态,不仅重塑了人机协作的边界,更在本质上拓展了机器智能的疆域。

一、从 “工具” 到 “伙伴”

传统人工智能系统大多遵循 “输入 - 处理 - 输出” 的运作逻辑,无论是图像识别、机器翻译还是推荐系统,均在封闭的输入空间内执行预定义任务。这些系统缺乏对任务上下文的整体把控,更无法在动态环境中自主调整策略。

大语言模型驱动的智能体则呈现出全然不同的智能形态:它们具备任务理解、自主规划与动态调整的综合能力。

这种能力的基础,源于大语言模型已从 “文本预测器” 到 “世界模型”的进化,而支撑这一进化的核心前提,是海量高质量标注数据的训练与打磨。

通过标准化、精细化的数据标注与管理,模型不仅掌握了语言规则,更内化了关于世界运行规律的丰富知识。当这些知识与环境反馈相结合,智能体便能展现出令人惊讶的环境适应性。

在这一智能形态下,智能体的核心不再是单一算法模型,而是由感知、认知、决策、执行等多个模块构成的协同系统。

大语言模型充当系统的 “认知内核”,负责解读任务意图、分解复杂目标、制定行动策略并评估执行效果;外围模块则承担环境交互、反馈获取、工具调用与记忆存储的功能,形成完整的感知 - 行动闭环。

这种架构让智能体能够应对开放世界的复杂任务。例如,当被要求 “分析公司上个季度的销售数据并准备汇报 PPT” 时,传统 AI 需要多个独立系统协同完成 —— 数据分析工具、文档生成系统、演示软件等,且每个环节都依赖人工衔接。

而 LLM 驱动的智能体可自主规划完整流程:检索数据库获取销售数据,调用分析工具开展统计处理,基于分析结果生成文字总结,最终调用 PPT 生成模块创建演示文稿。整个过程中,智能体根据各步骤执行结果动态调整后续计划,展现出强大的任务管理能力。

而这一切能力的落地,离不开底层高质量数据的支撑。

曼孚科技深耕数据标注与管理领域,构建了一套覆盖项目全生命周期的内部质量管理体系,为大语言模型与自主智能体的训练提供了可靠的数据保障。

在这里插入图片描述

从新成员准入的严格筛选—→现有人员的常态化质量监督—→新场景新需求的规则培训与磨合,曼孚科技通过多轮数据质量检查、驳回修改的闭环流程,确保交付给客户的数据完全满足质量要求。

在标注人员培养层面,曼孚科技建立了系统化的培养体系:

1、针对所有标注人员开展全面的入职培训,内容涵盖标注平台使用方法、标注项目常见类型、标注质量要求等核心模块,帮助标注人员建立清晰的工作认知。

2、结合标注人员的水平差异与经验积累,制定分阶段、分层次的培训计划,精准匹配不同标注项目的需求。

3、创新性设立标注员培训师岗位,通过在线培训、面对面指导、视频教程等多元方式开展教学,并在项目启动前增加专项培训,助力标注员深度理解项目需求。

此外,曼孚科技高度重视培训效果评估,通过常态化测试与考核,及时发现标注人员的能力短板,给予针对性指导支持。

为了从机制上保障标注质量,曼孚科技搭建了全流程的标注质量管理机制:

1、通过随机抽取标注结果进行质量检查,确保标注数据的准确性与一致性,对发现的错误或低质量标注及时反馈指导,对严重违反规则的行为落实相应处罚。

2、建立以标注准确率、效率、工作态度为核心维度的绩效考核机制,以正向激励推动标注质量与效率双提升。

3、定期组织标注员培训,持续强化标注规则、工具使用与质量管理机制的认知;同时定期评估标注规则与数据集,及时调整更新不合理内容,保障标注质量的稳定性与可靠性。

在标注过程监督环节,曼孚科技更是构建了多维度的管控体系:

1、设立随机检查机制,抽取部分已标注数据进行核验,检查结果直接作为人员评估与培训的依据。

2、建立快速纠错机制,一旦发现标注错误立即修正,避免错误数据对后续模型训练与应用产生负面影响。

3、搭建实时反馈机制,帮助标注人员及时掌握自身工作质量,持续优化标注行为。

4、加强团队内部沟通协调,及时解决标注人员遇到的问题困难,避免因误解偏差影响标注质量一致性。

5、通过定期评估标注流程、引入自动化标注工具与算法、加入脚本及算法质检流程等方式,不断优化标注流程,减轻标注员工作负担,提升标注效率与准确性。

6、通过改善工作环境、完善奖励措施等途径,全方位提升标注员的工作效率与质量。

在这里插入图片描述

二、智能体系统的核心组件

构建真正的 LLM 驱动智能体,需要一系列精心设计的组件协同运作,形成有机的认知 - 行动系统。

认知框架:从语言理解到任务规划

大语言模型作为认知核心,其能力已远超语言生成本身。借助思维链提示、自我反思与程序辅助推理等技术,LLM 能够将复杂问题拆解为逻辑步骤,逐步推演解决方案。

例如,面对 “帮助用户规划一次北京三日游” 这样的开放式任务时,智能体会先开展需求分析(明确预算、兴趣偏好、时间限制),再将任务分解为交通安排、住宿预订、景点选择等子目标,最终生成详细的日程计划。

更先进的智能体系统引入多专家协作框架,将单一 LLM 扩展为多个具备不同专长的 “认知专家”:有的擅长逻辑推理,有的专攻创意生成,还有的专注事实核查。

它们通过内部 “讨论机制” 协同决策,这一架构显著提升了智能体处理复杂多维度任务的能力。

记忆系统:从短时交互到持续学习

与传统对话系统仅维持短暂对话历史不同,现代智能体具备完善的多层记忆架构:

1、短期记忆:留存当前对话与任务的上下文信息。

2、长期记忆:以向量数据库或知识图谱形式,存储智能体长期运行中积累的经验、用户偏好及领域知识。

3、外部记忆:连接数据库、知识库与互联网,提供实时、准确的外部信息支撑。

记忆系统不仅承担信息存储功能,更支持复杂的记忆检索与关联推理。当智能体面对新任务时,可从长期记忆中检索相似案例、借鉴历史经验。

同时,持续将新获取的知识结构化存储,实现能力的持续迭代。这种记忆能力让智能体能够构建个性化用户模型,提供更精准的服务。

工具使用:从单一模型到能力扩展

纯粹的 LLM 存在明显能力边界 —— 无法获取实时信息、难以执行具体操作、精准计算能力薄弱。工具使用能力使智能体突破自身限制,将语言理解转化为实际行动。

智能体的工具集可涵盖:

1、信息工具:搜索引擎、数据库查询、API 调用。

2、操作工具:代码解释器、软件控制接口、机器人指令集。

3、专业工具:数学计算器、设计软件、专业分析平台。

智能体学习 “何时、如何选用何种工具” 的过程,被称为工具学习。

通过少量示例演示或强化学习,智能体能够根据任务需求自动选择适配工具,并以正确格式提供输入参数。

例如,需计算复杂统计指标时,会自动调用 Python 代码解释器而非尝试自主计算;需获取最新股票信息时,会调用金融数据 API 而非依赖训练数据中的陈旧信息。

行动策略:从确定性执行到适应性探索

在动态、不确定的环境中,智能体需根据环境反馈实时调整行动策略。这涉及强化学习与语言模型的多层次融合:

1、探索与利用的平衡:在已知有效策略与尝试创新方法之间找到平衡点,尤其面对未知环境时

2、分层强化学习:高层策略由 LLM 负责,处理抽象目标分解与计划制定;低层策略由专用控制器负责,处理具体动作执行

3、自我反思与修正:任务执行过程中持续评估进展,检测到目标偏离或障碍时,主动调整计划甚至重新规划整体任务

行动策略的优化,让智能体能够应对现实世界中充满变数的任务。

例如,自动化测试智能体发现某个按钮无法点击时,会尝试替代方案(如使用键盘快捷键或寻找其他入口),而非僵化等待按钮变为可用状态。

值得注意的是,大语言模型与自主智能体的产业化落地,往往面临垂类标注项目 “短频快” 的交付节奏挑战,而曼孚科技凭借成熟的风险管控体系,为项目平稳交付提供了坚实保障。

曼孚科技针对这类项目的核心风险控制目标明确:在保证数据质量和合规安全的前提下,通过流程优化与技术赋能,将项目的不确定性降至最低,实现稳定、可预测的交付输出。

实现这一目标的关键,在于曼孚科技创新性地将 “人的经验” 和 “规则的标准” 沉淀到 “系统的流程” 与 “智能的工具” 之中。

通过构建 “人机协同标注” 模式提升效率基线,依靠 “三角专业团队” 和 “闭环质量管理” 双轮驱动控制质量波动,并始终将合规安全作为不可逾越的红线。

这套风险管控体系,不仅解决了垂类标注项目的交付痛点,更为大语言模型驱动的自主智能体在各行业的规模化应用,扫清了数据层面的障碍。

三、大模型的“成长烦恼”

尽管 LLM 驱动的智能体展现出巨大潜力,但要实现稳定可靠的自主智能,仍需攻克一系列重大技术难题。

幻觉与事实一致性问题

作为基于统计规律的语言模型,LLM 本质上是生成 “看似合理” 的文本,而非必然 “真实准确” 的答案。这导致智能体在任务规划或信息提供时,可能产生逻辑自洽但与事实不符的建议。

例如,规划旅行路线时,可能推荐不存在的交通方式或已关闭的景点。

解决这一问题需多维度协同:通过检索增强生成确保决策基于最新准确信息;建立自我验证机制,让智能体行动前核查计划可行性;优化不确定性校准,使智能体能够识别并表达对自身建议的信心程度。

前沿研究正探索符号推理与神经网络的融合,为智能体构建可验证的逻辑基础。而这一过程中,高质量的标注数据与严谨的质量管理体系,正是减少模型幻觉、提升事实一致性的核心前提 —— 这也正是曼孚科技的核心优势所在。

长期任务规划与执行一致性

人类能够围绕长期目标保持行动一致性,即便中途遭遇干扰或需调整计划。当前智能体在维持长期一致性方面仍存在短板,易在复杂任务中 “迷失方向” 或陷入执行循环。

应对这一挑战的前沿方向包括:

1、目标导向的层次记忆:构建从具体行动到抽象目标的多层关联,确保每一步执行都服务于最终目标

2、进展监控与里程碑管理:将大型任务分解为明确的里程碑,持续跟踪进展并适时调整策略

3、注意力机制优化:通过改进的注意力架构,让智能体在长时间跨度内保持对关键信息的聚焦

多模态情境理解与交互

真实世界任务往往涉及多种信息模态 —— 文本、图像、声音、界面状态等。智能体需具备真正的多模态理解能力,才能全面掌控环境状态。

最新的多模态大模型正推动这一领域突破。

例如,能够同时处理图像描述、文本指令与界面元素的智能体,可更精准地理解用户需求与环境限制。

当用户指着屏幕说 “把这个部分做得更突出些” 时,智能体需同时解读语言指令、视觉参照与界面编辑的可能性,这要求实现跨模态表征的深度融合学习。

而多模态数据的高质量标注,正是这类模型训练的关键支撑,曼孚科技的全流程数据管理能力,能够为多模态智能体的研发提供定制化的数据解决方案。

效率与可扩展性瓶颈

基于大型基础模型的智能体,面临显著的计算成本与响应延迟挑战。同时处理复杂规划、工具调用与环境交互,需要大量模型推理资源,在实时应用场景中可能难以适配。

解决效率瓶颈的创新方向包括:

1、模型专业化与分工:训练专用小型模型处理常规任务,仅将复杂问题交由大模型处理

2、预测与缓存机制:预判用户潜在需求并提前准备响应,降低实时计算压力

3、边缘 - 云协同架构:在边缘设备部署轻量级推理模块,复杂分析任务保留在云端执行

而曼孚科技打造的端到端 AI 平台,通过一站式整合数据、算力、工具等资源,能够有效优化模型训练与推理流程,帮助企业降低智能体研发与部署的成本,提升整体效率。

四、从“被动响应”到“主动协作”

LLM 驱动智能体的未来发展,将循着从简单到复杂、从被动响应到主动协作、从单一运作到协同联动的路径持续演进。这一演进过程,将重新定义人类与数字系统的互动模式。

下一代智能体将不再局限于等待明确指令,而是能够解读用户的高层次目标,主动提出实施方案并寻求确认。

它们将具备更强的上下文感知能力,精准把握任务背景、约束条件与优先级,成为真正意义上的智能协作伙伴。

例如,当用户提出 “我们需要提高下季度的客户满意度” 时,智能体不仅会制定调研计划,还会主动建议改进措施并跟踪实施效果。

在通用能力方面,未来的智能体将突破单一应用或领域的限制,发展出通用的界面理解与操作能力。借助统一的环境表征学习与迁移学习方法,智能体可快速适配新软件界面、操作流程与领域知识,实现真正的通用智能。

这种能力将让智能体能够在整个数字生态中灵活 “穿梭”,完成涉及多平台、多工具的复杂工作流。而以全球最大数据处理平台为最终目标的曼孚科技,将不断为这类通用智能体提供覆盖多领域、多场景的高质量数据支撑。

可以说,LLM 驱动的智能体新形态,标志着人工智能正从 “模式识别” 时代迈向 “自主决策与行动” 时代。这一转变不仅是技术层面的突破,更是对智能本质的重新审视。

当机器能够解读复杂指令、制定合理计划并在动态环境中持续推进任务时,一种全新的智能形态已悄然形成。

而以曼孚科技为代表的 AI 平台型企业,正通过高质量的数据标注、全流程的质量管理与创新的风险管控体系,为这一智能形态的发展注入核心动力。

这种智能形态的发展,最终将助力我们构建出真正理解人类需求、尊重人类意图、增强人类能力的智能伙伴,开启人机协作的全新篇章。

1. 拿你喜欢的 ai 图,
我这里拿这位佬的现成的图打个样

(你也可以像我一样把这提示词做成 gem 或者 gpt 会更好用。)


把图上传到哈基米或者 chatgpt,输入以下提示词:

将此图像转换为 JSON 提示字符,包括尺寸和所有视觉细节



2, 拿到 json 后,就可以对 ai 提出要求,要修改的,随便你怎么发挥吧 (本文主要就是分享提取,下面的演示只是用法之一)
一般在上一步解析出来之后 ai 会友情提示


我比较直接 我对 ai 提出的要求如下:


3. 复制 ai 按你要求修改后的 json,咱们直接新建对话直接粘贴,记得开启 "大香蕉" 或 "创建图片"


至此,艺术已成

over .


📌 转载信息
转载时间:
2026/1/20 10:52:26

一句话就能分析数据?担心自己零基础,跟不上训练营节奏?别急!「瑶池 Data Agent 入门训练营」 第1节先导课来了!
Data Agent 是一款基于大模型的企业数据智能助手,提供免费版、个人版和企业版三种版本,分别满足个人用户的基础使用、进阶需求及企业的多用户协作、安全管控与独立部署等场景,支持通过自然语言对话完成数据查询、分析与处理,无需编写代码,助力各岗位用户高效实现数据驱动决策。这节课我们不讲复杂操作,只做一件事:帮你彻底搞懂 Data Agent 是什么、能帮你做什么。无论你是业务人员、管理者还是技术小白,都能在这里找到属于你的数据驱动起点。

一、参营入口

点此报名参营,用 Data Agent 为你的业务按下加速键!

二、参营时间

2026年1月21日-1月29日 (每个工作日下午17:00-17:30)

三、第一节课程介绍

图片

四、超值奖励

  • 结营证书:完成所有任务即可获得阿里云官方训练营电子结营证书;
  • 结营奖励:课后作业总分(满分100分)排名前100名者获奖,相同分数按提交时间先后排序,即可领取棒球帽/无线鼠标/公仔/鼠标垫(随机发其一);
  • 优秀学员奖:选取5名完成全部任务和作业的优秀学员,加赠德尔玛加湿器!获奖名单会于结营后的7个工作日内在活动钉群内公布;
  • 钉群互动奖:交流群内不定时举办有奖问答及抽奖活动,赢卡套、帽子等精美好礼!
    图片

五、如何参营

本次训练营所有课程内容将采取钉群线上直播方式,课程结束后每小节课后作业均在钉钉交流群内获取提交,这是你获得证书和奖品双重奖励的唯一通道。

六、参考资料

  1. Data Agent 帮助文档:https://help.aliyun.com/zh/dms/data-agent-for-analytics/
  2. Data Agent 版本介绍:https://help.aliyun.com/zh/dms/data-agent-version-introduction
  3. 阿里云瑶池Data Agent 荣获 InfoQ 2025 年度 “Data & AI最具价值产品奖”https://mp.weixin.qq.com/s/SdNeTFh8pxZ_Yf8hjjCTxg
    图片

之前的帖子 这可能是下一个周经帖:国产大模型哪个编程能力最顶?已经过去一段时间,现在不少模型都已经更新了,而且都支持方便的接入 claude code 等 cli 工具或者 cursor 这样的 ide 。那么,在众多的国产模型中,从你的实际体验出发,哪个国产模型才是最佳日常编码的口粮模型呢?量大管饱,能处理大多数场景的需求。

来吧,分享一下你的体验!


GLM-4.7:目前收集到的信息是,测试的时候效果还不错,能跟 sonet 4.0 有来有回,coding plan 也比较便宜,但是超售严重,订阅后降智严重

MiniMax M2.1:也推出了自己的 coding plan ,总的来说反馈还是不错

DeepSeek-V3.2:写代码还是不太行,听说 4.0 很强!

kimi-for-coding:听说比较蠢,具体请反馈

Doubao-Seed-Code:最近新出,还得到了阮一峰推荐 https://www.ruanyifeng.com/blog/2025/11/doubao-seed-code.html

微信支付完成后会有一个摇一摇领优惠。这点优惠聊胜于无,真不如支付宝每次减几毛。他还有音效,我支付完成后熄屏揣兜里还有音效。今天我决定把它关掉,去网上找了方法。这个开关的位置给我整笑了。

关闭方法如下:
我→服务→钱包→客服中心→消费者保护→隐私保护→
支付后摇一摇→开启支付后摇一摇

太有意思了

如图所示,今日处理注释任务的时候发现的真的是太棒了.

怀念免费使用 kiro 中 opus 每一天,kiro 的 claude 是真的快 但是一定要写好项目提示词有时候不是他降智了,是因为 kiro 的项目规则提示词太弱智了。

触发教程就是让他直接用子代理就行 嘿嘿 没想到的佬留个赞再走叭


📌 转载信息
原作者:
nuohe
转载时间:
2026/1/20 10:46:25

日常问很多生活问题和一些小代码问题一般很喜欢用 Google Ai Studio,里面的回复也很不错,冬天的时候上了一个可以打开雪花特效的按钮,雪花特效挺好看的,但是每次都需要手动打开,刷新一下又没有了,让 AI 写了个脚本可以自动打开,每次刷新会自动打开,挺不错的

// ==UserScript==
// @name         Google AI Studio - Auto Snow
// @namespace    http://tampermonkey.net/
// @version      1.0
// @description  自动开启 Google AI Studio 的 Let it snow 特效
// @author       You
// @match        https://aistudio.google.com/*
// @icon         https://www.google.com/s2/favicons?sz=64&domain=google.com
// @grant        none
// ==/UserScript==

(function() {
    'use strict';

    // 定义检测器
    const clickSnowButton = () => {
        // 在页面中查找所有可能的按钮或菜单项
        // 因为 Google 的类名经常变,我们直接找包含 "Let it snow" 文字的元素
        // 或者查找特定的图标/按钮位置(这里使用最通用的文本匹配法)
        const allElements = document.querySelectorAll('button, div[role="button"], span, li');

        for (let el of allElements) {
            // 忽略大小写,查找包含 Let it snow 的元素
            if (el.textContent && el.textContent.toLowerCase().includes('let it snow')) {
                // 找到后点击
                console.log('Found Snow button, clicking...', el);
                el.click();

                // 只有点击成功后才清除定时器,防止元素还没加载出来
                return true;
            }
        }
        return false;
    };

    // 使用定时器循环检查,因为 AI Studio 是动态加载的,按钮可能不会一开始就出现
    const checkInterval = setInterval(() => {
        const success = clickSnowButton();
        if (success) {
            // 如果成功点击了,就停止检查,避免重复点击(导致又关掉了)
            clearInterval(checkInterval);
        }
    }, 1000); // 每秒检查一次

    // 设置一个超时,比如 30 秒后还没找到就停止,省点资源
    setTimeout(() => {
        clearInterval(checkInterval);
    }, 30000);

})();

📌 转载信息
转载时间:
2026/1/20 10:46:02

Antigravity 反代其实论坛里很多人都写过手把手教程,我前端时间也亲自跑通了,并且整理成了这篇从 0 到 1 的教程。

我还录了个视频教程发到 B 站,但可能涉及引流?就不发到这里了,需要的佬自行搜索标题获取吧。

我的这篇教程可以帮大家用默认配置从 0 到 1 先跑通流程,因为是默认设置会导致跑通后能用,但是比较粗糙。

然后大家可以继续学论坛中的详细配置和用法做到从 1 到 100,比如这个系列帖子:


以下为正文

零、前提

你能成功的登录并使用 Antigravity,各种账号或网络问题你需要提前搞定。我个人是美国账号 + 美国 IP+TUN 模式。

当然新加坡或其他受支持的地区也行,看佬的自身情况。

一、安装 / 升级 反代工具 CLIProxyAPI

Windows

直接下载最新的文件,解压后就能使用,如果有更新,也是从这个链接中查找就行。

比如写文章时的最新版为:CLIProxyAPI_6.6.84_windows_amd64.zip

https://github.com/router-for-me/CLIProxyAPI/releases

本教程中我解压到了 D:\Tools\CLIProxyAPI_6.6.84_windows_amd64 目录下,你可以解压到自己需要的目录,路径要全英文的,并且不能有空格。

Ubuntu/Linux

使用一键脚本安装或升级,都用这个命令就行

curl -fsSL https://raw.githubusercontent.com/brokechubb/cliproxyapi-installer/refs/heads/master/cliproxyapi-installer | bash

MacOS

使用 brew 安装命令

brew install cliproxyapi

后续升级命令

brew upgrade cliproxyapi

二、修改配置文件,启用后台管理

Windows

安装目录下把 config.example.yaml 复制一份,复制的改名为 config.yaml,然后修改里面的内容。

Ubuntu/Linux

家 (Home) 目录下找 cliproxyapi/config.yaml,即 ~/cliproxyapi/config.yaml,然后修改里面的内容。

MacOS

/opt/homebrew/etc 目录下找 cliproxyapi.conf,即绝对路径为:/opt/homebrew/etc/cliproxyapi.conf,然后修改里面的内容。

修改文件如下内容 (登录密码最好改成你自己的,我这里设置的是 my-password)

allow-remote: true secret-key: "my-password" 

三、 启动 CLIProxyAPI, 并登录网页后台查看:

Windows

进入到刚才解压后的目录下直接 exe 执行就可以了,比如我刚才安装到了 D:\Tools\CLIProxyAPI_6.6.84_windows_amd64 下。

Ubuntu/Linux

进入到 ~/cliproxyapi/ 目录后,启动。

cd ~/cliproxyapi/
./cli-proxy-api 

MacOS

不需要进入任何目录,直接启动即可。

brew services restart cliproxyapi

登录网页后台

注意地址,本机的直接访问右边这个地址就行,首次登录密码是刚才设置的 my-password :http://localhost:8317/management.html
服务器的话要填服务器的地址或域名,比如你部署到了服务器的 ip 是 1.2.3.4,则访问:http://1.2.3.4:8317/management.html

登录后台成功后,可以看到仪表盘。建议把使用统计打开,这样后面用模型我能能看到用了多少的 Tokens。

四、从网页登录 Antigravity,成功后拷贝网址:

按照图示登录 Antigravity,并等待自动认证成功,认证成功后登录网页会自动关闭。
如果登录界面没有自动关闭 (如图),需要你手动把登录成功的网址复制粘贴回来,然后手动点击提交回调URL
如果还登录不上,可以尝试重启机器,然后别的软件先别开,这时打开反代服务 + 开启 TUN 魔法 + 挂到美国 IP,再登录下试试。

你还可以登录 Gemini CLI ,这样就有更多的 Gemini 额度了。

登录认证成功后,后台就能看到认证信息了。我这里即反代了 Antigravity,也反代了 Gemini CLI, 如图:

反代出来的模型,可以在中心信息中查看到。后面使用模型时,需要来这里复制模型名,不能随便写模型名。

五、Claude Code 中使用

从网页后台获取 api key,配置 claude

注意 your-api-key-1 要配置成网页后台中的真正的 api key,我这里演示的是默认的。
模型的名称也要从网页后台拷贝,不要自己手写。
base url 填写为 "http://localhost:8317"

 { "env": { "ANTHROPIC_BASE_URL": "http://localhost:8317", "ANTHROPIC_AUTH_TOKEN": "your-api-key-1", "ANTHROPIC_DEFAULT_OPUS_MODEL": "gemini-claude-opus-4-5-thinking", "ANTHROPIC_DEFAULT_SONNET_MODEL": "gemini-claude-sonnet-4-5-thinking", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "gemini-claude-sonnet-4-5", "ANTHROPIC_MODEL": "gemini-claude-opus-4-5-thinking" } } 

六、其它 OpenAI 兼容接口中使用

注意!base url 要改为: http://localhost:8317/v1
api key 和模型名和刚才一样,从网页后台复制就行了。
vscode 中可以通过 oai 插件 (OAI Compatible Provider for Copilot) 来添加到 copilot 中。

Q&A

Q1:有没有被封号的风险?

正面回答是有风险,但我个人觉得风险更多的还是获取账号的渠道不合规,比如闲鱼买的成品号、各位佬薅羊毛的教育认证号等。。。我也没足够的统计数据,只能说不建议用自己的大号搞,因为确实逆向了有风险,建议用小号搞吧。

Q2:需要 Google AI 会员吗?

免费版的每周都有额度,但是额度很少,可以先试一下,把流程跑通了。付费会员或教育优惠会员,都是每 5 小时刷新额度,自己用一般是足够的,并且 Gemin Pro\Gemini Flash\Claude 这三组额度是独立的。

Q3:我高强度使用,5 小时额度不够怎么办啊?

最快速的是把谷歌的 Gemini CLI 工具也反代了,这个工具中只有 Gemini 系列的模型,并且额度和 Antigravity 中的不互通,是独立的。

其次有个被社区称为升天的方法:其实就是家庭组,Pro 账号可以邀请最多 5 个人进入家庭 (算上自己共 6 人)。家庭里每个账号的 Antigravity 和 Gemini CLI 的额度是独立的,所以可以创建几个小号,来组建家庭后把小号也反代了。

最后,还是那句话,不建议用自己的主号这么搞,最好拿某鱼买的号来搞。

Q4:API KEY (API 密钥) 是怎么生成的,从哪里拿?

API KEY 在我们安装时,配置文件中会默认携带 2 个,你可以从网页上直接编辑 - 复制后使用。也可以在网页上把这两个 KEY 修改掉,或者自己新建后使用。

Q5:OAI 插件是什么?

OAI 插件是搭配 vscode copilot 使用的,因为官方的 copilot 不支持自定义的模型和地址,所以需要这个插件来实现。

Q6:OAI 安装后没有右下角的 Ready 显示怎么办?

首次安装后可以按 Ctrl + Shift + P,然后输入 oai 关键字,点击 Open Configuration UI 进入。

Q7:OAI 配置好了地址和模型,从 copilot 中访问失败怎么办?

大概率是地址配置错误,记得 OpenAI 格式的请求都需要加上 /v1 后缀,比如 http://10.126.12.162:8317/v1

Q8: Windows 上第二天就不能用了,访问不到模型了?

可能是关机了,或 CLIProxyAPI 被关掉了,然后反代的登录信息就失效了,下次开机或启动后,还需要重新登陆以下。
如果是在服务器上部署的,并且一直执行,是不会失效的,因为 CLIProxyAPI 会周期性的去刷新下登录信息,保持一直登陆的状态。

Q9: 能用 Nano Banana Pro 画图吗?

可以,添加这行参数可以绘制 4K 图像。

如图让 AI 总结的使用方法:


📌 转载信息
转载时间:
2026/1/20 10:44:23

历史回顾

1.7.3 版本新特性

  • 增强 ACP 适配器,更好地将 agent 思维转换为可显示的聊天消息。
  • 实现 CLI 提供商设置,支持 Codex 和 Claude 的预设与存储。
  • 改进协作功能,支持多角色通信和通知机制。
  • 优化进程管理和孤儿进程清理,提升资源处理能力。
  • 增强 IPC 通信机制,提升稳定性。
  • 集成 electron-updater 实现自动增量更新。
  • 改进 GitHub Actions 自动化构建和发布流程

📌 转载信息
转载时间:
2026/1/20 10:44:02

短剧剧本生成器.zip

简单教程:

从需求收敛 → 规范固化 → 语料准备 → 换元骨架 → 类型校准 → Frankentexts 拼接 → 最小润色 → 多维质检 → 归档复用

同时给出 “小说改编” 和 “语料建库” 两条可插拔分支

1. 使用前准备(你需要提供的最少信息)
为了让 step1 输出的 project_config 足够可执行,建议至少准备:
目标题材 / 受众 / 风格:例如 “都市情感 + 身份反转 + 打脸”
总集数与单集字数:例如 “80 集;每集 500-700 字”
卡点与钩子口径:例如 “第 8-10 集付费卡点;免费集集末必有钩子”
源故事输入:小说全文 / 章节 / 梗概 / 旧剧本(至少一个)
语料来源:是否已有可用语料库(没有也能先做骨架,但无法完成高 Copy 率拼接)

2. 流程地图(你如何 “用到全部 step1-20”)
本体系的 “全量使用版” 通常是这样:
需求与规范层:step1 → step2 → step3
语料层(可选):step4 →(step5/step6 按素材类型增强)
改编层(按源文本体量分支):step6 → step7/8/9(小说改编路线)
换元骨架层(融合生成主路线):step10 → step11
市场校准层(可选):step19
生成与质检层(上线):step12 → step13 → step14 → step15 → step16 → step17 → step18
编排与复用层:step20(可在开始用,也可在结束做归档编排)

3. 标准执行规则
无论你在哪个大模型网页端执行,都遵守:
每一步只输出该 step 要求的 “预期输出格式”(通常 JSON);不要混入解释性文字.
上一步输出 JSON 必须原样粘贴给下一步(不要自然语言总结代替)
缺失信息用 null/待补充 占位,
格式规则以 step2 为准,特殊标注以 step3 为准;质检以 step14-18 为准

#step1:生成项目配置(ProjectConfig)

你给模型的输入(建议结构):

创作目标:
题材/元素:
总集数:
单集字数:
付费卡点:
钩子规则:
特殊标注要求(os/vo/闪回/互切):
是否使用Frankentexts(Copy率目标):
源故事输入(全文/章节/梗概/旧剧本):
语料库情况(有/无,来源说明):

你得到的输出:
project_config JSON(后续所有步骤都引用它)

#step20(第一次使用):生成 “你该走的步骤链路”

把 step1 的 project_config 粘贴进去,让 step20 输出 step_sequence + io_mapping + checkpoint + rollback

你得到的输出:
workflow JSON(告诉你下一步跑哪些 step、怎么传火,哪里要人审、哪里要返回查看)

#step2:固化剧本格式规则

把最终 “剧本长什么样” 固定成 format_rules

你得到的输出:
format_rules JSON(后续生成正文与格式质检都依赖)

#step3:固化特殊场景标注策略

固定 os/vo/ 闪回 / 互切 的使用条件与格式

你得到的输出:
special_scene_policy JSON(后续提取、骨架、拼接、专项质检都依赖)

#step4-6:准备语料库(没有语料库就先建)

如果你已经有高质量语料库:跳到 step10。
如果你没有语料库:建议至少跑 step4(再按素材类型跑 step5 或 step6)

##step4:通用语料提取

输入:
project_config、special_scene_policy
原始文本(一次一段 / 一章 / 一集)
source_reference

输出:
corpus_chunks[](JSON 数组语料块)

#step5:剧本专项增强(如果语料来自剧本

输出增强点:
场景头、人物列表、卡点标注、对话密度等,用于提升检索精度

#step6:小说专项增强(如果语料来自小说)

输出增强点:
可视化潜力、可外化改编提示、章节 / 叙事视角等(把所有语料块 JSON 数组按文件归档,最终合并为一个 corpus.json,并确保每条有 source_reference。)

#step10:六源分析 + 核心动作程序抽取

对源故事做六源拆解(事件 / 结构 / 主体 / 背景 / 人物 / 道具)
抽取核心 “动作程序”(骨骼层)
给出哪些事件适合 os/vo/ 闪回 / 互切

输入:
project_config
special_scene_policy
源故事文本 / 梗概

输出:
source_analysis JSON

#step11:换元方案 + 新剧本场次功能表(Framework)

选择一度置换 / 二度置换,产出 substitution_plan
把新剧本拆成 “每集每场” 的功能表 new_script_framework(含信息点 / 情绪 / 标注计划 / 钩子 / 卡点)

输入:
project_config(集数、字数、卡点、钩子口径)
special_scene_policy
source_analysis

输出:
substitution_plan JSON
new_script_framework JSON

同时审核(是否符合题材定位与受众预期第 8-10 集是否有明确付费卡点策略每集末尾是否都有钩子
每场是否写清信息点与情绪目标(否则 step12 会乱拼))

#step19:类型库匹配校准

把 “骨架方向” 对齐市场趋势:主用模式 + 辅助模式 + 融合建议
给出关键场景、台词要点、情感触发点、推荐标注策略

输入:
project_config
source_analysis(可选)
substitution_plan + new_script_framework

输出:
matched_patterns[] + adaptation_recommendations + creation_guidance

用法建议:
将其作为 step12 的检索排序偏好(例如优先召回 “打脸 / 身份揭示” 片段、控制 os 使用密度等)

#step12:Frankentexts 检索与拼接生成正文

按 new_script_framework 逐场检索候选片段、选择拼接
严格遵守 Copy 率目标与最小化修补
输出:选片记录、编辑日志、Copy 率估算、标注保真检查 + 标准格式剧本正文

输入:
project_config(Copy 率 / 禁用操作)
format_rules
special_scene_policy
corpus_json(语料库;来自 step4/5/6)
new_script_framework
(可选)step19 的创作指导作为检索偏好

输出:
场次级 JSON 结果
标准格式剧本正文(可直接给制作)

关键建议(避免一次跑崩):
按 “集” 为单位生成(例如先生成第 1-3 集),通过质检后再批量推进

#step13:最小润色与终稿准备

只做桥接 / 纠错 / 格式 / 归一 / 标注规范化
保持 Copy 率与原片段风格

输出:
终稿正文 + 润色日志 + 校验准备摘要

#step14-18 是质检线建议跑完

#step14:格式质检

#step15:逻辑一致性(因果 / 时间线 / 信息点覆盖)

#step16:风格一致性(声纹 / 语体 / 节奏 / 题材)

#step17:Copy 率校验(Frankentexts 指标)

#step18:特殊标注专项校验(os/vo/ 闪回 / 互切)

常用回退策略:
Copy 率不足:回退 step12 重选片段(不要继续润色)
格式问题:按 step14 修复后复检
逻辑漏洞:按 step15 给的 “最小修补策略” 修复,避免重写
标注问题:按 step18 规范化(补齐闪回起止 / 明确互切切换点)

#step20(第二次使用):归档复用与流程固化

一份可复用的 workflow JSON(你下一次可以直接照着跑)

分支流程:小说转剧本(step6 → step7/8/9)

step1 /step2 /step3(全局规范)
step6 小说专项语料提取(产出可外化与可标注提示)
按体量选择:
长篇:step7 主线提纯 → 得到分集结构 / 梗概
中篇:step8 节奏倍速 → 得到反转 / 爽点 / 钩子密度规划
短篇:先 step10+11 做扩充骨架,再 step9 落地分集结构
若需要正文:把改编结果转成 new_script_framework(可由 step11 生成或人工映射),再进入 step12/13/14-18(备注:step7-9 的主要产出是 “大纲与分集梗概”;若要可拍剧本正文,最终仍需进入 step12/13)

分支流程:语料建库(step4/5/6)

建库链路:step1 → step2 → step3 → step4(→ step5/6)→ corpus.json
生产链路:step10 → step11 → step19 → step12 → step13 → step14-18

特别感谢 @jianhuaguiyi

大概就是这样了 呵呵!


📌 转载信息
原作者:
qcbigma
转载时间:
2026/1/20 10:43:20

特别声明

  1. 无商业推广:本方案纯属个人运维心得分享,不涉及任何商业利益。
  2. 纯免费工具:所涉及的工具(ttyd、沉浸式翻译插件等)均为目前市面上现有的开源或免费工具组合,不存在任何付费下载或订阅引导。

痛点

各位在日常运维或者学习过程中,应该遇到过这些痛点:

  • 执行 kubectl --helpdocker --help 这类命令帮助文档时,面对满屏的英文参数看得头疼。
  • 看到复杂的报错日志(如 Java StackTrace 或 K8s Event),想翻译却发现传统的 Terminal 不支持浏览器插件。
  • 复制到网页翻译再切回来,来回折腾打断了操作流,效率极低。

折腾过程

有道翻译: (不符合需求,Pass 掉)

  • 以前跟同事合租的时候见过他用过有道翻译的功能,给电脑装上之后发现它在终端里只能划词翻译单词,但是在其他场景下他的划词翻译有点像狗皮膏药会挡着自己的视线,要翻译长句子就得切换到软件界面,截图翻译比较费劲,其他的功能估计需要开 vip。

沉浸式翻译:

  • 这是一个用的比较广泛的浏览器翻译插件,翻译功能比较好用,但是终端上又不支持。那是不是可以安装一个浏览器版本的 Terminal 插件?或者用代理转发到浏览器的界面上就可以用沉浸式翻译的功能了。

用过 Openwrt 软路由的大概从 web 界面连接过终端,它的终端是由一个叫 ttyd 的小插件实现的。问一下 Gemini 方案确实可行。

核心思路

  1. ttyd: 一个简单的 C 语言编写的工具,可以将任意命令行程序(如 bash/zsh)通过 WebSockets 暴露到浏览器。
  2. 沉浸式翻译: 浏览器插件,其 “悬浮球(小圆点)” 功能可以识别网页中的文本块并进行双语对照翻译。
  3. 结合: 当终端内容以 Web 形式呈现时,它就变成了插件可触达的 “文本块”,翻译体验瞬间拉满。

快速上手

1. 安装 ttyd

大部分 Linux 发行版都可以直接安装:

# Ubuntu/Debian sudo apt install ttyd

# CentOS/RHEL sudo yum install ttyd

# macOS
brew install ttyd

2. 启动服务

运行以下命令开启一个 Web 终端(默认端口 7681):

ttyd -W bash

注:-W 参数允许在浏览器中进行写入操作(输入命令)或者 ttyd -p port bash。

3. 浏览器访问

打开浏览器,访问 http://your-ip:7681。你会看到一个熟悉的终端界面。

4. 开启翻译

确保你安装了 沉浸式翻译 插件。

  • 在插件设置中开启 “显示悬浮球”。
  • 鼠标选中在那些复杂的 kubectl 帮助文档或者报错日志上。
  • 点击小圆点,直接原地翻译!选择免费模型即可,普通用户翻译量应该不会大到哪里去,我这里选择的是硅基流动,它会对一些多义词也进行解释,用起来还不错。(选择其他的不太支持,不知道为啥,只有小圆点支持)

进阶:一键脚本 (alias)

为了方便使用,可以在 .bashrc.zshrc 中添加一个别名:

# 自动获取本机 IP 并启动,限定端口防止冲突 alias webterm='ttyd -p 7681 -W bash' 

如果你是在远程服务器上操作,建议配合 ssh -L 做端口转发,或者在前端加个 Nginx 反代并开启 Basic Auth,确保安全:

ttyd -c user:password -p 7681 bash

实际效果展示

  • 场景 A:查命令用法 输入 kubectl get pods --help,滚屏后直接点选大段的参数说明,中文释义紧随其后。
  • 场景 B:看报错日志 当看到 Error from server (Forbidden): ... 等长难句时,一键翻译,秒懂权限缺失的具体原因。

小提示

  • 性能: ttyd 非常轻量,几乎不占 CPU。
  • 排版: 沉浸式翻译对 Web 终端的布局适配非常好,通常不会破坏排版。
  • 安全: 如果在公网服务器上运行,务必加上验证密码 (-c) 或配置防火墙。
    大家还有什么终端增强的神器,欢迎在评论区交流。

📌 转载信息
原作者:
Linuxer-gx
转载时间:
2026/1/20 10:43:18

原插件 hard code 了路径为 mac os 的,fork 添加了选项设置路径
需要安装 rust-analyzer
where rust-analyzer
的输出路径填到插件的设置选项即可 (需要重启插件)

不过正经人谁在 rider 中写 rust


fork 仓库


原插件:


原仓库:


原作者:


📌 转载信息
原作者:
kei233
转载时间:
2026/1/20 10:36:18

在中小企业数字化转型中,CRM(客户关系管理系统)已从“辅助工具”升级为“销售流程的中枢神经”——它既要解决“线索怎么来、跟进怎么顺”的前端问题,也要支撑“报价准、签约稳、订单可控”的后端闭环。

本文选取超兔一体云、Zendesk Sell、OKKICRM(原小满)、Highrise、Less Annoying CRM五大主流品牌,围绕跟单协作、销售跟踪、报价管理、签约管理、合同订单五大核心维度展开横向对比,结合“功能深度、场景适配性、性价比”三大选型关键,为中小企业提供决策参考。

一、评估框架:CRM的“全流程价值链”

优秀的CRM需覆盖“从线索到回款”的完整销售周期,核心评估点包括:

  1. 跟单协作:能否适配不同业务场景(小单/商机/项目),实现团队高效协同;
  2. 销售跟踪:能否从线索获取到客户转化全链路可视化,提升获客效率;
  3. 报价管理:能否快速生成精准报价,并与订单/合同联动;
  4. 签约管理:能否管控签约风险(信用/账期),确保应收款安全;
  5. 合同订单:能否支持多样业务模型(服务/实物/特殊),实现执行与财务的闭环。

二、核心维度横向对比

(一)跟单协作:从“单点跟进”到“场景化协同”

跟单是销售的“执行层核心”,考验CRM对不同业务场景的适配能力

品牌核心能力场景适配性优势亮点
超兔一体云1. 多模型支持(小单快单/商机跟单/多方项目); 2. 360°视图+跟单时间线+通信集成; 3. 分组隔离(多级客户汇总,如医院科室/高校院系)全场景覆盖(小单到大型项目)独有的“三一客”(小单快单)、“多方项目视图”(集成合同/采购/收支);支持复杂组织客户(如医院)
Zendesk Sell1. 任务分配+团队共享客户视图; 2. 邮件模板+自动提醒; 3. 与客服系统联动(查看售后反馈)通用销售场景客服联动是特色,销售可同步客户售后问题,提升跟进针对性
OKKICRM(原小满)1. 外贸场景分级权限管理; 2. 国际订单与客户信息整合跨境贸易场景适配外贸团队“多角色、多地区”的协作需求,避免权限混乱
Highrise1. 共享客户沟通记录; 2. 跟进提醒轻量销售场景适合“单一线索跟进”的小团队,功能简单但无场景适配
Less Annoying CRM1. 任务+日历+联系人三模块联动; 2. 基础跟进提醒微型企业场景界面简洁,无需培训,但仅支持“基础任务跟踪”

流程图:超兔一体云跟单协作逻辑

!

graph TD
    A[业务需求] --> B{选择跟单模型}
    B -->|小单快单| C[三一客(三定:定性/定级/定量+关键节点)]
    B -->|商机跟单| D[阶段+预期日期优化中长单]
    B -->|多方项目| E[项目组+合同+采购+收支全周期管控]
    C --> F[360°视图+跟单时间线+通信数据集成]
    D --> F
    E --> F
    F --> G[分组隔离(多级客户汇总到上级)]
    G --> H[跟单完成]

(二)销售跟踪:从“线索散养”到“全链路可视化”

销售跟踪的核心是将“碎片化线索”转化为“可落地的客户” ,考验CRM的“获客-转化”能力。

1. 超兔一体云:全渠道获客+客户生命周期管理

  • 线索获取:支持百度/抖音/微信/官网/会销等10+渠道,线索一键转化为客户/待办/订单;
  • 客户管理:自动补全工商信息(天眼查/百度)、手机号查重,客户生命周期分为“需求培养→有需求→成功”客池;
  • 数据分析:市场活动成本均摊到线索,计算签约转化率,评估获客效率。

2. Zendesk Sell:销售管道+自动化跟进

  • 销售可视化:销售管道按阶段展示(如“潜在客户→协商→成交”),智能筛选高价值商机;
  • 自动化工具:“任务播放器”自动提醒跟进节奏,实时记录通话/短信互动。

3. OKKICRM:跨境线索整合

  • 国际场景适配:整合跨境电商/展会线索,自动同步国际客户信息(如海外手机号/公司背景)。

4. Highrise/Less Annoying CRM:基础跟踪

  • 仅支持“线索沟通记录+进度提醒”,无渠道整合或生命周期管理。

脑图:超兔销售跟踪功能架构

!

graph LR
    A[销售跟踪] --> B[线索处理]
    A --> C[客户管理]
    A --> D[数据分析]
    B --> B1[多渠道集客(百度/抖音/微信/会销)]
    B --> B2[线索一键转化(客户/待办/订单)]
    B --> B3[线索分配+短信提醒]
    C --> C1[客户信息管理(查重+工商背景调查)]
    C --> C2[客户生命周期(客池分类)]
    C --> C3[工作流引擎(AI生成流程)]
    D --> D1[数据统计(数字卡片+同比环比)]
    D --> D2[KPI引擎(单日/周期目标)]

(三)报价管理:从“手动 excel”到“精准联动”

报价是“签单的临门一脚”,需解决“快速生成+与订单联动”的问题。

品牌报价生成与订单联动特殊功能
超兔一体云OpenCRM生成自动关联客户通过网页/小程序确认报价,一键转订单
Zendesk Sell自定义审批支持需额外购买“自定义对象”许可证
OKKICRM(原小满)外贸标准化模板支持多币种报价(适配跨境场景)
Highrise无明确支持
Less Annoying CRM无明确支持

(四)签约管理:从“被动签约”到“风险管控”

签约的核心是控制信用风险,避免“签单易、回款难”。

超兔一体云:全链路风险管控

  • 信用评估:根据客户历史交易/付款情况自动评级,支持“信用度+账期”双维度管控;
  • 应收触发:签约/开票/发货自动触发应收,支持多期拆分(如按比例分3期);
  • 智能提醒:超期应收自动提醒,避免坏账。

其他品牌:

  • Zendesk Sell/OKKICRM:未明确支持信用评估或应收管控;
  • Highrise/Less Annoying:无签约风险管控功能。

(五)合同订单:从“纸质管理”到“全流程闭环”

合同订单是“销售的结果层”,考验CRM对多样业务模型的支持能力

品牌业务模型支持执行管理财务管控
超兔一体云服务型/实物型/特殊型(维修/租赁/套餐)锁库+采购计划+供应商直发应收/开票/回款三角联动,支持一票对多单
Zendesk Sell通用订单移动端同步基础应收管理
OKKICRM(原小满)国际订单(跨境物流联动)国际物流跟踪多币种财务整合
Highrise无明确支持
Less Annoying CRM无明确支持

三、综合能力雷达图(1-5分,5分为优)

品牌跟单协作销售跟踪报价管理签约管理合同订单总分
超兔一体云5545524
Zendesk Sell4432316
OKKICRM(原小满)3342416
Highrise221117
Less Annoying CRM221117

四、选型建议:匹配需求优先级

  1. 需要全流程深度管理:选超兔一体云(覆盖小单到大型项目,支持复杂组织客户,合同与财务闭环);
  2. 跨境贸易场景:选OKKICRM(原小满) (适配外贸团队协作,多币种/国际订单管理);
  3. 需要客服联动:选Zendesk Sell(销售可同步客户售后问题,提升跟进针对性);
  4. 轻量小团队:选Highrise/Less Annoying CRM(基础功能够用,价格低廉)。

五、结论

在中小企业CRM市场中,超兔一体云以“全场景覆盖、深度流程闭环”成为综合能力最强的选择——它不仅解决了“跟单怎么顺”的执行问题,更通过“客户生命周期、签约风险管控、合同财务联动”实现了“从线索到回款”的全链路价值。对于需要“精细化管理”的中小企业而言,超兔一体云的“场景化能力”与“闭环逻辑”,正是应对当前复杂市场环境的核心竞争力。

(注:文中功能相关描述均基于公开披露信息,具体功能服务与价格以厂商实际落地版本为准。)