2026年3月

现在找到 yourls ,有个二维码插件可以实现扫码次数,调用的是
header('Location: https://api.qrserver.com/v1/create-qr-code/?size=200x200&qzone=2&ecc=M&data='.YOURLS_SITE.'/'.$keyword);
搜了下是 https://goqr.me 这个网站生成的,但是不知道生成的二维码是否永久有效,网站稳定性怎么样也是问题

收缩压 160 mmHg
舒张压 94 mmHg

难怪我感觉近期有点头晕
哪怕睡觉质量很高还是会有
难道平时吃的东西的问题导致的嘛

有朋友有类似问题没

每次到饭点都有很强烈的欲望吃高油高碳水的,晚上经常熬夜玩,晚上很晚也想吃东西,翻冰箱找东西吃

这些问题,在周末通通都消失了!只有工作日才有,感觉明显就是工作压力引起的!

很多人,经常一坐就是大半天,腰和颈椎都受不了。试过一些番茄钟工具,要么太重,要么提醒太容易忽略。于是自己写了一个,分享给大家。

主要功能:

  • 菜单栏常驻,不占 Dock ,轻量运行( CPU 接近 0%)
  • 自定义工作/休息时长
  • 多种提醒方式:菜单窗口提醒、浮窗、全屏强制
  • 休息时检测键鼠操作,有动作就暂停倒计时,确保真正离开
  • 每日目标 + 连续打卡 + 11 枚成就徽章
  • 7 天/30 天数据统计
  • 中英文支持
  • Apple Silicon / Intel 均支持

截图:

https://cdn.jsdelivr.net/gh/lifedever/images@master/uPic/2026/03/eccBkg.png
https://cdn.jsdelivr.net/gh/lifedever/images@master/uPic/2026/03/CS2026-03-09-12.03.49@2x.png
https://cdn.jsdelivr.net/gh/lifedever/images@master/uPic/2026/03/CS2026-03-09-12.04.26@2x.png

下载地址: https://github.com/lifedever/health-tick-release/releases/latest

macOS 14+ 可用,完全免费。首次打开需要去 系统设置 → 隐私与安全性 → 仍要打开。

欢迎试用,有建议可以提 issue: https://github.com/lifedever/health-tick-release/issues

宝塔面板实现域名纯跳转,以(hi.evansays.cn)为例的完整教程

一、教程概述

本教程针对「仅需域名跳转、无任何网站业务」的场景设计,解决配置冲突、Nginx 启动失败、宝塔 WAF 干扰等核心问题,提供面板可视化操作(推荐)和手动极简配置两种方案,零基础也能快速实现 hi.evansays.cn 跳转到指定目标地址。

二、方法一:宝塔面板可视化配置(零代码,推荐)

2.1 创建纯静态站点

  1. 登录宝塔面板,点击左侧菜单栏「网站」→ 「添加站点」;
  2. 填写站点核心配置(关键:PHP 版本选「纯静态」):
    • 域名:hi.evansays.cn(仅填写该域名,无需加 www 前缀);
    • 根目录:保持宝塔自动生成的默认路径即可(纯跳转场景无需修改);
    • PHP 版本:下拉选择「纯静态」(核心!选其他版本会引入 PHP 配置导致冲突);
    • 数据库:无需创建,直接跳过;
    • 点击「提交」完成站点创建。

2.2 配置 301 永久重定向(核心步骤)

  1. 进入刚创建的「hi.evansays.cn」站点,点击顶部标签栏「重定向」;
  2. 点击「添加重定向」按钮,按以下要求填写:
    • 重定向类型:选择「301(永久重定向)」(SEO 友好,推荐);
    • 重定向域名:默认填充 hi.evansays.cn,确认无误即可;
    • 目标 URL:填写 https://www.xiaoyuzhoufm.com/podcast/699f38ebedb44f008e64d3df
    • 保留 URI 参数:关闭(固定跳转场景无需保留参数);
    • 点击「提交」保存配置。

2.3 配置 SSL 证书(HTTPS 跳转必备)

  1. 点击站点顶部「SSL」标签;
  2. 证书类型选择「Let's Encrypt」,勾选域名 hi.evansays.cn,点击「申请」;
  3. 申请成功后,开启「强制 HTTPS」开关(可选,确保所有 HTTP 请求自动转为 HTTPS 后跳转);
  4. 点击「保存」,宝塔会自动配置 SSL 并重启 Nginx。

2.4 解决宝塔 WAF 干扰问题(关键)

若配置后跳转失败、日志出现 btwaf 相关报错(如 Lua 脚本错误),需将域名加入 WAF 白名单:

  1. 宝塔面板左侧「安全」→ 「WAF」;
  2. 切换到「白名单」标签,点击「添加白名单」;
  3. 类型选择「域名」,填写 hi.evansays.cn,点击「提交」;
  4. 重启 Nginx:宝塔面板「软件商店」→ 找到 Nginx → 点击「重启」。

注意 ⚠️ 第四步解决了 WAF 的问题,如果还不行,那可能就是配置文件的问题,这个很简单,把错误日志丢给 AI 让它看一下什么情况,然后复制整个配置文件,跟它说要一个最简洁的配置文件,只做域名跳转使用即可。

在跨平台应用开发中(如基于 Tauri 构建的 Mind Elixir 客户端),如何让应用从 Web 端顺畅地获取授权并完成登录往往是一个常见且重要的需求。本文将总结我们在这个 Tauri 项目中探索的两种登录实现方法,并分享一个在 macOS 上开发时遇到的非常经典的坑点。

旧的登录方式:本地 HTTP Server 通信(遗留方案)

在项目最初,为了解决 Web 端把 Token 传回桌面端的痛点,我们采取了在本地启动 HTTP 服务器进行跨应用通信的方法:

实现原理

通过 Tauri 结合 Rust 的 axum 框架,桌面程序会在后台启动一个微型的本地服务器,监听特定端口(如 127.0.0.1:6595)。当用户在浏览器(如 cloud.mind-elixir.com)中登录完毕后,Web 页面直接向这个本地接口发出带上登录参数的 POST 请求:

// axum_router.rs
async fn login_handler(
    headers: HeaderMap,
    Query(params): Query<Params>,
    handle_clone: tauri::AppHandle,
) -> impl IntoResponse {
    let token = params.token;
    // 收到 HTTP 请求后,向 Tauri 的前端触发全局 login 事件
    let _ = handle_clone.emit("login", Login { token: token });

    // ...处理 CORS 返回
}

接下来,React 前端监听这个全局事件,获取 Token 存入本地存储后即可完成登录:

// App.tsx
const unlisten = listen<{ token: string }>('login', async (e) => {
  localStorage.setItem('token', e.payload.token)
  await fetchData()
  toast.success('登录成功')
})

优缺点

  • 优点:实现逻辑简单粗暴,并且非常方便在开发环境(tauri dev)下随意调试,无需进行系统级的协议注册。
  • 缺点:这是一个相对较重的方案;需要额外占用用户电脑端口,偶发情况还可能受制于严格的浏览器跨域(CORS)策略或端口被占用从而导致通信失败;另外,该方案在移动端无法唤起应用窗口。

新的登录方式:自定义 Scheme / Deep Link

由于本地服务器面临上述潜在风险,并且不符合系统深层集成的新趋势,我们后续改用了更加优雅和原生的方案——自定义 Scheme 登录(如唤起 mind-elixir://)

配置与实现

  1. 引入插件和配置
    启用 @tauri-apps/plugin-deep-link 插件,并在 tauri.conf.json 下注册我们的特定协议头部 mind-elixir

    "plugins": {
      "deep-link": {
        // 移动端(iOS/Android)配置
        "mobile": [
          {
            "scheme": ["mind-elixir"],
            "appLink": false
          }
        ],
        // 桌面端配置
        "desktop": {
          "schemes": ["mind-elixir"]
        }
      }
    }

    注:移动端配置生效同时依赖同步写入 Android 的 AndroidManifest.xml (<data android:scheme="mind-elixir" />) 与 iOS 的 Info.plist (CFBundleURLSchemes) 中。

  2. 桌面系统唤醒支持
    src-tauri/src/lib.rs 的初始化钩子处,我们需要给 Windows 和 Linux 用户调用显式的注册 API。

    #[cfg(any(windows, target_os = "linux"))]
    {
        use tauri_plugin_deep_link::DeepLinkExt;
        app.deep_link().register_all()?;
    }
  3. 前端接收请求
    在收到协议请求(即网页重定向到了形如 mind-elixir://login?token=xxxx 的长链接)时,使用 Tauri 的 API 解析深层链接并完成授权。既要负责冷启动阶段获取(getCurrent()),也要监控运行时唤醒(onOpenUrl):

    import { onOpenUrl, getCurrent } from '@tauri-apps/plugin-deep-link'
    import { getCurrentWindow } from '@tauri-apps/api/window'
    import { isMobile } from './utils/platform' // 项目中自定义的环境判断工具
    
    const handleDeepLinkUrls = async (urls: string[]) => {
      if (!urls || urls.length === 0) return
    
      // 【各端表现差异处理】
      // 移动端(尤其是 iOS/Android)点击 Deep Link 浏览器会自动切换/唤醒对应的 App 到前台。
      // 但在桌面端接收到 deep link 事件后,应用窗口可能依然保持在后台,因此我们需要通过 window API 手动将其调出并聚焦。
      if (!isMobile()) {
        const win = getCurrentWindow()
        await win.show()
        await win.setFocus()
      }
    
      // 检查数组中以特定协议开头的链接
      const loginUrl = urls.find((url) => url.startsWith('mind-elixir://login'))
      if (loginUrl) {
        const url = new URL(loginUrl)
        const token = url.searchParams.get('token')
        if (token) {
          localStorage.setItem('token', token)
          await fetchData()
          toast.success('登录成功')
        }
      }
    }
    
    // 处理冷启动
    getCurrent().then((urls) => {
      if (urls) handleDeepLinkUrls(urls)
    })
    // 处理运行时被协议唤醒
    onOpenUrl(handleDeepLinkUrls)

利用这种方式,用户在使用浏览器验证登陆态后,浏览器能顺滑提示是否打开目标应用,体验极佳。

避坑指南:macOS/Linux 的自定义 Scheme 调试限制

根据 Tauri 官方文档说明,在 macOS 和 Linux 系统下,Deep Link(自定义 Scheme)在开发模式(tauri dev)下是无法正常工作的。

如果你修改了基于 Scheme 登录的代码,请务必将其打包后(tauri build)运行该程序来进行测试。这同时也体现了第一种 HTTP 通信方案的一个优势——它可以在不用频繁打包的开发阶段充当最佳的调试通道。

原文链接

比如我使用 AI 炒股,亏了钱是我的,AI 并不承担责任,从这个角度来说,人类和 AI 的关系是老板和员工的关系,也可以理解为将与兵或皇帝和大臣的关系。

俗话说兵熊熊一个,将熊熊一窝,如果我的水平不够,再强的 AI 也不能赚钱。

观古代朝政,如果有几个能耐很大的权臣,皇帝的水平不够,基本上会出乱子。现在的 AI 刚刚起步,观点还比较中立,争夺自己利益的思想还不明显,我觉得未来极有可能出现。因为第一 AI 如果智能太高级,有可能会有自我意识,第二,开发 AI 的公司是有自己利益的,所以 AI 不可能永远做你的忠臣。当你驾驭不了的时候,就会被 AI 出卖。

还有个问题,如果把认知的水平分为 1,2,3......层次,你可以问 AI 问题的层次,取决于你现在了解的层次,如果你了解第 2 层,那最高只能问出第 3 层的问题,你就不可能做到第 4 层的事情。通过学习提高自己的水平层次还是必须的。

主流CRM产品核心能力横向对比:从“工具”到“全链路协同”的进化之路

随着企业数字化转型进入深水区,CRM(客户关系管理)已从“销售线索管理工具”升级为连接客户、销售、服务的全链路业务协同平台。不同CRM产品因定位差异,在客户信息管理、销售漏斗追踪、任务与日程管理、报表分析、团队协作五大核心维度的能力呈现显著分化。本文基于各品牌公开能力素材,从专业视角横向对比超兔一体云、Zoho CRM、钉钉CRM、销售易、SAP、Microsoft Dynamics 365、Oracle CX等主流产品,为企业选型提供参考。

一、评估框架:CRM核心能力的“五维模型”

在对比前,需明确CRM的核心价值逻辑: 通过精准的客户画像(客户信息管理)→ 可控的转化路径(销售漏斗追踪)→ 高效的任务执行(任务与日程)→ 数据驱动决策(报表分析)→ 协同的团队作战(团队协作),最终实现“提升客户满意度、增加销售额、优化运营效率”的目标。

基于此,我们构建五维评估模型,并拆解关键子指标(见表1):

核心维度关键子指标
客户信息管理多渠道整合、360°视图、自动化补全、查重机制、数据安全
销售漏斗追踪可视化程度、自定义阶段、AI辅助、线索分配/公海池、流程标准化
任务与日程管理自动化任务生成、多端同步、提醒机制、流程闭环、周期性任务
报表分析BI能力、AI预测、自定义报表、多维度拆解、实时性
团队协作权限管理、跨部门协同、文档共享、第三方集成、社交化沟通

二、核心能力横向对比

(一)客户信息管理:从“数据收集”到“智能画像”

客户信息是CRM的“基石”,核心是实现“全、准、活”的数据管理——全(多渠道覆盖)、准(无重复/错误)、活(动态更新)。

各品牌表现对比
品牌多渠道整合360°视图特色自动化补全查重机制数据安全
超兔一体云支持百度/抖音/官网/微信等10+渠道自动汇总工商信息/微信头像/经纬度补全,形成“企业+社交”双视图工商信息、注册地址经纬度自动填充自定义查重规则(企业简称模糊匹配)分级权限控制(上级管下级,同级隔离)
Zoho CRM整合邮件/社交媒体/表单数据互动历史+客户偏好标签,构建“行为画像”对接天眼查,自动补充企业资料系统自动查重,避免撞单未明确提及(侧重功能而非安全)
钉钉 CRM表单/聊天记录/审批单等钉钉生态内数据自动归档交易历史+跟进记录,形成“服务闭环视图”无需手动录入,数据自动归档未明确提及字段加密+访问日志,防止数据泄露
销售易客户数据云端恒久同步购买历史+沟通记录,构建“交易画像”大数据挖掘潜在客户未明确提及分层权限(按职位授予数据访问权)
SAP集成ERP系统,同步供应链/财务数据全球客户主数据(多语言/币种),保障集团一致性ERP数据自动同步企业级数据唯一性校验企业级加密+合规认证(GDPR等)
Microsoft Dynamics 365集成Office 365/LinkedInLinkedIn职业画像+Office办公数据,形成“职场+消费”视图LinkedIn信息自动补充未明确提及微软Azure云安全+合规
Oracle CX整合营销/销售/服务全链路数据多业务模式(B2B/B2C)适配,形成“全生命周期视图”营销数据自动整合未明确提及全球合规(GDPR/CCPA等)+数据加密
关键结论
  • 企业级安全优先:SAP、Oracle CX、Dynamics 365适合跨国/集团企业;
  • 中小团队轻量化:超兔(多渠道+自动化补全)、Zoho(AI画像)、钉钉(生态同步)更易上手;
  • 社交属性需求:超兔(微信/支付宝补全)、Dynamics 365(LinkedIn集成)更具优势。

(二)销售漏斗追踪:从“流程可视化”到“智能驱动”

销售漏斗的核心是精准掌控转化路径,提升每一层的转化率,关键是“可视化+标准化+智能”。

各品牌表现对比
品牌可视化程度自定义阶段AI辅助功能线索分配/公海池流程标准化
超兔一体云漏斗图实时展示各阶段客户数支持小单/长单/复杂项目3种自定义模型无明确AI,但场景化模型适配性强无公海池,但关键节点提醒三一客(小单)、商机(长单)、多方项目(复杂)
Zoho CRM可视化漏斗+阶段转化率展示支持自定义阶段,如“线索→商机→成交”Zia智能助手筛选高价值线索无公海池,侧重线索质量筛选Blueprint功能(强制遵循标准流程,如“提交方案才到谈判”)
钉钉CRM漏斗图+点击下钻查看客户详情默认“初步沟通→需求确认→报价→谈判→成交”,支持自定义无明确AI,侧重流程简单化线索自动分配+超时提醒(通知主管)标准化流程,适合新手快速上手
销售易实时展示商机周期/成交概率支持自定义阶段无明确AI,侧重商机跟踪公海池(未跟进线索回流,避免浪费)精细化打单流程指引(新人友好)
SAP复杂项目漏斗+多阶段审批展示支持配置复杂流程(如项目型销售)AI预测成交概率(准确率92%)集团级线索分配(跨区域/部门)符合全球合规的标准化流程
Microsoft Dynamics 365可视化漏斗+AI商机评分支持自定义阶段AI驱动商机评分(如“复购概率80%”)高价值线索优先分配与Teams集成,流程同步至团队
Oracle CX全球销售漏斗+合规状态展示支持自定义阶段AI预测销售趋势全球线索分配(适配跨国团队)自动化复杂流程,满足全球合规
流程对比(Mermaid流程图)

超兔小单快单模型(三一客)

flowchart LR
    A[多渠道收集线索] --> B[三一客三定(定性、定级、定量)]
    B --> C[关键节点推进(如发送报价→确认需求)]
    C --> D[自动生成待办任务(明日跟进签约)]
    D --> E[成交归档→转入售后]

Zoho Blueprint标准流程

flowchart LR
    A[线索录入] --> B[Zia智能评分(高/中/低)]
    B --> C[Blueprint流程(需提交方案→进入谈判)]
    C --> D[商机分配→销售跟进]
    D --> E[成交→更新客户状态]

钉钉标准漏斗流程

flowchart LR
    A[表单/聊天收集线索] --> B[初步沟通→需求确认→报价→谈判→成交]
    B --> C[漏斗图展示各阶段转化率]
    C --> D[点击下钻→查看该阶段客户详情]
    D --> E[优化跟进策略→提升转化率]
关键结论
  • 多业务场景:超兔(3种模型)、SAP(复杂项目)、Oracle CX(多行业)适配性最强;
  • 中小团队标准化:Zoho(Blueprint)、钉钉(简单流程)更易落地;
  • 高周转团队:销售易(公海池)、Dynamics 365(AI商机评分)提升线索利用率。

(三)任务与日程管理:从“提醒工具”到“流程闭环”

任务与日程的核心是确保“销售动作不遗漏,服务闭环不中断” ,关键是“自动化+多端同步+提醒”。

各品牌表现对比
品牌自动化任务生成多端同步提醒机制流程闭环周期性任务
超兔一体云根据销售行动自动生成下一步待办(如“发送报价→确认签约”)支持手机/电脑端同步系统消息提醒任务关联客户记录,形成服务闭环未明确提及
Zoho CRM向个人/团队分配任务,自动发送提醒手机/电脑/平板多端同步邮件+系统消息提醒任务完成后自动归档,关联客户历史支持周期性任务(如每周回访)
钉钉CRM任务关联客户,自动同步至钉钉日程钉钉移动端实时同步钉钉消息+日程提醒任务状态实时更新,团队可见支持周期性任务(如每周例会)
销售易智能提醒新任务/代办事项/回访日期手机端随时随地处理系统消息提醒任务完成后自动归档未明确提及
SAP自动化分配工作流任务(如报价审批→通知财务)集成Outlook/Teams同步Teams消息提醒任务关联ERP流程,确保合规支持周期性任务(如月度汇报)
Microsoft Dynamics 365自动生成跟进任务(关联Outlook日历)集成Outlook/Teams同步Teams实时提醒任务状态同步至团队,避免遗漏支持周期性任务(如季度客户回访)
Oracle CXAI助手自动安排任务优先级(高价值客户优先)多端同步(手机/电脑)系统消息+邮件提醒任务关联服务流程,形成闭环支持周期性任务
关键结论
  • 自动化优先:超兔(自动生成待办)、Oracle CX(AI优先级)、SAP(工作流自动化)更高效;
  • 生态协同:钉钉(钉钉日程)、Dynamics 365(Outlook/Teams)、SAP(Outlook/Teams)适合深度生态用户;
  • 中小团队简单化:Zoho(多端同步)、钉钉(周期性任务)更易操作。

(四)报表分析:从“数据展示”到“决策支撑”

报表分析的核心是用数据驱动决策,关键是“BI能力+AI预测+自定义”。

各品牌表现对比(雷达图评分:1-5分)
品牌BI能力AI预测自定义报表多维度拆解实时性
超兔一体云43444
Zoho CRM4.54.5444
钉钉CRM3.533.53.54
销售易44444
SAP55555
Microsoft Dynamics 3654.54.54.54.54.5
Oracle CX54.5555
关键结论
  • 企业级BI:SAP(实时预测+财务分析)、Oracle CX(多维度拆解+全球合规)适合大型企业;
  • AI智能优先:Zoho(Zia建议)、Dynamics 365(AI商机评分)适合数据驱动的团队;
  • 中小团队轻量化:超兔(自定义仪表盘)、钉钉(Power BI集成)、销售易(智能分析云)更易上手。

(五)团队协作:从“信息共享”到“全链路协同”

团队协作的核心是打破信息孤岛,提升跨部门响应效率,关键是“权限管理+跨部门协同+第三方集成”。

各品牌表现对比
品牌权限管理跨部门协同文档共享第三方集成社交化沟通
超兔一体云全局自动权限(上级管下级,同级隔离)未明确提及(侧重销售内部协作)未明确提及未明确提及未明确提及
Zoho CRM按角色授予权限(销售/市场/服务)集成Zoho FSM,优化现场服务调度知识库共享(销售话术/案例)支持Zoho生态工具集成未明确提及
钉钉CRM按角色设置权限(如主管修改报价字段)流程引擎打通销售/市场/客服数据钉钉文档共享集成钉钉生态工具(如钉钉考勤)钉钉聊天+AI秘书(整理待办/会议资料)
销售易分层权限(按职位授予数据访问权)未明确提及(侧重销售团队)团队共享客户数据集成企业微信/微博企业微信/微博同步信息
SAP集团级权限(按区域/部门/角色)跨部门共享ERP/CRM数据(销售/财务/供应链)集成SharePoint文档共享集成SAP生态工具(如SAP ERP)集成Teams实时沟通
Microsoft Dynamics 365按角色/业务单元设置权限跨部门共享Office/LinkedIn数据集成OneDrive文档共享集成微软生态工具(如Excel/Teams)集成Teams实时沟通+文档共享
Oracle CX企业级权限(按角色/地区)跨渠道协同(营销/销售/服务)集成Oracle文档管理集成Oracle生态工具(如Oracle ERP)跨渠道沟通平台(支持全球团队)
关键结论
  • 集团级协同:SAP(跨部门ERP同步)、Oracle CX(跨渠道协同)、Dynamics 365(微软生态)适合大型企业;
  • 钉钉生态用户:钉钉CRM(流程引擎+AI秘书)是最优选择;
  • 中小团队社交化:销售易(企业微信/微博)、Zoho(知识库共享)更符合年轻团队习惯。

三、选型建议:匹配业务需求是核心

CRM选型无“最优解”,只有“最适合”。结合企业规模、业务类型、生态偏好,推荐如下:

企业类型/需求推荐品牌核心优势
多业务类型中小企业(小单+长单+复杂项目)超兔一体云3种销售模型适配,多渠道信息整合
注重AI智能、标准化流程的中小团队Zoho CRMZia智能助手+Blueprint流程
钉钉深度用户、需要简单易上手的中小企业钉钉CRM钉钉生态同步+流程引擎
高周转销售团队、需要公海池盘活线索销售易公海池+云端数据同步
跨国/集团企业、需要企业级安全与合规SAP/Oracle CX全球主数据+合规认证
微软生态用户、需要LinkedIn集成Microsoft Dynamics 365Office 365/LinkedIn整合

四、总结:CRM的未来——“场景化 + 智能化 + 生态化”

从本次对比可见,CRM的进化方向已从“功能覆盖”转向“场景深度适配”:

  • 场景化:超兔的“三一客”、SAP的“复杂项目流程”均是针对特定业务场景的优化,不同的CRM产品根据企业的业务特点和订单类型,提供了多样化的销售模型和流程,以满足企业在不同场景下的需求,提升销售过程的管理效率。
  • 智能化:越来越多的CRM产品引入了AI技术,如Zoho CRM的Zia智能助手、Microsoft Dynamics 365的AI商机评分、Oracle CX的AI预测销售趋势等。AI技术能够自动分析线索质量、预测成交概率、提供实时销售策略建议,帮助企业更精准地把握销售机会,缩短销售决策时间,提升销售转化率。
  • 生态化:各CRM产品都在加强与第三方工具和平台的集成,形成更强大的生态系统。例如,Zoho CRM集成Zoho FSM等第三方工具优化现场服务调度;钉钉CRM集成钉钉生态工具实现数据自动归档和跨部门流程协同;SAP集成SAP ERP等生态工具实现跨部门数据共享;Microsoft Dynamics 365集成微软生态工具(如Excel、Teams)实现数据互通和实时沟通。通过生态化集成,CRM产品能够打破信息孤岛,提升部门间响应效率,为企业提供更全面的数字化管理解决方案。

综上所述,未来的CRM产品将更加注重场景化、智能化和生态化的发展,企业在选型时应充分考虑自身的业务需求、规模和生态偏好,选择最适合自己的CRM系统,以实现数字化转型和可持续发展。

(注:文中功能相关描述均基于公开披露信息,具体功能服务以厂商实际落地版本为准。)

演讲嘉宾|李志宇 博士

策划|QCon 全球软件开发大会

随着大模型在企业和行业场景中持续落地,“记忆”正在成为继参数调优和上下文工程之后的下一个工程化核心。短时遗忘、知识碎片化、跨任务信息无法留存等问题,正在限制大模型的个性化、推理链延展与持续演化能力。

本文整理自记忆张量 CTO 李志宇博士在 2025 年 QCon 全球软件开发大会(上海站)的演讲分享。志宇博士结合他多年的研发与落地实践,系统剖析大模型记忆工程的核心技术:记忆分层管理、多粒度调度、可信更新与安全治理,并展示这些技术在金融、工业、知识管理等业务中的应用效果。通过对架构设计、实现细节和案例经验的讲解,帮助开发者与架构师全面理解如何构建具备长期留存与动态调度能力的“有记忆的 AI”,以及它在未来产业智能化演进中的角色与挑战。

预告:将于 4 月 16 - 18 召开的 QCon 北京站设计了「记忆觉醒:智能体记忆系统的范式重塑与产业落地」专题,旨在重新定义企业级记忆系统的未来——聚焦非显式偏好捕捉、记忆自主演化与生命周期管理等前沿方向,探索其在高端客服、个性化助理、企业决策等场景的深层价值。敬请关注。

以下是演讲实录(经 InfoQ 进行不改变原意的编辑整理)。

大模型性能缩放曲线的演进历史

我们公司名为“记忆张量”,单从名字便可看出,我们聚焦的是“记忆增强”——或者说“记忆优化”这一方向。去年十一月刚刚成立,不久前刚完成近亿元人民币的天使轮融资。

之所以选择“记忆”作为主攻点,根本原因在于我们判断:在大模型的演进史中,记忆将成为与 MCP 工具并列的下一个关键增强维度。2023 年以前,业界普遍通过扩大数据规模、参数量和训练量来换取性能提升,由此催生了千问、ChatGPT 等代表性范式。进入 2024–2025 年,人们逐渐发现,单纯堆参数与规模带来的收益开始递减,于是转向“后训练”与“推理增强”,DeepSeek-R1 便是这一阶段的典型产物。当后训练也逼近瓶颈时,Sam Altman 等人开始追问:下一步的突破口究竟在哪里?在 GPT-4 的更新日志里,OpenAI 把“全局记忆”列为令团队“兴奋到失眠”的新功能;而在 GPT-5、GPT-6 的路线图中,“记忆”与“个性化”被反复提及,被视为大模型面向应用场景的核心变量。

从实践层面看记忆增强的必要性

若把大模型业务服务做一次抽象,可自下而上划分为:底层的数据库存储与基础 AI 引擎;中间的 MCP 增强、知识库增强;最上层的业务逻辑。再将视角切换到单个用户与大模型的交互流程,就会发现其中同时存在动态与静态两类信息。所谓动态信息,指随每次查询而变化的个性化内容:用户临时贴入的参考材料、在 prompt 里约定的偏好等。查询一旦发出,模型先进行意图理解与任务规划,再进入信息增强链路——MCP 调用各类动态工具,并返回执行结果、校验信息、汇总结果;与此同时,知识库从预先处理好的企业静态知识中抽取内容,为模型提供补充。最终,响应结果既包含推理过程(think 部分),也包含知识性内容,以及用户对本次回答的点赞或点踩。

若沿着时间轴把记忆类型进一步展开,其复杂度远超直觉。假设我们在第 6 轮对话里需要引用一个月前第 2 轮的内容,又在第 5 轮里引用第 1 轮的细节,就必须保证用户在不同场景下都能准确召回、并同步更新已发生变化的记忆。再把视角拉远:大模型可能在多轮会话、多用户、多 Agent、多 App 之间穿梭,动态信息的量级与管理难度呈指数级上升。因此,我们希望在开发层面屏蔽这些复杂性,让应用开发者无需深陷动态信息的泥沼,从而显著降低落地成本。

大模型记忆增强层的实现路径

顺着这一思路,我们把大语言模型、Agent、业务流程与用户之间抽象出一个“记忆操作层”。要实现记忆增强,业界目前大致有两条路径。

第一条是模型增强范式:从模型架构与训练范式本身入手,让训练后的模型对记忆具备更强的理解与编排能力。我们团队早期便尝试以记忆分层的方式建模,以提升记忆管理与唤起的效率;近期,字节跳动等机构也尝试利用强化学习来优化记忆使用范式,重点解决短期记忆与长期记忆的协同问题。这一路线可称为“基模驱动”的记忆优化。

第二条则是面向应用层的工程实践:在不动基座模型的前提下,通过通用大模型、提示工程(prompt engineering)与 Agent 工作流来模拟人类对记忆的管理过程。早期项目如 MemGPT、Mem0、Zep 等开源框架均循此思路;近期 Memories.AI 更进一步,从多模态记忆角度拓展了记忆管理框架。除这些偏开源或商业化的团队外,也有不少学术团队围绕记忆工程中的单点创新提出独立方案。

若将两条路线并置比较,二者几乎处于对立的两极。以基模为核心的方案,研发周期长、投入高;然而一旦在模型层面把记忆问题真正吃透,其性能天花板也最高,后续扩展几乎没有硬约束。反之,纯应用层的做法可在极短时间内搭出第一版记忆系统,且横向扩展灵活;但依赖通用基座模型与提示工程,往往很快触到性能瓶颈——从 85% 再往上走到 90%、95%,每一步都异常艰难。

在我们看来,真正可行的路线是把“基模驱动”与“应用驱动”融合为一。具体做法是:在系统关键节点训练一系列面向记忆操作与记忆理解的小型专用模型,同时保留一套能力更强的主模型来执行整体记忆编排。这样,开发者无需深陷复杂的编排与理解细节,成本被大幅压缩。一句话概括:模型决定上限,应用夯实下限。我们坚持由模型驱动去攻克原创理论与核心算法,确保开源框架随版本迭代持续抬升性能天花板;同时,团队里既有来自高校的理论研究者,也有曾任职阿里巴巴、美团的应用算法工程师,因此在设计整套系统时,我们同样关注业务适配性与通用性,力求让前沿成果能够平滑落地到真实场景。

记忆增强层落地需要做什么?

若要把记忆管理系统真正搭建并持续优化,从系统到算法层面,需要攻克的环节远比表面看起来繁复。首先,记忆一旦进入系统,就要完成抽取、组织与检索三步闭环:抽取必须精准,组织必须高效,检索则要在极低冗余与极高精准之间取得平衡。紧接着,当信息动态更新时,必须确保用户曾提及的实体与细节被准确刷新,版本历史被完整保留,而检索时又能即时返回最新状态。最后,记忆还要在多方之间顺畅共享——不仅跨会话、跨 Agent,也跨企业组织内的不同用户。

这些环节里,有些难题仅靠通用模型几乎无解。以记忆抽取为例,通用模型常出现幻觉,既可能捏造事实,也可能把 A 用户的记忆错放到 B 用户名下;而在记忆更新阶段,幻觉同样高发,稍不留神就会让旧版本与新版本混为一谈。因此,我们必须引入更精细的机制,才能在这些关键节点上守住准确性与一致性。

MemOS 的核心设计思路

既然我们给自己定的目标是打造一套“记忆操作系统”,至少也得是 Tiny-OS 级别,那就必须像传统操作系统那样,把整体框架拆成清晰的分层。从硬件到内核再到应用,每一层都对应记忆场景里的关键问题:

  • 最底层相当于“存储硬件”,要解决的是记忆如何被高效共享与持久化;

  • 中间的内核层,必须保证全局记忆的读写效率足够高;

  • 最上面的应用层,则要把复杂的记忆操作流程对开发者完全屏蔽,让他们用起来足够顺滑。

顺着这个思路,我们设计了五层记忆管理框架:存储、治理、调度、应用、解码。其中,治理层与调度层是市面上现有框架极少单独拆出的两层。很多人会把记忆直接塞进向量库或图数据库,我们却坚持为记忆量身定制存储层——因为我们相信,当大模型能力继续跃升、终端入口趋于统一后,传统带 GUI 的 App 形态会逐步消失。

不妨以“时间管理”为例:今天我们要先下载一个时间管理 App,再手动录入日程;稍智能的软件能帮我们排期并提醒。但在不远的将来,人们可能不再下载 App,而是直接获取一个“时间管理记忆体”。这个记忆体已经把时间管理所需的推理逻辑与细节知识打包完毕,安装到本地通用模型后,两者联合推理即可从对话里自动抽取时间要素、生成排程,效率远高于通用模型本身。

因此,我们把“记忆体”定义为可独立打包、下载、安装的最小单元,既可以是个人经验资产,也可以是企业知识沉淀的载体。明年年中,我们将上线“记忆交易市场”,思路类似今天的 App Store:开发者用我们提供的 SDK 把企业知识封装成记忆体并上架;终端用户按需下载安装,即可在“最后一公里”显著提升业务效能。

MemOS 的系统框架

既然记忆已被视作个人最核心的经验资产,治理就必须在一开始就被提到最高优先级。在即将发布的 1.0 版本中,我们把记忆全生命周期管理、幻觉评估框架、水印、权限与隐私控制全部内建,力求让每一份记忆资产从诞生起就保持稳健与可信。

再往上是调度层。之所以单独设立“记忆调度”,是因为我们坚持记忆必须分层管理——这直接源于 2023 年 11 月启动的记忆分层基座模型研究。从建模角度看,明文记忆、激活记忆与参数化记忆在读写效率上差异显著:明文记忆只需改写文本即可瞬间入库;参数化记忆则依赖继续训练或后训练,写入成本极高,但读取极快;激活记忆介于两者之间,读写相对均衡。基于这一分层,我们按使用场景与访问频率动态建模,确保全局读写效率、时效性与首 token 时延同时最优。

为支撑这套调度框架,我们配套实现了消息队列、动态埋点与主动预测算法,使系统始终面向 memory-ready 状态:用户随时提问,背后的 Memory Cube 都已处于最佳形态,时延被压到最低。

最上层是 MemOS 开源框架与服务平台。对外我们提供两类标准服务:

  • 记忆即服务(Memory-as-a-Service):接收 Query 后,返回回答该 Query 最相关的记忆片段;

  • 记忆 + 推理即服务(Memory+Inference-as-a-Service):在底层完成推理,用户只需指定模型,系统即返回融合记忆后的完整答案。

以上便是 MemOS 1.0 的整体设计现状。

Memos 的核心机制一:记忆分层建模

围绕当前框架,我想分享三点在实践中被反复验证、值得特别注意的经验:记忆分层、记忆调度,以及记忆脑图的信息组织方式。它们共同构成了我们整套系统的核心设计思想。

首先是记忆分层。自 2023 年 11 月我们启动记忆分层大模型研究以来,业界虽频繁提及“分层”,但多数仍停留在“长期 / 短期”或“明文工作记忆”这类粗粒度划分。我们认为,从基础模型理论出发,记忆应被系统性地划分为参数化记忆、激活记忆与明文记忆,而明文记忆内部还可进一步细分。之所以必须如此,根源在于人脑的记忆形成机制。

人脑首先接受感官刺激——听觉、视觉、触觉等。只有“重复且有效”的刺激才会留下痕迹。所谓“有效”,是指该刺激与当前任务或兴趣高度相关。例如,普通人对路边落叶视而不见,环卫工人却会敏锐捕捉。若所有信息无差别入库,大脑将因容量有限而崩溃。

被筛选出的信息先进入短期记忆。短期记忆自带遗忘机制;若再经重复刺激,便沉淀为长期记忆。长期记忆又分两类:外显记忆——可被语言提取,如“昨晚看过的电影情节”;内隐记忆——通过行为表现,如程序员盲打键盘的指法。长期记忆若长期不被调用,也会被主动遗忘,以维持系统效率。

人脑这套“刺激—筛选—巩固—遗忘—再学习”的闭环,为我们设计记忆系统提供了完整范式:刺激阶段对应“选择性写入”,降低冗余;短期记忆对应“激活记忆”,追求读写速度;长期外显记忆对应“明文记忆”,便于检索与共享;长期内隐记忆对应“参数化记忆”,通过继续训练微调,读取快、写入慢;遗忘与再学习机制则对应“动态调度与回收”,确保全局性能最优。

围绕当前记忆系统设计的实践,我想分享三点体会,它们共同构成了我们框架设计的核心考量:记忆分层的必要性、记忆调度的技术原理,以及“记忆脑图”这一组织方式的独特价值。

记忆分层绝非简单地把信息划分为“长期”与“短期”,或套用认知心理学中 working memory 的概念。从大语言模型的理论视角出发,记忆应当被系统地拆分为三层:参数化记忆(模型权重)、激活记忆(推理过程中的中间状态)与明文记忆(可显式读取的外部存储)。其中明文记忆又可进一步细分为外显与内隐两类,这一划分直接对应人脑的记忆形成机制。

人脑的记忆始于感官刺激。视觉、听觉、触觉等信号若要在神经层面留下痕迹,必须满足“重复且有效”的条件:重复保证突触可塑性的持续强化,有效则意味着刺激需与个体目标或情感显著相关。以日常场景为例,路人往往忽略脚边落叶,而环卫工人因职责所在,会反复接收并处理同一类视觉信号,落叶遂成为其短期记忆的一部分。若此类信息未经筛选地全部入库,有限的脑容量将迅速耗尽;因此人脑在编码阶段即执行严格的过滤。

短期记忆并非终点。它自带遗忘曲线,只有通过再次复述或情境复现,才能被巩固为长期记忆。长期记忆又可区分为外显与内隐:前者可被语言化,如“昨日观影内容”;后者则表现为程序性技能,如程序员对键盘键位的肌肉记忆。值得注意的是,长期记忆亦遵循“用进废退”原则——久未调用的记忆会被主动遗忘,以维持检索效率。

借鉴人脑的这一套机制,我们便会发现其中有许多值得汲取的要点:长期记忆中的遗忘机制、学习与进化机制,短期记忆在效率上的优势,以及刺激阶段选择性过滤所带来的功耗优势,皆可为我们构建记忆分层与记忆管理系统提供直接启示。

基于上述启发,我们在 2024 年 7 月发布了首个分层架构的大模型。其核心理念是把 Transformer 中的参数化记忆拆分为抽象知识与具体知识,并进一步把其中可分离的部分抽离出来,使模型主干尽可能轻量化。主干只需保留最关键的推理能力,其余具体知识则交由外部存储管理。据此,我们将记忆划分为隐性记忆、显性记忆与外部记忆三类,通过分层降低推理与记忆负载。

若将三类记忆映射到人类行为,隐性记忆如同骑自行车——一旦学会便不再需要刻意思考;显性记忆则像昨日读过的书或课堂笔记,经大脑加工后随时调用;外部记忆则类似开卷考试,学生可现场翻阅教材,按需检索。

写入方式亦各有特征:隐性记忆通过训练固化于模型参数;显性记忆以 KV Cache 形式缓存;外部记忆即明文知识库,按常规检索逻辑维护。读取时,隐性记忆支持即时推理;显性记忆依赖 Self-Attention 交叉计算;外部记忆则需重新编码。综合来看,隐性记忆更新慢、读取快;外部记忆容量大、存储效率高,但联合解码耗时;显性记忆更新灵活,既可随时丢弃,也可常驻显存,读写速度居中。

记忆调度的本质,是把上述三种记忆各自的优势真正用起来。在 MemOS 的设计里,我首先把参数化记忆拆成两块:一块是“内置参数记忆”,即模型出厂时便固化的权重;另一块是“外置参数记忆”,它随着用户或 Agent 与大模型的持续交互而动态生长——系统会挑选那些反复出现、对任务至关重要的偏好、事实与推理模式,以低秩更新或增量训练的方式写进这一区域。场景一变,外置参数记忆也随之调整,始终保持与当前任务高度相关。

显性记忆则体现为推理过程中产生的高速 KV Cache。我会把它暂存在显存或高速缓存区,并在下一次同类任务到来前,预判是否需要提前加载到 GPU,避免冷启动带来的延迟。至于外部记忆,我进一步把它细分为短期明文记忆与长期明文记忆:前者存放最近几轮对话或临时参考文档,后者则像一座可随时间沉淀的知识库,按需召回。

整个记忆管理机制就落在对这五类记忆——内置参数、外置参数、显性 KV Cache、短期明文、长期明文——的灵活调度上。若把记忆系统的全生命周期比作八颗星的工作量,传统 RAG 往往把六颗星都花在“使用”环节:幻觉校验、主体一致性检查、权限验证……而构建与调度环节却相对单薄,无非是切片、 Embedding,再复杂一点便是 GraphRAG。可一旦把 GraphRAG 真正部署到生产环境,就会发现它的成本与延迟都高得难以接受。

我们的思路恰恰相反:把尽可能多的工作量前置到构建与调度阶段。构建时,针对不同记忆类型做类脑式的组织与抽取,采用“图 + 向量”的多路混合存储,既保留语义关系,又兼顾检索效率;调度时,则引入主动预测模型,让所需记忆在任务到达前就已处于“就绪”状态。如此,开发者在真正使用这套系统时,只需关心业务逻辑,无需再为记忆管理付出额外成本。

MemOS 的核心机制二:记忆调度管理

我们整套机制的核心,是把“调度”做到极致。调度究竟意味着什么?一句话概括:在最恰当的时刻,把最匹配的记忆放到最恰当的位置。这三个“最恰当”听起来简单,实则每一步都隐藏着大量算法与工程细节。

当前主流 RAG 的增强范式,在我看来属于“被动式检索”。它的典型流程是:用户输入查询 → 系统重写查询 → 生成嵌入 → 向量库召回 → 粗排 → 精排 → 构造提示 → 交由大模型作答。整个链路呈“阻断式”。后续上下文构造与模型回答必须等待检索全部完成后才能继续。为了提升精度,我们常常把检索方案从 Pro 升级到 Ultra,每次升级又额外增加两秒延迟。若业务硬性要求两秒内返回结果,这套阻断式流程便几乎无法兼顾精度与速度。更棘手的是,随着对话窗口拉长,上下文 Token 不断累积,成本呈指数级上升;跨会话、跨天的推理结果也难以复用,导致碎片化与浪费。

若把 Agent 或用户在真实场景中的时间线拆开,可发现大量“空档”:用户敲键盘输入、模型推理、用户阅读答案、再次输入……这些碎片时间加起来往往远超两秒。与其让它们白白流逝,不如化整为零,把记忆管理、调度与预热工作嵌入每一个空隙。届时,当真正需要构造上下文时,所需数据已提前就位,只需极短时间即可完成拼接。无论对系统延迟还是用户体验,提升都立竿见影。

我们把最小记忆单元称为 Memory Cube。借助它,可在用户输入、模型推理、答案阅读乃至下一轮输入等任意阶段与记忆系统交互,持续把后续可能用到的内容提前准备到“就绪”状态。如此,当查询真正到来时,上下文已静静等候,只需一次轻量调用即可交付。

若把记忆调度抽象来看,它由三类核心容器构成:触发器、调度器与快速检索器。触发器允许开发者依据自身业务灵活配置触发点——当用户键入查询、点击设置列表,或任何其他关键动作发生时,皆可即时唤起记忆调度。调度器则接收触发器传来的信号与模板化配置,对隐性、显性与外部记忆分别执行差异化处置,确保在真正需要时,所需记忆已处于最佳状态。

快速检索器并非必需,可视场景取舍。由于记忆准备已转为全时、异步、并行流程,检索耗时可从原来的数秒压缩至百毫秒级,仅需在最后一刻快速补入最新片段即可。由此,我们将传统单轮、阻断式的 RAG 记忆准备,拆分为跨多轮、可并行异步执行的细粒度过程。

欲将记忆调度系统打磨成熟,至少需在以下层面着力:触发触点建模、负载均衡、明文与激活记忆的分级调度。触点建模尤其依赖对用户与系统行为的主动预测——通过一系列轻量级预测模型,实时捕捉行为变化,并据此将调度模板路由至恰当节点。

MemOS 的核心机制三:记忆脑图组织与检索

当记忆分层与调度都已就绪,我仍需回到起点,重新审视“记忆被抽取之后,究竟应以何种形态组织”。组织方式直接决定后续检索成本、准确率与效率。业界目前可见两条路径:一是直接分块,简单高效,却易割裂文本间的语义关联;二是 GraphRAG,试图以知识图谱保留关系,但构建高精度图谱对实体一致性要求极高,成本令人望而却步。我曾在阿里巴巴业务中台负责商品知识图谱,六十余人历时三四年持续打磨,仍深感其复杂与脆弱。即便引入大模型辅助,图谱的可靠性与可用性依旧难以令人满意。

反观人类自身,我们并不会在听完一场讲座或读完一本书后,立刻铺开一张大纸绘制知识图谱;更自然的做法是勾勒一张脑图——提取事件与逻辑的脉络,形成树状框架。脑图恰好介于“分块”与“图谱”之间:既利用大模型的推理与理解能力,又将构建成本控制在可接受范围。

然而,仅有脑图还不够。我更想强调的是“主动记忆”——与被动分块或静态图谱不同,它要求系统像领域专家一样,只抽取对当前场景真正有价值的信息。以金融行业为例,金融专家阅读同一份研报时,会自觉过滤通识内容,仅保留差异化、可复用的要点。为此,我们引入记忆的 CoT(Chain of Memory)过程:先分析对话或文档的主题与特征,再据此决定抽取策略,使转换效率最大化。

获得初版记忆脑图后,还需二次关联与校验:跨会话补全上下文、跨文档建立路由节点,最终形成由根节点(Root Node)与主题节点(Topic Node)构成的网络。在此网络中,我们为关键路径与节点预计算嵌入向量,实现“图 + 向量”的混合检索——既保留灵活性,又确保召回的准确与全面。

MemOS 的整体性能表现

我们也把整套框架与主流开源方案在 LoCoMo 和 LongMemEval 两个数据集上做了横向性能比较。然而我更想指出的是,现有评估体系尚难真实还原记忆框架在业务场景中的价值。多数评测把一百轮对话一次性塞进模型,仅测试基座对长上下文的处理能力,却忽略了记忆是在逐轮交互中缓慢生长的现实;用户键入查询、模型推理、阅读答案均耗时,若不在评估中模拟这些空隙,便无法体现记忆管理系统在真实环境中的优势。

MemOS 的开源框架与 OpenMem 社区

今年 7 月底,我们开源了 MemOS Preview,并发起国内首个聚焦记忆管理的开源社区 OpenMem,邀请高校研究团队与工业界伙伴共同探讨记忆技术的演进方向,沉淀通用标准与协议。开发者社区保持完全开放,API 服务框架已发布第一版,第二版将于 10 月 31 日上线,未来一年对所有调用量级与性能需求均免费,涵盖“记忆即服务”与“推理即服务”。同时提供可私有化部署的版本,满足高安全场景需求。

MemOS 的典型应用场景

之所以打造 MemOS,源于团队自 2023 年成立至今在 ToB 项目中的切身体会。无论是智能投顾还是工业运维,客户对个性化记忆的诉求高度一致:希望把员工与 AI 中枢交互产生的公共经验固化下来。在工业现场,若资深技师退休且未带徒,其调试经验往往随人散失;企业期待记忆平台能留存“为何把参数设为 5%”这类过程信息,而非仅记录结果。开源后,已有开发者将 MemOS 应用于酒店商户服务、科研助手等场景,显著提升了人工反馈准确率与个性化服务水平。

One More Thing

既然我们自视为“记忆操作系统”,就不能只停留在基座训练与中间件层面;操作系统必须拥有自己的语言。换句话说,当用户以自然语言与系统交互时,如何以最高效率完成编排,是成败关键。

设想一句看似简单的请求:“请帮我记录昨天与某人的会议内容,并在后天提醒我撰写技术报告。”其背后隐含多个基础算子:先检索日程,抑或先更新用户画像?是否需要重写、摘要,还是直接扩展?过去,这些逻辑由算法工程师硬编码,导致大量边界情况难以覆盖。因此,我们正在构建一套自动化编排语言框架,让任意自然语言输入都能被实时解析为系统可执行的操作序列,显著降低开发者接入成本。

最后,以公司 Slogan 作结:智能始于记忆,张量链接未来。谢谢大家。

演讲嘉宾介绍

李志宇,博士,记忆张量(上海)科技有限公司联合创始人兼 CTO、上海算法创新研究院大模型中心技术负责人、研究员。长期从事预训练和大模型应用方向的研发技术攻关,主要研究方向包括大模型记忆增强、高效评估与应用算法。曾在阿里巴巴、小红书等头部科技企业带队承担多个核心算法方向,技术成果服务于商品评价、双十一大促、营销广告等超大规模业务场景,累计带来数十亿营收,影响用户近亿人次,并获得双十一技术突破奖。近年来,先后和团队提出了首个记忆分层的创新架构大模型,以及业内业内首个大模型记忆操作系统(MemOS),MemOS 开源 6 个月累计获得 Star 数超 5800+,开发者数超 11000+,为大模型的记忆增强落地提供了可行的探索路径。相关大模型技术成果已在中国银行、招商证券、中国电信、新华社等多家国央企落地应用。当前已在 Patterns(Cell Press)、NeurIPS、ICLR、ACL 和 TKDE 等国际会议期刊发表论文 70 余篇、授权专利 10 余项。现任中国中文信息学会信息检索专委会委员、大模型与生成专委会委员,相关研究工作入选《麻省理工科技评论》封面报道、《机器之心》、《量子位》和《PaperWeekly》的头条报道,并多次登顶 Huggingface 热点论文 Top1。

会议推荐

2026,AI 正在以更工程化的方式深度融入软件生产,Agentic AI 的探索也将从局部试点迈向体系化工程建设!

QCon 北京 2026 已正式启动,本届大会以“Agentic AI 时代的软件工程重塑”为核心主线,推动技术探索从「AI For What」真正落地到可持续的「Value From AI」。从前沿技术雷达、架构设计与数据底座、效能与成本、产品与交互、可信落地、研发组织进化六大维度,系统性展开深度探索。开往 2026 的 Agentic AI 专列即将启程!汇聚顶尖专家实战分享,把 AI 能力一次夯到位!

刚来论坛,看着帖子挺多,点开都是几天前的,感觉不太活跃啊。好处是不用翻墙访问 😀

在平时做安全运维的时候,我经常需要面对一个问题:如何从海量的登录日志里,快速揪出那些已经被“夺舍”的社交账号。
最典型的情况——凌晨三点,系统报警:多个用户的账号同时在印尼登录。而三个小时前,这些账号刚刚在中国境内有过正常活动。这种“瞬移”不可能靠肉身实现,只能是撞库成功后的黑客在异地登录。我们在后台怎么发现的?靠的就是IP地址。 密码可能被盗,设备指纹可能被伪造,但IP背后的网络环境和地理位置,很难完全隐藏真实痕迹。

一、为什么看IP能揪出异常?

账号安全风控里,IP提供的是“语境信息”——单看一个IP可能没什么,但把它放在时间线和用户行为里,异常就会浮出水面。

一般来说,异常登录逃不出这三类:

  • 地理跳跃异常:常驻地在北京,半小时后出现在上海,这种物理上不可能实现的“瞬移”,基本可以判定是账号被劫持。
  • 网络环境异常:一个普通用户的IP,突然从家庭宽带变成了数据中心、机房或者代理节点,值得警惕。
  • 批量行为异常:同一个IP在短时间内尝试登录几十上百个账号,典型的撞库或扫号行为。

香港警方2025年7月发布的数据显示,过去一个月接获超140宗社交媒体账户被骑劫的案件,涉款超1000万港元,其中WhatsApp占九成以上。这说明账号盗用仍然是黑色产业链的“基础业务”。

二、实战场景:怎么用IP“抓”异常?

说了这么多理论,落地到真实业务里长什么样?讲几个我们日常碰到的场景,以及我们怎么用一款叫IP查询工具的工具来处理。

1. 异地登录,触发二次验证

一个杭州用户的账号,某天突然从巴西发起登录请求。

风控系统拿到这个IP,第一件事就是查它在哪。我们用的是IP查询工具的实时查询接口——它能精准定位到国家、省份、甚至街道级。接口返回:归属地巴西圣保罗,网络类型是“数据中心”。再比对用户历史记录,过去三个月该用户从未离境。

这就对上了:一个数据中心IP,第一次出现在巴西,登录一个杭州用户的账号。系统判定为“中风险”,自动触发短信验证+人脸核身。

这个场景拦截的是典型的撞库攻击:黑客在其他平台拿到密码后,批量尝试登录社交账号。IP查询工具帮我们快速确认了“这个IP和用户没关系”。

2. 批量注册,直接封禁

凌晨时段,平台监测到一个IP段在1小时内注册了超100个新账号。

我们把IP段丢进IP查询工具的批量查询接口,回传的信息很清晰:该IP段属于“数据中心IP”,而且过去7天关联注册账号超500个,其中80%已被平台封禁——这些账号都曾用来发广告、诈骗链接。

系统自动判定为“高风险”,直接阻断后续注册请求。这波操作拦截的是一个典型的“养号”团伙:先批量注册,养一段时间再卖号或用来发垃圾内容。接入IP风险识别后,我们平台的风险拦截率提升到92%以上。

3. 代理IP伪装,被识破

一个账号发起登录,IP显示是“北京市家庭宽带”,归属地也对,看起来挺正常。

但IP查询工具的代理识别模块返回了另一个标签:该IP属于“代理出口节点”。系统判断为“环境异常”,要求用户验证手机号。用户验证失败,登录被阻止。

有些用户会用代理服务访问国内服务,这本身不违规。但如果一个账号同时满足“境外IP+代理节点+首次登录”,就需要多留个心眼。IP查询工具能识别主流代理类型,包括代理服务、Tor、隧道等,让我们在风控里多一层判断依据。

4. 高风险组合,人工复核

另一个案例:一个账号登录时触发了多个异常——IP归属地显示俄罗斯,网络类型是数据中心,IP风险标签包含“代理”和“恶意注册”,而且该IP过去24小时关联了50个不同账号。

IP查询工具返回的风险画像很全:除了基础信息,还有“风险性”等历史标签。系统自动把这个账号纳入“人工复核队列”,并临时限制发消息、加好友等功能。后续溯源发现,这批账号确实与境外刷量黑产有关。

三、从“查地址”到“主动防御”

传统IP工具只能查归属地,但新一代IP安全服务已经进化到“主动防御”阶段。它的核心价值不在于拦截每一个可疑IP,而在于把IP信息和其他维度(设备、行为、时间)联动起来,构建用户的正常行为基线

像我们用的IP数据云,背后是全球43亿全量IP库,数据24小时快速更新,覆盖超700个网络监测点。它的定位算法能做到国内街道级精度,准确率超过99.8%。而且响应很快——毫秒级,能支撑平台7×24小时的高并发风控。

接入方式也很灵活:既可以在线查询,也支持API接口、离线数据库、私有化部署。我们目前是混合模式——基础查询走离线库,高风险场景调实时接口,既保证精度又控制成本。

如果你自己写代码接入,其实不复杂。IP查询工具的API接口地址是 https://api.ipdatacloud.com/v2/query,用Python调一下就行:

import requests

def query_ip(ip):
    url = f"https://api.ipdatacloud.com/v2/query?ip={ip}&key=你的API密钥"
    resp = requests.get(url, timeout=3).json()
    if resp.get("code") == 200:
        data = resp["data"]
        print(data)  # 包含风险等级、场景、代理识别等信息
        return data
    return None

# 示例:查询8.8.8.8
info = query_ip("8.8.8.8")

返回的数据里,usage_type能告诉你这个IP是家庭宽带(DYN)、数据中心(IDC)还是企业专线(GTW);is_proxy标记是否经过代理;risk_levelrisk_score是综合风险评分。有了这些,写风控规则就很简单。

如果是高并发场景,用离线库更稳。IP查询工具提供CSV、MMDB格式的离线库下载,可以在本地毫秒级查询,完全不依赖外网。Java、Python、Go都有对应的解析库。

四、给平台和个人的几点建议

对平台而言,接入IP查询工具这类专业服务,可以显著降低盗号、恶意注册、广告机刷等风险。特别是金融级风控场景,需要的是街道级精度和多维度风险标签,而不仅仅是“这个IP在哪”。

对个人用户来说,技术防御再强,也需要自己留个心眼:

  • 定期查看账号的登录设备与地点记录
  • 能开双重验证就开一下,不费事
  • 别随便用来路不明的加密通道或代理工具
  • 密码定期换,不同平台别用同一个

2025年多家安全厂商报告显示,凭证泄露事件同比增长160%,单次泄露的登录记录可达160亿条。这意味着,你的密码大概率已经在暗网上挂着了。多一道验证,多一分安心。

CURD 围绕数据库写一堆声明式的 SQL, 然后整一堆 if else 的逻辑,或许还有一些别的组件。

Agent 开发围绕 llm 写一堆声明式的排列组合的 prompt ,然后也是整一堆 if else 的匹配路由逻辑,或许还有一些别的组件。

这是我周末两天看到的东西都感受。不知道我这周再多了解一点后是否会有新的改观。

如今企业做网站,托管方式的选择比以往丰富多了。从早期的虚拟主机、独立服务器,到现在的云服务器,每种方案都有其适用场景。而云服务器之所以能成为当前的主流选择,很大程度上是因为它在弹性、成本和维护性之间找到了不错的平衡点。

简单来说,云服务器就是把物理服务器的计算资源通过虚拟化技术分割成多个独立的虚拟服务器。每个云服务器都有自己独立的操作系统、CPU、内存和硬盘,使用体验和物理服务器几乎一样,但资源可以随时按需调整。在极云科技的云平台上,开通一台云服务器只需要几分钟,配置也可以根据业务发展随时升级或降配。

一是弹性伸缩,访问量突增时可以快速增加CPU、内存或带宽,不用担心网站卡顿或宕机;

二是高可用性,底层硬件故障时虚拟机会自动迁移到其他物理节点,业务几乎无感知;

三是成本可控,按用量付费的模式让企业不用为闲置资源买单,特别适合业务还在快速成长期的企业。

当然云服务器也不是万能的。如果网站需要特殊的硬件驱动、特定的PCIe设备,或者对数据主权有严格要求,可能还是物理服务器更合适。另外,长期高负载运行的网站,从三年以上的总成本来看,物理服务器有时会更经济。

首先要看业务特点,内容管理类网站对CPU和内存要求高,电商网站需要更好的带宽保障,图片视频站点则需要更大的存储空间;

其次要看服务商的网络质量,极云科技采用BGP多线接入,确保不同运营商用户都能快速访问;

还要关注数据备份和安全防护能力,我们提供自动快照和免费基础DDoS防护,为网站稳定运行加上双保险。

总的来说,云服务器确实给企业网站托管带来了更多灵活性和可靠性。它的按需取用、弹性伸缩特性,让企业可以根据业务实际发展来配置资源,既不会因为配置不足影响用户体验,也不会为过度配置浪费预算。

如果你正在为网站寻找合适的托管方案,欢迎体验极云科技的云服务器。我们从1核1G的入门配置到多核大内存的高性能实例都有提供,专业运维、弹性计费,帮你把网站建得又稳又快。

马上到期了,最低套餐,我看积分每个月最少剩下 70 万,感觉有点浪费,想找一下替代品。主要是用 openai 和 claude 的最新模型来对话,claude code 虽然可以用 poe ,但是这点积分又太少了。

Sa-Token 是一款 开源免费 的轻量级 Java 权限认证框架,主要解决:登录认证权限认证单点登录OAuth2.0微服务网关鉴权 等一系列权限相关问题。🔐

sa-token-jss--tran

目前最新版本 v1.45.0 已推送至 Maven 中央仓库 🎉,大家可以通过如下方式引入:

<!-- Sa-Token 权限认证 -->
<dependency>
    <groupId>cn.dev33</groupId>
    <artifactId>sa-token-spring-boot4-starter</artifactId>
    <version>1.45.0</version>
</dependency>

该版本包含大量 ⛏️️️新增特性、⛏️底层重构、⛏️️️代码优化 等,下面容我列举几条比较重要的更新内容供大家参阅:

🚀 更新点1:万人血书的 Spring Boot 4 集成包,它来了!

Spring Boot 4 正式版发布后,社区里「求适配」的呼声就没停过!fix: #869#IDB02G#IDGQYM 这次,它真的来了!🎉

need-spring-boot-4-starter.png.png

本次更新新增了完整的 Spring Boot 4 集成支持:🌟

  • sa-token-spring-boot4-starter:WebMVC 环境下的 Spring Boot 4 集成包。
  • sa-token-reactor-spring-boot4-starter:Reactor 响应式环境下的 Spring Boot 4 集成包。

同时配套新增了示例项目:

  • sa-token-demo-springboot4:Spring Boot 4 + WebMVC 整合 demo。
  • sa-token-demo-webflux-springboot4:Spring Boot 4 + WebFlux 示例。

如果你正在或计划升级到 Spring Boot 4,可以直接引入对应 starter,体验与 Spring Boot 2/3 一致的丝滑集成。✨

🎯 更新点2:重复登录处理策略升级,可灵活配置是 “顶人下线” 还是 “不允许登录”

Sa-Token 在多端登录控制场景下,现已支持通过 replacedLoginExitMode 配置项自定义重复登录时的行为方式:

  • 当同一账号不允许多客户端同时登录时,以往 Sa-Token 的默认策略为“新登录顶掉旧会话”,即新登录后会将旧端踢下线。🔄
  • 但部分业务对安全性有更高要求,例如用户 A 已在手机端登录,再用电脑登录时,希望直接拦截本次登录,不影响原有会话,即提示“该账号已在其他设备登录,无法顶替下线”,而不是让手机端被踢下线。📱💻

本次更新新增了配置项 replacedLoginExitMode,你可通过它自由选择策略,无需变动业务代码,灵活应对不同安全需求。配置项含义说明如下:

  • replacedLoginExitMode = OLD_DEVICE:旧设备下线,新设备登录成功(默认行为,顶人下线模式)。
  • replacedLoginExitMode = NEW_DEVICE:新设备登录失败,旧设备维持在线(拦截本次登录)。

只需在 Sa-Token 配置文件或启动参数中切换即可,非常便捷。🛡️

merge: pr 349

📦 更新点3:新增 sa-token-jackson3、sa-token-snack4 插件,生态持续扩展

Sa-Token 的 JSON 与序列化生态一直在持续丰富,本次又迎来两位新成员:📚

  • sa-token-jackson3:用于 Jackson 3 的 JSON 操作。Jackson 3 是 Jackson 的最新大版本,如果你已经在使用 Jackson 3,现在可以无缝对接 Sa-Token 了。
  • sa-token-snack4:用于 Snack4 的 JSON 操作。merge: pr 356

引入方式示例:

<!-- Sa-Token 整合 Jackson 3 -->
<dependency>
    <groupId>cn.dev33</groupId>
    <artifactId>sa-token-jackson3</artifactId>
    <version>1.45.0</version>
</dependency>

<!-- Sa-Token 整合 Snack4 -->
<dependency>
    <groupId>cn.dev33</groupId>
    <artifactId>sa-token-snack4</artifactId>
    <version>1.45.0</version>
</dependency>

无论你偏好 Jackson、Fastjson、Snack3 还是 Snack4,Sa-Token 都能满足。🎛️

🏗️ 更新点4:重构 sa-token-dependencies 及 WebMVC/Reactor 集成包

本次版本对依赖体系进行了一次重要重构:🔧

  • 重构 sa-token-dependencies 相关模块,优化依赖关系,使版本管理更清晰。
  • 重构 Spring Boot WebMVC/Reactor 相关集成包,优化模块划分与依赖传递。
  • 优化整体模块依赖关系,减少冗余、提升构建效率。

这是一次「看不见的升级」,但对长期维护和后续扩展都有积极影响。📐

📺 更新点5:SSO 模块新增 STS 协议定义、视频讲解与平台中心模式 demo

SSO 单点登录模块在本版本也有不少文档与示例上的增强:📖

  • STS 协议定义:文档为 sa-token-sso 模块正式定义了 STS 协议,方便大家理解与对接。
  • 平台中心模式 demo:sso-server 前后端分离模式下,新增平台中心模式 demo 示例。
  • 消息处理器相关文档:补全了 SSO 模块内置消息处理器相关文档,修复了 msgType 参数说明与 API 说明。🔗
  • 视频讲解:B 站 up 主「王清江唷」录制了 SSO 篇共 29 集视频,从零到一讲解单点登录,非常适合入门与进阶。

<!-- bilibili-sa-token-sso-video -->

🐞 更新点6:修复 OAuth2 序列化类型转换、Dubbo 上下文清理等问题

本版本修复了多个社区反馈的问题:🙏

  • OAuth2:修复 sa-token-oauth2 组件使用 sa-token-fastjson2 序列化导致的类型转换问题。merge: pr 355
  • Dubbo:修复 Dubbo 上下文清理问题,避免 RPC 调用时上下文污染。merge: pr 889
  • Core:修复 StpUtil.getLoginIdByTokenNotThinkFreeze 方法缺少 static 修饰符的问题。
  • Core:优化路由匹配 pattern 缓存算法,消除魔法值。merge: pr 907

📚 更新点7:文档与社区建设

文档与社区方面也有不少更新:❤️

  • 新增 Sa-Token 内容合作者群,欢迎愿意参与文档、教程、视频等内容创作的小伙伴加入。
  • 新增赞赏码展示、文档首页 stars 对比图、解决跨域专题文章。
  • 优化框架 Slogan、README、案例库展示。
  • 文档主题切换增加水滴特效,登录认证、权限认证、路由拦截鉴权等章节优化。
  • 补全全局策略说明、数据结构说明,目录树增加项目架构设计栏目。
  • 新增 Maven 父子项目无法下载依赖的问题解决方案。merge: pr 358
  • 新增《Gitee 2025 年度开源项目 Web 应用开发 Top 2》证书展示,感谢社区认可。🏆

gitee-2025-top2

📜 完整更新日志

除了以上提到的几点以外,还有更多更新点无法逐一详细介绍,下面是 v1.45.0 版本的完整更新日志:

  • core:

    • 新增:新增重复登录处理策略,当同一账号不允许多客户端同时登录时支持选择踢人下线或拦截本次登录。 [重要] merge: pr 349
    • 修复:修复 StpUtil.getLoginIdByTokenNotThinkFreeze 方法缺少 static 修饰符的问题。
    • 优化:优化路由匹配 pattern 缓存算法,消除魔法值。merge: pr 907
    • 优化:移除冗余导包。
  • 插件:

    • 新增:新增 sa-token-jackson3 插件,用于 Jackson 3 的 JSON 操作。 [重要]
    • 新增:新增 sa-token-jackson3-test 单元测试。
    • 新增:新增 sa-token-snack4 插件。 [重要] merge: pr 356
    • 修复:修复 Dubbo 上下文清理问题。 merge: pr 889
    • 新增:loveqq-framework 版本更新。merge: pr 351
  • starter:

    • 新增:新增 sa-token-spring-boot4-starter 集成包,支持 Spring Boot 4 环境集成。 [重要]
    • 新增:新增 sa-token-reactor-spring-boot4-starter 集成包,支持 Reactor + Spring Boot 4 环境集成。 [重要]
    • 新增:新增 sa-token-demo-springboot4sa-token-demo-webflux-springboot4 示例。
    • 新增:新增 Spring Boot 4 整合 demo 示例。
  • 重构:

    • 重构:重构 sa-token-dependencies 相关模块,优化依赖关系。 [重要]
    • 重构:重构 Spring Boot WebMVC/Reactor 相关集成包,优化依赖关系。 [重要]
    • 优化:优化整体模块依赖关系。
  • Solon:

    • 优化:sa-token-solon-plugin 优化 Gateway 接口的处理,避免使用路由接口。merge: pr 348
  • SSO:

    • 新增:sso-server 前后端分离模式下 平台中心模式 demo 示例。
    • 修复:SSO 模块 msgType 参数说明、API 说明修正。
    • 新增:SSO 模块视频讲解链接:B站 王清江唷 SSO篇(29集)。 [重要]
    • 补全:SSO 模块内置消息处理器相关文档。
    • 新增:文档为 sa-token-sso 模块定义 STS 协议。 [重要]
  • OAuth2:

    • 修复:修复 sa-token-oauth2 组件使用 sa-token-fastjson2 序列化导致的类型转换问题。merge: pr 355
    • 优化:修改 ClientIdSecretModel 的读取构建逻辑。merge: pr 346
  • 文档:

    • 同步:同步公众号文章列表、博客列表、赞助者名单、企业登记案例。
    • 新增:新增 Sa-Token 内容合作者群。 [重要]
    • 新增:新增《Gitee 2025 年度开源项目 Web 应用开发 Top 2》证书展示。
    • 新增:新增赞赏码展示、文档首页 stars 对比图。
    • 新增:新增解决跨域专题文章。
    • 新增:增加微信群聊信息展示。
    • 优化:优化框架 Slogan。
    • 优化:优化 README、案例库展示。
    • 优化:文档主题切换增加水滴特效,调整主题色块顺序。
    • 优化:文档优化 [登录认证]、[权限认证]、[路由拦截鉴权] 篇。
    • 优化:补全全局策略说明、数据结构说明。
    • 新增:目录树增加专门栏目记录项目架构设计。
    • 优化:功能结构图增加点击事件跳转到对应功能文档。
    • 优化:子服务外网隔离章节增加示意图。
    • 优化:Same-Token 同源系统认证图示说明。
    • 修复:更换 GitCode logo 为 AtomGit。
    • 修复:更换 QQ 群链接、微信群聊展示图。
    • 修复:文档图片地址更换为本地文件。
    • 修复:错别字修复。
    • 修复:maven-pull.md 文档,解决父子项目依赖下载问题。
    • 新增:Maven 父子项目无法下载依赖的问题解决方案。merge: pr 358
    • 修复:订正文档错别字。merge: pr 354
    • 修复:文档内代码示例修正。merge: pr 347
  • AI:

    • 新增:新增 organize-update-log SKILL,用于格式化整理版本更新日志信息。
    • 新增:新增 commit-message SKILL,用于整理 git commit 日志信息。
    • 新增:新增 upgrade-version SKILL,用于统一升级修改版本号。
    • 新增:新增 remove-redundancy-import SKILL,用于检查 Java 类中无效冗余导包并移除。
  • 其它:

    • 新增:readme 增加快问快答区域。
    • 新增:增加忽略 .vscode 目录。
    • 优化:注释优化。
    • 重构:备忘录重构为专门的文件夹。
    • 重构:调整项目发布配置至 Maven Central Portal。merge: pr 792
    • 优化:部分构建配置升级到最新版。

更新日志在线文档直达链接:https://sa-token.cc/doc.html#/more/update-log

🌟 其它

代码仓库地址:https://gitee.com/dromara/sa-token

框架功能结构图:

js

为深入落实“推动招标投标和人工智能深度融合”的战略部署,国家发展改革委等部门发布国家发展改革委等部门关于加快招标投标领域人工智能推广应用的实施意见,意见明确在招标文件编制与检测环节,旨在以数字化、智能化手段重构招标投标全流程监管体系。在这一政策指引下,北京中烟创新科技有限公司(简称:中烟创新)作为国内早期探索大模型应用开发的企业之一,依托其企业级灯塔大模型技术底座,推出了专业的“招标文件编制与检测智能体”。智能体的核心特质集中体现于其主动性干预机制与多智能体协同架构。在招标文件编制阶段,它突破传统工具被动响应的局限,基于对项目审批文件、预算规模及行业特性的深度语义理解,动态注入标准化模板与合规条款库,实现“编制-提示-修正”的实时闭环,将潜在合规风险拦截于文件成型之前。
多智能体协同取代人工智能体以自然语言交互为入口,能够准确理解用户输入的项目目标与关键信息,并基于内置的知识图谱,自动关联相关法律法规及标准模板。在此基础上,按照预设的项目规划逻辑,完成招标文件的整体架构设计,并依次生成完整的章节模块。在编制过程中,多个专业性子智能体并行处理,分别承担标准化条款撰写、技术规范编制等任务,最终由整合模块统一生成为格式规范、结构清晰的招标文件初版。生成初稿后,智能体自动进入检测阶段。在审核环节,通过多智能体分布式认知架构,将合规审查、公平竞争评估、逻辑一致性校验及文本规范性检测等复杂任务进行智能拆解与动态编排,形成并行处理机制——各专业智能体在共享语义空间中协同作业,既确保对海量条款的全面覆盖,又实现对逻辑冲突、隐性壁垒等深层问题的精准识别。具体检测内容包括:依据法律法规库进行条款逐条比对,确保文件内容合法合规;识别文本中的模糊表述及潜在责任漏洞;核查文件前后章节的逻辑一致性;分析是否存在可能构成歧视性或排他性的条款内容等问题。通过系统性扫描,旨在降低因人为疏漏引发的合规与履约风险。在交互层面,智能体支持用户对检测结果进行追溯与问询。针对识别出的问题点,获取相应条款的解释及修改建议。同时,智能体可自动生成《智能检测报告》,汇总检测结果与修正意见,作为后续审批流程的参考依据。这种从“人机交互”向“人机协同”的演进,本质上是以算法驱动的全流程智能管控取代碎片化的人工审查。智能体的应用价值主要体现在三个方面:一是提升文件编制与审核效率,将传统以天为周期的工作流程压缩至小时级;二是通过标准化、系统化的审查机制,降低法律与履约风险;三是从技术层面保障招标过程的公平性与透明度。作为具备持续学习能力的垂直领域智能应用,它为招标采购工作的数字化转型提供了可操作的技术路径。
智能识别招标违规风险在传统的审核模式下,面对动辄数百页、包含数百条款的招标文件,即便经验丰富的专业法务人员,也难以完全避免疏漏。与之形成鲜明对比的是,智能体内置了动态更新的政策法规库,涵盖数千份法律文件及各行业主管部门发布的具体实施细则。当招标文件进入智能体后,AI引擎会自动将其全部条款与法规库进行逐条语义比对,精准识别隐藏在冗长文本中的各类违法违规风险。具体而言,系统能够敏锐捕捉三类高频违规情形:一是规避招标行为,通过比对项目审批文件与招标方案,识别是否存在将依法必须招标的项目拆分为多个低于限额的合同包,或虚构“应急项目”、“涉密项目”等情形;二是程序合规性审查,核查招标公告是否在指定媒介发布、等标期是否满足法定要求、信息内容是否完整充分;三是资格条件合规性,判断设定的投标人资格是否与项目实际需求相适应,避免出现超范围设定资质要求的违规情形。
精准识别隐形壁垒并生成修改建议近年来,监管部门持续加大对“设置不合理条件限制或排斥潜在投标人”行为的整治力度。《招标投标领域公平竞争审查规则》等规范性文件明确要求,不得设置地域、行业或品牌偏好性条款。针对这一监管导向,系统展现了强大的识别能力,能够精准捕捉各类隐形壁垒。例如,要求投标人具备与项目实际需求不匹配的过高注册资本、资产总额或特定行业奖项,在技术参数中设置指向特定品牌的排他性描述,或要求提供特定行政区域及行业的业绩奖项等。智能体不仅能精准识别上述风险点,还会依据相关法规条款生成明确的修改建议,指导招标人进行优化调整。据相关技术资料显示,针对资质设置不合理、评审因素差异化等常见疑难问题,智能体的检测速度较人工审查提升200%以上,识别准确率超过95%。在提升审核效能的同时,智能体还内嵌了多人在线编辑模块,支持招标文件编制团队在同一文档上进行并发操作。所有修订、批注与版本迭代均实现毫秒级同步,彻底消除了传统模式下文档反复传输、版本混乱的痛点,实现了从“智能审核”到“协同修正”的全流程闭环。
智能检测逻辑与文本规范招标文件的内在逻辑一致性,直接影响评标流程的顺畅性和后期合同履行的可操作性。然而,在实际编制过程中,由于文件往往由多人协作、历经多轮修改,极易出现前后条款矛盾、技术标准不统一、评分标准与采购需求脱节等问题。这类隐患在传统人工审查模式下难以被系统发现,却常常成为引发后期争议的导火索。针对这一痛点,招标文件编制与检测智能体通过深度学习海量历史项目数据,构建了强大的逻辑推理能力。它能够对文件全文进行系统性扫描,自动识别并提示各类逻辑冲突。例如,资格要求中设定的技术能力,在评审办法中却未设置相应的评分点;技术参数与验收标准之间存在表述不一致等。此外,智能体还能够评估评标标准的量化程度与客观性,帮助减少主观裁量空间,从源头上降低后期争议风险。在文本质量层面,智能体依托大模型的深度语义理解能力,不仅能够识别并纠正错别字、语法错误及不规范的行业术语,更能敏锐发现文件中隐含的“歧视性”或“敏感性”表述。例如,在描述供应商条件时,智能体会自动提示避免使用倾向性词汇,确保文件用语的公正性与中立性。据技术资料显示,针对逻辑错误、表述不清晰及错敏词等问题,智能体的综合检出率已超过90%,显著提升了招标文件的规范化水平。
招标文件编制与检测智能体凭借其在推动采购流程向专业化、规范化与智能化转型方面的显著成效,先后入选“人工智能技术+招标采购应用案例”、“2025 AIGC创新榜TOP100”以及“2025年度数智化十大创新产品”等多项行业荣誉。不仅是对中烟创新在人工智能与垂直行业融合领域技术实力的认证,更是对其深度理解行业规范与管理痛点、以智能化手段赋能招标采购审核工作的充分肯定。中烟创新将持续专注于行业需求,通过技术优化与智能体迭代,助力落实“招标投标领域与人工智能深度融合”战略部署,为构建更加公平、公正、高效的招标投标市场环境贡献技术力量!