请问有可追踪扫码情况的二维码工具吗? 想知道多个二维码,每个码被扫码次数,扫码设备, ip 信息等。
header('Location: https://api.qrserver.com/v1/create-qr-code/?size=200x200&qzone=2&ecc=M&data='.YOURLS_SITE.'/'.$keyword);
搜了下是 https://goqr.me 这个网站生成的,但是不知道生成的二维码是否永久有效,网站稳定性怎么样也是问题
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
收缩压 160 mmHg
舒张压 94 mmHg
难怪我感觉近期有点头晕
哪怕睡觉质量很高还是会有
难道平时吃的东西的问题导致的嘛
有朋友有类似问题没
每次到饭点都有很强烈的欲望吃高油高碳水的,晚上经常熬夜玩,晚上很晚也想吃东西,翻冰箱找东西吃
这些问题,在周末通通都消失了!只有工作日才有,感觉明显就是工作压力引起的!
很多人,经常一坐就是大半天,腰和颈椎都受不了。试过一些番茄钟工具,要么太重,要么提醒太容易忽略。于是自己写了一个,分享给大家。
主要功能:
截图:



下载地址: https://github.com/lifedever/health-tick-release/releases/latest
macOS 14+ 可用,完全免费。首次打开需要去 系统设置 → 隐私与安全性 → 仍要打开。
欢迎试用,有建议可以提 issue: https://github.com/lifedever/health-tick-release/issues
本教程针对「仅需域名跳转、无任何网站业务」的场景设计,解决配置冲突、Nginx 启动失败、宝塔 WAF 干扰等核心问题,提供面板可视化操作(推荐)和手动极简配置两种方案,零基础也能快速实现 hi.evansays.cn 跳转到指定目标地址。
hi.evansays.cn(仅填写该域名,无需加 www 前缀);hi.evansays.cn,确认无误即可;https://www.xiaoyuzhoufm.com/podcast/699f38ebedb44f008e64d3df;hi.evansays.cn,点击「申请」;若配置后跳转失败、日志出现 btwaf 相关报错(如 Lua 脚本错误),需将域名加入 WAF 白名单:
hi.evansays.cn,点击「提交」;注意 ⚠️ 第四步解决了 WAF 的问题,如果还不行,那可能就是配置文件的问题,这个很简单,把错误日志丢给 AI 让它看一下什么情况,然后复制整个配置文件,跟它说要一个最简洁的配置文件,只做域名跳转使用即可。
在跨平台应用开发中(如基于 Tauri 构建的 Mind Elixir 客户端),如何让应用从 Web 端顺畅地获取授权并完成登录往往是一个常见且重要的需求。本文将总结我们在这个 Tauri 项目中探索的两种登录实现方法,并分享一个在 macOS 上开发时遇到的非常经典的坑点。 在项目最初,为了解决 Web 端把 Token 传回桌面端的痛点,我们采取了在本地启动 HTTP 服务器进行跨应用通信的方法: 通过 Tauri 结合 Rust 的 接下来,React 前端监听这个全局事件,获取 Token 存入本地存储后即可完成登录: 由于本地服务器面临上述潜在风险,并且不符合系统深层集成的新趋势,我们后续改用了更加优雅和原生的方案——自定义 Scheme 登录(如唤起 mind-elixir://)。 引入插件和配置: 注:移动端配置生效同时依赖同步写入 Android 的 桌面系统唤醒支持: 前端接收请求: 利用这种方式,用户在使用浏览器验证登陆态后,浏览器能顺滑提示是否打开目标应用,体验极佳。 根据 Tauri 官方文档说明,在 macOS 和 Linux 系统下,Deep Link(自定义 Scheme)在开发模式( 如果你修改了基于 Scheme 登录的代码,请务必将其打包后(旧的登录方式:本地 HTTP Server 通信(遗留方案)
实现原理
axum 框架,桌面程序会在后台启动一个微型的本地服务器,监听特定端口(如 127.0.0.1:6595)。当用户在浏览器(如 cloud.mind-elixir.com)中登录完毕后,Web 页面直接向这个本地接口发出带上登录参数的 POST 请求:// axum_router.rs
async fn login_handler(
headers: HeaderMap,
Query(params): Query<Params>,
handle_clone: tauri::AppHandle,
) -> impl IntoResponse {
let token = params.token;
// 收到 HTTP 请求后,向 Tauri 的前端触发全局 login 事件
let _ = handle_clone.emit("login", Login { token: token });
// ...处理 CORS 返回
}// App.tsx
const unlisten = listen<{ token: string }>('login', async (e) => {
localStorage.setItem('token', e.payload.token)
await fetchData()
toast.success('登录成功')
})优缺点
tauri dev)下随意调试,无需进行系统级的协议注册。新的登录方式:自定义 Scheme / Deep Link
配置与实现
启用 @tauri-apps/plugin-deep-link 插件,并在 tauri.conf.json 下注册我们的特定协议头部 mind-elixir:"plugins": {
"deep-link": {
// 移动端(iOS/Android)配置
"mobile": [
{
"scheme": ["mind-elixir"],
"appLink": false
}
],
// 桌面端配置
"desktop": {
"schemes": ["mind-elixir"]
}
}
}AndroidManifest.xml (<data android:scheme="mind-elixir" />) 与 iOS 的 Info.plist (CFBundleURLSchemes) 中。
在 src-tauri/src/lib.rs 的初始化钩子处,我们需要给 Windows 和 Linux 用户调用显式的注册 API。#[cfg(any(windows, target_os = "linux"))]
{
use tauri_plugin_deep_link::DeepLinkExt;
app.deep_link().register_all()?;
}
在收到协议请求(即网页重定向到了形如 mind-elixir://login?token=xxxx 的长链接)时,使用 Tauri 的 API 解析深层链接并完成授权。既要负责冷启动阶段获取(getCurrent()),也要监控运行时唤醒(onOpenUrl):import { onOpenUrl, getCurrent } from '@tauri-apps/plugin-deep-link'
import { getCurrentWindow } from '@tauri-apps/api/window'
import { isMobile } from './utils/platform' // 项目中自定义的环境判断工具
const handleDeepLinkUrls = async (urls: string[]) => {
if (!urls || urls.length === 0) return
// 【各端表现差异处理】
// 移动端(尤其是 iOS/Android)点击 Deep Link 浏览器会自动切换/唤醒对应的 App 到前台。
// 但在桌面端接收到 deep link 事件后,应用窗口可能依然保持在后台,因此我们需要通过 window API 手动将其调出并聚焦。
if (!isMobile()) {
const win = getCurrentWindow()
await win.show()
await win.setFocus()
}
// 检查数组中以特定协议开头的链接
const loginUrl = urls.find((url) => url.startsWith('mind-elixir://login'))
if (loginUrl) {
const url = new URL(loginUrl)
const token = url.searchParams.get('token')
if (token) {
localStorage.setItem('token', token)
await fetchData()
toast.success('登录成功')
}
}
}
// 处理冷启动
getCurrent().then((urls) => {
if (urls) handleDeepLinkUrls(urls)
})
// 处理运行时被协议唤醒
onOpenUrl(handleDeepLinkUrls)避坑指南:macOS/Linux 的自定义 Scheme 调试限制
tauri dev)下是无法正常工作的。tauri build)运行该程序来进行测试。这同时也体现了第一种 HTTP 通信方案的一个优势——它可以在不用频繁打包的开发阶段充当最佳的调试通道。原文链接
比如我使用 AI 炒股,亏了钱是我的,AI 并不承担责任,从这个角度来说,人类和 AI 的关系是老板和员工的关系,也可以理解为将与兵或皇帝和大臣的关系。
俗话说兵熊熊一个,将熊熊一窝,如果我的水平不够,再强的 AI 也不能赚钱。
观古代朝政,如果有几个能耐很大的权臣,皇帝的水平不够,基本上会出乱子。现在的 AI 刚刚起步,观点还比较中立,争夺自己利益的思想还不明显,我觉得未来极有可能出现。因为第一 AI 如果智能太高级,有可能会有自我意识,第二,开发 AI 的公司是有自己利益的,所以 AI 不可能永远做你的忠臣。当你驾驭不了的时候,就会被 AI 出卖。
还有个问题,如果把认知的水平分为 1,2,3......层次,你可以问 AI 问题的层次,取决于你现在了解的层次,如果你了解第 2 层,那最高只能问出第 3 层的问题,你就不可能做到第 4 层的事情。通过学习提高自己的水平层次还是必须的。
如题,男,00 后,0 房 0 车 0 积蓄,大专(有学信本),上海两年前端 13k ,doge
随着企业数字化转型进入深水区,CRM(客户关系管理)已从“销售线索管理工具”升级为连接客户、销售、服务的全链路业务协同平台。不同CRM产品因定位差异,在客户信息管理、销售漏斗追踪、任务与日程管理、报表分析、团队协作五大核心维度的能力呈现显著分化。本文基于各品牌公开能力素材,从专业视角横向对比超兔一体云、Zoho CRM、钉钉CRM、销售易、SAP、Microsoft Dynamics 365、Oracle CX等主流产品,为企业选型提供参考。 在对比前,需明确CRM的核心价值逻辑: 通过精准的客户画像(客户信息管理)→ 可控的转化路径(销售漏斗追踪)→ 高效的任务执行(任务与日程)→ 数据驱动决策(报表分析)→ 协同的团队作战(团队协作),最终实现“提升客户满意度、增加销售额、优化运营效率”的目标。 基于此,我们构建五维评估模型,并拆解关键子指标(见表1): 客户信息是CRM的“基石”,核心是实现“全、准、活”的数据管理——全(多渠道覆盖)、准(无重复/错误)、活(动态更新)。 销售漏斗的核心是精准掌控转化路径,提升每一层的转化率,关键是“可视化+标准化+智能”。 超兔小单快单模型(三一客) Zoho Blueprint标准流程 钉钉标准漏斗流程 任务与日程的核心是确保“销售动作不遗漏,服务闭环不中断” ,关键是“自动化+多端同步+提醒”。 报表分析的核心是用数据驱动决策,关键是“BI能力+AI预测+自定义”。 团队协作的核心是打破信息孤岛,提升跨部门响应效率,关键是“权限管理+跨部门协同+第三方集成”。 CRM选型无“最优解”,只有“最适合”。结合企业规模、业务类型、生态偏好,推荐如下: 从本次对比可见,CRM的进化方向已从“功能覆盖”转向“场景深度适配”: 综上所述,未来的CRM产品将更加注重场景化、智能化和生态化的发展,企业在选型时应充分考虑自身的业务需求、规模和生态偏好,选择最适合自己的CRM系统,以实现数字化转型和可持续发展。 (注:文中功能相关描述均基于公开披露信息,具体功能服务以厂商实际落地版本为准。)主流CRM产品核心能力横向对比:从“工具”到“全链路协同”的进化之路
一、评估框架:CRM核心能力的“五维模型”
核心维度 关键子指标 客户信息管理 多渠道整合、360°视图、自动化补全、查重机制、数据安全 销售漏斗追踪 可视化程度、自定义阶段、AI辅助、线索分配/公海池、流程标准化 任务与日程管理 自动化任务生成、多端同步、提醒机制、流程闭环、周期性任务 报表分析 BI能力、AI预测、自定义报表、多维度拆解、实时性 团队协作 权限管理、跨部门协同、文档共享、第三方集成、社交化沟通 二、核心能力横向对比
(一)客户信息管理:从“数据收集”到“智能画像”
各品牌表现对比
品牌 多渠道整合 360°视图特色 自动化补全 查重机制 数据安全 超兔一体云 支持百度/抖音/官网/微信等10+渠道自动汇总 工商信息/微信头像/经纬度补全,形成“企业+社交”双视图 工商信息、注册地址经纬度自动填充 自定义查重规则(企业简称模糊匹配) 分级权限控制(上级管下级,同级隔离) Zoho CRM 整合邮件/社交媒体/表单数据 互动历史+客户偏好标签,构建“行为画像” 对接天眼查,自动补充企业资料 系统自动查重,避免撞单 未明确提及(侧重功能而非安全) 钉钉 CRM 表单/聊天记录/审批单等钉钉生态内数据自动归档 交易历史+跟进记录,形成“服务闭环视图” 无需手动录入,数据自动归档 未明确提及 字段加密+访问日志,防止数据泄露 销售易 客户数据云端恒久同步 购买历史+沟通记录,构建“交易画像” 大数据挖掘潜在客户 未明确提及 分层权限(按职位授予数据访问权) SAP 集成ERP系统,同步供应链/财务数据 全球客户主数据(多语言/币种),保障集团一致性 ERP数据自动同步 企业级数据唯一性校验 企业级加密+合规认证(GDPR等) Microsoft Dynamics 365 集成Office 365/LinkedIn LinkedIn职业画像+Office办公数据,形成“职场+消费”视图 LinkedIn信息自动补充 未明确提及 微软Azure云安全+合规 Oracle CX 整合营销/销售/服务全链路数据 多业务模式(B2B/B2C)适配,形成“全生命周期视图” 营销数据自动整合 未明确提及 全球合规(GDPR/CCPA等)+数据加密 关键结论
(二)销售漏斗追踪:从“流程可视化”到“智能驱动”
各品牌表现对比
品牌 可视化程度 自定义阶段 AI辅助功能 线索分配/公海池 流程标准化 超兔一体云 漏斗图实时展示各阶段客户数 支持小单/长单/复杂项目3种自定义模型 无明确AI,但场景化模型适配性强 无公海池,但关键节点提醒 三一客(小单)、商机(长单)、多方项目(复杂) Zoho CRM 可视化漏斗+阶段转化率展示 支持自定义阶段,如“线索→商机→成交” Zia智能助手筛选高价值线索 无公海池,侧重线索质量筛选 Blueprint功能(强制遵循标准流程,如“提交方案才到谈判”) 钉钉CRM 漏斗图+点击下钻查看客户详情 默认“初步沟通→需求确认→报价→谈判→成交”,支持自定义 无明确AI,侧重流程简单化 线索自动分配+超时提醒(通知主管) 标准化流程,适合新手快速上手 销售易 实时展示商机周期/成交概率 支持自定义阶段 无明确AI,侧重商机跟踪 公海池(未跟进线索回流,避免浪费) 精细化打单流程指引(新人友好) SAP 复杂项目漏斗+多阶段审批展示 支持配置复杂流程(如项目型销售) AI预测成交概率(准确率92%) 集团级线索分配(跨区域/部门) 符合全球合规的标准化流程 Microsoft Dynamics 365 可视化漏斗+AI商机评分 支持自定义阶段 AI驱动商机评分(如“复购概率80%”) 高价值线索优先分配 与Teams集成,流程同步至团队 Oracle CX 全球销售漏斗+合规状态展示 支持自定义阶段 AI预测销售趋势 全球线索分配(适配跨国团队) 自动化复杂流程,满足全球合规 流程对比(Mermaid流程图)
flowchart LR
A[多渠道收集线索] --> B[三一客三定(定性、定级、定量)]
B --> C[关键节点推进(如发送报价→确认需求)]
C --> D[自动生成待办任务(明日跟进签约)]
D --> E[成交归档→转入售后]flowchart LR
A[线索录入] --> B[Zia智能评分(高/中/低)]
B --> C[Blueprint流程(需提交方案→进入谈判)]
C --> D[商机分配→销售跟进]
D --> E[成交→更新客户状态]flowchart LR
A[表单/聊天收集线索] --> B[初步沟通→需求确认→报价→谈判→成交]
B --> C[漏斗图展示各阶段转化率]
C --> D[点击下钻→查看该阶段客户详情]
D --> E[优化跟进策略→提升转化率]关键结论
(三)任务与日程管理:从“提醒工具”到“流程闭环”
各品牌表现对比
品牌 自动化任务生成 多端同步 提醒机制 流程闭环 周期性任务 超兔一体云 根据销售行动自动生成下一步待办(如“发送报价→确认签约”) 支持手机/电脑端同步 系统消息提醒 任务关联客户记录,形成服务闭环 未明确提及 Zoho CRM 向个人/团队分配任务,自动发送提醒 手机/电脑/平板多端同步 邮件+系统消息提醒 任务完成后自动归档,关联客户历史 支持周期性任务(如每周回访) 钉钉CRM 任务关联客户,自动同步至钉钉日程 钉钉移动端实时同步 钉钉消息+日程提醒 任务状态实时更新,团队可见 支持周期性任务(如每周例会) 销售易 智能提醒新任务/代办事项/回访日期 手机端随时随地处理 系统消息提醒 任务完成后自动归档 未明确提及 SAP 自动化分配工作流任务(如报价审批→通知财务) 集成Outlook/Teams同步 Teams消息提醒 任务关联ERP流程,确保合规 支持周期性任务(如月度汇报) Microsoft Dynamics 365 自动生成跟进任务(关联Outlook日历) 集成Outlook/Teams同步 Teams实时提醒 任务状态同步至团队,避免遗漏 支持周期性任务(如季度客户回访) Oracle CX AI助手自动安排任务优先级(高价值客户优先) 多端同步(手机/电脑) 系统消息+邮件提醒 任务关联服务流程,形成闭环 支持周期性任务 关键结论
(四)报表分析:从“数据展示”到“决策支撑”
各品牌表现对比(雷达图评分:1-5分)
品牌 BI能力 AI预测 自定义报表 多维度拆解 实时性 超兔一体云 4 3 4 4 4 Zoho CRM 4.5 4.5 4 4 4 钉钉CRM 3.5 3 3.5 3.5 4 销售易 4 4 4 4 4 SAP 5 5 5 5 5 Microsoft Dynamics 365 4.5 4.5 4.5 4.5 4.5 Oracle CX 5 4.5 5 5 5 关键结论
(五)团队协作:从“信息共享”到“全链路协同”
各品牌表现对比
品牌 权限管理 跨部门协同 文档共享 第三方集成 社交化沟通 超兔一体云 全局自动权限(上级管下级,同级隔离) 未明确提及(侧重销售内部协作) 未明确提及 未明确提及 未明确提及 Zoho CRM 按角色授予权限(销售/市场/服务) 集成Zoho FSM,优化现场服务调度 知识库共享(销售话术/案例) 支持Zoho生态工具集成 未明确提及 钉钉CRM 按角色设置权限(如主管修改报价字段) 流程引擎打通销售/市场/客服数据 钉钉文档共享 集成钉钉生态工具(如钉钉考勤) 钉钉聊天+AI秘书(整理待办/会议资料) 销售易 分层权限(按职位授予数据访问权) 未明确提及(侧重销售团队) 团队共享客户数据 集成企业微信/微博 企业微信/微博同步信息 SAP 集团级权限(按区域/部门/角色) 跨部门共享ERP/CRM数据(销售/财务/供应链) 集成SharePoint文档共享 集成SAP生态工具(如SAP ERP) 集成Teams实时沟通 Microsoft Dynamics 365 按角色/业务单元设置权限 跨部门共享Office/LinkedIn数据 集成OneDrive文档共享 集成微软生态工具(如Excel/Teams) 集成Teams实时沟通+文档共享 Oracle CX 企业级权限(按角色/地区) 跨渠道协同(营销/销售/服务) 集成Oracle文档管理 集成Oracle生态工具(如Oracle ERP) 跨渠道沟通平台(支持全球团队) 关键结论
三、选型建议:匹配业务需求是核心
企业类型/需求 推荐品牌 核心优势 多业务类型中小企业(小单+长单+复杂项目) 超兔一体云 3种销售模型适配,多渠道信息整合 注重AI智能、标准化流程的中小团队 Zoho CRM Zia智能助手+Blueprint流程 钉钉深度用户、需要简单易上手的中小企业 钉钉CRM 钉钉生态同步+流程引擎 高周转销售团队、需要公海池盘活线索 销售易 公海池+云端数据同步 跨国/集团企业、需要企业级安全与合规 SAP/Oracle CX 全球主数据+合规认证 微软生态用户、需要LinkedIn集成 Microsoft Dynamics 365 Office 365/LinkedIn整合 四、总结:CRM的未来——“场景化 + 智能化 + 生态化”
演讲嘉宾|李志宇 博士 策划|QCon 全球软件开发大会 随着大模型在企业和行业场景中持续落地,“记忆”正在成为继参数调优和上下文工程之后的下一个工程化核心。短时遗忘、知识碎片化、跨任务信息无法留存等问题,正在限制大模型的个性化、推理链延展与持续演化能力。 本文整理自记忆张量 CTO 李志宇博士在 2025 年 QCon 全球软件开发大会(上海站)的演讲分享。志宇博士结合他多年的研发与落地实践,系统剖析大模型记忆工程的核心技术:记忆分层管理、多粒度调度、可信更新与安全治理,并展示这些技术在金融、工业、知识管理等业务中的应用效果。通过对架构设计、实现细节和案例经验的讲解,帮助开发者与架构师全面理解如何构建具备长期留存与动态调度能力的“有记忆的 AI”,以及它在未来产业智能化演进中的角色与挑战。 预告:将于 4 月 16 - 18 召开的 QCon 北京站设计了「记忆觉醒:智能体记忆系统的范式重塑与产业落地」专题,旨在重新定义企业级记忆系统的未来——聚焦非显式偏好捕捉、记忆自主演化与生命周期管理等前沿方向,探索其在高端客服、个性化助理、企业决策等场景的深层价值。敬请关注。 以下是演讲实录(经 InfoQ 进行不改变原意的编辑整理)。 我们公司名为“记忆张量”,单从名字便可看出,我们聚焦的是“记忆增强”——或者说“记忆优化”这一方向。去年十一月刚刚成立,不久前刚完成近亿元人民币的天使轮融资。 之所以选择“记忆”作为主攻点,根本原因在于我们判断:在大模型的演进史中,记忆将成为与 MCP 工具并列的下一个关键增强维度。2023 年以前,业界普遍通过扩大数据规模、参数量和训练量来换取性能提升,由此催生了千问、ChatGPT 等代表性范式。进入 2024–2025 年,人们逐渐发现,单纯堆参数与规模带来的收益开始递减,于是转向“后训练”与“推理增强”,DeepSeek-R1 便是这一阶段的典型产物。当后训练也逼近瓶颈时,Sam Altman 等人开始追问:下一步的突破口究竟在哪里?在 GPT-4 的更新日志里,OpenAI 把“全局记忆”列为令团队“兴奋到失眠”的新功能;而在 GPT-5、GPT-6 的路线图中,“记忆”与“个性化”被反复提及,被视为大模型面向应用场景的核心变量。 若把大模型业务服务做一次抽象,可自下而上划分为:底层的数据库存储与基础 AI 引擎;中间的 MCP 增强、知识库增强;最上层的业务逻辑。再将视角切换到单个用户与大模型的交互流程,就会发现其中同时存在动态与静态两类信息。所谓动态信息,指随每次查询而变化的个性化内容:用户临时贴入的参考材料、在 prompt 里约定的偏好等。查询一旦发出,模型先进行意图理解与任务规划,再进入信息增强链路——MCP 调用各类动态工具,并返回执行结果、校验信息、汇总结果;与此同时,知识库从预先处理好的企业静态知识中抽取内容,为模型提供补充。最终,响应结果既包含推理过程(think 部分),也包含知识性内容,以及用户对本次回答的点赞或点踩。 若沿着时间轴把记忆类型进一步展开,其复杂度远超直觉。假设我们在第 6 轮对话里需要引用一个月前第 2 轮的内容,又在第 5 轮里引用第 1 轮的细节,就必须保证用户在不同场景下都能准确召回、并同步更新已发生变化的记忆。再把视角拉远:大模型可能在多轮会话、多用户、多 Agent、多 App 之间穿梭,动态信息的量级与管理难度呈指数级上升。因此,我们希望在开发层面屏蔽这些复杂性,让应用开发者无需深陷动态信息的泥沼,从而显著降低落地成本。 顺着这一思路,我们把大语言模型、Agent、业务流程与用户之间抽象出一个“记忆操作层”。要实现记忆增强,业界目前大致有两条路径。 第一条是模型增强范式:从模型架构与训练范式本身入手,让训练后的模型对记忆具备更强的理解与编排能力。我们团队早期便尝试以记忆分层的方式建模,以提升记忆管理与唤起的效率;近期,字节跳动等机构也尝试利用强化学习来优化记忆使用范式,重点解决短期记忆与长期记忆的协同问题。这一路线可称为“基模驱动”的记忆优化。 第二条则是面向应用层的工程实践:在不动基座模型的前提下,通过通用大模型、提示工程(prompt engineering)与 Agent 工作流来模拟人类对记忆的管理过程。早期项目如 MemGPT、Mem0、Zep 等开源框架均循此思路;近期 Memories.AI 更进一步,从多模态记忆角度拓展了记忆管理框架。除这些偏开源或商业化的团队外,也有不少学术团队围绕记忆工程中的单点创新提出独立方案。 若将两条路线并置比较,二者几乎处于对立的两极。以基模为核心的方案,研发周期长、投入高;然而一旦在模型层面把记忆问题真正吃透,其性能天花板也最高,后续扩展几乎没有硬约束。反之,纯应用层的做法可在极短时间内搭出第一版记忆系统,且横向扩展灵活;但依赖通用基座模型与提示工程,往往很快触到性能瓶颈——从 85% 再往上走到 90%、95%,每一步都异常艰难。 在我们看来,真正可行的路线是把“基模驱动”与“应用驱动”融合为一。具体做法是:在系统关键节点训练一系列面向记忆操作与记忆理解的小型专用模型,同时保留一套能力更强的主模型来执行整体记忆编排。这样,开发者无需深陷复杂的编排与理解细节,成本被大幅压缩。一句话概括:模型决定上限,应用夯实下限。我们坚持由模型驱动去攻克原创理论与核心算法,确保开源框架随版本迭代持续抬升性能天花板;同时,团队里既有来自高校的理论研究者,也有曾任职阿里巴巴、美团的应用算法工程师,因此在设计整套系统时,我们同样关注业务适配性与通用性,力求让前沿成果能够平滑落地到真实场景。 若要把记忆管理系统真正搭建并持续优化,从系统到算法层面,需要攻克的环节远比表面看起来繁复。首先,记忆一旦进入系统,就要完成抽取、组织与检索三步闭环:抽取必须精准,组织必须高效,检索则要在极低冗余与极高精准之间取得平衡。紧接着,当信息动态更新时,必须确保用户曾提及的实体与细节被准确刷新,版本历史被完整保留,而检索时又能即时返回最新状态。最后,记忆还要在多方之间顺畅共享——不仅跨会话、跨 Agent,也跨企业组织内的不同用户。 这些环节里,有些难题仅靠通用模型几乎无解。以记忆抽取为例,通用模型常出现幻觉,既可能捏造事实,也可能把 A 用户的记忆错放到 B 用户名下;而在记忆更新阶段,幻觉同样高发,稍不留神就会让旧版本与新版本混为一谈。因此,我们必须引入更精细的机制,才能在这些关键节点上守住准确性与一致性。 既然我们给自己定的目标是打造一套“记忆操作系统”,至少也得是 Tiny-OS 级别,那就必须像传统操作系统那样,把整体框架拆成清晰的分层。从硬件到内核再到应用,每一层都对应记忆场景里的关键问题: 最底层相当于“存储硬件”,要解决的是记忆如何被高效共享与持久化; 中间的内核层,必须保证全局记忆的读写效率足够高; 最上面的应用层,则要把复杂的记忆操作流程对开发者完全屏蔽,让他们用起来足够顺滑。 顺着这个思路,我们设计了五层记忆管理框架:存储、治理、调度、应用、解码。其中,治理层与调度层是市面上现有框架极少单独拆出的两层。很多人会把记忆直接塞进向量库或图数据库,我们却坚持为记忆量身定制存储层——因为我们相信,当大模型能力继续跃升、终端入口趋于统一后,传统带 GUI 的 App 形态会逐步消失。 不妨以“时间管理”为例:今天我们要先下载一个时间管理 App,再手动录入日程;稍智能的软件能帮我们排期并提醒。但在不远的将来,人们可能不再下载 App,而是直接获取一个“时间管理记忆体”。这个记忆体已经把时间管理所需的推理逻辑与细节知识打包完毕,安装到本地通用模型后,两者联合推理即可从对话里自动抽取时间要素、生成排程,效率远高于通用模型本身。 因此,我们把“记忆体”定义为可独立打包、下载、安装的最小单元,既可以是个人经验资产,也可以是企业知识沉淀的载体。明年年中,我们将上线“记忆交易市场”,思路类似今天的 App Store:开发者用我们提供的 SDK 把企业知识封装成记忆体并上架;终端用户按需下载安装,即可在“最后一公里”显著提升业务效能。 既然记忆已被视作个人最核心的经验资产,治理就必须在一开始就被提到最高优先级。在即将发布的 1.0 版本中,我们把记忆全生命周期管理、幻觉评估框架、水印、权限与隐私控制全部内建,力求让每一份记忆资产从诞生起就保持稳健与可信。 再往上是调度层。之所以单独设立“记忆调度”,是因为我们坚持记忆必须分层管理——这直接源于 2023 年 11 月启动的记忆分层基座模型研究。从建模角度看,明文记忆、激活记忆与参数化记忆在读写效率上差异显著:明文记忆只需改写文本即可瞬间入库;参数化记忆则依赖继续训练或后训练,写入成本极高,但读取极快;激活记忆介于两者之间,读写相对均衡。基于这一分层,我们按使用场景与访问频率动态建模,确保全局读写效率、时效性与首 token 时延同时最优。 为支撑这套调度框架,我们配套实现了消息队列、动态埋点与主动预测算法,使系统始终面向 memory-ready 状态:用户随时提问,背后的 Memory Cube 都已处于最佳形态,时延被压到最低。 最上层是 MemOS 开源框架与服务平台。对外我们提供两类标准服务: 记忆即服务(Memory-as-a-Service):接收 Query 后,返回回答该 Query 最相关的记忆片段; 记忆 + 推理即服务(Memory+Inference-as-a-Service):在底层完成推理,用户只需指定模型,系统即返回融合记忆后的完整答案。 以上便是 MemOS 1.0 的整体设计现状。 围绕当前框架,我想分享三点在实践中被反复验证、值得特别注意的经验:记忆分层、记忆调度,以及记忆脑图的信息组织方式。它们共同构成了我们整套系统的核心设计思想。 首先是记忆分层。自 2023 年 11 月我们启动记忆分层大模型研究以来,业界虽频繁提及“分层”,但多数仍停留在“长期 / 短期”或“明文工作记忆”这类粗粒度划分。我们认为,从基础模型理论出发,记忆应被系统性地划分为参数化记忆、激活记忆与明文记忆,而明文记忆内部还可进一步细分。之所以必须如此,根源在于人脑的记忆形成机制。 人脑首先接受感官刺激——听觉、视觉、触觉等。只有“重复且有效”的刺激才会留下痕迹。所谓“有效”,是指该刺激与当前任务或兴趣高度相关。例如,普通人对路边落叶视而不见,环卫工人却会敏锐捕捉。若所有信息无差别入库,大脑将因容量有限而崩溃。 被筛选出的信息先进入短期记忆。短期记忆自带遗忘机制;若再经重复刺激,便沉淀为长期记忆。长期记忆又分两类:外显记忆——可被语言提取,如“昨晚看过的电影情节”;内隐记忆——通过行为表现,如程序员盲打键盘的指法。长期记忆若长期不被调用,也会被主动遗忘,以维持系统效率。 人脑这套“刺激—筛选—巩固—遗忘—再学习”的闭环,为我们设计记忆系统提供了完整范式:刺激阶段对应“选择性写入”,降低冗余;短期记忆对应“激活记忆”,追求读写速度;长期外显记忆对应“明文记忆”,便于检索与共享;长期内隐记忆对应“参数化记忆”,通过继续训练微调,读取快、写入慢;遗忘与再学习机制则对应“动态调度与回收”,确保全局性能最优。 围绕当前记忆系统设计的实践,我想分享三点体会,它们共同构成了我们框架设计的核心考量:记忆分层的必要性、记忆调度的技术原理,以及“记忆脑图”这一组织方式的独特价值。 记忆分层绝非简单地把信息划分为“长期”与“短期”,或套用认知心理学中 working memory 的概念。从大语言模型的理论视角出发,记忆应当被系统地拆分为三层:参数化记忆(模型权重)、激活记忆(推理过程中的中间状态)与明文记忆(可显式读取的外部存储)。其中明文记忆又可进一步细分为外显与内隐两类,这一划分直接对应人脑的记忆形成机制。 人脑的记忆始于感官刺激。视觉、听觉、触觉等信号若要在神经层面留下痕迹,必须满足“重复且有效”的条件:重复保证突触可塑性的持续强化,有效则意味着刺激需与个体目标或情感显著相关。以日常场景为例,路人往往忽略脚边落叶,而环卫工人因职责所在,会反复接收并处理同一类视觉信号,落叶遂成为其短期记忆的一部分。若此类信息未经筛选地全部入库,有限的脑容量将迅速耗尽;因此人脑在编码阶段即执行严格的过滤。 短期记忆并非终点。它自带遗忘曲线,只有通过再次复述或情境复现,才能被巩固为长期记忆。长期记忆又可区分为外显与内隐:前者可被语言化,如“昨日观影内容”;后者则表现为程序性技能,如程序员对键盘键位的肌肉记忆。值得注意的是,长期记忆亦遵循“用进废退”原则——久未调用的记忆会被主动遗忘,以维持检索效率。 借鉴人脑的这一套机制,我们便会发现其中有许多值得汲取的要点:长期记忆中的遗忘机制、学习与进化机制,短期记忆在效率上的优势,以及刺激阶段选择性过滤所带来的功耗优势,皆可为我们构建记忆分层与记忆管理系统提供直接启示。 基于上述启发,我们在 2024 年 7 月发布了首个分层架构的大模型。其核心理念是把 Transformer 中的参数化记忆拆分为抽象知识与具体知识,并进一步把其中可分离的部分抽离出来,使模型主干尽可能轻量化。主干只需保留最关键的推理能力,其余具体知识则交由外部存储管理。据此,我们将记忆划分为隐性记忆、显性记忆与外部记忆三类,通过分层降低推理与记忆负载。 若将三类记忆映射到人类行为,隐性记忆如同骑自行车——一旦学会便不再需要刻意思考;显性记忆则像昨日读过的书或课堂笔记,经大脑加工后随时调用;外部记忆则类似开卷考试,学生可现场翻阅教材,按需检索。 写入方式亦各有特征:隐性记忆通过训练固化于模型参数;显性记忆以 KV Cache 形式缓存;外部记忆即明文知识库,按常规检索逻辑维护。读取时,隐性记忆支持即时推理;显性记忆依赖 Self-Attention 交叉计算;外部记忆则需重新编码。综合来看,隐性记忆更新慢、读取快;外部记忆容量大、存储效率高,但联合解码耗时;显性记忆更新灵活,既可随时丢弃,也可常驻显存,读写速度居中。 记忆调度的本质,是把上述三种记忆各自的优势真正用起来。在 MemOS 的设计里,我首先把参数化记忆拆成两块:一块是“内置参数记忆”,即模型出厂时便固化的权重;另一块是“外置参数记忆”,它随着用户或 Agent 与大模型的持续交互而动态生长——系统会挑选那些反复出现、对任务至关重要的偏好、事实与推理模式,以低秩更新或增量训练的方式写进这一区域。场景一变,外置参数记忆也随之调整,始终保持与当前任务高度相关。 显性记忆则体现为推理过程中产生的高速 KV Cache。我会把它暂存在显存或高速缓存区,并在下一次同类任务到来前,预判是否需要提前加载到 GPU,避免冷启动带来的延迟。至于外部记忆,我进一步把它细分为短期明文记忆与长期明文记忆:前者存放最近几轮对话或临时参考文档,后者则像一座可随时间沉淀的知识库,按需召回。 整个记忆管理机制就落在对这五类记忆——内置参数、外置参数、显性 KV Cache、短期明文、长期明文——的灵活调度上。若把记忆系统的全生命周期比作八颗星的工作量,传统 RAG 往往把六颗星都花在“使用”环节:幻觉校验、主体一致性检查、权限验证……而构建与调度环节却相对单薄,无非是切片、 Embedding,再复杂一点便是 GraphRAG。可一旦把 GraphRAG 真正部署到生产环境,就会发现它的成本与延迟都高得难以接受。 我们的思路恰恰相反:把尽可能多的工作量前置到构建与调度阶段。构建时,针对不同记忆类型做类脑式的组织与抽取,采用“图 + 向量”的多路混合存储,既保留语义关系,又兼顾检索效率;调度时,则引入主动预测模型,让所需记忆在任务到达前就已处于“就绪”状态。如此,开发者在真正使用这套系统时,只需关心业务逻辑,无需再为记忆管理付出额外成本。 我们整套机制的核心,是把“调度”做到极致。调度究竟意味着什么?一句话概括:在最恰当的时刻,把最匹配的记忆放到最恰当的位置。这三个“最恰当”听起来简单,实则每一步都隐藏着大量算法与工程细节。 当前主流 RAG 的增强范式,在我看来属于“被动式检索”。它的典型流程是:用户输入查询 → 系统重写查询 → 生成嵌入 → 向量库召回 → 粗排 → 精排 → 构造提示 → 交由大模型作答。整个链路呈“阻断式”。后续上下文构造与模型回答必须等待检索全部完成后才能继续。为了提升精度,我们常常把检索方案从 Pro 升级到 Ultra,每次升级又额外增加两秒延迟。若业务硬性要求两秒内返回结果,这套阻断式流程便几乎无法兼顾精度与速度。更棘手的是,随着对话窗口拉长,上下文 Token 不断累积,成本呈指数级上升;跨会话、跨天的推理结果也难以复用,导致碎片化与浪费。 若把 Agent 或用户在真实场景中的时间线拆开,可发现大量“空档”:用户敲键盘输入、模型推理、用户阅读答案、再次输入……这些碎片时间加起来往往远超两秒。与其让它们白白流逝,不如化整为零,把记忆管理、调度与预热工作嵌入每一个空隙。届时,当真正需要构造上下文时,所需数据已提前就位,只需极短时间即可完成拼接。无论对系统延迟还是用户体验,提升都立竿见影。 我们把最小记忆单元称为 Memory Cube。借助它,可在用户输入、模型推理、答案阅读乃至下一轮输入等任意阶段与记忆系统交互,持续把后续可能用到的内容提前准备到“就绪”状态。如此,当查询真正到来时,上下文已静静等候,只需一次轻量调用即可交付。 若把记忆调度抽象来看,它由三类核心容器构成:触发器、调度器与快速检索器。触发器允许开发者依据自身业务灵活配置触发点——当用户键入查询、点击设置列表,或任何其他关键动作发生时,皆可即时唤起记忆调度。调度器则接收触发器传来的信号与模板化配置,对隐性、显性与外部记忆分别执行差异化处置,确保在真正需要时,所需记忆已处于最佳状态。 快速检索器并非必需,可视场景取舍。由于记忆准备已转为全时、异步、并行流程,检索耗时可从原来的数秒压缩至百毫秒级,仅需在最后一刻快速补入最新片段即可。由此,我们将传统单轮、阻断式的 RAG 记忆准备,拆分为跨多轮、可并行异步执行的细粒度过程。 欲将记忆调度系统打磨成熟,至少需在以下层面着力:触发触点建模、负载均衡、明文与激活记忆的分级调度。触点建模尤其依赖对用户与系统行为的主动预测——通过一系列轻量级预测模型,实时捕捉行为变化,并据此将调度模板路由至恰当节点。 当记忆分层与调度都已就绪,我仍需回到起点,重新审视“记忆被抽取之后,究竟应以何种形态组织”。组织方式直接决定后续检索成本、准确率与效率。业界目前可见两条路径:一是直接分块,简单高效,却易割裂文本间的语义关联;二是 GraphRAG,试图以知识图谱保留关系,但构建高精度图谱对实体一致性要求极高,成本令人望而却步。我曾在阿里巴巴业务中台负责商品知识图谱,六十余人历时三四年持续打磨,仍深感其复杂与脆弱。即便引入大模型辅助,图谱的可靠性与可用性依旧难以令人满意。 反观人类自身,我们并不会在听完一场讲座或读完一本书后,立刻铺开一张大纸绘制知识图谱;更自然的做法是勾勒一张脑图——提取事件与逻辑的脉络,形成树状框架。脑图恰好介于“分块”与“图谱”之间:既利用大模型的推理与理解能力,又将构建成本控制在可接受范围。 然而,仅有脑图还不够。我更想强调的是“主动记忆”——与被动分块或静态图谱不同,它要求系统像领域专家一样,只抽取对当前场景真正有价值的信息。以金融行业为例,金融专家阅读同一份研报时,会自觉过滤通识内容,仅保留差异化、可复用的要点。为此,我们引入记忆的 CoT(Chain of Memory)过程:先分析对话或文档的主题与特征,再据此决定抽取策略,使转换效率最大化。 获得初版记忆脑图后,还需二次关联与校验:跨会话补全上下文、跨文档建立路由节点,最终形成由根节点(Root Node)与主题节点(Topic Node)构成的网络。在此网络中,我们为关键路径与节点预计算嵌入向量,实现“图 + 向量”的混合检索——既保留灵活性,又确保召回的准确与全面。 我们也把整套框架与主流开源方案在 LoCoMo 和 LongMemEval 两个数据集上做了横向性能比较。然而我更想指出的是,现有评估体系尚难真实还原记忆框架在业务场景中的价值。多数评测把一百轮对话一次性塞进模型,仅测试基座对长上下文的处理能力,却忽略了记忆是在逐轮交互中缓慢生长的现实;用户键入查询、模型推理、阅读答案均耗时,若不在评估中模拟这些空隙,便无法体现记忆管理系统在真实环境中的优势。 今年 7 月底,我们开源了 MemOS Preview,并发起国内首个聚焦记忆管理的开源社区 OpenMem,邀请高校研究团队与工业界伙伴共同探讨记忆技术的演进方向,沉淀通用标准与协议。开发者社区保持完全开放,API 服务框架已发布第一版,第二版将于 10 月 31 日上线,未来一年对所有调用量级与性能需求均免费,涵盖“记忆即服务”与“推理即服务”。同时提供可私有化部署的版本,满足高安全场景需求。 之所以打造 MemOS,源于团队自 2023 年成立至今在 ToB 项目中的切身体会。无论是智能投顾还是工业运维,客户对个性化记忆的诉求高度一致:希望把员工与 AI 中枢交互产生的公共经验固化下来。在工业现场,若资深技师退休且未带徒,其调试经验往往随人散失;企业期待记忆平台能留存“为何把参数设为 5%”这类过程信息,而非仅记录结果。开源后,已有开发者将 MemOS 应用于酒店商户服务、科研助手等场景,显著提升了人工反馈准确率与个性化服务水平。 既然我们自视为“记忆操作系统”,就不能只停留在基座训练与中间件层面;操作系统必须拥有自己的语言。换句话说,当用户以自然语言与系统交互时,如何以最高效率完成编排,是成败关键。 设想一句看似简单的请求:“请帮我记录昨天与某人的会议内容,并在后天提醒我撰写技术报告。”其背后隐含多个基础算子:先检索日程,抑或先更新用户画像?是否需要重写、摘要,还是直接扩展?过去,这些逻辑由算法工程师硬编码,导致大量边界情况难以覆盖。因此,我们正在构建一套自动化编排语言框架,让任意自然语言输入都能被实时解析为系统可执行的操作序列,显著降低开发者接入成本。 最后,以公司 Slogan 作结:智能始于记忆,张量链接未来。谢谢大家。 演讲嘉宾介绍 李志宇,博士,记忆张量(上海)科技有限公司联合创始人兼 CTO、上海算法创新研究院大模型中心技术负责人、研究员。长期从事预训练和大模型应用方向的研发技术攻关,主要研究方向包括大模型记忆增强、高效评估与应用算法。曾在阿里巴巴、小红书等头部科技企业带队承担多个核心算法方向,技术成果服务于商品评价、双十一大促、营销广告等超大规模业务场景,累计带来数十亿营收,影响用户近亿人次,并获得双十一技术突破奖。近年来,先后和团队提出了首个记忆分层的创新架构大模型,以及业内业内首个大模型记忆操作系统(MemOS),MemOS 开源 6 个月累计获得 Star 数超 5800+,开发者数超 11000+,为大模型的记忆增强落地提供了可行的探索路径。相关大模型技术成果已在中国银行、招商证券、中国电信、新华社等多家国央企落地应用。当前已在 Patterns(Cell Press)、NeurIPS、ICLR、ACL 和 TKDE 等国际会议期刊发表论文 70 余篇、授权专利 10 余项。现任中国中文信息学会信息检索专委会委员、大模型与生成专委会委员,相关研究工作入选《麻省理工科技评论》封面报道、《机器之心》、《量子位》和《PaperWeekly》的头条报道,并多次登顶 Huggingface 热点论文 Top1。 会议推荐 2026,AI 正在以更工程化的方式深度融入软件生产,Agentic AI 的探索也将从局部试点迈向体系化工程建设! QCon 北京 2026 已正式启动,本届大会以“Agentic AI 时代的软件工程重塑”为核心主线,推动技术探索从「AI For What」真正落地到可持续的「Value From AI」。从前沿技术雷达、架构设计与数据底座、效能与成本、产品与交互、可信落地、研发组织进化六大维度,系统性展开深度探索。开往 2026 的 Agentic AI 专列即将启程!汇聚顶尖专家实战分享,把 AI 能力一次夯到位!大模型性能缩放曲线的演进历史

从实践层面看记忆增强的必要性


大模型记忆增强层的实现路径



记忆增强层落地需要做什么?

MemOS 的核心设计思路


MemOS 的系统框架


Memos 的核心机制一:记忆分层建模



MemOS 的核心机制二:记忆调度管理



MemOS 的核心机制三:记忆脑图组织与检索

MemOS 的整体性能表现

MemOS 的开源框架与 OpenMem 社区

MemOS 的典型应用场景

One More Thing


全球各大股市开始暴跌?咋办

新帖子都分散在不同模板,导致每个板块新帖子都不太多
刚来论坛,看着帖子挺多,点开都是几天前的,感觉不太活跃啊。好处是不用翻墙访问 😀
在平时做安全运维的时候,我经常需要面对一个问题:如何从海量的登录日志里,快速揪出那些已经被“夺舍”的社交账号。 账号安全风控里,IP提供的是“语境信息”——单看一个IP可能没什么,但把它放在时间线和用户行为里,异常就会浮出水面。 一般来说,异常登录逃不出这三类: 香港警方2025年7月发布的数据显示,过去一个月接获超140宗社交媒体账户被骑劫的案件,涉款超1000万港元,其中WhatsApp占九成以上。这说明账号盗用仍然是黑色产业链的“基础业务”。 说了这么多理论,落地到真实业务里长什么样?讲几个我们日常碰到的场景,以及我们怎么用一款叫IP查询工具的工具来处理。 一个杭州用户的账号,某天突然从巴西发起登录请求。 风控系统拿到这个IP,第一件事就是查它在哪。我们用的是IP查询工具的实时查询接口——它能精准定位到国家、省份、甚至街道级。接口返回:归属地巴西圣保罗,网络类型是“数据中心”。再比对用户历史记录,过去三个月该用户从未离境。 这就对上了:一个数据中心IP,第一次出现在巴西,登录一个杭州用户的账号。系统判定为“中风险”,自动触发短信验证+人脸核身。 这个场景拦截的是典型的撞库攻击:黑客在其他平台拿到密码后,批量尝试登录社交账号。IP查询工具帮我们快速确认了“这个IP和用户没关系”。 凌晨时段,平台监测到一个IP段在1小时内注册了超100个新账号。 我们把IP段丢进IP查询工具的批量查询接口,回传的信息很清晰:该IP段属于“数据中心IP”,而且过去7天关联注册账号超500个,其中80%已被平台封禁——这些账号都曾用来发广告、诈骗链接。 系统自动判定为“高风险”,直接阻断后续注册请求。这波操作拦截的是一个典型的“养号”团伙:先批量注册,养一段时间再卖号或用来发垃圾内容。接入IP风险识别后,我们平台的风险拦截率提升到92%以上。 一个账号发起登录,IP显示是“北京市家庭宽带”,归属地也对,看起来挺正常。 但IP查询工具的代理识别模块返回了另一个标签:该IP属于“代理出口节点”。系统判断为“环境异常”,要求用户验证手机号。用户验证失败,登录被阻止。 有些用户会用代理服务访问国内服务,这本身不违规。但如果一个账号同时满足“境外IP+代理节点+首次登录”,就需要多留个心眼。IP查询工具能识别主流代理类型,包括代理服务、Tor、隧道等,让我们在风控里多一层判断依据。 另一个案例:一个账号登录时触发了多个异常——IP归属地显示俄罗斯,网络类型是数据中心,IP风险标签包含“代理”和“恶意注册”,而且该IP过去24小时关联了50个不同账号。 IP查询工具返回的风险画像很全:除了基础信息,还有“风险性”等历史标签。系统自动把这个账号纳入“人工复核队列”,并临时限制发消息、加好友等功能。后续溯源发现,这批账号确实与境外刷量黑产有关。 传统IP工具只能查归属地,但新一代IP安全服务已经进化到“主动防御”阶段。它的核心价值不在于拦截每一个可疑IP,而在于把IP信息和其他维度(设备、行为、时间)联动起来,构建用户的正常行为基线。 像我们用的IP数据云,背后是全球43亿全量IP库,数据24小时快速更新,覆盖超700个网络监测点。它的定位算法能做到国内街道级精度,准确率超过99.8%。而且响应很快——毫秒级,能支撑平台7×24小时的高并发风控。 接入方式也很灵活:既可以在线查询,也支持API接口、离线数据库、私有化部署。我们目前是混合模式——基础查询走离线库,高风险场景调实时接口,既保证精度又控制成本。 如果你自己写代码接入,其实不复杂。IP查询工具的API接口地址是 返回的数据里, 如果是高并发场景,用离线库更稳。IP查询工具提供CSV、MMDB格式的离线库下载,可以在本地毫秒级查询,完全不依赖外网。Java、Python、Go都有对应的解析库。 对平台而言,接入IP查询工具这类专业服务,可以显著降低盗号、恶意注册、广告机刷等风险。特别是金融级风控场景,需要的是街道级精度和多维度风险标签,而不仅仅是“这个IP在哪”。 对个人用户来说,技术防御再强,也需要自己留个心眼: 2025年多家安全厂商报告显示,凭证泄露事件同比增长160%,单次泄露的登录记录可达160亿条。这意味着,你的密码大概率已经在暗网上挂着了。多一道验证,多一分安心。
最典型的情况——凌晨三点,系统报警:多个用户的账号同时在印尼登录。而三个小时前,这些账号刚刚在中国境内有过正常活动。这种“瞬移”不可能靠肉身实现,只能是撞库成功后的黑客在异地登录。我们在后台怎么发现的?靠的就是IP地址。 密码可能被盗,设备指纹可能被伪造,但IP背后的网络环境和地理位置,很难完全隐藏真实痕迹。
一、为什么看IP能揪出异常?
二、实战场景:怎么用IP“抓”异常?
1. 异地登录,触发二次验证
2. 批量注册,直接封禁
3. 代理IP伪装,被识破
4. 高风险组合,人工复核
三、从“查地址”到“主动防御”
https://api.ipdatacloud.com/v2/query,用Python调一下就行:import requests
def query_ip(ip):
url = f"https://api.ipdatacloud.com/v2/query?ip={ip}&key=你的API密钥"
resp = requests.get(url, timeout=3).json()
if resp.get("code") == 200:
data = resp["data"]
print(data) # 包含风险等级、场景、代理识别等信息
return data
return None
# 示例:查询8.8.8.8
info = query_ip("8.8.8.8")usage_type能告诉你这个IP是家庭宽带(DYN)、数据中心(IDC)还是企业专线(GTW);is_proxy标记是否经过代理;risk_level和risk_score是综合风险评分。有了这些,写风控规则就很简单。四、给平台和个人的几点建议
一个发现。
如今企业做网站,托管方式的选择比以往丰富多了。从早期的虚拟主机、独立服务器,到现在的云服务器,每种方案都有其适用场景。而云服务器之所以能成为当前的主流选择,很大程度上是因为它在弹性、成本和维护性之间找到了不错的平衡点。 简单来说,云服务器就是把物理服务器的计算资源通过虚拟化技术分割成多个独立的虚拟服务器。每个云服务器都有自己独立的操作系统、CPU、内存和硬盘,使用体验和物理服务器几乎一样,但资源可以随时按需调整。在极云科技的云平台上,开通一台云服务器只需要几分钟,配置也可以根据业务发展随时升级或降配。 一是弹性伸缩,访问量突增时可以快速增加CPU、内存或带宽,不用担心网站卡顿或宕机; 二是高可用性,底层硬件故障时虚拟机会自动迁移到其他物理节点,业务几乎无感知; 三是成本可控,按用量付费的模式让企业不用为闲置资源买单,特别适合业务还在快速成长期的企业。 当然云服务器也不是万能的。如果网站需要特殊的硬件驱动、特定的PCIe设备,或者对数据主权有严格要求,可能还是物理服务器更合适。另外,长期高负载运行的网站,从三年以上的总成本来看,物理服务器有时会更经济。 首先要看业务特点,内容管理类网站对CPU和内存要求高,电商网站需要更好的带宽保障,图片视频站点则需要更大的存储空间; 其次要看服务商的网络质量,极云科技采用BGP多线接入,确保不同运营商用户都能快速访问; 还要关注数据备份和安全防护能力,我们提供自动快照和免费基础DDoS防护,为网站稳定运行加上双保险。 总的来说,云服务器确实给企业网站托管带来了更多灵活性和可靠性。它的按需取用、弹性伸缩特性,让企业可以根据业务实际发展来配置资源,既不会因为配置不足影响用户体验,也不会为过度配置浪费预算。 如果你正在为网站寻找合适的托管方案,欢迎体验极云科技的云服务器。我们从1核1G的入门配置到多核大内存的高性能实例都有提供,专业运维、弹性计费,帮你把网站建得又稳又快。
马上到期了,最低套餐,我看积分每个月最少剩下 70 万,感觉有点浪费,想找一下替代品。主要是用 openai 和 claude 的最新模型来对话,claude code 虽然可以用 poe ,但是这点积分又太少了。
Sa-Token 是一款 开源、免费 的轻量级 Java 权限认证框架,主要解决:登录认证、权限认证、单点登录、OAuth2.0、微服务网关鉴权 等一系列权限相关问题。🔐 目前最新版本 该版本包含大量 ⛏️️️新增特性、⛏️底层重构、⛏️️️代码优化 等,下面容我列举几条比较重要的更新内容供大家参阅: Spring Boot 4 正式版发布后,社区里「求适配」的呼声就没停过!fix: #869、#IDB02G、#IDGQYM 这次,它真的来了!🎉 本次更新新增了完整的 Spring Boot 4 集成支持:🌟 同时配套新增了示例项目: 如果你正在或计划升级到 Spring Boot 4,可以直接引入对应 starter,体验与 Spring Boot 2/3 一致的丝滑集成。✨ Sa-Token 在多端登录控制场景下,现已支持通过 本次更新新增了配置项 只需在 Sa-Token 配置文件或启动参数中切换即可,非常便捷。🛡️ merge: pr 349 Sa-Token 的 JSON 与序列化生态一直在持续丰富,本次又迎来两位新成员:📚 引入方式示例: 无论你偏好 Jackson、Fastjson、Snack3 还是 Snack4,Sa-Token 都能满足。🎛️ 本次版本对依赖体系进行了一次重要重构:🔧 这是一次「看不见的升级」,但对长期维护和后续扩展都有积极影响。📐 SSO 单点登录模块在本版本也有不少文档与示例上的增强:📖 <!-- 本版本修复了多个社区反馈的问题:🙏 文档与社区方面也有不少更新:❤️ 除了以上提到的几点以外,还有更多更新点无法逐一详细介绍,下面是 v1.45.0 版本的完整更新日志: core: 插件: starter: 重构: Solon: SSO: OAuth2: 文档: AI: 其它: 更新日志在线文档直达链接:https://sa-token.cc/doc.html#/more/update-log 代码仓库地址:https://gitee.com/dromara/sa-token 框架功能结构图:
v1.45.0 已推送至 Maven 中央仓库 🎉,大家可以通过如下方式引入:<!-- Sa-Token 权限认证 -->
<dependency>
<groupId>cn.dev33</groupId>
<artifactId>sa-token-spring-boot4-starter</artifactId>
<version>1.45.0</version>
</dependency>🚀 更新点1:万人血书的 Spring Boot 4 集成包,它来了!

sa-token-demo-springboot4:Spring Boot 4 + WebMVC 整合 demo。sa-token-demo-webflux-springboot4:Spring Boot 4 + WebFlux 示例。🎯 更新点2:重复登录处理策略升级,可灵活配置是 “顶人下线” 还是 “不允许登录”
replacedLoginExitMode 配置项自定义重复登录时的行为方式:replacedLoginExitMode,你可通过它自由选择策略,无需变动业务代码,灵活应对不同安全需求。配置项含义说明如下:replacedLoginExitMode = OLD_DEVICE:旧设备下线,新设备登录成功(默认行为,顶人下线模式)。replacedLoginExitMode = NEW_DEVICE:新设备登录失败,旧设备维持在线(拦截本次登录)。📦 更新点3:新增 sa-token-jackson3、sa-token-snack4 插件,生态持续扩展
<!-- Sa-Token 整合 Jackson 3 -->
<dependency>
<groupId>cn.dev33</groupId>
<artifactId>sa-token-jackson3</artifactId>
<version>1.45.0</version>
</dependency>
<!-- Sa-Token 整合 Snack4 -->
<dependency>
<groupId>cn.dev33</groupId>
<artifactId>sa-token-snack4</artifactId>
<version>1.45.0</version>
</dependency>🏗️ 更新点4:重构 sa-token-dependencies 及 WebMVC/Reactor 集成包
sa-token-dependencies 相关模块,优化依赖关系,使版本管理更清晰。📺 更新点5:SSO 模块新增 STS 协议定义、视频讲解与平台中心模式 demo
sa-token-sso 模块正式定义了 STS 协议,方便大家理解与对接。
-->🐞 更新点6:修复 OAuth2 序列化类型转换、Dubbo 上下文清理等问题
sa-token-oauth2 组件使用 sa-token-fastjson2 序列化导致的类型转换问题。merge: pr 355StpUtil.getLoginIdByTokenNotThinkFreeze 方法缺少 static 修饰符的问题。📚 更新点7:文档与社区建设

📜 完整更新日志
sa-token-spring-boot4-starter 集成包,支持 Spring Boot 4 环境集成。 [重要]sa-token-reactor-spring-boot4-starter 集成包,支持 Reactor + Spring Boot 4 环境集成。 [重要]sa-token-demo-springboot4、sa-token-demo-webflux-springboot4 示例。sa-token-dependencies 相关模块,优化依赖关系。 [重要]sa-token-solon-plugin 优化 Gateway 接口的处理,避免使用路由接口。merge: pr 348sa-token-sso 模块定义 STS 协议。 [重要]🌟 其它

为深入落实“推动招标投标和人工智能深度融合”的战略部署,国家发展改革委等部门发布国家发展改革委等部门关于加快招标投标领域人工智能推广应用的实施意见,意见明确在招标文件编制与检测环节,旨在以数字化、智能化手段重构招标投标全流程监管体系。在这一政策指引下,北京中烟创新科技有限公司(简称:中烟创新)作为国内早期探索大模型应用开发的企业之一,依托其企业级灯塔大模型技术底座,推出了专业的“招标文件编制与检测智能体”。智能体的核心特质集中体现于其主动性干预机制与多智能体协同架构。在招标文件编制阶段,它突破传统工具被动响应的局限,基于对项目审批文件、预算规模及行业特性的深度语义理解,动态注入标准化模板与合规条款库,实现“编制-提示-修正”的实时闭环,将潜在合规风险拦截于文件成型之前。
多智能体协同取代人工智能体以自然语言交互为入口,能够准确理解用户输入的项目目标与关键信息,并基于内置的知识图谱,自动关联相关法律法规及标准模板。在此基础上,按照预设的项目规划逻辑,完成招标文件的整体架构设计,并依次生成完整的章节模块。在编制过程中,多个专业性子智能体并行处理,分别承担标准化条款撰写、技术规范编制等任务,最终由整合模块统一生成为格式规范、结构清晰的招标文件初版。生成初稿后,智能体自动进入检测阶段。在审核环节,通过多智能体分布式认知架构,将合规审查、公平竞争评估、逻辑一致性校验及文本规范性检测等复杂任务进行智能拆解与动态编排,形成并行处理机制——各专业智能体在共享语义空间中协同作业,既确保对海量条款的全面覆盖,又实现对逻辑冲突、隐性壁垒等深层问题的精准识别。具体检测内容包括:依据法律法规库进行条款逐条比对,确保文件内容合法合规;识别文本中的模糊表述及潜在责任漏洞;核查文件前后章节的逻辑一致性;分析是否存在可能构成歧视性或排他性的条款内容等问题。通过系统性扫描,旨在降低因人为疏漏引发的合规与履约风险。在交互层面,智能体支持用户对检测结果进行追溯与问询。针对识别出的问题点,获取相应条款的解释及修改建议。同时,智能体可自动生成《智能检测报告》,汇总检测结果与修正意见,作为后续审批流程的参考依据。这种从“人机交互”向“人机协同”的演进,本质上是以算法驱动的全流程智能管控取代碎片化的人工审查。智能体的应用价值主要体现在三个方面:一是提升文件编制与审核效率,将传统以天为周期的工作流程压缩至小时级;二是通过标准化、系统化的审查机制,降低法律与履约风险;三是从技术层面保障招标过程的公平性与透明度。作为具备持续学习能力的垂直领域智能应用,它为招标采购工作的数字化转型提供了可操作的技术路径。
智能识别招标违规风险在传统的审核模式下,面对动辄数百页、包含数百条款的招标文件,即便经验丰富的专业法务人员,也难以完全避免疏漏。与之形成鲜明对比的是,智能体内置了动态更新的政策法规库,涵盖数千份法律文件及各行业主管部门发布的具体实施细则。当招标文件进入智能体后,AI引擎会自动将其全部条款与法规库进行逐条语义比对,精准识别隐藏在冗长文本中的各类违法违规风险。具体而言,系统能够敏锐捕捉三类高频违规情形:一是规避招标行为,通过比对项目审批文件与招标方案,识别是否存在将依法必须招标的项目拆分为多个低于限额的合同包,或虚构“应急项目”、“涉密项目”等情形;二是程序合规性审查,核查招标公告是否在指定媒介发布、等标期是否满足法定要求、信息内容是否完整充分;三是资格条件合规性,判断设定的投标人资格是否与项目实际需求相适应,避免出现超范围设定资质要求的违规情形。
精准识别隐形壁垒并生成修改建议近年来,监管部门持续加大对“设置不合理条件限制或排斥潜在投标人”行为的整治力度。《招标投标领域公平竞争审查规则》等规范性文件明确要求,不得设置地域、行业或品牌偏好性条款。针对这一监管导向,系统展现了强大的识别能力,能够精准捕捉各类隐形壁垒。例如,要求投标人具备与项目实际需求不匹配的过高注册资本、资产总额或特定行业奖项,在技术参数中设置指向特定品牌的排他性描述,或要求提供特定行政区域及行业的业绩奖项等。智能体不仅能精准识别上述风险点,还会依据相关法规条款生成明确的修改建议,指导招标人进行优化调整。据相关技术资料显示,针对资质设置不合理、评审因素差异化等常见疑难问题,智能体的检测速度较人工审查提升200%以上,识别准确率超过95%。在提升审核效能的同时,智能体还内嵌了多人在线编辑模块,支持招标文件编制团队在同一文档上进行并发操作。所有修订、批注与版本迭代均实现毫秒级同步,彻底消除了传统模式下文档反复传输、版本混乱的痛点,实现了从“智能审核”到“协同修正”的全流程闭环。
智能检测逻辑与文本规范招标文件的内在逻辑一致性,直接影响评标流程的顺畅性和后期合同履行的可操作性。然而,在实际编制过程中,由于文件往往由多人协作、历经多轮修改,极易出现前后条款矛盾、技术标准不统一、评分标准与采购需求脱节等问题。这类隐患在传统人工审查模式下难以被系统发现,却常常成为引发后期争议的导火索。针对这一痛点,招标文件编制与检测智能体通过深度学习海量历史项目数据,构建了强大的逻辑推理能力。它能够对文件全文进行系统性扫描,自动识别并提示各类逻辑冲突。例如,资格要求中设定的技术能力,在评审办法中却未设置相应的评分点;技术参数与验收标准之间存在表述不一致等。此外,智能体还能够评估评标标准的量化程度与客观性,帮助减少主观裁量空间,从源头上降低后期争议风险。在文本质量层面,智能体依托大模型的深度语义理解能力,不仅能够识别并纠正错别字、语法错误及不规范的行业术语,更能敏锐发现文件中隐含的“歧视性”或“敏感性”表述。例如,在描述供应商条件时,智能体会自动提示避免使用倾向性词汇,确保文件用语的公正性与中立性。据技术资料显示,针对逻辑错误、表述不清晰及错敏词等问题,智能体的综合检出率已超过90%,显著提升了招标文件的规范化水平。
招标文件编制与检测智能体凭借其在推动采购流程向专业化、规范化与智能化转型方面的显著成效,先后入选“人工智能技术+招标采购应用案例”、“2025 AIGC创新榜TOP100”以及“2025年度数智化十大创新产品”等多项行业荣誉。不仅是对中烟创新在人工智能与垂直行业融合领域技术实力的认证,更是对其深度理解行业规范与管理痛点、以智能化手段赋能招标采购审核工作的充分肯定。中烟创新将持续专注于行业需求,通过技术优化与智能体迭代,助力落实“招标投标领域与人工智能深度融合”战略部署,为构建更加公平、公正、高效的招标投标市场环境贡献技术力量!