2026年4月

什么是MFA轰炸攻击?

多因素认证(MFA)的设计初衷,是大幅降低基于密码的攻击风险,成为企业网络安全的重要防线。但即便MFA已被广泛部署,我们仍看到Lapsus$等高级威胁攻击者,通过一种看似简单却极具破坏力的攻击方式——MFA轰炸攻击(又称MFA垃圾邮件攻击、MFA疲劳攻击),成功入侵多家大型企业。

这种攻击无需高超的黑客技术,也不需要昂贵的工具,核心是利用任何安全系统中最不可预测的元素:人类行为。据微软研究数据显示,仅一年内就检测到超过38.2万起MFA疲劳攻击,其中1%的用户会盲目通过第一个意外的推送通知——这一数据充分说明,企业仅部署MFA远远不够,更需要一套全面的防护策略。

MFA轰炸攻击(又称MFA疲劳攻击、MFA提示轰炸、推送轰炸),本质是一种社会工程学攻击:攻击者向目标设备持续发送大量MFA验证请求,通过反复骚扰,迫使目标用户因烦躁、困惑或肌肉记忆,最终通过其中一次恶意认证请求。

与其他密码攻击不同,MFA轰炸攻击的致命之处在于,它将日常使用的技术变成了攻击用户的武器。当攻击者控制了MFA验证请求的频率和时机时,每一条合法的推送通知,都可能被利用成为攻击载体。

MFA轰炸攻击的攻击流程

第一阶段:获取用户凭证

这一阶段通常在实际轰炸攻击前数周甚至数月就已开始。攻击者会投入大量时间,通过多种渠道收集有效的登录凭证。如今,暗网上的泄露凭证交易市场规模庞大且价格低廉,攻击者有时只需花费10至50美元,就能购买到大型企业的已验证凭证集。

第二阶段:触发认证提示

获取有效凭证后,攻击者进入触发认证提示阶段,这一步需要精心的时机规划和策略。高级攻击者不会立即发起猛烈的轰炸攻击,而是先进行侦察:他们会尝试几次登录,了解目标的MFA配置、所使用的具体认证应用或服务,以及用户的典型在线活动模式。

部分攻击者会采取“低调渗透”策略,在数周内每天只发送几次MFA请求;另一些则会采取激进的MFA垃圾邮件攻击,每分钟发送数十条通知。前者的目的是让目标用户习惯这类认证请求,降低对每条通知的警惕性,不再仔细核对。

第三阶段:强化社会工程学操控

社会工程学强化阶段,是区分普通攻击者与专业网络犯罪组织的关键。高级威胁攻击者明白,仅靠技术很难成功,对人类心理的操控才是核心。

在高级MFA轰炸攻击中,受害者还可能接到自称是技术支持、安全团队成员甚至公司高管的电话。这些来电者通常准备充分,会利用从社交媒体、公司网站和前期侦察中获取的信息,熟知目标的公司情况、同事信息和当前项目。他们会编造虚假的安全事件或系统维护需求,制造紧迫感,谎称需要立即通过认证验证。

第四阶段:利用获取的访问权限

一旦受害者通过了虚假的认证请求,访问权限利用阶段就正式开始。专业攻击者清楚,在入侵被发现前,他们的操作窗口非常有限。

获得访问权限后的几分钟内,他们会执行一系列预设操作:修改密码,锁定合法用户,为自己争取更多时间;将自己的设备添加到账户中,确保即使原始入侵方式被发现,仍能持续访问;安装远程访问工具或后门木马,建立进入网络的备用入口;从密码管理器、浏览器保存的密码或邮箱中收集更多凭证,实现企业内部的横向渗透。

这一阶段的执行速度,往往决定了攻击最终是引发轻微安全事件,还是导致大规模数据泄露。

image.png

MFA轰炸攻击背后的心理学逻辑

安全专家在设计系统时,通常假设用户会对每一次认证请求做出理性、谨慎的判断。但数十年的行为研究表明,在压力、重复和时间限制下,人类的决策会越来越容易出现偏差——而这正是MFA轰炸攻击刻意营造的环境。

通知疲劳的影响

人类的大脑并不擅长对重复、看似合法的请求保持持续警惕。当用户在正常工作中收到多条MFA提示时,多种心理因素会削弱他们的安全意识。

自动化偏见会让人们在熟悉的界面上形成无意识的操作习惯。经过数月在正常工作中合法通过MFA请求后,这种操作会变得高度自动化,用户甚至无需有意识地判断上下文和时机,就能通过通知。当攻击者将轰炸时间选在用户通常进行认证的时段(如周一早上上班时),这种肌肉记忆效应会变得格外危险。

消耗心理资源

信任偏见会造成另一种心理漏洞,被攻击者利用。MFA提示来自用户日常工作中频繁接触的可信系统,与语法错误、发件人陌生的钓鱼邮件不同,认证通知看起来完全合法——因为它们确实是由真实的安全系统生成的。

用户被训练成信任这些通知,并迅速响应以维持工作效率和系统访问权限。当攻击者能够通过非法方式触发这些可信通知时,这种习得的信任就变成了攻击武器。

“只想让它停止”的心理

“只想让它停止”的心理,或许是对MFA轰炸攻击最危险的心理反应。安全专家往往低估了这类攻击对日常工作流程和个人设备使用的实际干扰。

行为安全研究表明,高压场景——比如远程员工正在准备会议,却被大量MFA提示轰炸——会促使用户为了恢复正常状态,而直接通过通知。此时,用户会将这些通知视为需要解决的技术问题,而非需要评估的潜在安全威胁。

如何防范MFA轰炸攻击?

防范MFA轰炸攻击,需要采取“技术+人力”的双重策略,覆盖这类攻击成功的两个核心因素。企业不能只部署MFA就万事大吉,而需要更全面的防护方案。

部署自适应认证策略

实施上下文感知认证系统,实时分析地理位置一致性、设备指纹、基于时间的访问模式和网络来源。这类系统会标记来自异常位置、陌生设备或可疑时间的认证请求;当检测到异常时,系统会自动提升安全要求,比如要求额外的验证方式,或针对高风险场景需要IT人员手动审批。

配置速率限制和流量控制

企业可以配置系统,限制用户在特定时间段内的认证尝试次数(如5分钟内最多3次)。实施指数退避机制,在每次失败请求后增加尝试间隔——例如,从30秒开始,对于持续的可疑活动,间隔延长至数小时。同时,启用账户隔离功能,在提醒安全团队的同时自动禁用可疑账户,并提供清晰的恢复流程。

制定MFA轰炸相关的事件响应计划

制定专门的指南,帮助安全团队区分合法的认证问题和轰炸攻击。指南中需包含检测标准,如多次快速请求、异常地理模式以及用户报告的可疑电话。建立安全的沟通渠道和标准化的用户联系脚本,以及即时补救措施,如临时禁用账户、安全重置密码和加强监控。

监控认证模式

实施实时监控系统,跟踪认证频率、地理异常和用户行为模式。为用户和部门建立基准模式,自动标记明显的偏差。建立分层警报系统,根据威胁严重程度升级,并与安全信息和事件管理(SIEM)系统集成,将认证异常与企业内其他安全事件关联分析。

开展压力测试培训

在条件允许的情况下,企业可以开展培训项目,模拟高压业务场景——即攻击者利用情绪状态和时间压力的场景。这类培训应教会用户保持安全意识,提供在压力下仍能有效决策的框架,并建立清晰的上报流程。

分析师对MFA轰炸攻击的看法

行业安全专家和研究机构一直在警告MFA轰炸攻击的风险不断上升。他们的研究结果揭示了一个令人担忧的现状:这类看似简单的攻击,正在入侵即使是防护完善的企业。

微软安全研究洞察

几年前,微软安全研究团队向行业发出了极具警示意义的提醒——他们揭露了野外MFA轰炸攻击的庞大规模。其全面监控数据显示,仅12个月内就检测到超过38.2万起MFA疲劳攻击。

更令人担忧的是,微软的行为分析发现,约1%的用户会盲目通过收到的第一个意外MFA提示,不进行任何验证或上下文核对。虽然1%的比例看似不高,但对于企业规模的用户群体而言,这意味着数千个潜在的入侵入口。

研究还表明,攻击者的时机把握和攻击方式已变得非常成熟。他们不再进行随机的MFA轰炸,而是仔细研究目标的工作模式,找到用户最可能不加审视就通过请求的最佳攻击窗口(例如,繁忙的周一早晨、重要会议前,或已知的系统维护期间)。

2025年及以后的专家预测

根据主要网络安全行业报告,2025年将成为认证安全威胁的关键转折点。

谷歌云《2025年网络安全预测》明确警告:“威胁攻击者将越来越多地利用人工智能开展复杂的钓鱼、语音钓鱼和社会工程学攻击”,并特别强调了旨在绕过MFA的技术。

趋势科技《2025年安全趋势报告》预测:“恶意攻击者将全力挖掘人工智能的潜力,让网络犯罪变得更简单、更快、更具破坏性。”其研究表明,人工智能驱动的社会工程学攻击,将使传统的MFA轰炸攻击变得更具迷惑性,更难被检测。

行业分析师尤其关注智能体人工智能(agentic AI)的出现——这类自主人工智能系统能够独立规划和执行任务,在网络攻击中,它们可以自动完成入侵、侦察和利用流程,提高攻击速度和精度,同时实时调整以绕过传统防御。飞塔(Fortinet)《2025年网络威胁预测》警告,这类人工智能代理将大幅提升攻击效率,给企业防护带来巨大挑战。

行业专家的共识非常明确:MFA轰炸攻击代表着攻击方法的根本性转变,这要求企业在认证安全和用户培训方面做出同样根本性的改变。正如多家领先网络安全公司所记录的那样,人工智能增强与人类心理利用相结合,将使这类攻击仅靠传统安全措施越来越难以防御。

借助ADSelfService Plus,保护企业免受MFA轰炸攻击

MFA轰炸攻击通常利用推送通知的漏洞,而ManageEngine ADSelfService Plus提供了多种防御机制来应对这类威胁。该解决方案除传统的推送通知外,还提供多种认证方式——包括FIDO2安全密钥、生物识别认证和TOTP令牌,帮助企业减少对MFA轰炸攻击目标(推送通知)的依赖。

其自适应MFA功能通过评估登录尝试过程中的风险因素,增强认证安全性。ADSelfService Plus还包含账户锁定策略,可在配置的失败认证次数后自动锁定用户,有效阻止依赖反复发送提示的MFA轰炸攻击。

此外,ADSelfService Plus支持无密码认证方式,从根源上消除了攻击者发起MFA轰炸攻击所需的初始凭证泄露问题。企业还可以利用该解决方案的全面认证日志,实时掌握认证模式,并在发生潜在安全事件时进行调查。

在实时分析领域,Apache Doris 已经成为一款被广泛采用的开源 OLAP 数据库。凭借高性能查询引擎与一体化架构,Doris 在实时数仓、日志分析等场景中持续发挥重要作用,并在近几个版本中不断向 AI 与搜索能力演进。

在此基础上,SelectDB Enterprise 作为官方企业版发行形态,面向生产环境对 Doris 进行系统性增强,重点补齐安全、治理、生态兼容以及可控交付能力,帮助企业更加稳定、合规地落地 Apache Doris。

近日,飞轮科技正式发布 SelectDB Enterprise 4.0.5 版本,该版本基于 Apache Doris 4.0.5 构建,在完整继承内核能力的同时,重点强化安全性、治理能力与生态接入能力,为企业打造一套面向生产环境的实时分析与 AI 数据底座产品介绍

延续内核能力,企业级可靠可控

SelectDB Enterprise 4.0.5 是一个融合 AI、面向规模化落地的重要版本。该版本的意义不在于问题修复的数量,而在于其完成了一次非常关键的衔接:

  • 一方面,它完整承接 Doris 4.0 系列 “AI 驱动、搜索增强” 的技术方向,支持向量搜索、全文检索、混合检索以及 AI Functions 等核心能力
  • 另一方面,它进一步补齐企业在数据安全、链路加密、漏洞治理和国产数据库接入上的基础能力,使平台在规模化生产落地时更加可靠、可控。

这一版本更适合对稳定性、合规性和运维可控性有更高要求的企业用户。

具体有哪些升级

整体来看,SelectDB Enterprise 4.0.5 的更新可以归纳为:

加速 AI 应用落地

首先,在能力层面,版本完整继承了 Doris 4.0.5 的全部能力,并延续其 AI + 搜索的整体方向,包括:

  • 基于 ANN 的高维向量搜索
  • 结构化过滤与向量相似度结合的一体化查询
  • 基于 BM25 的文本相关性排序
  • 通过 SQL 直接调用大模型,实现分类、抽取、摘要、翻译与语义匹配

这意味着,过去需要多套系统协作完成的流程(如检索 + 排序 + AI 推理),现在可以在同一个系统中统一完成。

构建企业级安全体系

数据层安全:透明数据加密(TDE)

  • 支持对持久化数据进行透明加密
  • 支持 AWS KMS 作为 Root Key 提供方
  • 支持 AES256、SM4 等加密算法
  • 支持主密钥轮转,满足审计与合规要求

文档

传输层安全:TLS 链路加密

  • 支持统一 TLS 链路加密,覆盖 FE、BE 及节点间通信
  • 支持 HTTP、MySQL、Thrift、BRPC、Arrow Flight 等协议
  • 支持单向/双向 TLS、证书热更新与基于 SAN 的鉴权

文档

运行时安全:漏洞治理(CVE)

  • 系统性修复已知漏洞
  • 优化依赖组件安全基线
  • 降低系统暴露面与安全运维压力

推进国产数据库适配

在生态能力方面,4.0.5 新增对达梦、GBase、Kingbase 等国产数据库的支持:

  • 支持通过 JDBC Catalog 进行统一接入
  • 支持联邦查询与跨源分析
  • 支持数据迁移与湖仓一体架构

帮助企业在推进国产化替代过程中,实现对异构数据源的统一管理与平滑过渡。

带来的核心价值

这一版本带来的提升主要体现在以下几个方面:

更完善的安全与合规能力 通过 TDE 与 TLS 的组合,覆盖数据静态存储与传输链路两个核心安全面,满足企业在数据保护与审计合规方面的基础要求,适用于金融、政企、制造、互联网等行业。

更低的系统复杂度 在同一平台上统一承载结构化分析、全文检索、向量搜索与 AI 调用,减少多系统拼装带来的架构复杂度与运维成本。一个平台即可支持实时数仓、日志分析、经营报表以及多源联邦查询等场景,同时也适用于语义搜索、混合搜索、RAG 检索增强、智能推荐等 AI 应用落地。

更强的生产稳定性 通过漏洞修复、链路加密与企业级治理能力增强,显著提升系统在生产环境中的稳定性、安全性与长期可维护性。

更广的数据接入能力 通过 JDBC Catalog 扩展国产数据库支持,使企业能够更加顺畅地连接异构数据源,降低数据迁移与系统集成门槛,适用于推进国产数据库适配与存量系统整合的架构团队。

电力+算力=token ,但是 token 也有电力的性质,生产得同时就必须被消耗掉。
保存电能的方式是通过转换成其他形式的能量,蓄水,电池等等。
那么有什么办法保存生产的 token 。且允许该物质可以转换回 token 的形式呢?

摘要:
2026年,外贸企业的真实困境是:传统获客方式(展会、B2B平台、邮件)集体失效,获客渠道割裂、无法形成合力,线索很难转化为实际订单,公域CRM暗藏风险……单一工具只能解决局部问题。真正的破局之道在于一站式获客——以私域独立站为流量阵地,通过谷歌、社媒、数据、EDM等全渠道精准触达,再借助私域CRM系统高效转化,形成从“找到客户”到“拿到订单”的完整闭环。本文以富通天下云平台为例,拆解这一闭环如何落地,并结合实战案例说明其可复用的方法论。

一、深层困境:外贸获客为何越来越难?

1.传统获客方式正在失效
展会:投入几万十几万,仍要面对客户一对多比价,且展会质量参差不齐,拿回一堆名片,跟进时大多石沉大海。
B2B平台:本质是公域流量池,客户一对多比价,价格内卷严重。僧多粥少,年费、广告费越来越贵。
邮件群发:缺乏精准数据支撑,打开率低、退信率高,还可能被标记为垃圾邮件。
社媒盲撞:每天加好友发消息,要么被封号,要么被拉黑,劳心费力却收效甚微。
2.渠道割裂,无法形成合力
即使你同时使用上述多种方式,数据也是割裂的:展会的名片存在Excel,社媒的私信躺在手机里,海关数据查到的公司名不知道联系人是谁,独立站有流量却不知道谁看了。每个渠道都在单打独斗,无法形成完整客户画像,难以持续培育客户。
3.有线索无订单,中间缺了转化链
很多企业并不缺线索,但为什么成交寥寥?因为从线索到订单,缺乏系统化的跟进和培育:业务员跟进靠记忆、客户信息散落在各处、不知道谁处于什么阶段、沉睡客户无人问津、潜在客户没有得到重点服务。
4.公域CRM暗藏风险
更隐蔽的陷阱在于客户管理工具本身,不少企业使用的是公域CRM。
公域CRM就是CRM厂商,实际上是B2B平台的子公司或投资入股的关联公司,公域CRM系统与B2B平台深度绑定和数据打通。外贸企业的客户数据会进入B2B平台的“公域客户池”。这意味着,外贸企业辛苦开发的客户,可能在不知不觉中被B2B平台推荐给竞争对手,导致同质化竞争加剧、老客户流失、利润率下降。市场上知名的公域CRM厂商主要是小满和孚盟,其中小满是阿里国际站全资收购的!孚盟是中国制造网投资入股的!
这四个困境叠加的结果就是:获客成本越来越高,订单转化率越来越低,客户资产还随时面临被稀释的风险。而一站式获客方案的价值,正是打通从“建站→引流→触达→培育→转化”的每一个环节,让获客从“碰运气”变成“系统工程”,同时将客户牢牢掌握在自己手中。

二、富通天下云平台:围绕获客闭环的一站式解决方案

富通天下云平台的设计逻辑,就是围绕上述困境,构建一套完整的私域获客作战体系。以下按获客流程拆解其核心功能:

第一步:私域独立站——自主搭建外贸营销获客主阵地

展会、B2B平台都是公域流量,私域独立站才能真正沉淀自己的客户。云平台提供实现零门槛建站,拖拽式操作、响应式模板、30分钟即可上线专业B2B官网;内置SEO运营系统,在网站结构、内容、关键词选取、布局、检测、评分等环节,做到了专业化、流程化、智能化,有效提升Google排名。
更重要的是,富通天下将私域独立站放在完整的营销体系中,无缝对接营销和管理系统,让流量得到最大化应用。

第二步:引流——全渠道数字化私域营销获客

除了自然流量,云平台还通过布谷鸟GoogleSEM营销、WhatsApp等社交营销、海关数据等数据营销、EDM营销,AiReach等数字化私域营销方式,为独立站源源不断地引来流量。
这些营销方式不是各自为战,所有触达记录、客户反馈自动汇入云平台数据库,形成完整的获客画像,让每一次营销都有的放矢。

第三步:转化沉淀——将流量转化为实际订单

获得线索后,客户管理是转化的关键环节。
传统Excel管理,信息分散、跟进混乱、人员流动易流失客户。公域CRM与B2B平台深度打通,企业的客户数据会进入平台的“公域客户池”,导致内卷加剧、利润下滑。
富通天下私域CRM不与任何B2B平台打通,客户数据100%归企业所有。覆盖邮件、审批、团队、客户、统计报表等高效管理功能,提升新客户转化率和老客户复购率。
最后,通过富通天下ERP,高效管理订单的生产采购、出运结汇,把控业务的每个环节与节点,形成完整闭环。

三、案例分析:九州羽翔使用富通天下云平台,月询盘高达160+

九州羽翔使用富通天下云平台后,效果十分显著:
对比去年,页面收入从3.6万增长至8.6万,近乎翻倍;自然搜索关键词覆盖达到4000多个,外链数量突破2万条,各项数据增长迅速。这些数据增长直接带来了大量精准询盘,单月正式询盘加上留言、在线咨询等,合计就有160多个,且询盘精准度高,极大方便了业务员跟进转化。
这主要得益于云平台本身就是一套完整的数字化生态系统。前端有面向客户的私域独立站,后端配套SEO运营、大数据营销,再加上长期使用的CRM系统与私域营销手段,方方面面综合发力,才实现了良好的运营效果。
同时,九州羽翔公司自身也非常重视私域独立站运营,配备了专职运营人员,在富通专业的培训与引导下,持续开展网站优化和运营工作,双方共同努力达成了理想效果。

四、总结:一站式获客是2026年外贸增长的必选项

外贸获客早已过了“一招鲜”的时代。单一工具,无论是海关数据、社媒工具还是邮件群发软件,都只能解决获客链条上的一个环节,而真正的订单来自整个系统的协同:独立站吸引流量,多渠道精准触达,私域CRM持续培育、高效转化,专业ERP确保订单交付。
以富通天下云平台为例,其“私域独立站+数字化私域营销+外贸私域CRM+专业ERP”的四位一体架构,已经被6万家企业验证有效。无论你是想盘活存量客户、降低获客成本,还是突破流量瓶颈、提升转化率,这套闭环体系都能帮你系统化地赢取更多订单。

妹子星期一走后都住在公司,平时遇不到。加上星期一晚上她微信对我说我对她只是朋友的感觉,让我把手手放在安全区,所以这几天聊天并不多。

星期三我给她买了水果,她中午回来拿走了。我回到家,意外发现小蛋糕,还有洗手液,让我摸完猫咪要好好洗手。

她星期四下午回来就不走了。我买了酸菜鱼,放在客厅的桌子上,然后躲到房间里,给她发微信,准备让她一个人进房间吃。她问我晚上吃什么呀,要不要尝尝这个。我说:好啊。出来尝了一口准备走的,她看看就在客厅吃了,让我陪她一起吃。她吃的不多,大半给我吃了,虽然我已经吃了晚饭。

吃完饭,她提议在客厅看电影,用她的投影仪。正好两个小板凳,边看边吃边聊天。

她准备了菠萝。也许是因为,我提过,我第一次见到她,就把自己最爱吃的买给自己吃的菠萝一大半分给了她。她笑了。

电影是甜蜜蜜,没怎么看懂。看这个电影是因为,我提过,我第一次见她,觉得她好似里面的张曼玉,所以一定要看看。

说是看电影,实际是聊天,她跟我不间断段的讲着她的事,家里的讨厌的说教大伯,亲戚家的一个女儿结婚跟家里闹掰,她当伴娘等。

我把手都放在背后,问:我今天表现还行吧。她笑了:其实你不用那么刻意。

小椅子坐久了有点累,我就坐直了,她靠在我的身上。双手搭在我的手上,掰着我的手指聊天。

我问她:Will you marry me ?她笑了。

看完电影,我先洗澡。洗完澡,我把她喊了出来,说今天应该就见不到你了,给我一个拥抱吧。她笑着给我一个拥抱。

我回到卧室,又重新买了电动牙刷。

虽然是室友,但是她大部分时间住公司,这应该算是我们第三次见面,还没有见到过她不笑的样子。

目前恋爱花费一共 630 元。感觉手里的钱,从来没有这样耐用过。







官方已经确认了

Hey everyone!

This thread is for discussing Opus 4.7: how it performs, what you’re building with it, first impressions, etc.

Opus 4.7 follows the same pricing policy as GPT 5.4 and other frontier models going forward. If you’re on a legacy request-based plan, you’ll need to enable Max Mode to use it.

I get that there are strong feelings about recent pricing changes, but we aren’t going to let this thread devolve into a new debate about this policy. Off-topic posts that violate our community guidelines will be removed.

如题,家里面宽带没有开通电视服务,另外现在就算开通的话,要重新走线才行 [我了解到的是网线和电视线线是两根] 。所以有没有比较稳定的直接通过网络来看电视直播的方式,之前的好几个总是掉线,然后老人很久都不能看电视了,只有等我放假回去了再给他找个新的。

小T导读:中原油田作为中国石化的重要油气生产基地,其生产过程控制系统(PCS)是保障油田安全生产、优化运行的核心枢纽。为解决高并发写入性能瓶颈、高昂的存储成本、复杂的实时分析需求以及多业务数据孤岛等问题,项目组于 2023 年正式引入 TDengine TSDB 作为新一代数据底座。在本案例中,TDengine TSDB 作为 PCS 核心业务模块的时序数据库,并通过 taosX 工具,实现了从分公司到总部的数据实时同步。落地实践表明,升级改造后的系统已经成为一个高效、稳定、易扩展的统一数据平台,为中原油田的智能化建设奠定了坚实的数据基石。

业务痛点

随着物联网技术的普及和数字化转型的深入,PCS 系统接入的设备数量与数据种类呈指数级增长,海量的时序数据对原有基于 Oracle 构建的数据架构提出了严峻挑战。中原油田 PCS 项目涵盖采油、注水、储气库管理、管线监控等多个关键业务模块。全油田范围内布设有数以万计的传感器与智能设备,每秒产生数十多万条时序数据记录。

在原有技术架构下,我们的系统面临的核心痛点如下:

  • 写入性能瓶颈:Oracle 数据库并非为高频时序数据写入设计,在面对大量并发插入请求时,I/O 压力巨大,经常出现写入延迟,甚至影响前端控制指令的下发。
  • 存储成本高昂:关系型数据库对时序数据的压缩效率较低,导致存储空间占用巨大。为保存一定周期内的历史数据,需要不断扩容高端存储设备,硬件与维护成本居高不下。
  • 实时分析能力不足:基于 Oracle 进行时间窗口聚合、设备间关联分析等操作,需要编写复杂的 SQL,执行效率低下,响应时间常在分钟级以上。
  • 系统架构僵化:各业务模块(如 PCS 与储气库)数据独立存储,形成数据孤岛,难以进行跨业务的统一分析与价值挖掘。

这些痛点严重制约了油田数字化和智能化的进程,因此,选择一个专为时序数据设计的高性能数据库成为项目组的必然选择。

选择 TDengine TSDB

在项目选型初期,我们团队制定了明确的目标:新数据库必须具备极高的写入和查询性能、优异的数据压缩能力、对 SQL 标准的良好支持、高可用性与易于维护的集群架构,并能与现有物联网生态无缝集成。

经过严格的 POC 测试,TDengine TSDB 在以下方面展现出决定性优势:

  • 性能碾压:在同等硬件条件下,TDengine TSDB 的写入吞吐量、查询速度更是有数量级的提升。
  • 极致压缩:凭借其专为时序数据设计的存储结构,TDengine TSDB 的压缩比轻松达到 1:10 ,远超测试中的其他竞品。

  • SQL 兼容性:团队原有的 SQL 技能可以轻松迁移,大大降低了开发和学习成本。同时,这也方便了像 ThingsBoard 这样的第三方工具直接通过标准 JDBC 连接进行数据查询。

  • All in One 设计:TDengine TSDB 内置了消息队列、缓存和数据订阅等功能,无需再部署 Kafka/Redis 等额外组件,简化了系统架构,降低了运维复杂度。
  • 企业级特性:企业版提供的多级存储功能,可以将冷数据自动迁移至更廉价的对象存储,进一步优化成本,这与项目长期数据保存的需求完美契合。

业务落地实践

系统架构

新架构中,我们采用了云边协同架构,TDengine TSDB 作为核心数据持久层与计算引擎贯穿始终。

业务模块与收益

数据写入与实时处理模块

针对不同业务我们采用“双轨制”写入策略。对于结构灵活多变的储气库等业务数据,我们利用 TDengine TSDB 的 Schemaless 接口,数据库自动建表,极大简化了数据接入流程。对于结构稳定、逻辑复杂的核心 PCS 业务数据,则采用传统拼装 SQL 的方式写入,确保精确控制与高性能。

在数据接入层油田现场的各类设备通过 MQTT 或 HTTP 协议,将数据上报至 ThingsBoard 物联网平台。对于数据结构多变、灵活的储气库业务,采用 TDengine TSDB 的 Schemaless 写入接口,ThingsBoard 可直接写入数据,TDengine TSDB 自动建表,极大提升了开发效率。

核心收益——

  • 写入性能飞跃:TDengine TSDB 专为时序数据优化的写入引擎彻底解决了 Oracle 面临的 I/O 瓶颈。系统轻松应对每秒数十万条数据的并发写入,延迟从秒级降至毫秒级,保障了生产监控数据的实时性与控制指令的及时性。
  • 开发效率提升:Schemaless 写入模式在应对业务字段变更和新型设备接入时,无需频繁修改数据库表结构,后端代码也无需调整,实现了“数据即接即用”,开发效率提升超过 60%。ThingsBoard 通过内置的 JDBC 连接器,将解析后的数据持久化到 3 节点 TDengine TSDB 高可用集群中。同时,核心的 PCS 业务模块,因其数据结构稳定且业务逻辑复杂,仍采用拼装标准 SQL 的方式直接向 TDengine TSDB 写入数据。这种“Schemaless + SQL”的双轨写入模式,兼顾了灵活性与复杂性。

  • 架构简化:TDengine TSDB 内置的类消息队列能力,替代了部分原先需要 Kafka 等中间件实现的缓冲与削峰填谷场景,减少了系统组件依赖,降低了架构复杂度和运维成本。

数据同步与分发模块

为了满足总部对全局数据的分析需求,项目使用 TDengine TSDB 企业版提供的 taosX 数据同步工具,将油田生产区的指定数据表/超级表,实时、可靠地同步到总部数据平台的 TDengine TSDB 集群中,实现了数据的跨地域统一。在数据库管理 web 后台页面图形化界面即可配置数据实时同步任务。

核心收益——

  • 实现数据汇聚与统一:轻松构建了“边缘-中心”两级数据体系,解决了总部全局数据分析需求与分公司数据本地化处理需求之间的矛盾。
  • 同步过程可靠高效:taosX 工具保障了数据同步的可靠性和一致性,且对源集群性能影响极小。总部可实时获取全域数据视图,为高层战略分析和跨区域对标提供了数据基础。

图形化界面配置实时同步任务

TDengine 中建立的 topics

数据查询与分析模块

业务应用、实时大屏和数据分析系统可直接通过标准 SQL(或 REST API/JDBC)访问 TDengine TSDB。这样一来,我们可以充分利用原生函数,进行高效聚合、插值、降采样等操作。利用“超级表”模型,轻松实现跨设备、跨区域的统一查询分析。

在数据应用层,业务应用、实时大屏、告警分析引擎均直接连接油田侧的 TDengine TSDB 集群,利用其强大的即时计算能力,进行数据查询与分析。

核心收益——

  • 查询性能指数级提升:典型查询场景性能对比显著。例如,“查询某注水站过去一小时每分钟的平均压力”这类时间窗口聚合查询。
  • 打破数据孤岛:基于“超级表”概念,将不同采油厂、不同业务线(如采油、注水)的同类型设备(如泵机)数据模型统一,实现了跨业务、跨区域的全局数据关联分析,为生产协同优化提供了可能。
  • 实时分析能力增强:毫秒级的查询响应使得基于实时数据的监控大屏、即时决策和交互式分析成为现实,显著提升了生产调度和应急指挥的时效性。

数据存储与压缩模块

TDengine TSDB 针对时序数据特性,采用列式存储与专用压缩算法,实现海量测点数据的高效写入与存储,在显著降低空间占用的同时也提升了查询性能。

核心收益——

  • 存储成本大幅降低:在实际业务中,我们发现数据压缩效果显著,压缩比普遍超过 1:10。原需约 50TB 原始空间的数据,在单副本存储下仅占用约 4.2TB;结合多级存储策略,长期数据保存的整体存储成本下降超过 85%。
  • 存储管理自动化:多级存储策略实现了数据生命周期的自动化管理,无需人工干预数据归档,在保证历史数据可查询的同时,释放了昂贵的高性能主存储空间。

未来规划

TDengine TSDB 在中原油田 PCS 项目的成功,是油田数字化转型的一个开端。接下来我们计划针对以下几点进行进一步研究与合作:

  1. 深度分析:探索利用 TDengine TSDB 与机器学习框架的结合,对海量历史时序数据进行深度挖掘,实现设备预测性维护、工艺参数优化等高级应用。
  2. 边缘计算融合:研究 TDengine TSDB 在边缘侧的部署,在数据产生源头进行初步的过滤和聚合
  3. 持续关注:团队将持续关注 TDengine TSDB 的发展,积极测试新版本、新功能,如流计算引擎的进一步增强,以期在现有平台上创造更大的业务价值。

关于中原油田

中原油田是中国石油化工集团有限公司的重要上游企业,世界 500 强中石化旗下第二大油气田。其拥有总矿权面积 15405.164 平方千米,石油资源量 20.88 亿吨、天然气资源量 18451.02 亿立方米,探明石油地质储量 6.258 亿吨、天然气地质储量 4833.36 亿立方米;取得省部级以上科技进步奖 380 项、国家级科技进步奖 36 项、国家专利 765 件,其中“特大型超深高含硫气田安全高效开发技术及工业化应用”项目荣获 2012 年度国家科技进步特等奖;获得全国“五一”劳动奖状、中央企业先进基层党组织、中国石化绿色企业等多项荣誉,连续六届被评为全国文明单位。

作者

王欣怡

PDF 线性化(也称为 “Fast Web View”,快速网页查看)是一种对 PDF 文件进行优化的方式。通常情况下,在浏览器从服务器下载完整个多页 PDF 文件之前,用户无法在线查看其内容。而当 PDF 被线性化处理后,即使文件尚未完全下载,浏览器也可以优先快速显示第一页,从而提升加载和浏览体验。

本文将介绍如何使用C#代码将普通 PDF 转换为线性化 PDF。

环境准备

在开始操作之前,需要先完成开发环境的基础配置,确保项目能够正常使用 PDF 相关功能。

你可以通过以下方式引入所需的库:

  • 通过 NuGet 安装(推荐):在 Visual Studio 中打开 NuGet 包管理器,搜索并安装对应的 PDF 处理库,即可自动完成依赖配置。
  • 手动添加引用:下载相关组件包后,将其中的 DLL 文件添加到项目引用中。

完成以上配置后,即可在项目中调用相关 API 进行 PDF 线性化处理。这里我们以Spire.PDF for .NET为例:

PM> Install-Package Spire.PDF

将 PDF 转换为线性化格式

下面是将普通 PDF 文件转换为线性化 PDF 的基本步骤:

  1. 使用 PdfToLinearizedPdfConverter 类加载需要处理的 PDF 文件。
  2. 调用 ToLinearizedPdf() 方法,将文件转换为线性化格式。

参考示例代码如下:

using Spire.Pdf.Conversion;

namespace ConvertPdfToLinearized
{
    class Program
    {
        static void Main(string[] args)
        {
            // 加载 PDF 文件
            PdfToLinearizedPdfConverter converter = new PdfToLinearizedPdfConverter("Sample.pdf");
            // 将文件转换为线性化 PDF
            converter.ToLinearizedPdf("Linearized.pdf");
        }
    }
}

转换完成后,可以在 Adobe Acrobat 中打开生成的结果文件,并查看文档属性,可以看到 “Fast Web View(快速网页查看)” 的值为 Yes,这表示该文件已经完成线性化处理。

结语

通过以上内容,你可以轻松实现将普通 PDF 转换为线性化格式,从而显著提升文档在网页端的加载速度和用户浏览体验。对于需要在线预览或分发 PDF 文件的应用场景来说,这一优化尤其重要。

在实际项目中,只需完成基础环境配置并调用相应方法,即可快速集成该功能。你可以根据业务需求,将其应用到文档管理、在线阅读或文件传输等场景中,进一步提升整体性能和用户体验。

在开发跨境金融、汇率看板、多币种结算系统时,统一、实时、稳定的汇率数据源是整个系统的核心。
传统多接口轮询方案存在格式混乱、延迟高、维护成本高等问题,本文提供的 WebSocket 接口,分享一套可直接落地的多币种汇率订阅方案,简洁、可靠、适合生产环境。

一、传统汇率获取方式的痛点

在实际开发中,常规方案会遇到明显瓶颈:

  • 单接口仅支持单币种,多币种需多次请求,效率低
  • 不同接口返回结构不统一,数据整合成本高
  • REST 轮询延迟大、资源占用高,无法满足实时性要求
  • 无重连机制,网络波动易造成数据中断
  • 难以支撑 7×24 小时稳定运行
    这些问题直接影响系统稳定性与数据准确性。

二、技术方案:WebSocket 实时推送

相比轮询,WebSocket 长连接更适合实时汇率场景:

  1. 数据变动主动推送,延迟极低
  2. 一次鉴权、一次订阅,长期维持连接
  3. 支持批量币种订阅,返回格式统一
  4. 便于实现断线重连,提升可用性
    提供标准化多币种实时汇率接口,接入简单、稳定性强,是后端与金融场景的高效选择。

三、核心功能与优势

多币种批量订阅
一次订阅即可同时获取 USDCNY、EURCNY、JPYUSD、GBPUSD 等主流汇率。
统一数据结构
所有币种返回格式一致,无需额外适配。
实时低延迟
汇率变动秒级推送,远优于定时拉取。
高可用
支持断线重连与自动重订阅,保证数据不间断。

四、精简可运行代码(一段即用)

import json
import websocket

WS_URL = "wss://api.alltick.co/realtime"

def on_message(ws, msg):
    data = json.loads(msg)

def on_open(ws):
    ws.send(json.dumps({
        "action": "subscribe",
        "symbols": ["USDCNY", "EURCNY", "JPYUSD", "GBPUSD"]
    }))

if __name__ == "__main__":
    ws = websocket.WebSocketApp(WS_URL, on_open=on_open, on_message=on_message)
    ws.run_forever()

五、工程化最佳实践

  1. 将最新汇率存入内存字典或 Redis,支持全局快速读取
  2. 增加断线自动重连机制,确保链路高可用
  3. 只订阅业务需要的币种,减少无效数据与带宽消耗
  4. 增加日志记录,便于追踪连接状态与异常
  5. 使用 systemd 或进程托管工具,实现服务自启动

六、总结

多币种实时汇率接入,关键在于统一数据源 + 长连接推送。
可实现一次订阅、多币种同步、低延迟、高稳定,大幅降低开发与维护成本。
这套方案可直接用于汇率工具、跨境系统、行情看板、量化策略等场景,是后端工程化落地的实用方案。

我是自己在淘宝买的便宜机型( 300 左右),自己上网找的滤芯。以前都是按 1 ,3 ,6 个月更换。现在又要到换的时候,我查了一下 tds 。

第一次是 5 ,然后跳到 4 。第二次数值是 3 了。日常就是煮饭喝水用,我在想是不是我用得少,加上我们这里的自来从也才 40-100tds 。是不是每次到期可以拖一阵子再换?

​项目介绍:​这是一个面向投标/评标场景的结构化抽取工具。支持上传 PDF、Word 或 Excel 格式的招标文件,自动提取项目基础信息、投标资格、技术与商务要求、评标办法等关键条款,并还原目录层级与跨页表格。输出结构化 JSON/Excel,适用于招标文件智能生成、AI 辅助评标及招投标知识库建设。

​GitHub 项目地址:​https://github.com/intsig-textin/xparse-sample-projects

接下来我们主要讨论一件事:如果目标是从一份很长的招标文件里稳定产出结构化结果,系统应该怎么搭。重点不是场景背景,而是中间层怎么定义、任务怎么拆、Prompt 为什么这样写。

一、先把目标定义清楚

如果只是让大模型“总结一份招标文件”,实现并不难;难的是把一份上百页的长文档稳定拆成可展示、可复用、可继续治理的结构化结果。

这类工具真正要完成的是下面这条链路:

  • 上传 PDF 招标文件
  • 调用 TextIn 把原始文件转成 markdown + pages
  • 按标题把长文档切成多个语义片段
  • 把片段路由到基础信息、资格要求、评审办法、投标递交、无效标风险、附件格式 6 个模块
  • 每个模块单独调用大模型,输出固定 JSON
  • 前端直接按模块渲染,后续也可以继续导出或复用

所以这里的核心不是“抽字段”三个字,而是先把长文档抽取问题拆成多个边界明确的小任务。

二、架构应该怎么拆

如果目标是长文档结构化,推荐把链路拆成四层:

这四层分别解决不同问题:

  • 解析层:把 PDF 变成后续可计算的中间结构
  • 编排层:把长文档拆成多个上下文更小的任务
  • 抽取层:让每个模块只输出自己负责的 schema
  • 展示层:按模块 JSON 渲染,而不是再做一次自由解析

三、先把解析层的输入输出定义对

这里最容易写错。真正调用的不是 form-data 接口,而是 TextIn 的二进制流解析接口:

POST https://api.textin.com/ai/service/v1/pdf_to_markdown

请求头和请求体在代码里是这样组织的:

headers = {
    "x-ti-app-id": TEXTIN_APP_ID,
    "x-ti-secret-code": TEXTIN_SECRET_CODE,
    "Content-Type": "application/octet-stream",
}

params = {
    "parse_mode": "auto",
    "page_count": 200,
    "dpi": 144,
    "table_flavor": "html",
    "apply_document_tree": 1,
    "markdown_details": 1,
    "page_details": 1,
    "apply_merge": 1,
    "paratext_mode": "none",
}

resp = await client.post(
    "https://api.textin.com/ai/service/v1/pdf_to_markdown",
    headers=headers,
    params=params,
    content=file_bytes,
)

这里的关键点只有两个:

  • 返回值里最重要的是 result.markdown

可以把它理解成下面这个输入输出契约:

输入:

Headers:
- x-ti-app-id
- x-ti-secret-code
- Content-Type: application/octet-stream

Query:
- parse_mode=auto
- page_count=200
- dpi=144
- table_flavor=html
- apply_document_tree=1
- markdown_details=1
- page_details=1
- apply_merge=1
- paratext_mode=none

Body:
- PDF 文件的原始字节流

输出:

{
  "code": 200,
  "result": {
    "markdown": "# 第一章 招标公告\n...",
    "pages": []
  }
}

如果你做的是 Web 工具,通常会在本地后端再包一层 /api/parse 方便浏览器上传和鉴权隔离;但那只是工程封装,不是上游解析接口本身的协议。

四、为什么中间层必须是\`markdown+pages\`

这一步决定了后面能不能把长文档拆稳。

markdown 的价值在于:

  • 保留标题层级
  • 保留段落结构
  • 表格可以以 HTML 或 Markdown 形式继续消费
  • 便于按标题、按章节做切块

pages 的价值在于:

  • 保留分页语义
  • 为页面预览、页码回跳、证据定位留接口
  • 后续如果要做高亮溯源,不需要重新回到 PDF 二进制层

也就是说,解析完成之后,整个系统处理的对象就不再是 PDF,而是 markdown+pages 这个统一中间层。

五、长文档不要全文直抽,先按标题切块

招标文件最难的地方不是字段多,而是篇幅长、章节多、不同章节关心的问题完全不同。如果直接把全文塞给一个总 Prompt,结果很难稳。

更合理的做法是先按标题切块。代码里的切块入口就是:

function parseMarkdownToChunks(md: string): Chunk[] {
  const lines = md.split('\n');
  const headerMatch = line.match(/^#{1,2}\s+(.*)/);
}

这一步做的不是“抽取”,而是把文档转成一批更短、更聚焦的 chunk。

切完之后,再按关键词做模块路由,例如:

const MODULE_KEYWORDS = {
  basic: ['招标公告', '项目概况', '联系方式'],
  qualification: ['资格', '资质', '财务', '联合体'],
  evaluation: ['评标', '评审', '评分', '分值'],
  submission: ['投标文件', '递交', '开标', '保证金'],
  invalid_risk: ['无效标', '否决', '废标条款'],
  annex: ['附件', '格式', '表单', '清单'],
};

这样设计有三个直接收益:

  • 每次发给模型的上下文更短,稳定性更高
  • 每个模块只关注自己的问题,不互相干扰
  • 后续新增模块时,只需要新增路由和 Prompt,不需要推翻整套架构

六、Prompt 不是“让模型抽字段”,而是定义模块契约

这里最值得学的不是“用了大模型”,而是 Prompt 把输入输出边界写得很死。

basic_prompt.txt 为例,开头先把约束写清楚:

你是一个“招投标文件基础信息(basic)抽取器”。
你的任务:仅抽取【基础信息 basic】模块,并输出严格合法的 JSON。

【核心硬性原则:禁止捏造】
1) 你只能从输入的 Markdown 原文中抽取信息。
2) 如果原文没有明确出现某字段:该字段 value 必须为 "" 或 null。
6) 【溯源原子性原则——最高优先级】
- 每个 value 必须来自原文中一处连续段落/句子的逐字摘录。

接着把输出骨架固定下来:

{
  "module_key": "basic",
  "module_name": "基础信息",
  "sections": {
    "bidder_agency": { "title": "招标人/代理信息", "blocks": [] },
    "project_info": { "title": "项目信息", "blocks": [] },
    "key_time_content": { "title": "关键时间/内容", "blocks": [] },
    "bid_bond_related": { "title": "保证金相关", "blocks": [] },
    "other_info": { "title": "其他信息", "blocks": [] },
    "procurement_requirements": { "title": "采购要求", "blocks": [] }
  },
  "missing_fields": [],
  "warnings": []
}

为什么要这么写,而不是只写一句“请抽取基础信息”?

原因很实际:

  • module_key 固定,前端才能知道这是哪个模块
  • sections 固定,页面才能直接按 section 渲染
  • missing_fields 固定,后续才能做缺失项提示
  • warnings 固定,后续才能挂冲突说明或风险提醒

Prompt 里还进一步把 block 限定为 table / kv / list / text 四种。这个设计很关键,因为招标文件天然是半结构化文档,不同信息的最佳表达形式并不一样。

例如:

  • 联系方式更像 table
  • 项目编号、预算金额更像 kv
  • 公告媒介、平台地址更像 list
  • 开标说明、答疑说明更像 text

这比把所有字段强行压成同一种平铺结构更稳。

七、输入、Prompt、输出必须一一对应

要让这套架构可维护,至少要把三件事先对齐:

1. 模块输入是什么

输入不是全文,而是某个模块命中的 Markdown 片段。前端会把命中的 chunk 重新拼成模块输入:

moduleData[key].markdown += `\n\n### ${c.title_path}\n` + c.content;

所以传给 qualification 模块的,并不是整份标书,而是“资格要求相关片段”。

2. Prompt 定义什么结构

以资格要求模块为例,Prompt 直接固定了三个 section:

{
  "module_key": "qualification",
  "sections": {
    "applicant_requirements": { "title": "申请人资格要求", "blocks": [] },
    "eligibility_review": { "title": "资格性审查", "blocks": [] },
    "compliance_review": { "title": "符合性审查", "blocks": [] }
  }
}

这意味着这个模块的职责只有三件事,不会在一次抽取里又去掺杂评标办法或附件格式。

3. 前端按什么结构展示

前端模块配置也会定义同样的 section key。这样一来,页面渲染不需要再猜字段,只要按约定好的 key 读取结果即可。

也就是说,这里不是“先让模型自由返回,再想办法接结果”,而是先把输入范围、Prompt schema、页面结构统一好,再让模型往固定壳子里填内容。

八、和传统做法相比,差别在哪里

如果目标是做工程化工具,而不是做一次性演示,这套方案和传统方式有两个本质区别。

1. 不是 OCR 文本加正则硬提

纯文本加正则在字段非常固定时还可以用,但招标文件章节名称、段落顺序、表格表达方式都经常变化,规则一旦堆多,维护成本会非常高。

2. 不是全文加一个总 Prompt

全文单 Prompt 很适合快速做一个效果展示,但它很难同时解决下面几个问题:

  • 模块边界不清
  • 输出结构不稳定
  • 某个模块要扩字段时会牵一发动全身
  • 很难做稳定展示和后续治理

更稳定的方式是:

  • 先解析成结构化中间层
  • 再切块
  • 再按模块分别抽取
  • 最后按模块 JSON 聚合

Lab4AI大模型实验室是面向AI开发者、科研党与学习者打造的一站式AI实践平台,深度绑定高性能弹性算力,支持模型复现、训练、推理全流程,以按需计费、低价高效破解高端算力紧缺与成本高昂难题;同步Arxiv前沿论文并提供翻译、导读、分析服务,支持各类大模型一键复现与数据集微调,对接孵化资源助力科研成果转化;同时搭载多样化AI在线课程,实现理论学习与代码实操同步推进,全方位覆盖AI研发、科研创新与技能学习全场景需求。

大模型实验室官网链接: https://www.lab4ai.cn/arxiv?utm_source=sf_daily_paper

作者信息

德克萨斯农工大学

研究背景

  1. RAG技术现状:检索增强生成(RAG)通过外部检索知识增强大语言模型生成效果,早期以非结构化文本检索为主,后续引入图结构知识表示提升推理与事实一致性。
  2. 传统图RAG局限:普通知识图仅能表示二元关系,无法建模多实体高阶交互,易造成信息丢失与推理碎片化。
  3. 超图RAG不足:现有超图RAG将超边视为静态事实,检索时不考虑交互顺序与演化过程,属于排列不变性检索,无法适配依赖时序、因果与过程的推理任务。
  4. 现实任务需求:热带气旋、港口运营等场景的推理结果,不仅依赖交互内容,更依赖交互发生的顺序,现有方法无法满足该类顺序敏感型任务。

研究目的

  1. 打破现有RAG将检索证据视为无序集合的核心假设,解决排列不变性检索顺序敏感型推理任务不匹配的问题。
  2. 提出将顺序作为核心结构属性的超图RAG框架,实现对知识高阶交互与交互时序的统一建模。
  3. 将检索从“独立事实选择”重构为“连贯交互轨迹推理”,让大模型能够基于有序证据链完成过程化、因果化推理。
  4. 在热带气旋-港口影响评估等领域任务中,验证顺序感知超图检索对生成质量与推理准确性的提升效果。

本文核心贡献

  1. 提出顺序感知知识超图表示:将高阶交互与优先顺序结构融合,突破传统超图仅建模静态关系的局限,完整保留知识的时序与逻辑顺序。
  2. 重构检索范式:将传统集合式检索改为超边上的轨迹推理,显式建模证据序列的重要性,而非仅关注检索内容相关性。
  3. 无显式时序监督的顺序学习:设计可学习的转移模型,从数据中自动学习超边间的优先关系,无需人工标注时序信息。
  4. 验证顺序核心价值:通过实验证明,检索证据的排列顺序直接决定推理质量,顺序感知设计是性能提升的关键因素。

研究方法

image

1. 顺序感知知识超图构建与顺序学习

  • 知识超图构建:以实体为节点、超边为高阶交互单元,通过大模型进行N元关系抽取,保留多实体依赖的完整语义。
  • 实体类型划分:分为持久对象(港口、气旋)、瞬时状态(气旋等级)、时间锚点(T-48)三类,支撑时序与结构建模。
  • 优先顺序学习:采用双线性转移模型Pθ(ej|ei),通过对比损失自监督学习,利用文档顺序、实体重叠、检索偏好三类信号训练,无需显式时序标注。

2. 顺序感知超图检索

  • 检索目标:最大化相关性+顺序连贯性+优先一致性+实体连续性+阶段覆盖度,获取最优有序超边轨迹。
  • 推理算法:采用束搜索(Beam Search)生成有序轨迹,小候选集使用维特比动态规划精确优化。
  • 多轨迹检索:返回多条多样化轨迹,为生成提供多路径解释与互补证据。

3. 检索增强生成

  • 将检索到的有序轨迹以带步骤索引、时间标签、阶段标注的结构化形式输入生成器,避免扁平化拼接丢失顺序信息。
  • 支持单提示多轨迹交叉参考与置信度加权聚合两种生成模式,保障生成的事实准确性与推理逻辑性。

4. 实验设计

  • 数据集:CyPortQA(热带气旋-港口运营QA基准,2917个场景、117178个问题)。
  • 基线方法:Text-RAG、GraphRAG、HyperGraphRAG。
  • 评估指标:判断题/选择题精确匹配、简答题容差精度、描述题LLM语义评分。
  • 消融实验:打乱顺序、移除顺序相关模块、对比无顺序/启发式顺序/学习顺序。

研究结果

  1. 整体性能最优:OKH-RAG在四类问题(TF/MC/SA/TD)及整体准确率上均超过所有基线,整体准确率达0.534,高于HyperGraphRAG的0.511。
  2. 顺序是核心增益源:将OKH-RAG检索结果打乱顺序后,整体准确率从0.534降至0.487,降幅最大,证明顺序对推理至关重要。
  3. 模块有效性:优先一致性、阶段覆盖、实体连续性、顺序连贯性均对性能有正向贡献,其中优先一致性与阶段覆盖影响最显著。
  4. 学习顺序最优:性能排序为学习顺序 > 启发式顺序 > 无顺序,验证可学习转移模型优于固定规则。
  5. 任务自适应:跨时间推理任务优先跨阶段轨迹,单阶段事实任务聚焦局部紧凑轨迹,适配不同查询的推理需求。

总结与展望

本研究推翻了RAG领域“检索证据可视为无序集合”的核心假设,提出OKH-RAG框架,将顺序作为核心结构属性融入超图RAG,实现高阶知识交互与时序关系的统一建模。实验证明,在顺序敏感的领域推理任务中,证据的组织顺序与内容本身同等重要,顺序感知轨迹检索可显著提升大模型的推理准确性与事实一致性。

展望

  1. 可将该框架拓展至科学发现、临床诊断、工程故障分析等更多顺序依赖型领域。
  2. 进一步优化顺序学习与轨迹检索算法,提升大规模知识图谱上的效率与可扩展性。
  3. 结合动态知识更新,实现实时时序知识的顺序感知检索与生成。
  4. 探索多模态知识(文本、图像、数值)的顺序感知超图建模,适配多模态复杂推理任务。

就在刚才,Anthropic 又一声不响地把 Claude 4.7 给放出来了。

说实话,我当时正在那调优我的 Claude Code 脚本,调得我焦头烂额,结果页面一刷,Opus 4.7 的文档就这么硬生生地怼到了我脸上。

这次更新,很多媒体可能又在炒作什么 100 万上下文,或者什么 3.75MP 的高清视觉。

但在我看来,那些都不是最重要的。

最让我脊背发凉的,是 Claude 终于学会了「省钱」,而且还学会了「自我怀疑」。

我不知道屏幕前的你有没有这种感觉,现在的 AI 越来越像一个职场老油条。

以前的 AI,你给它个任务,它要么秒回,要么就在那傻呆呆地思考三分钟,然后给你出一堆废话。

但这次 Claude 4.7 搞了个新玩意,叫「Adaptive Thinking」,翻译过来就是自适应思考。

这个功能太骚了。

它不再是像以前那种死板的思考模式,而是会根据你任务的难易程度,自己决定到底要思考多久。

如果是简单的活,它咔咔两下就干完了。

如果是那种要改几十个文件的、涉及长链代理的复杂代码任务,它会自己开启一个叫「xhigh」的最高努力模式,在那疯狂推理。

关键点来了。

它还配了一个叫「Task Budget」的任务预算功能。

这玩意目前还在 beta 阶段,但它的逻辑非常牛逼,你可以给 AI 设定一个「Token 预算」。

以前咱们用 Agent,最怕的就是这货在那死循环,一觉醒来,几百美金的额度全被它烧光了。

现在的 Claude 4.7,它干活的时候会自己盯着自己的「钱包」。

如果快超支了,它会停下来问你,或者自己调整策略,看能不能用更省钱的方式把活干完。

真的,看到这我直接愣住了。

这哪里是 AI 啊,这特么分明就是一个懂财务、懂成本控制的高级项目经理。

而且,这次它的「自我纠错」能力简直拉满了。

以前 AI 报错了,你得去修它。

现在是它写完一段代码,自己先跑一遍,发现不对,自己在那默默地改。

这种「老子自己能搞定」的自信,对于我们这些天天跟 Agent 打交道的人来说,真的是救了老命了。

除了这个,这次的视觉能力提升也挺离谱。

分辨率直接翻了 3 倍,而且搞了个「1:1 像素坐标映射」。

听着挺学术对吧,其实换成人话讲,就是它看东西更准了。

以前它看一张复杂的网页截图,可能知道按钮在哪,但点的时候总感觉差了那么几像素,像个老花眼。

现在有了 1:1 映射,它能精准定位到每一个像素点。

这意味着什么,你想想看。

这意味着它以后操控你的电脑,或者作为 GUI Agent 去帮你订票、买东西,基本上不会再有点错位置这种低级错误了。

最骚的是什么?

是这么多升级,价格居然一分钱没涨。

API 已经上线了,大家可以直接开整。

我有时候觉得,我们真的生活在一个巨大的转折点上。

以前我们聊 AI,聊的都是「它能写什么」。

现在我们聊 AI,聊的是「它能替我们在这个物理世界里完成什么」。

这不是什么生产力的微调,这是生产关系的重构。

当 AI 像一个有血有肉的人一样,开始思考效率、思考成本、思考精准度的时候,作为普通人的我们,到底该站在哪里?

反正我觉得,与其担心被取代,不如先去上手试试这个「会算计」的 Claude 4.7。

毕竟,能教一个 AI 帮你省钱,这种感觉还是挺爽的。

哦对了,虽然这次 4.7 很猛。

但我听说,那个代号叫「Mythos」的庞然大物,还在 Anthropic 的实验室后面等着呢。

大时代啊,朋友们。

我们,还是得保持好奇心。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~

谢谢你看我的文章,我们,下次再见。

/ 作者:文浩 / Web:wenhaofree.com

原文链接:https://mp.weixin.qq.com/s/f-MnUqgu1MNUSGxvCGIzMw

上次发了个帖子,https://fast.v2ex.com/t/1202780 ,公司最新一期的外招结束了,没有新人,全部都是有行业经验的人,年纪最大的是 45 岁,听说不想来,然后公司给出配一个二年级新生协助构建 Workflow ,也同意入职

我感觉,公司从之前愿意要新人,愿意培养新人,愿意给出资源,变得没了耐心,之前非常注重 kown-how 的积累,培训,现在也变得没了意义,全部放到 AI 里,调用的时候不仅快,AI 想的也更加全面

今年公司上线了多模型的 Cross-Evaluation ,效果非常好,人均产出也提高了很多,然后就是经验多的人产出增加的多,导致新人 kpi 考核更加靠后,最后裁员名单都是新人

感觉 AI 不仅让有钱的更容易获取更高级的模型,从而强者更强,也让经验更丰富的人,强者更强

先说结论,冲自己的号,改密码后正常用,但总觉得不对劲......

过程就是把自己的账密发给卖家,然后在账号中开通身份验证器,手机再接几个验证码,开通了。结果第二天就发现账号再多个国外设备上登录,找卖家沟通,卖家直接来了句改密码就行,问是不是他泄露了密码,结果对方直接来了句你不爽就报警吧,甚至嚣张的把手机号给我了。我试着给当地 110 报警,并提供了他营业执照的地址和姓名,搞笑的是,110 及其不耐烦接警,还没了解情况就跟我说这事管不了,最后反馈的结果是:电话查不到人,营业地址是假的也查不到人,身份证也查不到人。。。。哎,如果真的是搞诈骗,原来成本这么低。。。

上个月我用日本节点刷出了免费领一个月 plus 的活动,然后为了用 paypal 0 元购,把账单地址改成德国。白嫖了一个月。

现在自动续费一个月扣了我 23 欧,然后我发现把账单地址改成土耳其会便宜一些,变成了 19 欧元一个月,我这样操作会封号吗?

另外网上说的土耳其区 80 一个月是怎么做到的?

开发者朋友们大家好:

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@koki、@鲍勃

01 有话题的技术

1、Google 发布 Gemini 3.1 Flash TTS 模型,高音质与低成本平衡

Google 推出新一代文本转语音(TTS)模型 Gemini 3.1 Flash TTS。该模型通过引入自然语言「音频标签」实现了对语音风格、节奏和多角色交互的精细化控制,在维持低延迟与低成本的同时,显著提升了合成语音的表现力

  • 基准测试性能:在 Artificial Analysis TTS 排行榜取得 1,211 Elo 评分,位居高音质与低成本平衡点的「最具吸引力象限」。
  • 内联音频标签(Audio Tags):支持将自然语言指令(指令式标签)直接嵌入文本输入,实现句子中途的语速、音调、口音和情感状态的毫秒级切换。
  • 场景化编排(Scene Direction):开发者可定义环境背景与对话上下文,确保多角色在多轮对话中维持特定的人设一致性(In-character)与自然互动。
  • 音频配置文件与代码导出:支持通过 Audio Profiles 固化角色特征,调节后的参数可直接导出为 Gemini API 调用代码,确保跨平台部署的语音一致性。
  • 全球化与安全合规:原生支持 70 多种语言;所有输出音频均强制嵌入 SynthID 不可感知水印,用于 AI 生成内容的溯源与检测。

参考链接:

https://blog.google/innovation-and-ai/models-and-research/gem...

( @google blog)

2、Cloudflare 发布 @cloudflare/voice:为智能体提供原生语音管道,支持单 WebSocket 流式交互与 SQLite 状态持久化

Cloudflare 为其 Agents SDK 推出实验性扩展包 @cloudflare/voice,允许开发者在不改变现有智能体架构的前提下,为基于 Durable Object 的 Agent 直接添加实时语音能力。该工具链通过减少跨服务跳转和引入流式分句合成技术,显著降低了语音交互的端到端延迟

  • 基于 Durable Object 的统一状态模型:语音被视为与文本对等的输入流,共享相同的 Agent 类实例、Durable Object 生命周期及内置的 SQLite 会话历史。开发者无需为语音功能构建独立的后端架构,即可实现文本与语音输入的无缝切换。
  • 优化的流式传输与低延迟响应:客户端通过单一 WebSocket 连接流式传输 16 kHz 单声道 PCM 音频;服务端支持 「sentence-chunking」 技术,即在 LLM 输出流式文本时同步进行按句合成,实现首包音频(TTFA)的快速响应。
  • 内置 Workers AI 驱动程序:预集成 Deepgram 系列模型,包括用于实时对话的 Flux STT、用于高精度听写的 Nova 3 STT 以及 Aura TTS。通过 Workers AI 绑定直接调用,开发者无需管理外部 API 密钥即可完成实时语音转录与合成。
  • 多协议适配与 Provider 接口抽象:提供 withVoice(全双工对话)和 withVoiceInput(仅听写/语音搜索)两种高阶组件;内置 Twilio 适配器以支持电话回呼;同时开放轻量级 Transcriber 和 TTSProvider 接口,支持开发者对接 AssemblyAI、Cartesia 或 WebRTC 传输层。

(@cloudflare)

3、阿里 ATH 事业群发布世界模型产品 Happy Oyster,主打实时世界创建与交互,可生成动态三维环境,支持影视制作、游戏开发等场景

阿里巴巴 ATH 事业群推出开放式世界模型产品「Happy Oyster」,主打实时世界创建与交互

该产品可生成动态三维环境,支持影视制作、游戏开发等场景。其与 HappyHorse 同属 ATH 旗下 AI 创新事业部。目前已开启内测,用户可通过官网 happyoyster.cn 加入候补名单。

Happy Oyster 基于原生多模态架构,其背后是支持多模态输入与音视频联合生成的流式生成世界模型

加入等候列表:happyoyster.cn

(@潇湘晨报)

4、阶跃 StepAudio 2.5 TTS 上线,将语境理解能力引入语音生成全流程

今天,阶跃正式发布新一代语音生成模型StepAudio 2.5 TTS。围绕全局语境控制、文中语境控制、零样本复刻与全音色控制三项核心能力,StepAudio 2.5 TTS 让语音生成更自然、更灵活也更有表现力。

  • 全局语境控制: 支持自定义整段语音的情绪基调、角色状态与场景氛围,使表达更统一、更连贯。
  • 文中语境控制: 不仅能控制一句话怎么说,还能进一步调节语气、节奏、停顿、轻重变化、角色感和场景感,让声音表达更有分寸。
  • 适配多场景、多人设: StepAudio 2.5 TTS 支持 Zeroshot TTS,任意用户音色无需重新训练,即可满足从沉浸式有声书到专业影视配音全场景高品质语音生成需求。同时也可为每个音色构建完整的「声音角色档案」,实现从声纹到人格的全面提升。

无论是角色配音、有声内容创作,还是智能语音交互,StepAudio 2.5 TTS 都能帮助开发者和创作者更高效地生成自然、细腻、接近真人的语音内容。

文档:

https://platform.stepfun.com/docs/zh/guides/models/stepaudio-...

(@阶跃星辰)

02 有亮点的产品

1、X 独立通讯应用「X Chat」重新上线语音消息功能

社交平台 X(原 Twitter)近日宣布,其私密消息服务「X Chat」已正式恢复对「语音笔记(Voice Notes)」功能的支持。用户现在可以在一对一私信和群聊中,再次畅快地发送音频消息。

据悉,在此前 X Chat 的升级中,语音功能的短暂移除曾引发部分用户不满。如今功能回归,用户只需按住聊天文本框右侧的麦克风图标即可录音,或者通过「长按并向上滑动」的手势实现免提录制。

这一变动背后,折射出 X 平台产品战略的微妙转变。此前,埃隆·马斯克(Elon Musk)曾多次强调要将 X 打造成一个无所不包的「万能超级应用(Everything App)」。然而近期,X 似乎正倾向于将核心功能剥离,提供独立的 App 体验。除了近期已作为独立应用运营的 X Chat 外,其支付服务「X Money」目前也正在作为独立 App 进行测试。

业内分析认为,X Chat 恢复语音消息,是其作为独立通讯应用补齐基础体验、增强市场竞争力的必要举措。目前,X Chat 已配备消息编辑/删除、音视频通话及截图通知等主流通讯功能。

( @TechCrunch)

2、Fathom 发布 botless 会议模式:支持视频录制并集成 MCP

Fathom 推出重大更新,允许用户在无需 AI 助手(Bot)进入虚拟会议室的情况下完成录制与转录。该版本通过系统级采集解决了会议室「过度拥挤」的问题,并首次引入 Model Context Protocol (MCP) 支持,将会议数据转化为可供外部 AI 工具调用的结构化上下文

  • Bot-less 录制与原生视频采集:区别于 Granola 等竞品仅抓取音频,Fathom 支持在无机器人模式下同步录制视频,并提供多种录制模式选择。
  • 优化发言人辨识(Speaker Diarization):通过模型更新,解决了多月前历史会议记录中常见的「发言归属错误」问题,提升了长周期上下文检索的准确性。
  • 集成 Model Context Protocol (MCP) 服务端:发布 MCP Server 接口,允许开发者和用户将 Fathom 存储的会议数据直接接入各类支持该协议的 AI 智能体或工作流工具。
  • 全量会议数据库 AI 查询:新增针对企业级用户的统一查询接口,支持通过 AI 对整个会议历史数据库进行跨篇章的语义搜索与背景关联

( @TechCrunch)

3、药房技术服务商 Lumistry 发布 Voice AI 助手:对话式 AI 替代数字按键 IVR,深度集成 PMS 实现处方自动化处理

药房技术服务商 Lumistry 推出 Voice AI 助手,作为其 Lumistry Voice 通信套件的核心组件。该产品旨在利用对话式 AI 彻底取代传统的数字按键式 IVR 系统,通过与药房管理系统(PMS)实时联动,实现自动化的处方续订与状态查询。

  • 从 DTMF 向自然语言交互(NLI)演进:放弃传统的菜单式数字按键逻辑,支持患者以自然语言描述需求,系统可自动识别并执行处方状态查询、药房营业信息咨询等高频任务。
  • 药房管理系统(PMS)深度集成:通过 API 接入主流 PMS,助手具备识别合规续订(Eligible Refills)的能力,并能直接在后台提交续订请求,无需人工干预处方处理流程。
  • 多语言与人工平滑切换逻辑:系统支持多语种对话,并内置智能路由算法,在识别到复杂语义或非预设用例时,可将通话上下文同步推送至药房工作人员进行人工接管。
  • 存量市场覆盖与迁移:该助手基于原 Vow IVR 架构升级,目前已整合进 Lumistry 覆盖的全美 9,000 多家药房服务网络,重点解决药房高峰期 70% 以上的重复性行政呼入压力。

( @Yahoo Finance)

03 有态度的观点

1、领英 CEO:AI 时代,这四项软技能正在升值

领英 LinkedIn CEO Ryan Roslansky 近日在接受《工具和武器》播客采访时表示,随着 AI 加速接管职场中的重复性工作,人类的「软技能」正在获得前所未有的重视。

他具体点名了四项以沟通为核心的能力:好奇心(curiosity)、勇气(courage)、沟通力(communication)与同理心(compassion)

Roslansky 认为,AI 正在重塑人们理解工作的方式,推动职场人将自身角色视为「一系列任务的集合」,而非固定的职位头衔。

他将这些任务划分为三类:可被 AI 完全自动化的、可被 AI 辅助增强的,以及仍需人类主导的——如化解冲突、说服团队、制定战略等。

这些技能很重要,但过去一直被称为软技能......在一个人们真正精通这些技能的职业世界里,我认为一切都会变得更好。

他表示,随着 AI 智能体承担更多自动化职责,人们将有更多时间用于同事之间的真实沟通,这进一步抬高了沟通能力、判断力与情商的溢价。

有时候当你深陷技术之中,尤其是 AI,当你勾勒出它可能走向的方向,会把你带到一些黑暗的地方。但我相信,人类在塑造这项技术的走向上扮演着不可或缺的角色。

( @APPSO)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考