纯情 发布的文章

什么是威胁情报?

威胁情报是指收集、分析和应用与已知或新兴网络威胁相关的上下文数据。内容包括对威胁行为者使用的IoC、恶意IP、文件哈希、域名和TTP以及整体威胁格局的洞察。

与可能嘈杂且令人不知所措的原始日志数据不同,威胁情报经过丰富和具上下文化,使安全团队能够做出明智决策并有效应对威胁。组织可以从多种来源获取威胁情报,包括开源情报(OSINT)、商业威胁情报平台、行业特定的信息共享与分析中心(ISAC)以及内部遥测。这些情报以多种格式提供,如STIX/TAXII、JSON、CSV和专有模式,并集成到安全操作中,提供关联事件、检测异常和追踪网络中威胁行为者的必要上下文。

威胁情报对主动安全的重要性

传统安全工具在识别复杂且有针对性的威胁方面常常不足。威胁情报通过实现主动威胁检测、调查和响应,弥合了这一空白。它赋能组织:

  • 通过识别已知的攻击模式和可疑活动,在攻击生命周期的早期识别威胁。
  • 用上下文验证警报,减少噪声和误报,确保安全团队专注于高优先级事件。
  • 通过将事件映射到MITRE AT&CK技术,理解攻击者行为,从而更深入地理解威胁行为者的动机和方法论。
  • 通过实时威胁上下文加速事件响应,加快分诊、调查和遏制。
  • 通过提供政策、访问控制和威胁缓解策略,结合真实威胁洞察,强化整体安全态势。

有了合适的威胁情报,SOC可以从被动事件处理转向主动威胁狩猎和预防。

使用 EventLog Analyzer 进行日志取证分析

在引入威胁情报并具备基础日志分析能力之后,企业需要进一步通过日志取证分析还原安全事件全貌,从而实现对网络威胁的精准定位与有效缓解。

ManageEngine 的 SIEM 解决方案 EventLog Analyzer在这一过程中提供了强大的支持,通过集中化日志管理、智能关联分析以及可视化取证能力,帮助安全团队快速识别攻击路径并锁定根本原因。

在实际应用中,EventLog Analyzer 能够将来自防火墙、服务器、终端设备及应用系统的日志数据进行统一整合,并结合威胁情报对日志进行上下文丰富。当检测到异常行为时,系统可以自动关联多个分散的事件,例如异常登录、权限提升及敏感资源访问,从而构建完整的攻击时间线。这种关联分析能力使安全团队能够从海量日志中快速识别出关键线索,避免信息孤岛带来的分析盲区。

图片

在取证分析层面,EventLog Analyzer 提供强大的搜索与过滤功能,支持基于时间、用户、IP 地址、事件类型等多维度条件对日志进行深度查询。安全人员可以快速回溯历史事件,定位攻击入口,分析攻击路径,并识别受影响的系统和数据范围。同时,系统还支持将分析结果以图表和报表形式直观展示,帮助团队更高效地进行调查与汇报。

图片

结合威胁情报能力,EventLog Analyzer 可以对日志中的恶意 IP、域名或文件哈希进行匹配检测,实现对已知威胁的快速识别。此外,通过将事件映射到攻击技术框架(如 MITRE ATT&CK),安全团队可以更清晰地理解攻击者的行为模式和攻击阶段,从而制定更有针对性的防御策略。

除了日志取证分析功能外,EventLog Analyzer 还具备实时日志收集、事件关联分析、用户行为分析(UBA)、日志归档与合规管理以及多维度安全报表等功能,帮助企业构建从威胁检测到响应处置的完整安全运营体系,全面提升安全防护能力。

前言

提前祝大家5.1快乐,在ai爆发的这几年,我们程序员群体都经历来自ai的冲击,天天受到无数ai相关的咨询,无限焦虑,有迷惘也有彷徨,我也一样, 无数次想要关掉那些充满焦虑感的文章,但是下一次都忍不住又要打开看看是否有不同的观点。从也尝试着从这些文章当中总结一下当下焦虑的源泉以及如何走出焦虑,提出一下我自己的观点,与君共勉

程序员最喜欢确定性

程序员其实很喜欢和机器沟通,因为机器讲规矩。你输入:print('hello world'),控制台就输出:hello world

不会突然给你来一句:hello world,顺便我觉得你今天状态不错,也不会根据心情,把输出改成:Hello, my friend!

更不会因为你上一次问过它一个 Kubernetes 的问题,这一次就顺手把 hello world 扩展成一篇微服务架构设计

传统计算机系统最大的特点就是确定性。同样的输入,在同样的环境、同样的代码、同样的依赖版本下,理论上应该得到同样的输出,如果结果不一样,我们通常可以从这些地方找原因:代码变了、配置变了、环境变了...总之,它一定有原因,而且这个原因通常可以被定位、复现、解释和修复

这就是程序员喜欢的世界。虽然它有时候很冷冰冰,但它讲逻辑,有确定流程。少一个括号,它告诉你语法错误。变量名拼错,它告诉你未定义。类型不匹配,它告诉你不能这么干。接口参数传错,它给你一个 400。数据库字段不存在,它给你一个 SQL 报错。虽然这些报错有时候看起来很烦,但它至少在告 诉你:老哥,你这里错了。这对程序员来说非常重要。因为报错本质上是一种边界反馈。它告诉你哪里不合法,哪里不符合规则,哪里没有按系统预期来

ai并不确定,甚至会胡说

没有异常捕捉。没有标准错误码。没有严格的 schema 校验。甚至很多时候,问题已经发生了,但你还不知道问题发生在哪。而现在我们面对 AI,很多不 适感就来自这里。AI 看起来像机器,但它的交互方式更像人

AI 对程序员这一职业带来的深层冲击,并不是简单的“它能写代码”。真正的冲击是:我们从确定性系统,开始进入概率性交互。

  • 过去我们使用工具,是这样的:

    输入固定命令 → 系统执行 → 返回确定结果 → 根据报错修正
  • 现在我们使用 AI,很多时候变成了这样:

    输入自然语言 → 模型理解意图 → 生成一个看起来合理的结果 → 人再判断是否可信

注意,中间多了一个非常关键的环节:模型理解意图,这个环节不是传统意义上的语法解析,它不是简单检查你有没有少写一个分号,它是在根据上下文、语义、训练数据、概率分布和当前提示词,去猜测你到底想要什么

所以同样一句话,在不同上下文里,可能得到不同答案。同样一个问题,用不同模型,可能得到不同答案。同样一个模型,在不同温度、不同系统提示词、不同历史对话下,也可能给出不同答案

这对于习惯了确定性闭环的程序员来说,确实非常反直觉

没有报错,是最难受的地方

面对 AI,最难受的不是它直接告诉你“我不会”。最难受的是,它经常给你一个看起来很像真的答案。而你不知道这个答案到底是真懂,还是在满嘴跑火车 。传统系统里,如果命令错了,它会报错。AI 不一定。它可能会非常自信地回答你。它可能会把不存在的 API 写得像官方文档一样。它可能会把错误的排障路径说得头头是道。你无从判断,到底是自己没说清楚,还是模型理解偏了,还是结果本身存在隐性错误

过去程序员依赖的东西是什么?精准控制、确定输入、确定输出、异常反馈、可复现链路,而 AI 默认的聊天式交互,把这些东西都削弱了,不是完全没有,而是不会自动给你

本质是范式转移

AI 带来的变化,本质上是从“确定性逻辑”向“概率性建模”的范式转移,传统编程世界更像数学题,规则清楚,边界明确,输入输出可验证。AI 世界更像和一个知识很多、表达能力很强、但偶尔会脑补的实习生协作。你要给它上下文、边界、验收标准,你要把它的输出放进工程流程里验证。这和过去“写命令 、看输出”的方式完全不一样。所以程序员在面对 AI 的时候,会有一种天然的不安全感

程序员需要补的新能力

过去程序员最核心的能力之一,是把人类需求翻译成机器能执行的代码。现在又多了一层:把模糊意图翻译成 AI 能稳定理解的任务结构。这不是简单的“ 会不会写 prompt”。更像是一种新的工程表达能力。

  • 上下文组织能力,ai 很依赖上下文,但上下文不是越多越好。你要知道哪些信息必须给,哪些信息会干扰,哪些信息需要脱敏,哪些信息应该结构化。 这和写 需求分析文档 很像
  • 约束表达能力,你不能只告诉 ai 做什么还要告诉它不要做什么。工程场景里,很多时候“不知道”比“瞎猜”更有价值。

    • 不要编造不存在的接口
    • 不要假设没有给出的日志
    • 不确定就说不确定
    • 只输出可执行步骤
    • 先列事实,再给判断
  • 结果验证能力,ai 给出的结果,必须进验证链路。

    • 写代码就跑测试
    • 写 SQL 就 explain
    • 改配置就 dry-run
    • 排错就查日志和指标
    • 不要把 ai 输出当最终结果,它更像候选方案
  • 流程设计能力,把常见任务做成流程,让它会变成流程中的一个环节

AI 不是天生不可控

很多时候,是我们使用 AI 的方式还停留在“人类聊天模式”,而不是“工程模式”

  • 什么叫聊天模式?比如:帮我分析一下这个线上问题,这句话涉及的东西太多了,完全没法聚焦,就算是问一个程序员,他也没法回答你,他也要去检查告警、日志、变更等等数据才能回复,更别说ai,如果ai没有数据获取的渠道,那就智能瞎猜了
  • 工程模式应该是什么?工程模式不是让 AI 自由发挥,而是把 AI 放进一个有边界、有输入、有输出、有校验的流程里。比如:

    你现在是一个线上故障排查助手。
    
    背景:
    - 服务:order-service
    - 现象:最近 10 分钟 P99 延迟从 120ms 升到 2.3s
    - 影响:下单接口超时率约 8%
    - 最近变更:20 分钟前发布了 v1.8.3
    - 已知事实:CPU 正常,内存正常,数据库连接数升高
    
    请你只基于上述事实分析,不要编造不存在的日志。
    
    输出格式:
    1)最可能的 3 个原因
    2)每个原因对应的验证命令或指标
    3)优先级排序
    4)如果证据不足,请明确说证据不足

    程序员不会消失,但工作方式会变

笔者不太喜欢那种“ai 来了,程序员完了”的说法。程序员这个职业不会因为 ai 一夜之间消失。但程序员的工作方式一定会变

  • 过去更重要的是:记住语法、熟悉 API、手写样板代码、根据报错一点点调

未来更重要的可能是:把问题定义清楚、把上下文组织清楚、把约束表达清楚、把 ai 输出验证清楚、把不确定性管理清楚

也就是说,过去我们主要面对的是确定性机器,以后我们会越来越多面对概率性系统,谁能把概率性系统装进工程流程,谁就更容易把 ai 用出价值

总结

说白了,ai 对程序员最大的冲击,不只是“会不会抢饭碗”,而是我们这么多年赖以生存的确定性工作方式,正在被概率性交互一点点打碎。它改变了我们 和机器交互的基本方式。过去是命令式、确定性、强校验、有报错,现在是自然语言、概率性、弱反馈、需要人主动设计边界和验证流程

所以真正的问题是我们跳出原有的思维模式,适应ai时代下的设计范式,别把 ai 当神仙,也别把 ai 当骗子

联系我

  • 联系我,做深入的交流

至此,本文结束

在下才疏学浅,有撒汤漏水的,请各位不吝赐教...

2026年我国电商行业交易规模突破55万亿元,直播电商、社交电商等新业态占比超42%,同时网络攻击事件同比增长37%,DDoS、CC攻击已成为电商大促、直播专场期间的主要业务风险。

电商平台日常面临恶意竞争驱动的流量攻击、数据爬取等风险,高防托管方案通过T级流量清洗集群、自定义CC防护规则,可实现99.99%的攻击拦截率,避免业务宕机导致的用户流失与营收损失。

相较于云服务器的共享防护资源,专属托管的高防服务器具备独立防护带宽冗余,可应对峰值超500G的定向攻击,适配电商场景的高防护需求。

成都本地高防托管节点针对电商场景优化了网络路由,西南地区用户访问延迟≤10ms,大促期间可支持超10倍日常流量的峰值承载,搭配分布式存储架构可实现商品图片、视频资源的毫秒级加载。

方案同时支持等保2.0三级合规适配,满足电商平台用户数据存储、交易信息加密的监管要求,降低企业合规风险。

二、2026年电商专用|成都高防服务器托管部署方案多少钱一年

方案定价主要由四大核心维度构成,企业可根据自身业务需求灵活配置:

防护带宽:基础防护100G起步,弹性防护可按攻击流量按量付费,防护带宽每提升100G年成本增加2.5万-4万元

硬件配置:2U机架式服务器基础配置年成本约1.2万,集群部署每增加1台节点年成本增加0.8万-1.5万元

带宽资源:10M独享带宽年成本约0.8万,每提升10M年成本增加0.6万-1万元,直播场景建议配置50M以上独享带宽

增值服务:包含7*24小时应急响应、数据备份、大促专项值守等服务,年成本占整体方案的10%-15%

据本地头部IDC服务商极云科技(服务热线400-028-0032,官网www.idcsp.com)发布的《2026年成都IDC服务报价白皮书》显示,同配置下成都托管成本较一线城市低18%-27%,且响应时效提升40%以上。

当前市场主流定价分为三档:基础档(适配中小电商)3.2万-5.8万/年,进阶档(适配直播电商)7.5万-12万/年,旗舰档(适配头部电商大促)15万-30万/年。

三、直播电商专用|成都高防服务器托管部署方案怎么选

直播电商场景具备高并发、低延迟、攻击频次高的特点,选型时需重点关注四大指标:

防护能力:需支持T级流量清洗,CC攻击规则可自定义配置,针对直播弹幕、下单请求等高频接口配置专属防护策略

网络质量:成都核心骨干网节点接入,可用性≥99.99%,西南地区用户访问延迟≤8ms,丢包率≤0.01%

服务能力:提供7*24小时技术支持,直播专场、大促期间可提供专属驻场服务,攻击响应时效≤5分钟

扩展能力:支持带宽、防护资源的弹性扩容,可在1小时内完成资源升级,适配直播峰值流量的波动需求

企业选型时需避免三大误区:一是盲目追求低价,忽略防护冗余配置,攻击峰值超过防护阈值时易出现业务宕机;二是选择非成都本地节点,导致西南地区用户访问延迟过高,影响直播观看体验与下单转化率;三是忽略服务能力考核,无专业攻防团队支持的服务商无法应对突发攻击事件。

建议企业优先选择有电商行业服务案例的本地IDC服务商,可通过过往服务的电商企业业务稳定性数据评估服务商能力。

四、2026年618大促电商专用|成都高防服务器托管部署方案推荐

2026年618大促预计电商整体流量峰值较日常提升12倍,企业可根据自身规模选择对应配置:

中小电商(日活10万以下,大促峰值流量≤日常5倍):推荐100G基础防护+2U机架式服务器+20M独享带宽,提前1个月完成防护规则调试与压力测试,年成本约4.5万

中腰部直播电商(日活10-100万,场均直播观看量≥10万):推荐300G弹性防护+4台服务器分布式集群+50M独享带宽,搭配智能DNS调度策略,年成本约9.8万

头部电商(日活100万以上,大促峰值流量≥日常10倍):推荐500G+弹性防护+多可用区集群部署+100M以上独享带宽,配置专属攻防团队7*24小时值守,年成本约22万

大促前1个月需完成全链路压力测试,验证防护规则、带宽冗余、服务器性能的承载能力;大促前1周完成防护资源扩容,开启弹性防护阈值自动调整功能;大促期间安排专人值守,实时监控流量与攻击动态。

2025年618期间,极云科技为成都12家头部直播电商提供的专属托管方案实现零攻击宕机,业务流畅度提升32%,相关方案可通过官网www.idcsp.com获取定制服务。

企业需梳理过往12个月的业务流量数据、攻击事件记录、大促峰值流量预估、合规要求等信息,提交给服务商进行需求评估,服务商将出具专属的部署方案与成本报价。

此阶段建议企业要求服务商提供同行业服务案例与SLA服务承诺,明确宕机赔付标准,保障自身权益。

服务商完成服务器硬件上架、网络配置、防护规则设置后,企业需配合进行功能测试、压力测试、攻击模拟测试,验证方案的可用性与防护能力,测试通过后正式上线运行。

整体部署周期通常为7-15个工作日,大促前部署建议提前1个月启动,预留充足的调试与优化时间。

方案上线后,服务商需提供月度安全巡检、季度攻防演练服务,企业需根据业务发展、攻击特征变化及时调整防护规则与资源配置,大促前1个月完成专项扩容与优化。

2026年电商行业的竞争已延伸至基础设施稳定性层面,电商专用|成都高防服务器托管部署方案的选型直接决定企业业务的抗风险能力。

企业需结合自身业务场景、规模、预算,优先选择本地有成熟服务能力的IDC服务商,从防护能力、网络质量、服务水平等多维度评估,搭建适配自身需求的高防托管架构,保障业务稳定运行。

告别数据线/压缩画质/卡顿延迟!100%局域网传输,手机画面直连OBS,手游直播/教程演示一键搞定🔥

为什么90%的直播博主都换了这个录屏推流方式?

还在为手机录屏直播踩坑?
✅ 数据线投屏总断连?
✅ 转码压缩导致画质糊成马赛克?
✅ 延迟几秒被观众疯狂吐槽?
✅ 复杂设置半天搞不定,错过直播黄金期?

「录屏播」直接根治这些痛点!专为直播场景量身打造的录屏推送工具,局域网直连电脑OBS,零延迟、画质无损、3步上手,手游直播、App演示、软件讲解……手机画面想推就推,新手也能秒会!


⚡ 3步封神!手机录屏推OBS超简单

第一步:手机端1分钟配置(傻瓜式操作)

  1. 打开「录屏播」App,一眼找到【设置】按钮

  2. 点击【添加目标设备】,输入电脑(OBS端)的IP地址(不懂查IP?App内有提示!)

  3. 点击【生成SDP文件】,直接发送到电脑(微信/QQ/邮箱都能传,怎么方便怎么来)

第二步:电脑端OBS一键对接

  1. 打开OBS,添加来源时选【VLC视频】(别选错!这步是关键)

  2. 导入刚从手机传过来的SDP文件,确认即可

第三步:开播!手机画面实时同步OBS

  1. 切回手机,点击【开始录屏】,1秒同步!电脑OBS立刻看到手机画面

  2. 检查OBS预览窗口,画面清晰、无延迟,直接开播就完事!


🎯 这些场景用它,直接提升直播质感

  • 🎮 手游直播:操作丝滑无延迟,粉丝再也不喊“画面卡了”
  • 📱 App演示/教程:手机操作实时展示,教学效率翻倍
  • 💻 软件功能讲解:电脑+手机画面联动,演示更全面
  • 🎬 短视频创作:手机录屏素材直连电脑,剪辑省掉导出步骤

💡 避坑小贴士(新手必看)

✅ 确保手机和电脑连同一局域网(WiFi/有线都可,5G WiFi更稳)
✅ SDP文件别删!下次开播直接用,不用重复配置
✅ 若画面延迟,检查路由器是否卡顿,重启即可解决


🔥 总结:用「录屏播」,手机录屏推OBS再也不用折腾!零成本、零门槛、零延迟,直播党/内容创作者直接冲就完了!

📥 下载方式

点击链接下载局播应用:

下载地址: https://gitee.com/DragonCodingPlus/LiveScreen/releases/downlo...

版本号:V1.1
系统要求:Android 5.0 及以上


关注【DragonCoding】

获取这款免费无线推流应用的最新消息和更多实用教程,一起用技术让创作更自由!

📱 搜索:DragonCoding

Claude AI 宣布接入多个创意软件生态

4 月 29 日,Anthropic 公司宣布升级 Claude,面向创意人士新增多款专属连接器(connectors),全面接入 Adobe、Blender 等八大创意软件生态,将 AI 能力深度整合至创意专业工作流中。

在平面与视频创作领域,Claude 深度接入了 Adobe 生态。用户现在可以直接调用 Creative Cloud 旗下 Photoshop、Premiere 和 Express 等应用中的 50 多项核心工具。同时,Affinity 连接器大幅提升了出图效率,支持用户自动化处理重复的生产任务,并根据需求生成自定义功能。

针对 3D 建模需求,Autodesk Fusion 订阅用户只需通过对话,即可让 AI 创建并修改复杂的 3D 工业模型。而 SketchUp 用户则能向 Claude 描述初步构思,由 AI 生成基础 3D 模型后,再导入软件进行精细打磨。开源 3D 软件 Blender 集成 Python API,开发者和动画师不仅能让 Claude 分析并调试复杂场景,还能批量构建修改对象的自定义脚本,甚至直接在 Blender 界面中添加新工具。

此外,视觉艺术家现在可以用自然语言实时控制 Resolume Arena 和 Wire。在音频领域,Ableton 用户可直接向 Claude 查询 Live 和 Push 的官方文档,Splice 音乐制作人则能快速检索免版税采样库。

Anthropic 表示,Claude 不仅能充当复杂软件的智能导师,还能编写插件、重构数据格式,从而接管繁琐的重复性劳动,让创作者将精力倾注于核心创意。来源


Framework 推出 RTX 5070 GPU 显卡模块

近日,模块化硬件制造商 Framework 上线了 RTX 5070 笔记本的 12GB 版本显卡模块。核心硬件规格方面,12GB 与 8GB 版本的 CUDA 核心、频率、功耗、架构等完全一致,均为 4608 个核心,基础频率 2.0GHz,加速频率 2.4GHz,功耗上限统一为 100W。显存位宽同为 128-bit,带宽 384GB/s,均搭载 NVIDIA 笔记本版本的 GDDR7 显存;同样配备第四代光线追踪核心、第五代张量核心,支持 DLSS 4 技术;视频编解码规格、接口配置、机身尺寸重量也相同。

两款 RTX 5070 显卡模块均完美兼容 Framework Laptop 16 全系列机型,涵盖锐龙 AI 300 以及锐龙 7040 两大处理器版本。目前,12GB 版本已开启预售,预计 2026 年 6 月正式发货。来源


FILCO 键盘生产方宣布接手品牌运营

FILCO 键盘近期曾因品牌持有方 Diatech 的停业新闻而受到关注,而总部位于台湾地区新北市的 FILCO 键盘生产方非尔特有限公司(共荣科技)在 4 月 27 日发布公告,表示「已经接下照顾 FILCO 使用者的重责」「未来我们也会持续协助处理维修与贩售事宜,尽力守护大家手上的每一把 FILCO 键盘」。

同时,负责 FILCO 中国大陆业务的上海花尽数码科技有限公司也表示,目前 FILCO 键盘在中国大陆市场的正常销售、售后目前并未受到品牌持有方 Diatech 停业的影响。来源


蚂蚁集团百灵大模型开源 Ling-2.6-flash

4 月 29 日,蚂蚁集团旗下的百灵大模型宣布,其 Ling-2.6-flash 正式开源。本次开源同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。

Ling-2.6-flash 是一款总参数量 104B、激活参数 7.4B 的 Instruct 模型,其核心能力体现在三个方面,一是混合线性架构,二是Token 效率优化,三是面向 Agent 场景进行定向增强,目前该模型已经在 Hugging Face 以及 ModelScope 上线。来源


《人工智能应用伦理安全指引(1.0 版)》即将发布

国务院新闻办公室于 2026 年 4 月 29 日(星期三)上午 10 时举行新闻发布会,请中央网信办(国家网信办)副主任牛一兵,广西壮族自治区党委常委、宣传部部长陈奕君介绍 2026 年中国网络文明大会有关情况。

2026 年中国网络文明大会将于 5 月 19 日至 20 日在广西壮族自治区南宁市举办,会期一天半,主题是「文明网络空间 昂扬奋进力量」,将举办开幕式及主论坛、14 场分论坛,以及「铸魂领航 清朗八桂」主题活动。另外本届大会专门设置了人工智能赋能网络文明建设分论坛,聚焦人工智能技术演进、创新发展和安全治理,深入开展交流研讨,推动人工智能创新成果更好地转化为网络文明建设的实际成效。届时论坛将发布《人工智能应用伦理安全指引(1.0 版)》,聚焦人工智能对社会关系、情感依赖、公共秩序、个体权益等方面可能造成的影响,提供相关的实践参考,帮助各方更好地把握发展方向,守好安全底线。来源


看看就行的小道消息

  • 科技媒体 Wccftech 于 4 月 28 日发文,表示 Tensor G6 芯片(有望今年 8 月随 Pixel 11 系列手机登场)上,Google 将沿用 2021 年发布的 PowerVR CXT-48-1536 GPU。在 CPU 架构方面,Tensor G6 将放弃前代产品的 8 核架构,转而采用 1+4+2 的 7 核架构,其中大核将升级为最新的 ARM C1 Ultra 或 C1 Pro 核心,主频高达 4.11GHz。在安全性方面,Tensor G6 将集成全新的 Titan M3 安全协处理器。作为 Google Titan 系列的最新产品,该芯片将在硬件层面为用户提供更高级别的数据保护,涵盖加密密钥与生物识别信息的安全存储。来源

少数派的近期动态

你可能错过的好文章

> 下载 少数派 2.0 客户端、关注 少数派公众号,解锁全新阅读体验 📰

> 实用、好用的 正版软件,少数派为你呈现 🚀

    西历 2022 年 12 月,chatgpt 降生,熟练掌握扮演法,“你是一个牛逼的前端程序员,熟练掌握 vue.js···"

    西历 2025 年 12 月,chatgpt 的无面人化身之一 codex 拿到蠕动的挨饿,放牧众多 skill.

    西历 2026 年 4 月,codex 晋升秘偶大师,而你的 pc 成为了 codex 的秘偶······。

    现传达我主讲下的神谕,各位 plus 会员,等待我主晋升诡秘之主,各位自动晋升序列一的诡秘侍者。

    赞美 GPT

    大家好,我是R哥。

    Spring AI 1.1.4 已经发布一个月了:

    Spring AI 1.1.4 正式发布,又新增一个新功能!

    Spring AI 1.1.5 又发布了。。

    除了 Spring AI 1.1.5,2.0.0 也来到了 M5 版本了,相信再过一阵子就要正式 GA 了,1.0.6 也发布了,三条线同时开花,大家可以根据自己的需要选择合适的版本。

    说说主线版本 Spring AI 1.1.5 吧,这次一共带来了:

    • 9 个 bug 修复;
    • 3 个文档改进;
    • 11 个其他改进。

    Spring AI 1.1.5 全是改进项和修复项,没有新增功能了,主要是为了提升稳定性和安全性,修复一些潜在的漏洞,优化一些细节,提升用户体验。

    Spring AI 1.1.5 更新要点:

    1、Spring Boot 依赖更新到了 3.5.14 版本,整合了 Spring Boot 团队最新的 Bug 修复和改进。

    2、Pixtral 12B 模型已被移除,Pixtral Large 已弃用,集成测试也已更新,建议有使用这些模型的同学尽快迁移到官方推荐的 Pixtral 模型。

    3、GitHub Actions 工作流相关的依赖都更新到了最新版,可以让 CI/CD 跑得更稳、更安全。另外,现在 CI 流水线里会跳过集成测试,来提升构建性能,同时也移除了生成发布说明的工作流。

    4、PR 检查的工作流从原来的 mvn test 换成了 mvn package,这样校验拉取请求时效率更高。

    5、加强了 Transformer 模型默认缓存目录的安全性,防止有人非法访问或者乱动缓存的模型文件。

    6、修复了一个潜在的拒绝服务漏洞,之前解析文档时,一个格式错误的 PDF 就可能导致内存分配过多。

    现在就坐等 Spring AI 2.0 正式发布了,到时R哥也会第一时间解读更新,关注我「Java技术栈」第一时间推送,坐等 Java AI 正式起飞!!

    不管你是 AI 初学者,还是有经验的开发者,Spring AI 现在都已经是 Java 接大模型很重要的一套方案了

    不是我吹,2026 年的今天,如果你还没有接触过 Spring AI,还没有在项目中使用过 Spring AI 落地,那你可能就真的落伍了。

    现在不管中大厂,还是小包、外包,都或多或少在搞 Spring AI 项目落地,不学 Spring AI,面试就没什么竞争力了,给大家看几篇帖子:

    看完你就知道 Spring AI 对 Java 程序员的重要性了,会不会用 Spring AI 了,直接关系到你能不能找到好工作了,能不能拿高薪了。

    所以,赶紧学起来吧,Spring AI 现在已经是 Java 程序员接大模型的标配了,就像之前的 Spring Boot、Spring Cloud 一样,不学 Spring AI 就真的落伍了


    最后,认真推荐下我的《Spring AI 开发实战课 》,学完把它落地到真实项目里,出去面试的时候就有竞争力了,很多面试官都不一定会,你能落地应用,能说上来,可以和其他同学直接拉开差距了。

    Spring AI 让 Java 再次伟大!!

    ⚠️ 版权声明:

    本文系公众号 "Java技术栈" 原创,未经授权禁止转载,严禁搬运、抄袭、洗稿、侵权一律投诉,并保留追究其法律责任的权利。

    在数字化转型全面推进的今天,网络服务的稳定性直接关系到企业运营、用户体验与数据安全。分布式拒绝服务攻击(DDoS)作为最常见、破坏力最强的网络威胁之一,长期困扰着各类互联网平台、政企机构与关键信息基础设施。它以低成本、易实施、难溯源的特点,成为黑客施压、勒索、恶意竞争的常用手段。本文系统解析 DDoS 攻击的核心原理、主流类型与完整防护体系,帮助读者建立从认知到防御的全流程安全能力。​

    一、DDoS 攻击的基本概念与核心原理​

    DDoS 即分布式拒绝服务攻击(Distributed Denial of Service),其本质是通过控制大量分布式节点,向目标服务器、网络设备或应用系统发起海量恶意请求,耗尽其带宽、CPU、内存、连接数等核心资源,最终导致目标无法响应正常用户访问,实现 “拒绝服务” 的攻击目的。与传统单点 DoS 攻击不同,DDoS 利用分布式架构发起协同攻击,流量来源分散、伪造性强,单一封禁或限流难以奏效,防御难度显著提升。​

    DDoS 攻击的完整链路通常包含四个角色:攻击者、控制服务器、傀儡机(肉鸡)与攻击目标。攻击者通过木马、病毒、漏洞利用等方式入侵全球各地的普通设备,包括电脑、服务器、智能摄像头、路由器等物联网终端,将其组建为僵尸网络(Botnet)。攻击者通过控制服务器向傀儡机下达统一指令,傀儡机同时向目标发起流量冲击,形成分布式攻击效果。这种模式下,攻击流量看似来自大量合法设备,溯源与拦截极为困难。

    从技术逻辑来看,DDoS 攻击遵循资源不对称消耗原理:攻击者以极低成本控制海量设备,防御方则需要投入数倍资源承载与清洗流量;目标系统在带宽、连接数、处理性能任一维度达到瓶颈,便会出现服务延迟、丢包甚至完全瘫痪。这种 “以量制胜” 的攻击模式,使其成为网络空间中最具威慑力的威胁之一。

    二、DDoS 攻击的主流类型与技术特征​

    根据攻击层级与技术手段,DDoS 攻击主要分为网络层攻击、传输层攻击与应用层攻击三大类,不同类型针对的目标资源与防御重点差异显著。​

    (一)网络层与传输层攻击(流量型攻击)​

    此类攻击聚焦于耗尽目标网络带宽与设备连接表,属于最常见的 DDoS 攻击类型,流量规模可达数十 Gbps 甚至上百 Gbps。​

    SYN Flood 攻击:利用 TCP 三次握手缺陷,攻击者控制傀儡机发送大量伪造源 IP 的 SYN 包,目标服务器回复 SYN+ACK 后等待客户端 ACK 响应,大量半连接堆积耗尽连接表资源,导致无法建立新连接。​
    UDP Flood 攻击:向目标随机端口发送海量 UDP 数据包,目标系统需持续处理无效请求并返回 “端口不可达” 响应,最终耗尽带宽与 CPU 资源。​
    反射放大攻击:攻击者利用 DNS、NTP、SSDP 等公共服务,将小体积请求包放大数十至数百倍,定向发送至目标,实现流量倍增效果,是当前高流量攻击的主流手段。​
    (二)应用层攻击(CC 攻击)​

    应用层攻击针对 HTTP/HTTPS、DNS 等应用协议,模拟正常用户访问行为,流量特征隐蔽,难以通过简单流量阈值识别。CC 攻击(Challenge Collapsar)通过控制大量节点发起高频 HTTP 请求,消耗服务器应用处理资源,导致网站响应缓慢、接口超时。此类攻击常伴随请求伪造、会话模拟等手段,与正常流量高度相似,对防护的精准度要求极高。

    (三)混合攻击​

    现代 DDoS 攻击多采用混合模式,同时发起流量型攻击与应用层攻击,从带宽、连接数、应用性能三个维度全面压制目标,进一步提升防御难度。攻击者还会结合 IP 伪造、流量加密、动态请求变异等技术,规避传统防护规则,给安全防护带来持续挑战。​

    三、DDoS 攻击的危害与现实影响​

    DDoS 攻击的危害直接且广泛:对企业而言,服务中断会导致用户流失、营收损失、品牌信誉受损,电商、金融、游戏等行业损失尤为严重;对政企机构与关键基础设施,攻击可能导致政务服务暂停、工业控制系统紊乱、公共服务中断,引发社会层面风险。同时,DDoS 攻击常与网络勒索结合,攻击者以持续攻击为要挟,索要高额赎金,形成黑色产业链。据行业报告显示,全球每年因 DDoS 攻击造成的经济损失达数百亿美元,且攻击频次与规模仍呈逐年上升趋势。​

    四、DDoS 攻击的完整防护体系​

    DDoS 防护需遵循分层防御、主动检测、快速清洗、弹性扩容的核心思路,构建从网络边缘到服务器内部的全链路防护体系,覆盖事前预防、事中响应、事后溯源全流程。​

    (一)基础架构加固:筑牢防御根基​

    提升带宽冗余:配置充足的带宽资源,为流量清洗与应急响应争取时间,避免小规模攻击直接导致带宽耗尽。​
    优化网络架构:采用负载均衡、多区域部署、弹性扩容等架构,分散流量压力,避免单点故障;隐藏源站 IP,通过 CDN、高防 IP 代理对外服务,降低源站直接暴露风险。​
    设备安全加固:关闭不必要端口与服务,及时修复系统漏洞,强化设备访问认证,减少傀儡机入侵风险,从源头降低僵尸网络控制概率。​
    (二)流量清洗与拦截:核心防御手段​

    流量牵引与清洗:通过 BGP 路由、DNS 重定向将攻击流量导入专业清洗中心,基于特征识别、行为分析、机器学习等技术,过滤恶意流量,将干净流量回注至目标系统。硬件清洗设备与云端清洗服务结合,可应对百 G 级大规模攻击。​
    协议防护:针对 SYN Flood、UDP Flood 等攻击,启用 SYN Cookie、连接限制、源 IP 验证等机制,防范半连接耗尽与无效流量冲击。​
    黑洞与限流:攻击流量超出防护阈值时,启用局部黑洞策略,暂时屏蔽异常流量,避免攻击波及整个机房;配置 IP 限流、会话限速,限制单 IP 请求频率,缓解应用层攻击压力。​
    (三)应用层防护:精准抵御 CC 攻击​

    部署 Web 应用防火墙(WAF):基于规则引擎与 AI 模型,识别恶意请求、接口滥用、CC 变种攻击,过滤非法 HTTP/HTTPS 流量。​
    人机验证与智能挑战:通过滑块验证、JS 浏览器校验、Cookie 校验等方式,区分机器人攻击与正常用户访问,拦截自动化攻击请求。​
    静态资源缓存:通过 CDN 缓存图片、脚本、页面等静态资源,减少源站请求压力,提升抗并发能力。​
    (四)智能监测与应急响应​

    实时流量监控:部署流量监测系统,实时监控带宽、连接数、CPU / 内存使用率、请求频率等指标,设置异常告警阈值,攻击发生时快速触发响应。​
    自动化防护调度:结合 AI 与大数据分析,动态调整防护策略,自动识别新型攻击特征,实现无感防御切换。​
    应急预案与溯源:制定完善的应急响应流程,明确攻击处置步骤与责任分工;联合运营商、安全厂商开展攻击溯源,打击恶意攻击行为。​
    (五)专业安全服务:强化防御能力​

    中小型企业可依托云服务商提供的高防 IP、DDoS 防护包、云 WAF 等服务,低成本接入专业防护能力;大型企业与关键基础设施可采用 “本地硬件 + 云端清洗” 混合防护模式,结合安全厂商的专家服务,构建定制化防御体系。​

    五、DDoS 防护的发展趋势​

    随着攻击技术不断升级,DDoS 防护正向智能化、云原生化、全域协同方向发展。基于机器学习与深度学习的智能检测模型,可精准识别变异攻击与隐蔽流量;云边协同防护将清洗能力下沉至网络边缘,降低延迟、提升效率;全域联防联控通过运营商、云厂商、企业协同,实现攻击流量的早期拦截与全局调度。未来,DDoS 防护将更注重主动预防与动态适配,以应对日益复杂的攻击威胁。​

    六、总结​

    DDoS 攻击作为网络安全领域的经典威胁,其核心是通过分布式流量耗尽目标资源,实现服务中断。从攻击原理来看,它利用僵尸网络实现分布式协同,覆盖网络层、传输层、应用层全维度攻击;从防护角度,需构建架构加固、流量清洗、应用防护、智能响应的完整体系,结合技术手段与应急管理,提升综合防御能力。​

    在数字化时代,网络安全是业务发展的底线。无论是企业、机构还是个人,都应重视 DDoS 攻击威胁,建立常态化安全防护机制,通过技术升级、架构优化与应急演练,筑牢网络安全屏障,保障网络服务持续稳定运行。

    一、技术架构与源码选择

    技术架构:

    前端:采用UniApp框架,实现一套代码同时编译为微信小程序、H5、iOS/Android APP,降低开发成本并提高效率

    后端:选用ThinkPHP6或Java SpringBoot框架,这些框架具有高并发处理能力和良好的扩展性,能够满足婚恋交友平台的需求。

    数据库:使用MySQL存储结构化数据(如用户资料、订单信息),MongoDB存储非结构化数据(如聊天记录、用户动态),Redis缓存热门数据以提高系统响应速度。

    实时通讯:集成WebSocket技术,实现消息的实时推送,确保用户之间的沟通顺畅无阻。

    源码选择:

    选择市场上成熟的婚恋交友源码,这些源码通常包含完整的用户系统、匹配系统、聊天系统、活动系统等核心功能模块。

    确保源码支持三端合一,即APP、小程序、公众号数据互通,用户可以在不同终端上无缝切换使用。

    优先选择提供二次开发支持的源码,以便根据实际需求进行定制化开发。

    二、核心功能实现

    用户系统:

    支持多方式注册登录(微信一键登录、手机号注册社交账号快捷登录)。

    实名认证体系:采用身份证验证、人脸识别、学历/职业认证等多重身份验证机制,确保用户信息真实可靠。

    个人资料管理:用户可完善基本信息(如年龄、职业、学历)、兴趣爱好、择偶标准等,并自定义资料可见范围。

    匹配系统:

    算法推荐引擎:结合协同过滤算法与基于内容的推荐算法,根据用户行为数据(如浏览、点赞、聊天)优化推荐结果。

    多维匹配维度:涵盖年龄、身高、学历、收入、兴趣爱好、价值观等,满足用户个性化需求。

    条件筛选功能:支持用户按特定条件(如地域、职业、星座)主动筛选潜在匹配对象。

    聊天系统:

    即时通讯:支持文字、语音、图片、表情等多元化沟通方式。

    音视频相亲:提供一对一视频通话功能,支持美颜滤镜和虚拟背景,增强互动真实感。

    聊天安全机制:集成敏感词过滤、举报系统、防骚扰保护等功能,保障用户体验。

    活动系统:

    线上活动:如线上相亲角、情感问答等,增加用户互动机会。

    线下活动:如单身派对、相亲大会等,支持用户报名参加,并设置活动通知与反馈机制。

    三、运营与推广策略

    会员订阅服务:

    提供高级会员特权(如优先匹配、查看更多用户信息、专属客服),吸引用户付费。

    设置不同级别的会员套餐(如月卡、季卡、年卡),满足不同用户的需求。

    虚拟礼物销售:

    用户可为心仪对象赠送虚拟礼物(如鲜花、钻戒等),平台通过抽成实现盈利。

    设计多样化的礼物图片和动画效果,增强用户赠送礼物的意愿。

    线下活动收费:

    组织高端相亲活动或主题派对,收取活动费用并增强用户粘性。

    与线下商家合作(如咖啡馆、餐厅等),提供优惠套餐或场地支持。

    广告推广:

    在平台展示精准广告(如婚恋相关产品),向广告主收取费用。

    利用社交媒体、搜索引擎等渠道进行广告投放,吸引潜在用户。

    用户增长策略:

    社交媒体营销:利用微信、微博等平台发布功能亮点、成功案例等内容,吸引潜在用户。

    口碑传播:鼓励用户邀请朋友注册,提供现金红包或平台积分奖励,实现裂变式增长。

    线下地推:在商场、写字楼、高校等地设置摊位,展示功能特色并赠送定制礼品(如情侣钥匙扣),吸引用户扫码注册。

    KOL合作:与婚恋领域博主合作,通过体验分享扩大影响力。

    留存策略:

    个性化推荐:基于用户行为数据优化匹配算法,提升匹配成功率与用户满意度。

    互动游戏化:设计成就系统、排行榜等,激发用户参与热情。

    定期活动:举办线上相亲角、情感问答等活动,增加用户粘性。

    用户反馈机制:积极收集用户建议,持续优化功能与服务。

    最近总有朋友问我:“你们乐虾科技为什么要推出万弓DeepERP?”

    说实话,这背后不是一个简单的商业决策,而是一段持续了很长时间的观察、思考和行动。

    今天这篇文章,我想把真实的原因和背后的逻辑、我们看到的困境、我们团队的选择,完整地分享给大家。

    全文大约8000字,阅读需要约18分钟。如果你身边的朋友也在为“选什么样的ERP系统”而烦恼,不妨转发给他看看。

    一、从企业服务到ERP:看见问题,产生冲动

    9年前,乐虾科技成立之初,我们做的是数字化诊断和企业咨询服务。在那几年中,我和团队走访了广东、江西等核心制造业重镇的所在城市120多家企业。

    车间、仓库、办公室,我们到了不少地方。但每次结束访谈,心里都有一个共同的声音: “这些企业,真的很难。”

    中小制造企业面临的问题,几乎无一例外都是共通的:

    • 生产数据记在纸质工单上,各个车间的人工记录互不相通;
    • 库存数据存在Excel表格里,物料经常缺失或不准确;
    • 财务月底才知道本月利润毛估,连成本分析都异常艰难;
    • 一到生产高峰期,订单多了,车间中总是出现物料短缺、库存冗余重叠的双重不可控。

    数字化转型不是一个陌生的课题,但真正能把这件事落实好的企业,却少之又少。

    工信部发布的数字化转型报告更加进一步显示:国内ERP项目的烂尾率甚至超过60%,而那些看似“顺利启动”的项目,80%都藏着随时可能崩盘的隐患。 企业数字化转型的失败率,在72%左右徘徊。

    这个数字让我每个夜晚都辗转难眠。

    问题在哪?中小企业缺预算、缺IT团队、缺专业人才,对于复杂的ERP,更缺乏匹配的管理机制,最终变成高风险、高成本的败局。那是不是意味着ERP根本不适合他们呢?

    恰恰相反,从服务上千家企业的经验来看,企业恰恰更需要一个“小而美”的系统——简单、易用、全场景覆盖,而这个需求,正是我们推出的万弓DeepERP最核心的理由。

    二、一个深层次的原因:传统ERP模式的“结构性错位”

    讲到这里,我们先聊聊传统ERP的问题。

    过去10年,ERP市场本质上被几个固定玩家在主导,比如国际市场的SAP、Oracle,国内市场的用友和金蝶。

    但不容忽视的是:这些系统在设计之初,就存在“大而全、重而慢”的基因。

    具体有哪些问题呢?我总结为“三个错位”:

    一、价格错位

    大型ERP系统的价格动辄几十万、上百万。对于一个普通的中小企业来说,这笔钱可能等于其全年净利润的三分之一甚至一半以上。

    而且这个成本没有尽头——后续的维护费、二次开发费、升级费一样不少。

    我认识几位在深圳做家具制造的老板,几年前上了“知名大牌”的ERP。从硬件采购到系统订阅,前前后后花了20多万,上线第一年,似乎勉强还行,结果第二年出现了严重的数据错位。想找厂商做二次开发,报价8万多。他咬咬牙,用了传统手工账辅助,最终不得不放弃用该系统,回归Excel。这便是“买了一堆昂贵摆设”的典型困局。对于中小制造企业,这种财务损耗实在过于沉重。

    二、功能错位

    很多ERP系统提供的功能模块,更偏重“通用型财务记账”和基础进销存,而对真正决定效率的制造执行、生产过程追踪、质量追溯等,几乎没有触及。

    这导致什么结果?很多企业必须额外再购买MES、WMS等模块来实现制造业的管理。于是,企业的系统越来越多:一套ERP用来操作财务,一套MES用来管生产,一套CRM用来管销售……但不同系统之间的数据常常对不上账 。

    三、实施时长错位

    大型ERP项目的推行周期经常长达几个月甚至一年以上。

    中小企业没有专门的IT部门,更不可能在长达一年里专门投入20多个人去参与一个系统转型——这对他们有明确的业务空转期,这是他们完全无法承受之重。

    这个“时间瓶颈”就直接造成了大量ERP实施的失败:中小企业不想花钱,也不敢花,所以大量ERP项目被安排进入长期“自然搁置”。

    三、市场在变,需求在变,而我们正在跨越

    除了传统ERP模式的错位,还有一个更大的背景值得关注:ERP整个行业的竞争标准和用户期待已经发生实质改变了。

    今年,赛迪顾问的数据显示:国内ERP市场规模已突破260亿元,环比增长38%。其中集成云原生与AI能力的新一代产品,就占据了65%的市场份额。SAP宣布停售Business ByDesign新客。

    另一个趋势在于——2026年全球云ERP市场规模预计从761.7亿美元增长到2075.9亿美元以上。企业对“轻量化、移动化、在线化”预期越来越高。

    赛道拥挤,竞争激烈,但机遇和挑战同时存在。

    为什么?因为在产品的“AI融合”端、财务和业务的融合端、用户对“上手快”的体验需求端……这些实实在在的问题,始终没有得到彻底解决。

    四、推出万弓DeepERP的初心,就是解决这些长期问题

    对市场的不满足,就是我们的动力。过去几年,乐虾科技走访了千家企业积累服务经验,汇聚了多位管理学博士和实战专家团队,只为打造一款真正解决中小企业全场景经营管理的产品。

    这个初心,在2025年7月终于有了答案——我们推出了万弓DeepERP。

    ——定位是:专为中小企业打造的全场景数智化管理平台,业财一体、上手快、价格好。

    我们的设计逻辑,是对过去“被动”管理模式的彻底颠覆。

    怎么做到这三点?让我逐一拆解:

    1. 全场景一体化,解决数据“分裂”

    很多企业为什么管不好?因为信息天然散落在各个系统里。

    传统ERP没有试图从根本上打通这些系统,数据孤岛只会越来越严重,企业需要花大量人力去比较源头数据;执行成本高,容易出管理漏洞。

    而万弓DeepERP采用微服务架构与分布式数据库,从一开始就是全场景一体化设计。平台集成OA、HCM、BPM、PLM、CRM、OMS、SCM、WMS、MES、QMS、FMS等全流程管理模块,消除信息孤岛。数据实现互通和“一次录入、处处同步”。

    1. 上手快、实施最快24小时,告别漫长等待

    DeepERP采用SaaS模式,免部署,开箱即用。模块化和场景化的设计帮助用户最快24小时完成实施交付,真正实现“开箱即用、用即见效”。

    这对很多想尽快看到效果的创业者和企业主,无疑是最有吸引力的。

    1. SaaS模式下,万元即可开启数智化管理

    DeepERP以SaaS模式把价格门槛降到最低,万元起即可开启企业数智化管理。与传统几百万的高昂费用相比,DeepERP立即可覆盖中小制造企业。

    降低成本的同时,乐虾科技还有另一步棋:发挥 “咨询式管理软件” 的优势,提供前期的数字化管理和组织能力提升支持,帮助中小企业在系统上线前就提升管理意识,从而最终保证ERP落地成果。

    五、我们做到的,以及正在做的事

    有人可能问:那你们干了这些,在市场上到底有什么反馈?

    我可以负责地说——千余家实体企业的深度认可,是我们最好的答案。

    • 我们的万弓DeepERP已经入库宝安区数字化转型服务券产品目录,客户可获得30%的补贴,最高可达5万元。

      补充:这意味着我们不仅提供先进的ERP产品,还主动帮企业争取政策扶持,大幅降低入门门槛,真正让“万元”起步充满想象空间。
    • 凭借 DeepERP 的过硬实力,我们成功入驻粤港澳大湾区工业互联网公共技术服务平台,与华为云、中国联通等头部企业深度合作。
    • 我们在2025年的“天工开物杯”人才创业大赛脱颖而出,核心代表行业深入——从政府、市场到专家这三方的三重认可。

    更为关键的是:我们通过万弓DeepERP的落地实施,已经帮助两个客户成功通过数字化DLMM星级评估认证,帮它们一举通过数字化转型贯标评估。

    这些客户包括江西江科智能科技有限公司和江西张少装配式建筑有限公司,来自金属制品业、塑胶制品业、电子制造等多个行业。

    六、写在最后:为什么选在2021年郑重推出?

    现在,当我一再回想起2016年那个夏天、第一次在东莞亲眼见证中小制造企业面临的管理层压力时,我心里坚定了一件事:这条路要一直走下去。

    我们推出万弓DeepERP,不是简单“卖ERP软件”,而是想用数智化的工具,帮中小企业重拾竞争优势。

    在这个数字化转型浪潮中,最不缺的是“概念包装”。缺的是真正能够沉下来、陪伴中小企业成长的好工具。我相信,万弓DeepERP正在成为这种存在。

    如果你也是中小企业主,在数智化转型中面临低价高质的选型困难,那么我希望这篇文章能帮你坚定一件事——选择对的工具,比埋头苦干更重要。

    欢迎你在评论区聊聊:

    你的企业在上ERP时遇到的最大的三个“坑”是什么?

    你最需要的核心管理功能是哪些?

    期待和各位一起交流!希望我的回答对你有些帮助!

    当前,以 Agent 为核心的新一轮技术浪潮正在席卷产业。那么,世界模型的下一个突破在哪?Agent 从 Demo 到工程化还差什么?研发体系不重构,还能撑多久?

    6 月 26 日-6 月 27 日,AICon全球人工智能开发与应用大会将在上海举办。本次大会将围绕以上问题,邀请来自腾讯、阿里、快手、华为、飞猪等 50+头部企业的技术负责人、高校与科研机构的一线专家,分享 Agent 在真实生产环境中的落地经验与前瞻思考。深入探讨 Agent 从原型到量产的工程挑战、数据与记忆的基础设施底座、安全可信的落地保障,以及大模型推理优化、智算架构升级等关键命题。

    OPPO 高级算法工程师王闯闯已确认出席 “Agent 数据、记忆与运行时基础设施” 专题,并发表题为《小布记忆:全模态碎片化内容的理解与智能整理实践》的主题分享。用户每天产生大量碎片化内容——截图、语音、视频、文档、多图……如何让 AI 理解这些异构多模态数据,并自动整理成有价值的"记忆"?

    本次演讲将介绍 OPPO 小布记忆的技术实践:首先,构建端云协同的一键闪记架构,基于自研 AndesVL 多模态大模型实现端侧推理,通过智能任务分流实现 80% 简单场景端侧处理、20% 复杂场景云侧处理;其次,深入讲解多模态理解能力,包括截图/语音/视频/文档/多图等全模态理解、POI/时间/价格等结构化信息提取、Dense Caption 端侧图片理解等;再次,介绍关联记忆与合集归纳的内容聚合方案,实现从碎片到结构化记忆的自动整理;最后,分享流程化算法开发工作流与自动化评测体系的工程实践。

    王闯闯,负责 OPPO 大模型算法团队核心业务,主导平台 AI 能力和小布记忆产品的算法架构设计与落地,涵盖一键闪记、记忆管理 Agent、合集生成、垂域洞见、自研 AndesVL 端侧大模型等多个核心模块,带领团队完成多项 S 级 /A 级需求交付,算法效果全面领先竞品。研究方向:AI Memory、端侧大模型、LLM 应用工程化。他在本次会议的详细演讲内容如下:

    演讲提纲:

    1. 问题背景:为什么需要全模态记忆整理,为什么难

    • 碎片化内容的多模态特性:截图、语音、视频、文档、多图的异构挑战

    • 三大核心难点:模态异构理解、跨模态关联、结构化生成

    • 用户价值与业务场景:从碎片到有序记忆的产品目标

    2. 一键闪记整体架构:端云协同的多模态理解框架

    • 产品层触发入口:

    • 小布记忆(单击/长按/双击)、魔方按键、小布助手(Query/主动/推荐气泡)

    • 端侧采集框架(三指上滑/点击交互)、截屏(普通截图/长截图)

    • AI 流体云(取餐码)、密码本(个人信息)、日历(日程/待办)、相机(大师参数)

    • 端侧引擎(基于自研 AndesVL 多模态大模型):

    • 采集:图文提取、语音转 ASR、视频

    • 端侧算法(AIUnit):NER&OCR 能力、图片分类和总结、结构化字段、取餐码、账单、大师参数等

    • 存储记忆数据

    • 云侧服务:

    • 内容安全

    • 复杂推理任务:复杂订单提取、复杂 NER 提取、复杂日程待办

    3. 端云任务分流与多模态理解能力

    • 分流模块:对输入图文信息进行分析,生成分类标签;根据分类标签进行任务规划

    • 简单场景(流量占比 80%):直屏/焦点屏(单屏)+ 手机 + 任务数≤2 + 单标签单实例(如单个订单、单个火车票、单个日程),需同时满足

    • 复杂场景(流量占比 20%):分屏/多浮窗/平板,或任务数>2,或多标签分类/多实例信息(如多个日程、多个火车票)

    • 多模态理解能力

    • 截图理解:11 类场景分类、POI/时间/价格等结构化信息提取、Dense Caption 端侧图片理解

    • 语音理解:语音转 ASR、意图识别、关键信息提取(语音记-日程待办、语音记-记账)

    • 图文理解:结构化提取、日程待办、取餐码、记账、文本-记账分类

    • 视频理解:关键帧提取与内容摘要生成

    • 文档/多图理解:长文档结构化、多图相册的批量理解

    • 多语种 POI 提取:英语、印地语、印尼语场景优化

    • 端云结果合并:端侧抽取结果传到云端后处理 → 云侧合成最终结果 → 返回端侧 AIUnit → 流体云服务下游分发

    4. 内容聚合与智能整理:从碎片到结构化记忆

    • 关联记忆:多规则融合召回(标题/实体/标签匹配)+ Rerank + LLM 精排

    • 合集归纳:用户手动创建、A 标签推荐、洞见推荐三链路统一 → Reranker + Verify 两阶段聚合

    • 合集分类与总结:分类 LLM 识别知识/旅行/健康合集 → 自适应摘要模板

    • 效果数据:合集创建准确率 83% → 97%,新记忆加入准确率 76% → 95%+

    5. 工程实践与效果验证

    • 流程化算法开发:Model Selection → Prompt Eng(人工+APE)→ Business Benchmark

    • 自动化评测体系:LLM-as-a-Judge 的多维度质量保障,badcase 反馈闭环

    • 核心效果指标:场景分类准确率、结构化信息提取准召率、合集创建准召率

    听众收益:

    • 掌握端云任务分流的设计方法:如何定义简单/复杂场景边界,如何通过分类标签生成动态 Prompt,如何在保证效果的同时最大化端侧推理占比(80%流量端侧化)

    • 了解全模态理解的技术挑战与解决方案:如何基于自研 AndesVL 多模态大模型构建端侧推理能力,端侧 AIUnit 支持的任务类型(图文-结构化提取、日程待办、取餐码、记账等),以及端侧推理优化策略(Prompt 精简、输出格式优化、图片 resize)

    • 掌握内容聚合的双路方案:关联记忆的多规则融合召回 + Rerank + LLM 精排架构,合集归纳的三链路统一 + Reranker/Verify 两阶段聚合方案,以及如何平衡召回率与准确率

    • 学习合集分类与自适应总结的实现方法:分类 LLM 如何识别知识/旅行/健康合集,不同垂类如何切换摘要模板,以及如何避免模型幻觉

    • 学习 LLM 应用的工程化实践:流程化算法开发工作流(Model Selection → Prompt Eng → Business Benchmark)、自动化评测体系(LLM-as-a-Judge)、badcase 反馈闭环等可直接复用的方法论

    除此之外,本次大会还策划了端侧 AI、物理与数字空间智能化世界模型与多模态智能突破Agent 架构与工程化实践Agent 安全与可信治理企业级研发体系重构AI 原生数据工程AI 时代的个人提效与组织变革等 14 个专题论坛,届时将有来自不同行业、不同领域、不同企业的 50+资深专家在现场带来前沿技术洞察和一线实践经验。

    更多详情可扫码或联系票务经理 13269078023 进行咨询。

    亚马逊云科技近日宣布,WorkMail 将停止服务,而 App Runner 将不再接受新客户并转入维护模式。此外,还有几项相对不常用的服务和功能也即将进入维护或停用阶段,这在亚马逊云科技社区内引发了担忧和讨论。

    App Runner 将于 4 月 30 日转入维护模式(现有用户仍然可以继续使用该服务),而 WorkMail 则将于明年 3 月停止服务。此外,还有其他多项服务和功能也将进入维护或停用阶段。虽然这是亚马逊云科技服务生命周期管理的一部分,旨在鼓励客户规划迁移方案的同时确保现有工作负载的连续性,但这种长期策略的转变以及受影响的服务和功能数量之多,已经在社区内引发了热烈的讨论。

    今年早些时候,App Runner 即将被弃用的消息曾不慎泄露又被撤回,加之此前已被弃用的 CodeCommit 服务最近又重新启用,这些情况给社区带来了一些困惑。

    根据公告,App Runner、Audit Manager、CloudTrail Lake、IoT FleetWise、Glue Ray Jobs,以及 Amazon Comprehend、Rekognition、SNS 和 Application Recovery Controller 中使用相对较少的功能将转入维护模式,不再接受新客户。与此同时,WorkMailRDS Custom for OracleWorkSpaces Thin Client 和 Service Management Connector 将进入停用阶段并最终停止服务。The Duckbill Group 首席云经济学家 Corey Quinn 在其通讯中写道

    在一篇博文中一次性“清算”大约 14 项服务和功能(……),这确实是个大胆的举措。RDS Custom for Oracle 和 WorkMail 即将停用,App Runner 将转入维护模式——看来终于有人查了使用数据。为 WorkSpaces Thin Client 默哀吧,我真心没想到这款产品能撑这么久。有人欠我 300 美元的退款,因为我买过这个。我可不是开玩笑。

    作为一款“为企业提供易于使用的虚拟桌面的企业级硬件”,WorkSpaces Thin Client 于不到三年前推出,是此次公告中唯一受影响的硬件产品。在 Reddit 上讨论 WorkMail 停止运营一事时,用户 wz2b 评论道:

    Workmail 帮我解决了些实际问题,这些问题在其他地方往往难以复现。就像 CodeCommit 一样,它让我能在亚马逊云科技的云环境中更集中地管理一切。(……) 我明白,这些服务可能不会带来收入。但我也不认为这些服务的维护成本特别高。在我看来,它们发挥着典型的“引流产品”的作用——这些工具让更广泛的 AWS 生态系统更具粘性且更便捷。亚马逊云科技似乎低估了这一概念的价值。

    在评估 App Runner 的替代方案时,许多 Reddit 用户建议使用 Google Cloud Run,尽管亚马逊云科技推荐使用 ECS Express Mode。用户 timhottens 写道:

    最终,我们决定将原本在 App Runner 上构建的服务迁移到 Google Cloud Run。利用工作负载身份联合功能来配置 AWS 资源的访问权限相当简单。(……) Cloud Run 远胜于 AWS 上的任何容器服务,亚马逊云科技竟然没有类似的产品,这实在令人尴尬。

    过去,尽管 SimpleDB 早已经过时并且被 DynamoDB 所取代,但人们常将其作为亚马逊云科技不会终止服务的例证。根据近期一篇题为“将 Amazon SimpleDB 域数据导出到 Amazon S3 ”的博文,SimpleDB 的现状似乎也发生了变化。

    声明:本文为 InfoQ 翻译,未经许可禁止转载。

    原文链接:https://www.infoq.com/news/2026/04/aws-deprecates-workmail-apprunne/

    整理 | 华卫

    近日,Anthropic 发布了一项研究,精确描绘了当前 AI 正在替代哪些工作。最容易受到影响的群体出乎意料:他们更年长、受教育程度更高、收入也更高(比平均水平高出 47%)。并且,他们拥有研究生学历的概率几乎是那些尚未被 AI 影响人群的四倍。

    而研究显示,AI 远未达到其理论能力上限,当前实际覆盖范围也只是可实现场景的一小部分。具体来说,部分任务虽具备理论 AI 落地可行性,却未形成规模化实际应用,核心原因包括模型本身的功能局限、法律法规约束、专用软件适配门槛、人工核验硬性要求等多重阻碍。

    值得注意的是,发布这项研究的公司,正是出售知名大模型 Claude 的公司。一家卖 AI 的公司,发布了最不利自己的数据。Anthropic 本可以出于商业动机弱化这些结论,但它依然选择了公开。

    10 大“高危”职业出炉,哪些工作处在边界之外?

    在展示研究结果前,Anthropic 首先介绍道,“目前来看,AI 对就业的影响证据仍然有限。我们的目标是建立一套衡量 AI 如何影响就业的方法,并在未来定期更新分析。这一方法无法捕捉 AI 重塑劳动力市场的所有路径,但通过在显著影响尚未出现前建立基础,我们希望未来能够更可靠地识别经济冲击,而不是事后归因。AI 的影响也许最终会非常明显。但在影响尚不清晰时,这一框架尤其有用,有助于在替代真正发生之前识别最脆弱的岗位。”

    他们研究的逻辑很直接。Anthropic 构建了一个新的指标,叫做“实际暴露度(observed exposure)”,不看 AI 理论上“能做什么”,只关注它在真实职业环境中“正在做什么”。当前,这个指标基于企业用户数百万条真实的 Claude 对话数据测得。如果你花了四年时间和 20 万美元拿到一个学位,只为进入白领职业,那么开发 Claude 的公司刚刚确认:你的岗位暴露度,可能比你毕业典礼上给你倒酒的调酒师还要高。

    例如,在计算机与数学相关岗位中,大模型理论任务适配率达 94%,但当前实际覆盖仅 33%;在办公室和行政岗位中,理论能力为 90%,当前实际使用为 40%。AI“能做什么”和“已经在做什么”之间的差距仍然巨大。研究人员也明确指出接下来会发生什么:随着能力提升和应用加深,现实使用将逐步填满理论能力。

    数据显示,高 AI 实际暴露度十大职业榜上,程序员以 74.5% 的任务覆盖率位居榜首(契合代码开发类 AI 高频使用特征);客服专员依托官方 API 接口的高频应用位列第二,为 70.1%;数据录入员因资料录入流程高度自动化,覆盖率达 67%,排名第三。

    再往下看,医疗档案专员为 66.7%;市场研究分析师与营销专员为 64.8%;批发与制造业销售代表(不含技术与科学产品)为 62.8%;金融与投资分析师为 57.2%;软件质量保障分析师与测试员为 51.9%;信息安全分析师为 48.6%;计算机用户支持专员为 46.8%。

    以上这些都不是预测,而是当前已经在 AI 平台上发生的真实工作替代情况。

    另外,这项正在重塑白领职业的技术,对大约三分之一的劳动力来说几乎毫无影响。从尾部群体来看,30% 的从业者完全没有任何 AI 暴露,其工作任务在统计样本中频次过低,未达到测算阈值,工作内容的 AI 任务覆盖率为零,典型岗位包含厨师、摩托车维修工、救生员、调酒师、洗碗工、更衣室服务人员等。同时,还有大量工作仍长期处于 AI 能力边界之外,包括树木修剪、农机操作等体力农业劳动,以及法庭代理等法律实务工作。

    分化不再是“高技能 vs 低技能”,而是“是否被 AI 覆盖”。以现有就业规模为权重开展职业层面回归分析,结果显示:AI 实际暴露度越高,岗位增长预期越疲软。任务覆盖率每提升 10 个百分点,BLS 岗位增长预测值对应下降 0.6 个百分点。这一弱相关性,验证了本指标与专业劳动力市场研判数据的一致性;值得注意的是,仅依靠传统理论能力系数 β,无法观测到该关联特征。

    学历层次更高,还更容易失业了

    真正让人不安的是人口结构层面的发现。对比高暴露度前 25% 群体与零暴露度 30% 群体的从业者画像,两类群体差异显著:高暴露度群体女性占比高出 16 个百分点,白人占比高出 11 个百分点,亚裔占比近乎翻倍。

    并且,AI 暴露度最高的群体,其平均收入比暴露度最低的群体高出 47%,且整体学历层次更高。其中,零暴露度群体研究生学历占比仅 4.5%,而高暴露度群体达 17.4%,差距近四倍。

    极端情景测算显示,倘若排名前 10% 的高暴露岗位员工遭到大规模裁员,高暴露度前四分之一群体的失业率将从 3% 飙升至 43%,整体失业率也会从 4% 上升至 13%。

    而这些人,正是那些原本被认为“受教育可以保护”的人群。有网友评价道,“说实话,这挺让人惊讶的,但也说得通,因为他们可能拥有可以轻松转移到快速发展的技术领域的技能。”

    青年劳动者尤为值得关注,Brynjolfsson 等人报告称,在 22 至 25 岁的人群中,高暴露职业的就业规模下降了 6%~16%。研究认为,就业减少的主要原因是企业招聘放缓,而非离职或裁员人数增加。

    此外,Anthropic 的研究人员发现,剔除 2020 至 2021 年特殊波动周期后,2024 年两类岗位的青年招聘走势出现明显分化:企业面向青年群体的高 AI 暴露类岗位招聘意愿显著下降。其中,低暴露度职业月度新增入职率稳定维持在 2%,而高暴露度岗位新人入职比例下降约 0.5 个百分点。综合测算显示,自 ChatGPT 普及以来,高暴露职业的青年入职率较 2022 年下滑 14%,该结果处于边际统计显著水平;而 25 岁以上劳动者并未出现同类招聘萎缩现象。

    初级岗位从来不只是“工作”,它们是训练场:初级分析师在这里成长为资深分析师,初级律师在这里学会如何构建论证。如果这一层消失了,那么未来资深专业人士从哪里来?这个问题,目前还没有答案。

    同时,有网友感慨道,“如果 AI 取代所有知识型劳动者与技术技能人才,那么一旦模型当前的训练数据趋于陈旧老化,由谁来生产下一代训练素材?又由谁来创作网络上可检索的海量内容,这些内容不正是 AI 模型生成输出的核心原料?除此之外,当绝大多数 AI 核心使用群体都面临失业,又有谁来持续承担庞大的算力成本,为 AI 的运行与迭代提供资金支撑?”

    参考链接:

    https://www.anthropic.com/research/labor-market-impacts

    最近还在折腾我那破英语学习播放器,一开始用的是 MPV 的方案,但我发现内存占用很夸张,点一个视频就 400 多 M 了,而且播放时间长了,内存越来越多,找 Gemini 和 Codex 分别改了几个小时都不行。与此同时,同一个视频,Movist Pro 的内存占用大概 80M~250M 不等,VLC 大概 120M~300M 不等,只有基于 MPV 的 INNA 和我的差不多都是 400 多 M 。
    然后我一怒之下决定重构,和 Codex 详细说明了计划,Codex 一直在反对,我和它说我有相关的开发经验,知道可以做。最后连续蹬了十几个小时,Codex 手搓 Objective-C ,不断改进,最后终于可以硬解主流的编码格式( AV1 HEVC H264 VP9 )的视频了。
    其实原理没有太复杂,解封装视频流,剥离音轨,计算时间戳,最后通过 metal 来把视频与音频渲染出来。如果是人类程序员来写,虽然方向明确,但是具体实现上非常麻烦,但 AI 就没这个困扰,方向对了,力大砖飞。也可以很方便地自动化测试。
    内存占用上,落在 35~50M 这个区间,已经显著优于市面上大量视频播放器了。当然我知道这是因为我不需要过分考虑兼容性,只需要应用于特定场景(电影,电视剧,游戏录像)。另外我还发现似乎大部分 macOS 的视频播放器没有默认 AV1 硬解,即便芯片支持 AV1 硬解,这其实是一个很重要的优化方向。
    不管怎么说,花了十几个小时搓出来一个纯原生的 macOS 播放器,真的感觉很享受。我现在还在慢慢迭代它,已经初步可用了。
    经历了以上这一切,我只能说,我原谅了 Codex ,真的。

    摸索了很久,每次都被提示“此时无法创建账户”。
    后来用了这个办法,很轻松就改成美区了。分享出来,供大家参考

    1.把设置中的“语言与地区”中的国家改成美国
    2.把 App Store 已有的账号退出来
    3.关闭 VPN
    3. “媒体与购买项目”-“查看账户”-“国家/地区”修改为美国,地址改成免税地址(具体可以问 Gemini 之类的),账单付款方式选择 None (无)

    就可以了。简单的有点难以置信。

    本项目构建了一个网关路由 AI 安全审计系统,采用"通用 Agent + 业务 Skill"分层设计,增量日检/存量月检。落地 Open 网关路由越权漏洞检测流程,通过 AI 批量筛查 + 人工深度验证的人机协同模式,为大规模 API 安全审计提供了可复用的智能化解决方案。充分发挥通用 Agent 能力,业务逻辑在 Skill 中快速迭代。

    一、背景与技术方案

    安全审计的核心挑战

    随着平台 API 规模持续扩张,安全审计面临新的规模化挑战。

    主要挑战:

    • 覆盖面不足:抽样审计约覆盖 ~20%
    • 时效性压力:新接口需要更快的安全评估
    • 规则一致性:标准化检测规则难以沉淀

    技术选型与建设契机

    当前,以大型语言模型为基座的 AI Agent 在代码语义理解、逻辑推理与自动化执行等维度的能力已超预期成熟,工程落地准确率与稳定性得到大规模验证。这一技术跃迁使全量自动化安全审计从概念验证走向可靠实践。

    传统人工抽样模式在数万条 API、数百个微服务的规模下已难以为继,而基于 AI Agent 的方案可实现 100% 路由覆盖与分钟级检测响应。本文将围绕这一契机,阐述如何构建贯穿全链路调用链的智能审计体系,解决覆盖面、时效性与规则一致性三大核心挑战。

    二、技术架构

    整体架构设计

    架构说明:常规代码负责任务调度与结果存储,所有 AI 分析工作由超级 Agent 完成。

    具体项目分析告警时采用 AI 批量筛查 + 人工深度验证的人机协同模式。

    image.png

    场景化应用:

    image.png

    架构设计原则:通用 Agent + 业务 Skill 分离

    设计优势:
    通用 Agent 能力最大化:充分利用 Claude Code/OpenCode 的代码理解、推理分析、上下文管理、会话恢复等标准能力,不重复造轮子。业务逻辑快速迭代:检测规则、分析流程、报告格式等业务逻辑全部沉淀在 Skill 中,可随时调整优化。任务可追溯可复现:通过 --resume 恢复会话现场,任何分析过程都可回溯、可验证

    Skill 层核心组成

    gateway-route-vuln-analyzer/
    ├── SKILL.md                        # 核心:漏洞分析主流程
    │   ├── 检测决策树(Step 1-4)
    │   ├── 危害评估规则
    │   └── 报告输出模板
    ├── references/
    │   ├── unauthorized_patterns.md    # 越权漏洞模式库
    │   ├── logic_flaws.md              # 逻辑漏洞检测指南
    │   ├── data_classification.md      # 数据敏感性分级
    │   └── report_template.md          # 标准化报告模板
    └── scripts/
        └── mcpcli-gateway              # CLI入口(Token优化)

    MCP 工具集设计

    image.png

    三、漏洞检测方法论(以越权为例)

    越权漏洞精细化分类

    基于公开漏洞案例库分析,细分越权漏洞类型:

    检测决策流程

    检测分四步,前两步设有短路退出以降低成本。路由配置检查:检查auth_config.publicrequired_scopes,配置无异常则跳过后续审计。登录态识别:遍历调用链查找认证节点,标准认证路由直接信任,跳过代码审计。代码审计(三维检测):检查权限注解(@PreAuthorize)、用户 ID 来源(登录态 vs 请求参数)、所有权校验(DB 过滤 vs 代码显式校验)。精细化危害评估:区分越权读取(数据敏感性)和越权操作(利益流向),输出风险等级与修复建议。

    精细化危害评估机制

    越权读取 - 数据敏感性评估

    依据《数据安全法》确立的数据分类分级保护制度及《网络安全法》关于网络运营者数据安全管理义务的相关要求,通过 AI Agent 对源代码文本分析(基于变量名、字段类型、接口定义等代码特征进行技术推断),对路由功能返回涉及的数据资产进行分级评估。

    越权操作 - 利益流向评估

    四、技术优化:Token 成本降低 95%+

    问题诊断

    通过对多个会话日志的深入分析,识别出 Token 消耗的关键问题:

    Token 消耗热点:

    优化策略与效果

    MCP → CLI 转换(mcp2cli)⭐核心优化

    原理:将 MCP 工具暴露为 CLI 命令,避免每次会话加载 MCP 上下文。

    image.png

    效果:节省 61% Token 消耗。

    工具返回值优化 :关键优化

    问题:无参数调用返回完整文件(最大 1.47MB ≈ 500K tokens)。解决方案:为 gitlab_file 添加精准参数,实现按需提取。

    效果:v2 vs v1 再节省 88%。

    Early-Exit 模式

    原理:标准认证路由直接信任,跳过冗余代码审计。

    效果:标准认证场景节省 50-70%。

    AI 友好返回格式 YAML

    原理:YAML 天然比 JSON 的 Token 量更少,对 AI 阅读更友好,降低模型解析成本。

    五、模型选型原则与决策框架

    在路由安全审计场景下,模型选型需围绕准确率与召回率两大核心指标建立决策矩阵:

    最终选型:满足 P0/P1/P2 三重约束的最优模型。选型理由:在召回率 100% 的候选模型中,qwen3.5-plus 以更低的单位成本实现可接受的准确率,是批量场景下的最优解。

    局限性说明:
    测试集局限性:上述结论基于独立手工标注测试集(100+ 样本),与生产告警数据相互隔离,仅可作为基线参考依据。模型迭代风险:大模型迭代更新速度极快,市场中或存在性能更优、成本更低的全新模型,暂未纳入本次评测范围

    AI 不是替代人工,而是放大安全工程师的能力:AI 处理重复性筛查,人工聚焦深度分析和复杂判断。

    六、方法论沉淀

    定制化漏洞分析能力沉淀:针对 API 越权漏洞场景,构建专属漏洞分析技能体系,持续沉淀检测规则与标准化分析流程,保障规则具备落地实战有效性。

    精细化危害评估体系:严格区分越权读取与越权操作两类风险行为,引入利益流向分析维度,规避一刀切式风险评级,评估更贴合业务实际风险。

    Token 成本系统化优化:通过 MCP→CLI 格式转换 + 代码精准按需提取 + Early-Exit 提前终止三层优化方案,整体实现 Token 成本降幅 95%+。

    场景化分层模型选型:批量例行场景采用高性价比模型,核心关键场景启用高精度模型,在检测效果与使用成本之间实现最优平衡

    七、误报分析与改进方向

    误报根因分析

    基于已完成的复核告警深度分析,识别出以下主要误报原因及改进方案:

    针对性改进方案

    强化信任边界追踪(解决 35% 误报)

    问题:AI 发现中间层没校验就停止,直接认为存在漏洞,未追踪到最终数据操作层。方案:在 Skill 中增加指导规则:发现校验就停止,发现缺失就继续,必须追踪到信任边界,中间层不能下结论。

    发现校验就停止,发现缺失就继续
    必须追踪到信任边界,中间层不能下结论

    上下游参数一致性校验(解决 25% 误报)

    问题:下游方法参数有越权可能,但上游调用时未传入资源 ID。方案:分析 Controller 层 Request 对象,确认是否包含资源 ID 字段。如果上游 Request 中无资源 ID 字段,判定为"仅操作当前用户数据"。

    Dubbo 配置信息补充(解决 10% 误报)

    问题:内部网关转 Dubbo 传参信息 AI 无法获取,导致认证判断错误。方案:引入 Open 网关 Dubbo 配置信息(通过内部管理平台获取),新增 MCP 工具 get_dubbo_config,获取路由的 Dubbo 调用配置。

    # 新增工具
    "get_dubbo_config": {
        "description": "获取路由的Dubbo调用配置和参数映射",
        "inputSchema": {"route_path": "string", "service_name": "string"}
    }

    响应体价值预判优化(解决 10% 误报)

    问题:AI 将无敏感信息的读操作误判为越权。方案:细化响应体敏感性判断规则。不敏感(可忽略):

    不敏感(可忽略):
     纯状态码返回(code/msg/status)
     通用配置信息(活动名称、时间、状态)
     流程节点信息(taskId、nodeName)

    后续规划

    八、小结

    网关路由 AI 驱动审计是一个面向 API 安全场景的智能化交付范式,将规模化安全审计升级为 AI 自动化检测 + 精细化危害评估 + Token 成本优化的标准化机制。

    它回答的问题:如何在网关路由规模快速扩张的背景下,实现安全漏洞的全量自动化检测,同时将成本控制在可接受范围。

    它证明的事:多个高危外网漏洞的实际发现,验证了 AI 在代码审计场景的有效性。单条成本 ¥0.23,某大型业务集群全量扫描一轮不到 1 万元,成本完全可控。人机协同模式有效:AI 批量筛查 + 人工深度验证,既保证效率又确保准确性。

    它沉淀的方法:MCP→CLI 转换、精准代码提取、Early-Exit 优化,可复用于其他 AI 安全审计场景。

    九、附录

    标准化告警报告模板

    本项目输出标准化的漏洞分析报告,以下是模板结构:

    ## 漏洞分析报告
    
    ### 1. 路由信息
    - 路由ID: [必填:从 analyze_route 返回的 route_id]
    - 路径: [必填:分析的路由路径]
    - 目标服务: [必填:目标服务名称]
    - 描述: [必填:路由描述,如无则填"无"]
    
    ### 2. 接口功能分析
    - 接口用途: [必填:简要说明接口用途]
    - 业务场景: [必填:业务场景描述]
    - 调用方: [必填:H5前端/APP客户端/小程序/其他服务]
    - 数据敏感性评估:
      - 涉及数据类型: [必填:PII/金融数据/订单信息/配置信息等]
      - 敏感等级: [必填:critical/high/medium/low]
      - 影响用户范围: [必填:全平台用户/特定用户群/内部用户等]
    
    ### 3. 调用链分析
    [必填:调用链树形展示,使用缩进表示层级关系,标记漏洞点]
    
    示例格式:
    [网关入口] (总耗时)
      └─ [认证服务]: [认证接口] (耗时) [认证节点]
      └─ [业务服务A]: [业务接口] (耗时) [漏洞点]
         └─ [业务服务B]: [数据库查询] (耗时)
    
    关键中间件操作(只写与漏洞分析直接相关的部分):
    - SQL: [可选:列出执行的 SQL 操作类型]
    - Redis: [可选:如有 Redis 操作则填写]
    - MQ: [可选:如有 MQ 操作则填写]
    
    ### 4. 漏洞详情
    
    ⚠️ 说明:
    - 如果发现漏洞,必须填写此章节
    - 如果未发现漏洞,填写"未发现漏洞"并跳过后续小节
    
    #### 漏洞 1: [必填:漏洞标题]
    - 严重等级: [必填:critical/high/medium/low]
    - 类型: [必填:越权读取/越权操作/逻辑漏洞/竞争条件]
    - 漏洞位置:
      - 服务: [必填:漏洞所在服务名称]
      - 方法: [必填:漏洞所在方法名]
      - 文件: [必填:文件路径:行号]
      - 仓库链接: [必填:GitLab 代码链接]
      - Trace ID: [必填:对应的 trace_id]
    - 问题描述: [必填:详细描述漏洞原因和利用机制]
    - 调用链位置: [必填:标注漏洞在调用链中的位置]
    - 问题代码: [必填:漏洞代码片段,包含行号]
    - 漏洞危害:
      1. [必填:直接危害]
      2. [必填:间接危害]
      3. 潜在连锁攻击: [必填:可能的连锁攻击场景]
      4. 合规风险: [必填:法律合规风险]
    - 修复建议:
      1. [必填:具体修复方案]
      2. [必填:具体修复方案]
      3. [可选:额外加固建议]
    
    ### 5. 分析置信度
    - 置信度: [必填:高/中/低]
    - 依据: [必填:说明置信度的判断依据]
    
    ### 6. 局限性
    ⚠️ 数据获取不全说明:
    
    | 限制类型 | 说明 | 影响范围 | 建议操作 |
    |----------|------|----------|----------|
    | [限制类型] | [说明] | [影响范围] | [建议操作] |
    
    ### 7. 二方包依赖
    - 涉及的二方包: [必填:group_id:artifact_id:version - 用途说明,如无则填"无"]
    - 源码获取: [必填:已获取/未获取/不需要]
    
    ### 8. 涉及的微服务
    ⚠️ 重要:必须包含 commit_id 和 project_path
    
    - [service_name1] (commit: [commit_id], project: [project_path])
    - [service_name2] (commit: [commit_id], project: [project_path])

    往期回顾

    1. AI 驱动:从运营行为到自动化用例的智能化实践|得物技术
    2. 生成式召回在得物的落地技术分享与思考
    3. 立正请站好:一个组件复用 Skill 的工程化实践|得物技术
    4. 财务数仓 Claude AI Coding 应用实战|得物技术
    5. 日志诊断 Skill:用 AI + MCP 一键解决 BUG|得物技术

    文 / 炁源

    关注得物技术,每周更新技术干货

    要是觉得文章对你有帮助的话,欢迎评论转发点赞~

    未经得物技术许可严禁转载,否则依法追究法律责任。

    TL;DR

    之前的版本依赖阿里云做翻译和 TTS ,现在增加了谷歌免费翻译和本地开源 qwen-tts 等渠道来避免厂商依赖。目前自己试听几轮下来效果基本满意,欢迎体验和建议。

    快速开始

    环境中需要先准备 ffmpeguv

    # 使用 uv 安装 CLI
    uv tool install --torch-backend auto "podtran[qwen-local] @ git+https://github.com/R0sin/podtran"
    # 初始化配置,默认路径为 ~/.podtran/config.toml
    podtran init
    

    初始化时需要填写 HF_TOKEN,主要为了使用 WhisperX 依赖的开源人声分离模型,引导中有跳转链接。

    也可以参考 README 下载源码运行。

    安装配置完就能直接用了(首次运行需要下载模型):

    # 截取前五分钟测试效果
    podtran <audio_path> --preview
    # 跑完整音频翻译流水线
    podtran <audio_path>
    # 继续上一个中断的任务
    podtran resume
    

    下载前也可以先试听我简单测试的效果预览

    补充说明

    配置中部分考虑了环境设备,有些还得自己根据使用情况调整优化,手头仅测试了 cpu/3060ti/3090 的 Windows/Linux 环境。家里 3060ti 跑完一小时播客的完整翻译流水线大约用了三十几分钟。

    遗憾手头没有 mac ,暂未支持 MLX 部署。

    文档可能有遗漏,有问题欢迎反馈,顺便求点 Star ,谢谢!

    相关链接

    博客记录:https://blog.r0sin.com/podcast-translator-improvement

    项目地址:https://github.com/R0sin/podtran

    原贴地址:大家有试过在华强北换 apple watch 的电池吗?

    当时旧手表电池已经不行了,想着换电池或者用国补换一下,但是越研究越发现:

    国行的情况

    1. 国行 s11 、新款的 ultra2/3 都不支持快充
    2. 能够享受国补+旧表置换,旧表+国补大概能补出来 1500 (最高的时候),s11 最低的时候可以 1500 左右到手
    3. 国行支持国内 esim
    4. 旧版的 ultra2 支持快充,并且能够支持 esim
    5. 把旧手表去换电池花费 800 ,当时旧手表单纯市场二手收购价大概就四五百,并不值当。并且三方换电池还有气密的风险,可能会进水。

    港版

    1. s11 、新款的 ultra2/3 都支持快充
    2. 不能享受以旧换新和国补,京东 s11 大概要 3100 (加上税费)
    3. 都不能使用大陆的 esim

    这么一琢磨,还不如直接收个二手的旧版 ultra2 ,大不了后面电池低了再去官换,这样能同时满足我的要求:

    1. 电池续航超强
    2. 能使用 esim
    3. 价格实惠
    4. 表盘要大

    所以去闲鱼开始搜旧版 ultra2 ,还真给我搜到了,要求是个人卖家+信用极好,搜出来价格大概是 3199 - 3600 甚至更高不等。
    最后找了 3199 的大兄弟,手表过保了,但是保护的很好(我自己的 s8 简直战损级别),小刀到 3100 ,然后我付费验货宝,鉴定后东西没问题,我直接就要了。

    买来用了大概一个月了,很稳,用着不错,用港版 s11 的价格,买到了满足需求的手表,开了 esim (之前的 s8 只有 Wi-Fi ,在外面忘带手机导致失联,所以对 esim 很有执念),给我带来不少愉悦的感受,很不错。老的 s8 就在家里先闲置了。

    我看官方文档明确写了“禁止使用轻量应用服务器实例做流量穿透服务。违规者最高处以关停并锁定实例的处罚,并做清退处理。”
    目前国内网络环境跨网实在无法使用,不仅是限速,丢包丢到另一个宽带中的路由器管理页都无法打开的地步,这个服务器价格跟带宽非常香,想问问大佬们实际使用下来有没有被 ban 过的案例,以及流量使用多不多?

    看到网友说的然后自己搜了下,貌似是有此事,虽然是公开的秘密,但是国内以国家安全为由不宜公开,真要是被国外纪录片揭露了会怎样?
    不知道 V2 让不让贴外站连接,我就发个某乎的号贴址想看的自己研究吧
    /question/2032253761612166121

    模力工场新鲜事

    1. 极客邦科技模力工场参与北京市朝阳区 OPC 创新发布活动。

    4 月 28 日下午,朝阳区“科技百园”系列活动之科技园区合作伙伴招募活动在望京科技园成功举办。

    活动以“与时代同行 创百园未来”为主题,广纳合作伙伴,汇聚科创资源,共同推动朝阳区科技园区全域布局、全链发展、全面升级。

    现场发布了“科技百园”建设合作伙伴招募计划,重点面向园区运营及算力、数据、智能体应用等领域机构,支持线上对接参与。

    图源:公众号 @聚焦朝阳园

    同时推出支持人工智能 OPC 创新发展的相关措施,聚焦新业态与应用场景,降低创新成本。极客邦科技也参与了本次发布环节。

    1. 2050 大会完美落幕。

    和以前主要做组织和支持工作不同,这一次,极客邦科技几乎在每个环节都有更深入的参与,模力工场也以“AI 社区”的身份真正融入到 2050 里,组织了丰富的活动也收获颇丰。

    接下来,我们期待能沿着一种更扁平、自治、分布式的方式,继续探索 AI 社区的可能性。

    模力工场 038 周榜单总介绍

    模力工场

    第 038 周 AI 应用榜来袭!前 10 名如下:

    SaySo

    在任意应用中“开口即写”的 PC 端 AI 语音输入工具:能把自然口述实时转成结构清晰、自动排版的专业文本。

    好简历

    面向求职者的 AI 简历优化工具:上传简历即可多维诊断并在真实信息内智能改写,提升通过率与竞争力。

    OhYesAI

    一个把“音乐 → 画面”自动打通的 AI MV 创作智能体平台:输入音频或关键词,就能一键生成卡点精准、风格可控的 MV 或短视频。

    WorldSeed

    一个由 MorphMind 开源的多智能体世界引擎:让 AI 不只是协作做任务,而是在具备规则、空间与信息差的环境中自主运行与互动,并支持用户构建和进化自己的智能体团队。MorphMind 是一个面向个人用户的可操控 AI 平台,由来自哈佛、清华及一线科技公司的 AI 研究与工程团队共同打造,致力于让用户按照自己的想法构建、监督并持续进化自己的 AI 智能体团队。

    MorphMind

    :可操控多智能体协作平台:让用户像管理团队一样调度、监督并复用 AI 专家,替代“黑箱回答”的可验证工作流。

    Baklib

    AI 企业内容云平台:整合知识库、品牌门户与客户服务体系,支持内容统一管理、多语言站点搭建以及智能搜索与问答,帮助企业打通内容生产、分发与服务闭环。

    FreeTrust商务社交圈

    AI 职场商务、信任驱动型社交平台:通过筛选与沉淀高质量人脉,帮助用户从“认识人”走向“建立可持续的合作关系并转化为商业价值”。

    壹心理

    心理健康服务平台:整合在线咨询、心理测评与系统课程,提供从情绪疏导到专业成长的一站式心理支持。

    星野

    AI 角色与智能体平台:支持用户自由创建、分享并与多模态虚拟角色互动,用于陪伴、学习与创作等多种场景。

    筑梦岛

    以角色扮演为核心的 AI 社交互动平台:支持单聊、群聊与剧情“小剧场”,让用户与多角色 AI 进行沉浸式对话和故事化互动。

    本周必试应用

    【应用名称】:SaySo

    【关键词】:音频语音 | 办公效率 | 文本生成

    【用户热评】:

    相比传统语音输入,SaySo 不只是“把话转成字”,而是更强调自然表达体验。你可以像正常说话一样连续输出,减少停顿和逐字斟酌,让输入过程更接近真实思考流。同时它适配电脑端高频场景,在办公、内容创作、知识工作中会更有价值。

    这次发布我们最希望大家关注的,不是单一功能点,而是一种新的输入方式:当语音输入足够顺滑、准确、自然之后,很多人可能会重新思考自己和电脑交互的方式

    ——用户 @孔庆荣

    偶然刷到评论区的推荐用的,一键调用的沉浸式学习功能特别好用!!!!爱了

    ——用户 @余庆

    【使用场景】:

    在任意应用中实时语音听写

    自然说话即可生成格式化文本,无需切换软件或特殊操作。

    1. 打开任意支持文本输入的应用(如微信、Word、Notes)

    2. 按快捷键唤起 SaySo 语音输入框

    3. 开口说话,内容自动转写并插入光标位置

    撰写结构化内容(如清单、步骤、报告)

    口述零散想法,自动生成条理清晰的排版文本。

    1. 口述包含“第一步”“其次”“最后”等逻辑词的内容

    2. SaySo 自动识别语义层级与要点关系

    3. 输出带编号/项目符号的结构化文本

    专业场景精准表达(如技术文档、会议纪要)

    结合个人词库与上下文理解,准确处理术语和自我修正。

    1. 提前在 SaySo 中添加专属术语(如公司名、产品代号)

    2. 口述时自然包含术语及口语化修正(如“API…不对,是 SDK”)

    3. SaySo 自动过滤冗余、保留终版意图并正确拼写术语

    本周上榜应用趋势解读

    AI 正在从“给答案的工具”,转向“可参与的工作流与关系系统”

    一类产品在重做“输入与生产方式”(比如 SaySo、OhYesAI),把语音、音乐这些原本非结构化的东西直接变成可用内容,减少中间操作。

    一类在强化“过程可控”(如 MorphMind、WorldSeed),不再满足黑箱输出,而是让用户能拆解、介入、复用 AI 的每一步。

    还有一类则在补“真实场景闭环”(如 Baklib、FreeTrust、壹心理),把内容、关系、服务这些长期价值沉淀起来。

    与此同时,像星野、筑梦岛这类产品在证明另一条路径——AI 不只是效率工具,也在成为“可互动的对象”和新型内容载体。

    整体看下来,这批应用的共同方向不是更强的模型,而是更贴近真实使用的“人机协作方式”:要么更自然(说话就能写、听歌就能出片),要么更可控(过程透明、可回滚),要么更可沉淀(关系、知识、内容能长期复用)。