包含关键字 typecho 的文章


点量团队在与用户交流的过程中发现,有不少用户对摩尔线程显卡的实际图形负载能力存在疑问。为解答这一疑问,点量团队将Linux系统下摩尔线程S80显卡,和Windows系统下的RTX 3060显卡做了个对比,测试了WebGL和UE两个场景,以实际数据评估其性能表现。

  • 测评环境1:Windows系统、RTX3060、点量云流实时云渲染windows版
  • 测评环境2:Linux系统、摩尔线程S80、点量云流实时云渲染Linux版
  • 测评3D应用:WebGL和UE两种引擎

测试之前,在云推流过程中统一了分辨率为1920x1080,帧率为60FPS,并且同时设置开三路。得到以下测试结论:

一、WebGL引擎测试

以ThreeJS官方的某个示例做测试,结果如下:
1、Windows下3060:显卡利用率,平均在21%。


2、Linux下摩尔线程S80:显卡利用率在20%左右,和3060相差不大。

由此可见,摩尔线程S80在WebGL模式下几乎等同于3060显卡。

二、UE引擎测试

以某个游戏UE场景做云推流测试,结果如下。若以Unity场景做测试,测试结果类似,这里不再展开。
1、Windows下3060:可以跑244.55fps,显卡利用率75%。


2、Linux下摩尔线程S80:只能跑20多FPS,显卡利用率97%。


我们判断,由于UE默认使用的Vulkan RHI, 猜测是摩尔线程驱动针对Vulkan优化不足的缘故。随后,我们继续测试了S80在Windows下的效果,用相同的UE程序(默认Windows下是使用DirectX),只能到30多帧,因此可能也不只是对Vulkan优化的问题。对比3060的话,UE是可以跑到240多帧,这方面的差异还是比较明显。

另外,测试还发现,S80在Windows下的WebGL效果也不如Linux下的表现,Windows下开三个WebGL就掉帧了,GPU利用率100%。

以上效果说明,S80在Linux下的WebGL效果还是不错的,能跟3060达到类似性能效果。但在UE程序、Windows系统等一些效果上还是差距比较明显。

特别说明:本次所有测试均为在特定测试环境(包括但不限于特定机型、驱动版本、系统设置)中完成的结果。不同软硬件配置、测试方法或环境变量均可能导致数据差异,本文内容仅作为客观事实记录与经验分享,不作为官方性能指标或决策依据,请读者结合多方信息进行综合判断。

通过本次测试,明确了摩尔线程在云渲染负载中的性能表现,并验证了摩尔线程在相关场景下的实际承载能力。点量云流系统的兼容适配能力并不局限于单一系统或硬件,且已在多系统、多配置场景中实现全面支持,真正做到了“一次适配,处处运行”,为不同技术架构下的用户提供统一、可靠的高性能云流服务。

在金融科技(FinTech)开发中,Real-time Data Fetching 是最基础也是最核心的模块。最近在重构我的交易系统,特地把数据接入层剥离出来做一个技术分享。

背景与问题 传统的Web开发中,我们习惯用REST API处理请求。但在金融交易场景下,HTTP协议存在明显的短板:

  1. Header开销大:高频请求下,流量浪费严重。
  2. 被动获取:无法做到服务器端的主动推送(Server Push)。
  3. 并发限制:容易触流控(Rate Limit)。

对于美股这种Tick级别的数据量,WebSocket是唯一的正解。

技术实现路径 我的需求很简单:订阅AAPL、TSLA等热门标的的实时Tick,并存入Redis做清洗。在对比了多家数据提供商后,为了兼容性和稳定性,我选择了AllTick作为上游数据源,配合Python的websocket-client库进行开发。

代码架构 整个模块采用异步回调的方式处理数据,确保主线程不阻塞。以下是最小可行性产品(MVP)的代码实现:

import websocket
import json

# WebSocket连接地址(替换为实际API接口)
url = "wss://api.alltick.co/realtime/stock"

# 请求体,订阅的股票代码和API密钥
message = {
    "api_key": "your_api_key_here",  # 你的API密钥
    "symbol": "AAPL"  # 订阅Apple的实时行情
}

def on_message(ws, message):
    data = json.loads(message)
    print(f"实时获取的数据:{data}")

def on_error(ws, error):
    print(f"发生错误:{error}")

def on_close(ws, close_status_code, close_msg):
    print("WebSocket连接已关闭")

def on_open(ws):
    ws.send(json.dumps(message))

# 创建WebSocket应用并启动
ws = websocket.WebSocketApp(url,
                            on_message=on_message,
                            on_error=on_error,
                            on_close=on_close)
ws.on_open = on_open

# 保持连接并接收数据
ws.run_forever()

技术细节注意事项 在实际部署中,还需要考虑断线重连(Reconnection)和心跳检测(Heartbeat)。上述代码展示了最基础的订阅逻辑。通过on_message回调,我们可以直接解析JSON数据包。

经测试,这种方式比传统的while True: requests.get()循环,延迟降低了至少两个数量级。对于开发者来说,掌握WebSocket在金融数据处理中的应用,是一项必备技能。

摘要:
OceanBase 针对现代数据架构核心挑战重构物化视图能力,融合分布式架构与多模引擎,提供非实时和实时两类视图、灵活刷新机制及多维度查询加速技术,底层基于 LSM-Tree 引擎和 MLOG 日志实现。该能力在电商大促、SaaS ERP 等场景落地,实现查询加速、链路简化与负载隔离,也存在存储、维护等使用限制,后续将从运维、链路、场景类型三方面持续迭代优化。

本文作者 | 朱涛,OceanBase 高级技术专家,负责 OceanBase 查询优化器的研发工作

在实时数仓、HTAP(混合事务/分析处理)与库内计算(In-database Computing)成为主流的今天,数据架构的核心矛盾已悄然转变:企业不再仅仅追求“更快的查询”,而是面临着如何降低算力成本、简化数据链路、并保障核心系统稳定性的艰巨挑战。

传统的、依赖于复杂 ETL 管道的 T+1 数仓架构,日益无法满足企业的实时决策需求。正是在这一背景下,物化视图(Materialized View)这项经典技术,正被重新审视并赋予全新的战略价值。

物化视图的本质,是将高频、复杂的查询结果预先计算并物理存储在数据库内部。这看似简单的“空间换时间”,在现代架构中解决的远不止单个查询的性能问题。它通过将计算左移至数据源头,极大地简化了外部数据处理链路,减少了数据冗余和不一致的风险。更重要的是,它将消耗巨大的分析负载从核心交易流程中剥离,从而保障了在线业务的稳定性。因此,设计精良的物化视图能力,已不再是分析型数据库的“附加功能”,而是衡量一个现代数据库能否高效支撑 HTAP 和实时分析场景的核心指标。

基于此,OceanBase 对物化视图进行了深度重构,使其不仅仅是一个性能加速器,更是一个与分布式架构、多模引擎(行存、列存)深度融合的数据处理中枢,其实时物化视图能力能够在保证数据新鲜度的同时,提供高性能的查询服务。

本文将对 OceanBase 物化视图的核心能力、技术原理及应用场景进行全面介绍。

OceanBase 物化视图的核心能力

OceanBase 的物化视图并非单一的功能,而是一套包含多种类型、灵活刷新策略和多样化查询加速机制的完整解决方案。其核心能力可归纳为以下几个方面:

01多样化的物化视图类型

为了适应不同业务场景对数据新鲜度的需求,OceanBase 提供了两种主要的物化视图类型 :

非实时物化视图:此类型视图中的数据并非总是与基表保持实时同步。它根据预设的计划(如定时)或手动触发进行刷新,在刷新间隔期内,查询将访问物化视图中已物理存储的数据。这种方式适用于对数据新鲜度要求不高,但对查询性能和资源消耗更为敏感的场景,如 T+1 的报表生成。

实时物化视图:该类型视图能够提供实时或准实时的数据查询结果。它通过内部的物化视图日志(MLOG)机制,捕获基表的增量数据变更。在查询时,系统会在线计算物化视图的存量数据和日志中的增量数据,从而返回最新的结果集。这使得用户即便在物化视图尚未完成物理刷新时,也能查询到最新的数据状态,特别适合实时监控、实时大屏等对数据时效性要求高的场景。

02灵活的刷新机制

数据的刷新是维持物化视图生命力的关键。OceanBase 提供了全面且灵活的刷新策略与方式,以平衡数据时效性、系统资源开销和管理复杂度。

03全方位的查询加速技术

创建物化视图的最终目的是加速查询。OceanBase 为此提供了一系列配套功能,最大化其性能优势:

查询改写 (Query Rewrite):这是物化视图最核心的价值之一。当启用查询改写功能后,优化器能够自动将用户针对基表的查询请求,智能地重定向到已经预计算好的物化视图上,整个过程对应用透明,极大地降低了业务改造的复杂度。

与列存深度融合:自 4.3.3 版本起,OceanBase 支持创建基于列存格式的物化视图。当物化视图的查询逻辑涉及复杂的分析和聚合操作时,将其存储为列存格式可以获得比传统行存更优的查询性能,尤其是在“大宽表”分析场景下。

索引、主键与分区支持:物化视图在 OceanBase 中被视为一种特殊的表对象,因此可以像普通表一样,在其上创建索引、定义主键和设计分区策略。这些手段可以进一步优化对物化视图自身的查询性能,例如通过索引加速特定字段的过滤,或通过分区裁剪减少扫描的数据量。

OceanBase 物化视图的实现深度依赖其分布式架构和核心组件 :

LSM-Tree 存储引擎:作为 OceanBase 的基石,LSM-Tree 引擎的特性使得列存表可以支持事务和流式写入,为实时数仓和物化视图的实现提供了基础。

物化视图日志 (MLOG):这是实现增量刷新和实时物化视图的核心。当基表发生 DML 操作时,变更的增量信息会被同步记录到 MLOG 中。刷新时,系统只需读取 MLOG 即可获取变更数据,避免了对整个基表的扫描。

OceanBase 物化视图的典型场景及案例

典型场景

01实时数据分析

对于需要实时洞察业务动态的场景,如实时监控大屏、实时推荐、实时风控等,OceanBase 的实时物化视图能够提供强有力的支持。通过结合 Flink CDC 等实时数据同步工具,可以构建端到端的实时数仓,而实时物化视图则作为查询加速层,确保在数据持续流入的同时,分析查询依然能够获得极低的延迟。

02复杂查询性能优化

在许多 OLTP(在线事务处理)和 HTAP(混合事务/分析处理)系统中,存在一些消耗大量资源的“慢查询”,这些查询往往涉及多张大表的连接和复杂的聚合计算。通过为这些特定查询创建物化视图,可以将其计算成本从每次查询时发生,转移到后台的刷新任务中,从而有效降低在线业务高峰期的系统负载,保障核心业务的稳定性。

相关案例

电商大促价格计算:多表 Join 加工宽表,支撑近实时分析

业务问题:多源商品关系数据需要预加工为分析宽表

在电商大促期间,运营人员需要将商品基础信息、商品销售属性、促销活动商品等多维数据整合为统一宽表,用于运营分析与决策查询。上游数据同步进入 OceanBase 后,如果每次分析查询时再做多表 join,会带来较高计算开销和不稳定延迟。

因此,优化目标是在库内完成多表数据加工,沉淀可复用的加工明细宽表,供下游 AP 查询分析,如运营分析、数据服务等,直接消费。

典型模型为四表 join,即:活动商品池表 + 商品基础信息表 + 商品销售属性表 + 商家店铺表,通过 inner join 生成加工结果宽表。

技术挑战:Join 成本高 + 变更模式不均匀

该场景的难点不只是表规模,而是变更分布极不均匀,对实时 join 和全量重算都不友好。

测试数据特征如下:
竞品基础信息表:全量约 40 万(预期可到 180 万);高峰单次增量 10–15 万(新品/状态变更);
商品销售属性表:全量约 44 万,高峰单次增量 2–3 千;
活动商品池表:日常全量仅约 1 千,但存在单次 400–500 万级集中变更;
加工结果宽表(物化视图):约 50–100 万级。

这种模式下:
查询时 join → 成本高且波动大;
批量变更触发全量重算 → 代价不可控;
下游分析查询与加工计算争抢资源。

方案:使用 OceanBase 物化视图做增量 Join 加工

解决方案是在 OceanBase 内定义物化视图(MV),将多表 join 的加工逻辑固化为数据库内持续维护的结果集。

实现方式:
基于四张源表定义 join 型 MV,生成加工宽表;
下游查询直接访问 MV,不再执行多表 join;
采用增量刷新模式:REFRESH FAST ON DEMAND;
基于基表变更日志,仅对受影响数据做增量重算。

这样将“查询时 join”转换为“写入后增量维护”。

效果:增量刷新可控,宽表近实时可用

基于测试环境数据:
增量刷新周期:每 5 分钟一次;
非高峰期刷新耗时:1 分钟以内;
全量刷新耗时:约 20 分钟(用于追位或重建)。

MV 宽表规模稳定在 50–100 万行,在大批量集中变更场景下,增量刷新仍可维持可控窗口,避免频繁全量重算。

该方案的核心收益集中在三个方面:
将多表 join 的高成本计算前移为库内增量维护;
适配“大批量突发变更 + 多表关联”的数据模式;
为大促价格计算分析提供稳定的近实时宽表数据层。

对分析侧来说,查询路径从“多表实时 join”简化为“单宽表查询”,执行代价与延迟稳定性明显改善。

SaaS ERP 报表与分析 — 基于物化视图(MV)的数仓 ETL 简化与性能提升

业务问题:ERP 报表与分析需求

在企业资源计划(ERP)系统中,报表与分析对数据口径的稳定性和准确性要求较高。传统的 ETL(提取、转换、加载)流程可能涉及到多个系统或步骤,导致数据的加工过程冗长,效率低下。

在此场景下,需要解决以下问题:
TP 实时入库与基于 MV 的近实时 ETL 加工在同一个 OceanBase 集群中并行运行;
物理隔离:确保这两者的负载不相互干扰,并保证加工结果的稳定性与可持续性;
稳定加工链路:报表与分析查询必须直接消费加工后的数据,避免重复计算和保证查询响应稳定。

技术挑战与方案:物化视图(MV)简化 ETL 分层

为了解决上述挑战,采用了 OceanBase 的物化视图(MV)功能,将数仓 ETL 的不同层次(明细层、主题加工层、报表层)直接固化为物化视图,并通过级联刷新机制保证数据一致性。

上述方案中:

ETL 分层处理:通过 MV 完成从明细层到主题加工层,再到报表层的数据流动。每一层的加工都在数据库内完成,最终结果直接存储在物化视图中。

物理隔离:将 TP 数据写入与 MV 数据容器表的 leader 放置到不同节点上,实现计算和存储的物理隔离。ETL 加工操作仅在 MV 所在节点进行,而数据的增量更新(MLOG)从 TP 节点读取,从而有效减少了负载冲突和资源争抢。

嵌套 MV 和级联刷新:通过自底向上的刷新机制,确保每个层次的数据都能保持一致性,特别适合需要稳定数据口径的分层加工模式。

方案优势:简化架构、加速报表分析

该方案的实施带来了明显的架构和性能优势:

架构简化:通过在 OceanBase 内部使用 MV 承接 ETL 分层加工,避免了外部计算和数据拼接链路的复杂性,减少了中间处理环节,降低了故障点和运维成本。

报表分析加速:高频查询的报表数据从“每次实时重算”变为“读取已经预计算好的 MV 数据”,使得报表查询变得更加高效和稳定,响应时间大幅缩短。

可控的实时性:通过物化视图的增量刷新,报表查询的实时性变得更加可控,避免了因复杂计算而导致的查询延迟。

性能与效果:稳定的 ETL 和报表查询性能

实施该方案后,OceanBase 系统的 ETL 加工和报表查询性能得到了显著提升,特别是在高频报表查询场景下,具体效果如下:

报表查询响应加速:查询不再依赖实时计算,而是直接读取加工后的 MV 数据,显著提高了查询的稳定性和响应速度。

ETL 加工稳定性:由于采用了物化视图的嵌套与级联刷新,ETL 加工链路中的每个环节都能保持一致性,减少了数据刷新过程中可能出现的错误或不一致。

高频操作的负载隔离:物理隔离机制使得 TP 入库负载与 MV 刷新负载互不干扰,保证了系统的整体性能稳定。

这套方案带来了多方面的技术价值:

提高 ETL 加工效率:通过物化视图将 ETL 流程内的多层次数据预计算并存储,减少了外部计算链路的依赖,提升了数据处理效率。

提升报表查询稳定性:报表查询通过直接访问 MV 中的加工数据,而不再依赖实时计算,减少了系统负担,提高了报表分析的稳定性和效率。

架构简化与运维降低:简化了 ETL 流程和查询路径,减少了复杂度,同时降低了运维成本,避免了多点故障的风险。

总的来说,OceanBase 的物化视图功能通过提供高效的数据加工和稳定的报表查询,帮助用友 ERP 系统实现了数据处理的优化,提升了业务分析的效率与可持续性。

物化视图的使用限制

值得注意的是,尽管物化视图功能强大,但在使用时也需要权衡其带来的成本与限制:

存储开销:物化视图是数据的物理副本,会额外占用存储空间。

维护成本:刷新物化视图会消耗 CPU 和 I/O 资源,需要合理规划刷新策略,避免对在线业务造成影响。

数据一致性:对于非实时物化视图,其数据与基表之间存在一定的延迟,应用需要能够容忍这种数据“过时”。

使用限制:物化视图本身不支持直接的 DML 操作,且基表的 DDL 操作可能会影响物化视图的有效性。

物化视图能力演进计划

为了让用户使用更顺手、更安心,OceanBase 会持续迭代物化视图能力,接下来的版本主要聚焦在以下核心能力:

01运维透明化(可观测性)

拒绝“黑盒”运行。上线刷新任务 Explain 及全链路可视化监控,提供任务级吞吐、延迟指标及明确的异常诊断报告,确保问题看得清、排得准。

02复杂链路支撑(Nested MV)

针对多层级数仓场景,持续优化嵌套物化视图的级联刷新能力,支持构建更深度的 ETL 加工链路。

03场景与类型扩展

广泛兼容:逐步支持外表(External Table)的物化能力。
丰富类型:原生支持 JSON、LOB、Geometry 等复杂数据类型的增量计算。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

前段时间去看国家地理照片展览的时候路过一个商城看到的(我没有擦除 EXIF 信息,理论上可以看到是哪个商城)
image
image

过去两年,AI 在中国经历了从概念热潮到密集试点的阶段。无论是大模型、智能体(Agentic AI),还是自动化应用,越来越多企业已完成初步探索。进入 2026 年,AI 正迈入一个新的发展阶段——从试点应用走向业务规模化。

 

企业关注的核心问题也随之发生变化,不再只是“能否用 AI”,而是 AI 是否能够在可控、可持续的前提下,稳定运行并转化为可衡量的业务成果。基于对中国企业 AI 实践的持续观察,Cloudera 对 2026 年 AI 与数据技术的发展趋势做出如下判断:

预测一:AI 走向产业化,业务价值与可复制能力成为核心衡量标准

 

到 2026 年,中国企业的 AI 应用将明显超越聊天机器人和单点工具,转向流程优化、运营自动化和行业级智能应用。

 

在制造、金融、电信等领域,企业将更倾向于复用已验证的 AI 能力,并通过智能体工作流将 AI 深度嵌入核心业务流程,而不再局限于单一模型或实验项目。ROI、业务效率提升和可持续运营能力,将取代模型参数与算力规模,成为衡量 AI 成功与否的关键指标。

 

同时,随着 AI 被视为重要的“新型生产力”,企业和行业客户将更加重视 AI 系统的稳定性、连续性与可运营性。能够在复杂环境中长期运行、不断优化并适应业务变化的 AI 平台,将在竞争中脱颖而出。

 

Cloudera 大中华区技术总监刘隶放在一次公开分享中表示,AI 技术的第一阶段是能力展示与智能回答等“噱头应用”,例如模型回答数学题能力等功能。然而,进入产业化落地后,企业对 AI 的关注点更多转向如何结合已有业务系统、优化流程并创造可衡量的商业价值。这与当前行业趋势高度一致。

Cloudera 大中华区技术总监刘隶放

行业数据显示,企业从单点 AI 尝鲜逐步转向系统化、流程化应用,特别是在流程优化、与数据平台整合等关键领域的能力要求急剧上升。此外,随着智能体(AI agents)出现,企业内部正在探索如何将模型能力系统性融入现有的业务逻辑中。

预测二:可信、可治理的私有 AI 将成为企业的关键差异化能力

 

在中国市场,数据安全与合规可控始终是 AI 应用的前提条件。2026 年这一趋势将进一步强化。

虽然公有云与预训练模型极大降低了 AI 试验门槛,但在实际生产环境中,企业逐渐意识到:如果数据治理、访问控制和合规机制不到位,AI 带来的效率提升,可能同时放大数据风险。

 

因此,越来越多中国企业将转向私有 AI(Private AI) 路径:

 

  • 在受治理的环境中部署和运行模型;

  • 数据不出域,权限可控、流程可追溯;

  • 通过检索增强生成(RAG)等方式,为模型提供业务上下文,同时保持数据可控;

 

刘隶放进一步指出,数据合规永远优先于 AI 功能本身。在涉及企业核心数据的训练过程中,如果使用公有云平台进行训练,不仅有可能触及竞争性泄露风险,还可能违反监管要求。因此,只要涉及企业敏感数据,私有化部署基本成为不可替代的方向。

 

可信 AI 不再是“最佳实践”,而将成为企业实现 AI 规模化落地的基本门槛。治理能力与敏捷性不再是对立选项,而是 AI 成熟度的两个必要组成部分。

预测三:本地化私有部署成为中国企业 AI 规模化落地的基础架构

在中国市场,2026 年企业对 AI 与数据架构的判断将进一步趋于清晰:本地化私有部署是 AI 规模化落地的基础前提。

 

刘隶放强调,相较于公有云部署,私有化 AI 环境更能满足企业对可控性、数据安全和长期运营的核心诉求。在安全与合规成为企业 AI 战略基础的背景下,“可控”被视为 AI 落地的前提条件。

 

行业调研报告显示,企业在 AI 部署中越来越倾向于选择私有化或混合云架构,以保障数据主权和业务独立性。IDC 发布的《2025 年中国企业 AI 大模型应用趋势报告》指出,约 72%中大型企业在实施 AI 智能体时,将私有化部署置于优先考虑因素之一。

 

根据 Rackspace 发布的趋势分析,面向企业的私有云 AI 部署正在成为主流,其中检索增强生成(RAG)等敏感工作负载正从公有环境向私有部署迁移,以提升性能稳定性和数据控制能力。

相关行业观点也总结出几个核心趋势:

 

  • 私有化部署可提升响应速度并避免核心数据泄露风险

  • 企业希望避免将敏感数据发送至外部 AI 平台,以控制数据流出风险

  • 企业 CIO 和 CTO 在架构设计过程中,将合规与数据控制置于 AI 战略核心

 

在金融、制造、能源、电信等关键行业,核心业务系统与数据资产长期运行在本地或私有环境中。这一架构形态,既源于对数据安全与合规可控的要求,也来自企业对系统稳定性、连续性与长期运营能力的现实考量。

 

随着 AI 从试点走向生产级应用,企业开始更加关注一个根本问题:AI 是否能够在本地私有环境中持续运行、不断优化,并稳定支撑核心业务。一次性部署或短期验证已无法满足需求,取而代之的是对平台级能力的要求,包括统一的数据管理、可治理的模型运行,以及对业务变化的长期适配能力。

 

到 2026 年,能够在本地私有架构下支撑 AI 持续演进的数据与 AI 平台,将成为中国企业实现 AI 规模化、可复制落地的重要基础。这一能力,也将成为衡量企业 AI 成熟度的关键标志。

Cloudera 成立于 2008 年,总部位于美国硅谷,是最早一批围绕 Hadoop 生态 成立的企业级大数据公司之一。公司创始团队中包括多位 Hadoop 核心贡献者,因此 Cloudera 在早期被广泛视为“企业级 Hadoop 的事实标准”。

2019 年,Cloudera 与另一家老牌大数据公司 Hortonworks 合并,形成当时全球最大的大数据平台厂商之一。合并后,Cloudera 的技术版图从单一的大数据存储与计算,扩展到 数据管理、数据治理、数据分析、机器学习与 AI 工程化 等完整链条。

2026:AI 从“概念热潮”走向“硬核成果”的一年

2026 年,中国 AI 的竞争焦点将不再是“谁的模型更大”,而是在可控、可信、可复制的基础上,真正把 AI 变成业务成果。

 

最终胜出的企业,将是那些能够负责任地规模化 AI、用数据治理支撑智能决策、用韧性架构保障长期运营的企业。因为真正可信的 AI,始于可信的数据;而可信的数据,离不开稳健、可持续的数据基础架构。

 

刘隶放称,在 AI 实践中,企业真正关心的并非单一模型表现,而是整体平台建设后的长期运营能力。例如,在金融、制造等行业,已有大量的信息系统和数据资产,AI 必须与这些系统无缝整合,才能真正提升业务效率。

 

此外,在人才流动频繁的市场环境下,构建松耦合体系架构被认为是确保 AI 平台可持续运营的关键。这种设计允许平台适应技术更新和人员变动,避免因关键人员离职而造成系统停滞。

 

公司援引自身服务的典型案例(如上汽大众的供产销数据平台与 AI 集成实践),强调企业在部署 AI 时,最终评估的核心是投入产出与长期收益。

 

从「会对话的大模型」到「能自主完成复杂任务的智能体(AI Agent)」,人工智能研究正在进入一个以规划、执行与协同为核心的新阶段。随着大语言模型逐步具备工具调用、长期记忆与环境交互能力,研究焦点不再局限于单一模型的性能提升,而是转向如何通过多智能体架构与任务级分工,让 AI 在真实世界中持续产生可验证、可复用的成果。

在这一背景下,Agent 技术正快速渗透至科研生产、软件开发、数据分析与虚拟环境交互等多个方向:从自动生成高质量学术插图、在无显式奖励下完成强化学习优化,到在三维开放世界中执行长时任务,乃至将模糊研究想法系统化为完整科学叙事。学术界与工业界围绕「如何让模型真正成为执行者而非仅是生成器」展开密集探索。

本周,我们为大家推荐的 5 篇 Agent 的热门 AI 论文,涵盖北京大学、谷歌云 AI 研究院、AgentAlpha、亚马逊等团队。集中展示了当前 Agent 研究在框架设计、跨模态协同、自我反馈学习以及端到端任务闭环方面的代表性进展,为理解下一代通用智能体的演进路径提供了清晰切面。一起来学习吧 ⬇️

此外,为了让更多用户了解学术界在人工智能领域的最新动态,HyperAI 超神经官网(hyper.ai)现已上线「最新论文」板块,每天都会更新 AI 前沿研究论文。

最新 AI 论文https://go.hyper.ai/hzChC

本周论文推荐

1. PaperBanana: Automating Academic Illustration for AI Scientists

北京大学与谷歌云 AI 研究院的研究人员提出了PaperBanana,这是一种代理式框架,通过协调专门的视觉语言模型(VLM)驱动代理,自动完成出版级学术插图的检索、规划、风格化与迭代优化,在方法图和统计图的保真度、简洁性、可读性和美观性方面显著优于基线方法。

论文及详细解读 https://go.hyper.ai/skQUQ


效果展示

作者使用 PaperBanana(基于 NeurIPS 2025 方法图构建的基准)评估自动化图表生成。该基准涵盖现代 AI 论文中多样且美学复杂的图表。


数据集

2. Reinforcement Learning via Self-Distillation

本文提出自蒸馏策略优化(Self-Distillation Policy Optimization, SDPO)。SDPO 无需外部教师模型或显式的奖励模型,即可将分词后的反馈转化为密集的学习信号。SDPO 将当前模型在给定反馈条件下的输出视为自教师,将其基于反馈生成的下一词预测结果回传并蒸馏到策略中。通过这种方式,SDPO 充分利用了模型在上下文中回溯识别自身错误的能力。在 LiveCodeBench v6 上的科学推理、工具使用和竞赛编程任务中,SDPO 在样本效率和最终准确率方面均显著优于现有的强基准 RLVR 方法。

论文及详细解读 https://go.hyper.ai/oBMuM


RLVR and RLRF 实验对比示例

3. Lumine: An Open Recipe for Building Generalist Agents in 3D Open Worlds

本文提出 Lumine,这是首个开源的通用智能体开发方案,能够实现在复杂三维开放世界环境中实时执行长达数小时的复杂任务。Lumine 采用类人类交互范式,通过视觉-语言模型,以端到端的方式统一感知、推理与行动。它以每秒 5 帧的频率处理原始像素输入,生成每秒 30 帧的精确键盘鼠标操作,并仅在必要时动态调用推理模块。

论文及详细解读: https://go.hyper.ai/aUakj


效果展示

实验结果表明,Lumine 在不同世界设定与交互机制下均具备高效适应能力,标志着迈向开放环境中通用智能体的重要一步。

Lumine 性能对比实验结果示例

4. Idea2Story: An Automated Pipeline for Transforming Research Concepts into Complete Scientific Narratives

AgentAlpha 团队提出了 Idea2Story,这是一种预计算框架,通过从同行评审论文中构建方法论知识图谱,将模糊的研究想法转化为结构化、可复用的模式,从而减少大语言模型的上下文限制与幻觉,同时在无需运行时重新处理文献的前提下实现高效、新颖的科学发现。

论文及详细解读 https://go.hyper.ai/KyWe0


Idea2Story 框架示例

该数据集用于训练 Idea2Story,系统利用论文-评审对学习研究贡献的表述与评估方式,支持可复用方法论模式的检索与组合,而非领域特定内容。


数据集

5. Insight Agents: An LLM-Based Multi-Agent System for Data Insights

亚马逊研究人员提出了 Insight Agents(IA),这是一种基于大语言模型的多智能体系统,采用「规划-执行」架构,配备分层智能体与 OOD 感知路由机制,使美国亚马逊卖家能够在 15 秒内获得准确的业务洞察,人工评估准确率达 90%。

论文及详细解读 https://go.hyper.ai/LbaHD


Insight Agents(IA)架构示例

作者使用一个精选数据集用于训练和评估 OOD 检测与智能体路由模型,该数据集总计 301 个问题:178 个域内问题,123 个域外问题;另设包含 100 个热门问题的基准测试集,附带真实答案,用于端到端评估。


数据集

以上就是本周论文推荐的全部内容,更多 AI 前沿研究论文,详见 hyper.ai 官网「最新论文」板块。

同时也欢迎研究团队向我们投稿高质量成果及论文,有意向者可添加神经星星微信(微信号:Hyperai01)。

下周再见!

基因组基础模型(GFMs)是解码生命密码的核心工具,它们通过分析 DNA 序列解锁细胞功能、 organism 发育等关键生物信息。然而,现有基于 Transformer 的 GFMs 存在致命短板:依赖大规模预训练和密集计算间接推断多核苷酸基序,不仅效率低下,还在基序主导的功能元件检测任务中表现受限。

近日,由华大生命科学研究院与浙江之江实验室组成的 Genos 团队提出的 Gengram(Genomic Engram)模型,为这一难题提供了革命性解决方案。这一设计既避免了硬编码生物规则,又让模型获得了明确的基因组 「语法」 认知。

作为一款专为基因组基序建模设计的轻量级条件记忆模块,Gengram 的核心创新在于基于 k-mer 的 hash memory 机制,构建了可高效查询的多碱基基序记忆库。与传统模型间接推断基序不同,它直接存储 1-6 个碱基长度的 k-mer 及其嵌入向量,通过局部窗口聚合机制捕捉功能基序的局部上下文依赖,再经门控控制模块(gate-controlled module)将基序信息与主干网络融合。研究团队表示,当集成于 当前SOTA 的基因组模型 Genos 时,同等训练条件下,Gengram 在多项功能基因组学任务中实现显著性能提升,最高达 22.6%。


论文地址:https://arxiv.org/abs/2601.22203\
代码地址:https://github.com/BGI-HangzhouAI/Gengram\
模型权重:https://huggingface.co/BGI-HangzhouAI/Gengram

训练数据覆盖人类与非人灵长类基因组

训练数据集包含 145 个高质量的单倍型解析组装序列,涵盖人类与非人灵长类基因组。人类序列主要来源于人类泛基因组参考联盟(HPRC,第 2 版),并辅以 GRCh38 与 CHM13 参考基因组。非人灵长类序列则整合自 NCBI RefSeq 数据库,以纳入演化多样性。所有序列均使用 one hot 编码处理。词汇表包含四种标准碱基(A、T、C、G)、模糊核苷酸 N 以及文档结束标记 。

最终,系统构建了 3 套数据以支撑消融实验及正式预训练

50B tokens @ 8,192(消融)

200B tokens @ 8k(10B 正式预训)

100B tokens @ 32k(10B 正式预训)

并且保持 human : non-human = 1:1 的数据混合比例。

基因组建模从「注意力推导」走向「记忆增强」

受 DeepSeek Engram 记忆机制启发,Genos 团队快速开发并部署 Gengram,为基因组基础模型提供显式 motif 存取与复用能力,突破主流 GFMs 缺乏结构化 motif memory、只能通过扩大训练数据「隐式记忆」的限制,推动基因组建模从「注意力推导」走向「记忆增强」。该模块架构如下图所示:


Gengram 架构图

建表:对 k=1~6 的所有 k-mer 建立 hash memory(静态 key + 可学习 embedding value)

检索:把窗口内出现的所有 k-mer 映射到表项

聚合:先在每个 k 上聚合,再跨 k 拼接

门控:gate 控制激活,把 motif 证据写入 residual stream,然后再进入 attention。

一个关键设计:Local Window Aggregation(W=21bp)

Gengram 并非在每个位置仅检索单一 n-gram,而是采用固定窗口内的多 k-mer embedding 聚合,以更稳定地注入「局部、结构一致」的 motif 证据。研究人员通过窗口大小策略搜索进行验证,发现 21 bp 在验证集上达到最优性能。一个可能的生物学解释是:典型的 DNA 双螺旋周期约为每旋转一圈 10.5 个碱基对,因此 21 个碱基对正好旋转两圈;这意味着,相隔 21bp 的两个碱基,在三维空间中恰好位于螺旋的同一侧,面对相似的生化环境,在该尺度上进行窗口聚合,或更有利于对齐局部序列信号的相位一致性。

评测提升突出:小参数,大改变

团队采用多标准基准数据集对模型进行了全面评估,涵盖 Genomic Benchmarks (GB)、Nucleotide Transformer Benchmarks (NTB)、Long-Range Benchmarks (LRB)及Genos Benchmarks (GeB)。从中选取了 18 个具有代表性的数据集,涉及 5 个主要任务类别:序列结构理解 (Genomic Structure Understanding)、基因调控预测 (Gene Regulation Prediction)、表观遗传图谱 (Epigenetic Profiling)、变异效应与临床影响 (Variant Effect & Clinical Impact) 以及进化分析 (Evolutionary Analysis)。

Gengram 作为一个仅约 2,000 万参数的轻量化插件,相对于百亿级规模的基座模型而言参数占比极小,但其带来的性能提升显著。在 8k 与 32k 两种上下文长度设定下,同等训练条件,集成 Gengram 的模型在绝大多数任务中均优于未集成的版本。具体表现上,剪接位点预测任务的 AUC Score 从 0.776 提升至 0.901,增幅达 16.1%;表观遗传预测任务(H3K36me3)的 AUC Score 从 0.656 提升至 0.804,增幅为 22.6%。


8k 和 32k context 下,加入 Gengram 前后的评测结果,加入 Gengram 后提升显著

此外,该性能提升还伴随着显著的「数据杠杆」效应。在与 Evo2、NTv3、GENERATOR-3B 等主流 DNA 基础模型的横向对比中,集成 Gengram 的模型仅需极小规模的训练数据和较少的激活参数量,便可在核心任务上媲美训练数据规模领先其数倍至数十倍的公开模型,体现出较高的数据训练效率。


Gengram 模型也主流 DNA 大语言基础模型的评测比较

深度剖析 Gengram

为什么 Gengram 能加速训练?

团队引入 KL 散度作为训练过程的表征诊断指标,并采用 LogitLens-KL 对不同层的「可预测性(prediction-readiness)」进行量化跟踪。结果显示,引入 Gengram 后,模型在浅层即可更早形成稳定的预测分布:相较基线模型,其层间 KL 更快下降并提前进入低值区间,表明有效监督信号更早被组织为可用表征,从而使梯度更新更直接、优化路径更平滑,最终体现为更快的收敛速度与更高的训练效率。


这一现象并非「凭空发生」,而是由 Gengram 的结构性设计直接驱动:

显式的 motif 记忆检索,缩短「证据到表征」的路径。 在基因组任务中,监督信号往往由短而稀疏的 motif(如剪接共识序列、启动子相关片段、低复杂度 tract 等)触发。基线 Transformer 需要通过多层 attention/MLP 逐步「推导并固化」这些局部证据;而 Gengram 通过对 k-mer 的显式存取,把这类高信息密度的局部模式以记忆形式直接提供给网络,使模型不必等待深层逐渐形成 motif detectors,从一开始就更接近可预测状态。

窗口聚合 + 动态门控,使注入的证据「稳定且可控」。 Gengram 不是逐位置硬注入,而是在固定窗口内聚合多个 k-mer embedding,并通过门控选择性写入 residual stream:在功能区域更倾向激活检索,在大段背景区抑制检索。这种「稀疏、对齐功能元件」的写入方式,一方面减少噪声干扰,另一方面让网络更早获得高信噪比的训练信号,降低了优化难度。

Motif 记忆从何而来?详解 Gengram 的写入机制

研究团队在下游评测中首先观察到一个明确且跨任务一致的现象:在相同训练设定下,引入 Gengram 后,模型在典型的 motif 主导任务上取得显著提升,尤其是在依赖短程序列模式的场景中表现突出,例如剪切位点识别与表观遗传相关的组蛋白修饰位点预测。以代表性任务为例,剪接位点预测 AUC 从 0.776 提升至 0.901,H3K36me3 预测 AUC 从 0.656 提升至 0.804,增益稳定且幅度可观。

为了进一步回答「这些提升从何而来」,团队没有止步于指标层面,而是从模型前向传播中提取 Gengram 的残差写入项(residual write),并将其在序列维度上的强度分布可视化为热图进行分析。结果显示,写入信号呈现出高度稀疏且强对比的结构:绝大多数位置接近基线,只有少数位置形成尖锐峰值;更重要的是,这些峰值并非随机出现,而是显著富集并对齐于功能相关区域与边界,包括启动子邻近的 TATA-box 片段、低复杂度 poly-T 片段,以及基因/外显子等功能区域边界附近的关键位置。这意味着 Gengram 的写入更像是在「抓住决定功能的局部证据」,而非无差别地在全序列范围内注入信息。

综合上述现象与证据链,研究人员可以将 Gengram 的 motif 记忆机制概括为「按需检索—选择性写入—结构化对齐」:模块通过门控控制检索与写入强度,在功能信息密度更高的区域更积极地注入可复用的 motif 证据,在背景区域则抑制写入以降低噪声干扰。由此,模型对 motif 的掌握不再主要依赖更大规模数据带来的「隐式记忆」,而是转向一种显式存取、可解释地写入表征的结构化能力。

结语

近年来,基因组建模领域正经历从「序列统计学习」向「结构感知建模」的关键转向。

以 Gengram 为代表的条件化基序记忆机制,揭示了一条不同于传统密集计算的技术路径:通过将多碱基功能基序显式建模为可检索的结构化记忆,模型得以在保持通用架构兼容性的同时,实现更高效、更稳定的功能信息利用。这一思路不仅在多项功能基因组任务中展现出显著性能优势,也为稀疏计算、长序列建模以及模型可解释性提供了统一的工程解法。

此外,从产业视角看,Gengram 所体现的「结构化先验 + 模块化增强」范式,显著降低了基因组大模型在算力、数据与训练周期上的边际成本,为其在药物研发、变异筛选、基因调控分析等高价值场景中的规模化部署提供了现实可行性。更长远地看,这类可复用、可插拔式的架构组件,或将成为下一代基因组基础模型的标准配置,推动行业从「更大的模型」走向「更聪明的模型」,并加速学术研究成果向产业平台与临床应用的持续转化。

1. 免费IP定位服务的限制与挑战

IP定位技术广泛应用于广告投放、用户行为分析、安全监控等领域,然而,大多数免费IP定位工具存在诸多限制。

1.1 精度问题

免费IP定位服务通常依赖于公开的数据源,这些数据往往不如付费服务精准。免费工具的定位精度往往只能精确到国家或省级地区,无法提供更精确的城市或街道级别的定位信息。因此,许多依赖高精度地理信息的场景(如精准营销、金融风险控制等)不适合使用免费工具。

1.2 数据更新频率

免费服务的数据更新频率较低,无法及时反映IP地址的变化。由于IP地址的归属地和运营商信息是动态变化的,特别是在网络环境较为复杂的地区,更新缓慢的数据库可能导致查询结果不准确,从而影响业务决策。

1.3 服务限制

免费工具通常有查询次数限制。例如,一些免费服务每天只能提供几十次查询,而对于需要高频次查询的业务,这显然无法满足需求。免费服务还可能限制某些功能,如无法获取运营商信息、ASN编号等详细数据,严重影响其应用场景的拓展。

1.4 应用场景的局限性

虽然免费的IP定位工具可以应付一些基本的应用需求,如简单的用户地域定位和基本的数据分析,但它们并不适用于那些对精度要求高的场景。例如,在广告投放、金融风控等领域,定位误差可能导致严重的经济损失,因此对于这些高精度需求的场景,免费工具无法满足需求。

2. 付费IP定位服务的优势

付费IP定位服务通常能提供更高的精度和更丰富的数据,适用于高要求的商业场景。

2.1 高精度定位

付费服务能够提供更加精准的IP定位,精确到城市甚至街道级别。在某些高精度需求场景下,付费服务能够提供详细的IP地址归属地,甚至能显示运营商信息、ASN编号以及用户的地理坐标(经纬度)。这一点对精准营销、反欺诈监控、跨区域服务定制等应用至关重要。

2.2 更丰富的数据维度

除了基本的地理位置,付费IP定位服务通常还提供更丰富的附加数据。例如,IP的风险评分、代理检测、历史位置记录、用户行为分析等,这些都能帮助企业更加全面地评估IP地址的可靠性与风险。

2.3 实时更新和监控

与免费服务相比,付费服务的数据更新频率更高,能够实时监控IP地址的变化。这对于需要快速响应的业务(如金融反欺诈、风险控制等)至关重要。付费服务通常会提供更稳定、持续的数据支持,确保企业在面对突发事件时能够快速调整策略。

2.4 API和集成支持

大多数付费IP定位服务提供API接口,企业可以通过API将IP定位服务集成到现有系统中,支持大规模、自动化的数据获取。这对于开发者和企业来说,能够提高工作效率,降低运营成本。
免费IP定位和付费服务的精度差距有多大?

3. 精度差距的实例对比

通过实际案例对比,我们可以更清晰地看到免费和付费服务在精度上的差距。

3.1 归属地对比

为了更清晰地对比不同之处,我们选择了IP数据云的免费查询和付费查询进行了比较。当我们查询一个IP地址时,通过免费的IP定位服务,查询结果可能仅显示该IP所属的国家和省份;而通过付费服务,除了国家和省份信息,还可以精准到具体的城市/街道,并附带运营商信息、经纬度、风险评分等。
IP数据云免费与付费查询结果对比

3.2 应用场景差异

以金融行业为例,银行或支付平台需要对用户进行身份验证和风险评估。在这个过程中,IP定位的精度至关重要。免费的IP定位服务可能无法准确判断用户的真实地理位置,这可能导致跨区域交易的误判。而付费服务能够提供更精确的位置信息,帮助企业更好地识别潜在的风险和欺诈行为。

4. 如何选择适合的IP定位服务

根据不同的业务需求,选择合适的IP定位服务是至关重要的。

4.1 业务需求驱动

对于一些中小型企业,免费服务足以应付一些简单的地理定位需求。而对于大型企业或对精度有较高要求的场景(如广告投放、精准营销、风险控制等),付费服务则显得更为必要。

4.2 成本效益分析

免费服务通常适用于预算有限或对精度要求不高的场景。但当业务规模扩大,或者需要处理更多的数据和复杂的需求时,选择付费服务能够提供更高的ROI。企业应根据自身的预算和业务需求做出决策。

5. 技术和安全性上的差异

5.1 技术实力

付费服务背后通常拥有更多的技术支持,提供更加稳定和高效的服务。技术团队的持续研发和优化,能够保证付费服务始终处于技术前沿。

5.2 安全性和隐私保护

对于需要保护用户隐私和数据安全的应用场景,付费服务通常会提供更加严密的数据加密、IP匿名化等安全措施。付费服务不仅保障数据的安全,还能避免数据滥用,帮助企业减少法律风险。

6. IP定位服务的选择

在选择IP定位服务时,企业应根据实际需求来决定。如果业务需求较为简单,且对精度的要求不高,那么免费服务是一个不错的选择。但对于大中型企业,尤其是金融、广告、电子商务等行业,精确的IP定位与实时数据支持是至关重要的。在这些场景下,IP数据云作为付费服务提供了精准的定位结果和丰富的附加功能,帮助企业更好地实现精准营销和风控监控。通过对比,我们可以看到IP数据云在提供高精度IP定位数据的同时,能够为企业带来更多的功能支持,尤其适用于那些对数据安全、精度、更新频率有高要求的业务场景。

这网站登录要验证码,我想一直保持登录,就准备定时去请求后端服务保持登录态,结果没注意到它有签名。

看了一下其实签名很简单。
image
先看了下个人信息部分,后端返回加密的,前端解开了,先验证下在哪里脱敏的,有的系统是后端脱敏,有的偷懒就在前端脱敏。

既然解密了邮箱,先搜一下 decrypt 看看
image
找到了几个解密方法,直接去 app......js 里面看
image
这里是加解密方法,下面有两个密钥,其实可以猜一下,长的是私钥(别问我为什么)

然后验证下
image
成功解析了,是一个私钥(为什么不用 AES 呢?这样不就是后端用公钥加密,前端用私钥解密了)

image
解密成功,果然是前端脱敏的。

下面看看请求签名吧。
image
每个 api 的请求都有个 signature 的请求头
这个签名由两部分组成,其实见得多了就知道,这里就是时间戳+MD5

我们先搜索 signature
image
直接锁定了,定位过去打断点就行了。

image
下断点,触发请求,这里主要看Object(h.a)(o, n)

image
第一部分断点下错了,应该在 app 里面下,不影响,现在已经断到了

image
这里就是 a+;+o,a 是时间戳跟上面的猜测是一样的,o 是 Object(f.a)(a, n)的结果,n 就是请求体,直接单步进去

image
这里就是核心方法了,其实很简单,自己分析或者直接下断点就行了
r 就是 md5
无非就是i = e + "," + a + ",1e31af8c14999aa99d78537a8641ea4d"或者c = e + ",1e31af8c14999aa99d78537a8641ea4d"

image
1770360125648,10,1,1e31af8c14999aa99d78537a8641ea4d
时间戳+请求体中 json 的键值对的值+固定字符串

image
1770360125648,10,1,1e31af8c14999aa99d78537a8641ea4d的 md5 结果为:20736f5e42b82db8c5d0c92bdd89c262

image
后端请求的签名和我们拿得原文再 MD5 的签名一模一样,这里报错是因为断点时间太长导致请求的时间戳超时,实际上算法是对的。

原文链接:https://tecdat.cn/?p=44948
原文出处:拓端抖音号@拓端tecdat

封面

引言

2025年,全球半导体产业正站在技术革新与供应链重构的关键十字路口。AI大模型的爆发式增长,让高端算力芯片、高带宽存储(HBM)成为需求核心,直接推动光刻机、先进封装、光刻胶等关键环节的技术迭代进入“加速档”;而地缘政治博弈与“科技自立自强”的国家战略双重驱动下,国产化替代已从“可选”变为“必选”,成为中国半导体产业突围的核心命题。从晶圆制造到封装测试,从设备材料到终端应用,产业各环节正经历前所未有的变革,机遇与挑战并存。

本报告洞察系统梳理产业核心趋势、关键数据与落地路径。本文完整报告数据图表和文末100+最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和800+行业人士共同交流和成长。

一、产业核心趋势:AI与国产化双轮驱动

半导体产业的增长引擎已从传统消费电子彻底转向AI算力与国产化替代。全球半导体市场2025年预计突破6970亿美元,其中AI相关逻辑芯片、GPGPU增速分别达16.8%和27%,成为最强增长动力;而中国作为全球最大半导体市场,2024年贡献ASML 41%的营收,却在高端光刻机、先进光刻胶等领域国产化率不足1%,千亿级替代空间已全面打开。

(一)光刻机:高端垄断与国产突破的正面博弈

光刻机作为半导体制造的“皇冠明珠”,是国产化替代的核心攻坚环节。2024年全球市场呈现“一超两强”格局,ASML以61.2%的份额主导全局,尤其在EUV和ArFi先进机型中形成绝对垄断,Canon与Nikon则聚焦成熟制程。

2024年全球光刻机厂商出货量份额横向条形图表1
2024年全球光刻机厂商出货量份额(百分比):ASML 61.2%、Canon 34.1%、Nikon 4.7%、其他0.0%。
3秒解读:ASML垄断高端市场,国产厂商尚未进入主流份额,成熟制程是国产替代首攻方向。
对应人群行动建议:晶圆厂可优先布局ASML成熟制程设备备份,降低断供风险;国产设备厂商应聚焦DUV细分环节(如双工件台、光源系统)突破,联合晶圆厂开展联合验证,缩短导入周期。
2024年全球光刻机市场份额 - 保持横向比例条形图1数据EXCEL及图表PDF模板已分享到会员群
中国光刻机国产化正迎来关键突破:上海微电子90nm ArF光刻机实现出货,华卓精科双工件台打破国外垄断,哈尔滨工业大学成功研制13.5nm EUV光源,为7nm以下先进制程奠定基础。但当前仍面临验证周期长、核心零部件依赖进口等挑战,短期聚焦成熟制程替代、长期攻坚EUV核心技术,成为行业共识。

(二)光刻胶:国产化率的“技术阶梯”困境

光刻胶作为光刻工艺的核心材料,其国产化进程呈现明显的技术梯度差异——技术难度越高,国产化率越低,成为制约先进制程推进的关键瓶颈。

PCB光刻胶国产化率瀑布图表7
PCB光刻胶国产化率(百分比):干膜光刻胶5%、湿膜光刻胶50%、阻焊油墨50%、整体国产化率35%。
3秒解读:中低端产品已实现部分替代,干膜光刻胶因技术壁垒高,仍高度依赖进口。
对应人群行动建议:材料厂商可优先加大湿膜光刻胶产能扩张,巩固现有替代成果;同时联合PCB厂商开展干膜光刻胶联合研发,聚焦光引发剂等核心配方突破;晶圆厂可建立国产材料测试绿色通道,缩短验证周期。
PCB光刻胶国产化率瀑布图表7数据EXCEL及图表PDF模板已分享到会员群

半导体光刻胶国产化率阴影条形图表8
半导体光刻胶国产化率(百分比):G/I线光刻胶30%、KrF光刻胶5%、ArF光刻胶0.5%、EUV光刻胶0%。
3秒解读:先进制程光刻胶完全依赖进口,7nm以下制程面临供应链安全风险。
对应人群行动建议:政策层面可加大对EUV光刻胶研发的专项补贴,支持校企联合攻关;企业层面应加强与晶圆厂的工艺协同,针对14nm制程所需的KrF光刻胶开展量产验证,逐步突破技术瓶颈。
半导体光刻胶国产化率阴影条形图表8数据EXCEL及图表PDF模板已分享到会员群

(三)先进封装:后摩尔时代的性能“破局者”

随着制程微缩逼近物理极限,先进封装成为AI时代提升芯片性能的核心路径——通过Chiplet异构集成、2.5D/3D堆叠等技术,无需制程迭代即可实现算力翻倍,成为产业增长的新引擎。

2019-2029年全球先进封装技术路线占比堆叠面积图表10
2019-2029年全球先进封装技术路线占比:2.5D封装占比从30%升至55%,3D封装从20%升至42%,其他先进封装从50%降至3%。
3秒解读:2.5D/3D封装成为主流,AI芯片需求直接推动技术迭代提速。
对应人群行动建议:封装厂商应重点布局CoWoS、Chiplet技术,加大与HBM厂商的协同研发;AI企业在芯片设计阶段即融入先进封装方案,优化算力密度与功耗平衡;设备厂商需聚焦TSV刻蚀、微凸块电镀等关键设备突破,适配封装技术升级需求。
全球先进封装技术占比堆叠面积图表10数据EXCEL及图表PDF模板已分享到会员群
中国先进封装产业呈现“成熟制程与先进封装齐头并进”的格局:长电科技XDFOI Chiplet工艺进入稳定量产,通富微电承接AMD 70%-80%的封测订单,华天科技布局面板级封装(FOPLP),本土企业已在AI芯片封测领域形成差异化竞争力。


相关文章

2025半导体行业核心趋势与市场动态报告:AI驱动、先进封装、SiC、掩膜版|附130+份报告PDF、数据、可视化模板汇总下载

原文链接:https://tecdat.cn/?p=44426


二、关键支撑环节:设备、材料与供应链的协同突围

(一)半导体设备:市场增长与国产替代的共振效应

全球半导体设备市场正受益于AI驱动的扩产潮,2025年预计达1210亿美元,2026年增至1390亿美元,其中晶圆加工设备(WFE)占比超80%。中国作为全球最大设备采购市场,2024年设备采购金额达490亿美元,国产化率已提升至13.6%,刻蚀、清洗设备进展显著。

全球半导体设备销售额气泡图表2
全球半导体设备销售额(亿美元):2023年1063、2024年1171、2025年预测1215、2026年预测1394,增长率分别为10.2%、3.8%、14.7%。
3秒解读:设备市场稳步增长,2026年将迎来加速期,AI芯片扩产是核心驱动力。
对应人群行动建议:设备厂商应聚焦客户验证周期缩短,针对晶圆厂需求优化设备稳定性;晶圆厂可加大国产设备导入比例,采用“成熟制程批量导入+先进制程小批量测试”的策略,降低替代风险。
全球半导体设备销售额气泡图表2数据EXCEL及图表PDF模板已分享到会员群

(二)混合键合:AI芯片互连的“核心纽带”

混合键合技术通过铜-铜直接键合实现10μm以下间距互连,是HBM和3D集成的关键支撑,2030年前市场规模年复合增长率达24.7%。当前全球市场由BESI主导,占比67%,国产厂商如拓荆科技已推出量产设备,在AI驱动下国产化进程加速。

混合键合技术多维评估雷达图表5
混合键合技术多维评估(0-30分):市场规模6.2、年复合增长率24.7、技术成熟度8.0、国产化率2.0、AI需求拉动9.0。
3秒解读:技术需求旺盛,但国产化率偏低,存在较大替代空间。
对应人群行动建议:企业应加强与HBM厂商的联合研发,聚焦设备精度与可靠性提升;政策层面可支持核心零部件国产化,降低设备制造成本;产业链应建立技术标准联盟,加速国产设备验证流程。
混合键合技术评估雷达图表5数据EXCEL及图表PDF模板已分享到会员群

2023年全球混合键合设备厂商市场份额半圆面积图表6
2023年全球混合键合设备厂商市场份额:BESI 67%、其他厂商33%。
3秒解读:BESI垄断全球市场,国产厂商需突破技术瓶颈实现弯道超车。
对应人群行动建议:国产设备厂商应聚焦客户验证,针对AI芯片互连需求优化设备性能;晶圆厂可给予国产设备更多测试机会,通过联合攻关解决实际应用中的技术问题。
混合键合设备市场份额半圆面积图表6数据EXCEL及图表PDF模板已分享到会员群

(三)锡供应:电子焊料的地缘风险预警

锡作为半导体封装的关键材料,其供应稳定性直接影响封装环节产能。2024年全球锡产量高度集中,中国、印尼、缅甸三国占比超50%,供应易受政策和地缘冲突影响,而AI芯片封装密度提升进一步推动锡需求增长,供应链稳定性成为企业关注重点。

2024年全球锡产量分布气泡图表9
2024年全球锡产量(万吨):中国6.9、印尼5.0、缅甸3.4、其他地区14.7。
3秒解读:供应集中度高,地缘风险可能引发价格波动,影响封装成本。
对应人群行动建议:企业应建立多区域供应商体系,降低单一地区依赖;布局再生锡回收业务,提升资源循环利用效率;密切关注地缘政治动态,建立库存预警机制。
全球锡产量分布气泡图表9数据EXCEL及图表PDF模板已分享到会员群

(四)测试设备:AI芯片复杂度驱动的需求爆发

AI芯片测试向量深度指数级膨胀,推动测试设备量价齐升——2025年全球测试设备市场预计同比增长48.1%,达166亿美元。中国测试设备市场中,测试机占比62.3%,但SoC测试机国产化率仅10%,高端替代空间广阔。

2024年中国半导体测试设备细分市场占比华夫图表3
2024年中国半导体测试设备细分市场占比(每格代表1%):测试机62.3%、探针台20.0%、分选机17.7%、其他0.0%。
3秒解读:测试机是核心细分领域,国产化潜力巨大,是测试设备替代的核心突破口。
对应人群行动建议:测试设备厂商应聚焦AI芯片专用测试方案,开发高算力、高精度测试设备;晶圆厂可导入国产测试设备进行并行验证,逐步提高国产设备在测试环节的占比。
中国测试设备市场结构华夫图表3数据EXCEL及图表PDF模板已分享到会员群

全球半导体测试设备销售额及同比增速双轴图表4
全球半导体测试设备销售额(亿美元):2024年112、2025年预测166、2026年预测186、2027年预测199,增长率分别为48.1%、12.0%、7.0%。
3秒解读:测试设备市场进入高速增长期,2025年增速最快,AI芯片是核心驱动因素。
对应人群行动建议:企业应加大研发投入,突破高端测试机核心技术,尤其是SoC测试机的国产化;产业链应建立测试设备与芯片设计的协同机制,提升测试效率。
全球测试设备销售额双轴图表4数据EXCEL及图表PDF模板已分享到会员群

三、核心数据对比与落地路径

(一)不同报告数据差异对比表

核心主题报告1:华创证券《光刻机行业深度研究报告》报告2:亿欧智库《2025年泛半导体光刻胶供应链发展研究》报告3:浙商证券《2026年半导体设备行业策略报告》数据差异原因分析
全球半导体设备市场规模2025年1210亿美元无直接数据2025年1215亿美元5亿美元差异统计口径不同,是否包含二手设备及配件
光刻胶国产化率半导体光刻胶国产化率不足1%G/I线30%、KrF5%、ArF0.5%无直接数据细分品类差异报告1为整体口径,报告2按技术路线细分
先进封装市场规模2029年695亿美元无直接数据2029年600亿美元95亿美元差异预测时间周期及技术路线统计范围不同

(二)可落地的3件事

  1. 晶圆厂联合材料厂商建立国产光刻胶联合测试平台,优先导入KrF光刻胶进行量产验证,制定明确的验证标准与时间表,缩短替代周期;
  2. 封装企业聚焦Chiplet与CoWoS技术,与AI芯片设计公司共建联合实验室,同步优化封装方案与芯片设计,提升产品适配性;
  3. 设备厂商联合高校、科研院所攻坚EUV光源、双工件台等关键环节,建立核心零部件国产化供应链,降低对外依赖。

(三)风险提示与应对方案

风险类型具体风险应对方案社群支持
技术风险先进制程设备研发进度不及预期聚焦成熟制程替代,分阶段攻坚核心技术,优先满足中低端市场需求共享最新技术研发进展与专利布局,提供技术交流对接
供应链风险高端零部件进口受限建立多区域供应商体系,扶持国产零部件企业,签订长期供货协议提供国产零部件厂商名录与对接机会,组织供应链对接会
市场风险全球晶圆厂扩产放缓拓展汽车电子、工业控制等细分市场,开发定制化设备与材料分享细分市场需求数据与客户资源,提供市场趋势研判

四、核心数据表格汇总

(一)全球半导体核心市场规模预测(亿美元)

领域2025年预测2026年预测年增长率
全球半导体市场6971.84760711.2%
全球晶圆代工市场170020%
全球半导体设备市场1210139014.9%
全球先进封装市场11%(2023-2029CAGR)
全球测试设备市场16618612.0%

(二)中国半导体核心产品国产化率(%)

产品类型国产化率关键企业
光刻机不足1%上海微电子、华卓精科
PCB光刻胶35%容大感光、广信材料
半导体光刻胶(G/I线)30%晶瑞电材、彤程新材
半导体光刻胶(KrF)5%彤程新材、晶瑞电材
半导体设备13.6%北方华创、中微公司
先进封装未明确长电科技、通富微电

五、数据图表列表

  1. 2024年全球光刻机厂商出货量份额横向条形图表1
  2. 全球半导体设备销售额气泡图表2
  3. 2024年中国半导体测试设备细分市场占比华夫图表3
  4. 全球半导体测试设备销售额及同比增速双轴图表4
  5. 混合键合技术多维评估雷达图表5
  6. 2023年全球混合键合设备厂商市场份额半圆面积图表6
  7. PCB光刻胶国产化率瀑布图表7
  8. 半导体光刻胶国产化率阴影条形图表8
  9. 2024年全球锡产量分布气泡图表9
  10. 2019-2029年全球先进封装技术路线占比堆叠面积图表10

封面

本专题内的参考报告(PDF)目录

  • 半导体行业分析手册之二:混合键合设备:AI算力时代的芯片互连革命与BESI的领航之路.pdf
  • 2026-02-03 16:15
  • 半导体行业深度报告:Agentic AI时代的算力重构:CPU,从“旁观者”到“总指挥”的价值回归.pdf
  • 2026-02-03 16:15
  • 半导体行业先进封装与测试专题报告:先进封装量价齐升,测试设备景气上行.pdf
  • 2026-02-03 16:14
  • 半导体行业分析手册之二:混合键合设备,AI算力时代的芯片互连革命与BESI的领航之路.pdf
  • 2026-01-30 15:55
  • 锡专题:供应扰动频繁,AI+半导体催化需求增长.pdf
  • 2026-01-27 15:47
  • 半导体先进封装研究报告.pdf
  • 2026-01-26 13:49
  • 半导体测试设备行业深度研究报告:算力迭代与先进封装重塑价值,国产测试设备步入替代加速期.pdf
  • 2026-01-26 13:49
  • 2026年半导体设备行业策略报告:AI驱动新成长,自主可控大时代.pdf
  • 2026-01-26 13:48
  • 对点咨询&韬略咨询:2025半导体行业薪酬报告.pdf
  • 2026-01-23 15:42
  • 江苏省市场监督管理局:2025内外贸一体化认证服务指南-半导体产业.pdf
  • 2026-01-19 16:52
  • CSA Research:2025年半导体照明产业发展蓝皮书.pdf
  • 2026-01-16 15:08
  • 【人才】猎聘2025半导体产业人才供需洞察报告.pdf
  • 2026-01-13 17:24
  • 爱建电子深度报告:半导体产业的发展复盘与方向探索.pdf
  • 2025-12-30 14:40
  • 2025深圳市半导体与集成电路行业中小企业数字化转型实践样本.pdf
  • 2025-12-22 15:13
  • 2025 半导体业人才报告书.pdf
  • 2025-12-17 16:10
  • 2025年中国半导体设备特殊涂层零部件行业独立市场研究报告.pdf
  • 2025-12-09 16:14
  • 2025年泛半导体光刻胶供应链发展研究.pdf
  • 2025-12-05 16:47
  • 亿欧智库 _ 2025年泛半导体光刻胶供应链发展研究.pdf
  • 2025-12-04 16:55
  • 集微网:2025中国半导体激光设备白皮书.pdf
  • 2025-11-24 15:08
  • 云半导体:需求“全球”强劲至2026年.pdf
  • 2025-10-21 16:53
  • 光刻机行业深度研究报告:光刻机,半导体设备价值之冠,国产替代迎来奇点时刻.pdf
  • 2025-10-18 17:10
  • 2025年全球及中国半导体制造市场预测和产业分析报告.pdf
  • 2025-10-17 16:05
  • 深芯盟:2024年年国产半导体前道设备调研报告.pdf
  • 2025-10-17 16:03
  • 2025年深圳集成电路及国产半导体产业调研报告.pdf
  • 2025-10-17 16:02
  • 2025年国产半导体设备及深圳集成电路产业调研报告.pdf
  • 2025-10-17 16:02
  • 2024年深芯盟国产半导体前道设备+第三代半导体(SiC)设备调研分析报告.pdf
  • 2025-10-17 15:58
  • 光刻机行业深度研究报告:半导体设备价值之冠,国产替代迎来奇点时刻.pdf
  • 2025-10-17 15:51
  • MIR睿工业:2025年上半年中国半导体行业投融资情况分析报告.pdf
  • 2025-10-11 16:01
  • 半导体行业专题:空白掩模版:光刻工艺核心原料,国产化亟待突破.pdf
  • 2025-10-11 15:51
  • 半导体行业专题研究:AI存储革命已至,“以存代算”开启存储新纪元.pdf
  • 2025-09-30 16:36
  • 蓝凌研究院:2025年半导体企业AI数智化白皮书.pdf
  • 2025-09-24 16:28
  • 半导体设备行业深度:AI芯片快速发展,看好国产算力带动后道测试&先进封装设备需求.pdf
  • 2025-09-23 16:35
  • 2025第三代半导体行业研究报告.pdf
  • 2025-09-21 17:17
  • 美光(Micron):2025年半导体制造工艺介绍报告(英文版).pdf
  • 2025-09-19 16:44
  • 2025年第37期(总第712期):2025年美国半导体产业现状.pdf
  • 2025-09-12 16:39
  • 半导体行业分析手册系列之一:AI驱动下的晶圆代工新纪元,2025产业格局、技术突破与中国力量.pdf
  • 2025-08-29 16:23
  • 半导体存储行业深度研究报告:供需双振驱动价格持续上扬,企业级存储国产化加速推进.pdf
  • 2025-08-28 16:31
  • 半导体系列深度报告:走向更高端,国产掩膜版厂商2.0时代开启.pdf
  • 2025-08-22 16:25
  • 半导体行业深度报告:高端先进封装:AI时代关键基座,重视自主可控趋势下的投资机会.pdf
  • 2025-08-16 16:42
  • 埃森哲:2025年应对半导体行业的的人才短缺报告.pdf
  • 2025-08-10 18:39
  • 2025年弥合鸿沟:全球半导体行业人才短缺应对路径研究报告(英文版).pdf
  • 2025-08-06 16:16
  • 薪智:2025年Q3薪智半导体行业薪酬报告.pdf
  • 2025-07-27 17:23
  • 可控核聚变行业专题:核聚变“黑马”FRC,关注半导体开关产业趋势.pdf
  • 2025-07-25 15:42
  • 深圳来觅数据信息科技-半导体2025年二季度投融市场报告.pdf
  • 2025-07-19 19:37
  • 2025年全球半导体产业展望报告:AI赋能增长(英文版).pdf
  • 2025-07-10 16:41
  • 半导体行业专题研究:涨价持续性+AI强催化+国产化加速,重点推荐存储板块机遇.pdf
  • 2025-07-04 16:19
  • 半导体行业2025年中期策略报告:“AI+国产化”双轮驱动,并购整合浪潮已掀起.pdf
  • 2025-06-30 15:03
  • 半导体材料系列报告之一:国际形式严峻,国产半导体材料行业如何发展.pdf
  • 2025-06-27 16:31
  • 2025年第三代半导体SiC GaN产业链研究报告-深企投.pdf
  • 2025-06-21 17:19
  • 电子行业2025年中期投资策略:人工智能创新百花齐放,半导体自主可控加速推进.pdf
  • 2025-06-21 17:14
  • 2025第三代半导体产业链研究报告.pdf
  • 2025-06-20 15:06
  • 沙利文:2025年中国半导体及光伏用石英坩埚行业市场独立研究报告.pdf
  • 2025-06-19 16:13
  • 半导体产业人才报告-智联猎头.pdf
  • 2025-06-16 09:46
  • 与非网:2024年车规功率半导体产业分析报告.pdf
  • 2025-06-12 15:36
  • 2025全球半導體產業大調查-毕马威_Password_Removed.pdf
  • 2025-06-09 13:37
  • 2025深入了解博世的碳化硅(SiC)半导体技术白皮书.pdf
  • 2025-06-04 16:27
  • 2025深入了解博世的碳化硅(SiC)半导体技术白皮书(英文版).pdf
  • 2025-06-04 16:27
  • 金元证券:功率半导体黄金赛道:技术迭代×能源革命×国产替代的三重奏.pdf
  • 2025-05-30 17:01
  • 意法半导体:2025年电机驱动IC工业应用选型指南白皮书.pdf
  • 2025-05-25 16:51
  • 2025年半导体品牌30强(英文).pdf
  • 2025-05-22 15:51
  • 2025年半导体品牌30强.pdf
  • 2025-05-21 15:40
  • 半导体行业深度研究:光掩模:高壁垒材料,国产化率低,下游新应用打开成长新空间.pdf
  • 2025-05-20 17:03
  • 2024年美国半导体行业报告.pdf
  • 2025-04-30 17:22
  • 意法半导体:2025年电源管理指南白皮书.pdf
  • 2025-04-26 14:32
  • 2025年半导体行业白皮书-薪智.pdf
  • 2025-04-26 14:28
  • 电子行业:国产替代系列研究-一--半导体国产替代产业研究体系-上.pdf
  • 2025-04-23 15:58
  • 半导体设备、材料、零部件产业链蓄势乘风起-国盛证券.pdf
  • 2025-04-19 14:39
  • 电子行业半导体量检测设备:控制芯片生产良率的关键,具备极大国产替代空间和极强迫切性.pdf
  • 2025-04-15 16:10
  • 半导体行业深度报告:AI算力芯片——AI时代的引擎.pdf
  • 2025-04-09 16:17
  • 半导体行业深度报告(十二):AI大模型竞赛方兴未艾,OpenAI与DeepSeek引领行业生态重.pdf
  • 2025-03-31 09:38
  • 半导体行业深度报告-十二-:AI大模型竞赛方兴未艾,OpenAI与DeepSeek引领行业生态重构.pdf
  • 2025-03-29 16:11
  • 泛半导体材料研究系列之二:偏光片行业:解码偏光片国产替代加速与中大尺寸增量机遇.pdf
  • 2025-03-28 16:27
  • 半导体行业策略:云巅千帆竞渡,端侧万物生辉,自主驭潮生.pdf
  • 2025-03-24 14:29
  • 半导体行业策略:云巅千帆竞渡,端侧万物生辉,自主驭潮生.pdf
  • 2025-03-22 16:53
  • 半导体:AI算力芯片是“AI时代的引擎”,河南省着力布局.pdf
  • 2025-03-21 15:41
  • 半导体材料系列报告之三:半导体材料市场景气上行,各领域头部企业受益于国产化浪潮.pdf
  • 2025-03-20 14:48
  • 2025年Q1半导体行业薪酬报告.pdf
  • 2025-03-17 14:41
  • 2024 年中国芯片半导体行业投融资报告.pdf
  • 2025-03-17 14:37
  • 半导体材料系列报告之二:AI和晶圆厂扩建驱动半导体材料市场回暖,高端材料国产化进程加速.pdf
  • 2025-03-15 15:28
  • 2025年全球半导体产业展望(英文).pdf
  • 2025-03-07 16:25
  • 半导体键合设备行业深度:先进封装高密度互联推动键合技术发展,国产设备持续突破.pdf
  • 2025-03-07 16:17
  • 英飞凌:2025年GaN功率半导体预测报告.pdf
  • 2025-02-27 14:51
  • 电子设备-产业深度:积微累著,久久为功— —美国对华半导体制裁政策变迁分析与中国对策研究.pdf
  • 2025-02-21 14:45
  • 2025年中国半导体行业出口分析及各国进口政策影响白皮书.pdf
  • 2025-02-18 15:55
  • 国信证券-半导体专题:多相电源是增量蓝海市场,看好国产替代机遇.pdf
  • 2025-02-06 17:34
  • 半导体材料专题报告:先进制程驱动市场扩容,细分环节国产替代加速.pdf
  • 2025-01-22 15:59
  • 2024年中国半导体照明及应用领域出口统计及市场发展趋势分析白皮书.pdf
  • 2025-01-17 13:11
  • 半导体设备零部件行业深度研究报告:半导体设备之磐基,国产替代正当时.pdf
  • 2025-01-10 16:23
  • 2025年电子行业投资策略:AI+国产化双轮驱动,关注消费电子、半导体产业链投资机遇.pdf
  • 2025-01-03 16:06
  • EDA和IP行业专题:半导体产业基石,国产替代打破垄断格局.pdf
  • 2024-12-26 15:45
  • 半导体行业系列专题-七-:晶圆代工:特色工艺蓬勃发展,自主可控成果显著.pdf
  • 2024-12-21 17:17
  • 招银国际-半导体2025展望:AI热潮将延续.pdf
  • 2024-12-18 15:47
  • 半导体行业2025年年度策略报告:AI将是强引擎,国产化有望进深水区.pdf
  • 2024-12-17 15:30
  • 四氯化硅:高科技材料,推动半导体与光伏产业发展 头豹词条报告系列.pdf
  • 2024-12-15 14:15
  • 电子行业2025年度投资策略:人工智能创新持续推进,半导体自主可控方兴未艾.pdf
  • 2024-12-03 15:33
  • 海外半导体设备巨头巡礼系列:先晶-ASM-深耕薄膜沉积&外延设备,专业化布局的半导体设备龙头.pdf
  • 2024-12-03 15:32
  • 毕马威:2024年全球半导体行业展望报告.pdf
  • 2024-11-29 15:31
  • 企业竞争图谱:2024年半导体掩膜版 头豹词条报告系列.pdf
  • 2024-11-22 15:47
  • 可持续管理成就基业长青-半导体企业ESG管理案例.pdf
  • 2024-11-20 16:33
  • 半导体行业月度深度跟踪:自主可控需求长期趋势不变,关注产业链卡脖子环节和核心公司.pdf
  • 2024-11-19 16:03
  • 半导体行业2025年上半年投资策略:国产替代持续深化,AI带来硬件增量.pdf
  • 2024-11-15 15:22
  • 海外半导体设备巨头巡礼系列:应用材料-AMAT-内生外延打造“半导体设备超市”,整线设备&高品质服务构筑护城河.pdf
  • 2024-11-15 15:22
  • 全球半导体测试探针行业市场研究报告2024.pdf
  • 2024-11-12 16:34
  • 全球半导体测试探针行业市场研究报告2024-2028.pdf
  • 2024-11-11 15:27
  • 半导体供应链行业报告:行业复苏分化加深,静待需求回暖.pdf
  • 2024-11-09 16:50
  • 2023年第三代半导体产业发展报告.pdf
  • 2024-10-31 15:44
  • 半导体前道设备:前沿科技驱动未来制造,探索高效前道工艺解决方案 头豹词条报告系列.pdf
  • 2024-10-24 16:24
  • 2024上半年半导体行业招聘报告.pdf
  • 2024-10-23 15:32
  • 半导体行业研究周报:四季度安卓旗舰密集发布,半导体需求有望旺季很旺.pdf
  • 2024-10-18 16:57
  • 可持续芯动力:2024年半导体行业ESG转型之路研究报告.pdf
  • 2024-10-17 15:44
  • 东吴证券-海外半导体设备巨头巡礼系列:详解光刻巨人ASML成功之奥妙.pdf
  • 2024-10-17 15:40
  • 全球半导体制造类EDA行业白皮书(2024)-沙利文.pdf
  • 2024-10-12 15:09
  • 源达信息-雄安新区专题研究:重点布局半导体产业发展,助力国内高新技术产业向前.pdf
  • 2024-10-12 14:55
  • 锡行业深度报告系列(一):半导体景气复苏,锡供需格局持续向好.pdf
  • 2024-10-07 15:10
  • 头豹研究院-2024半导体检测设备:铸就芯片品质新高度 头豹词条报告系列.pdf
  • 2024-09-28 15:57
  • ...刻蚀设备市场空间持续拓宽——半导体设备系列报告之刻蚀设备.pdf
  • 2024-09-25 15:59
  • 深度解读半导体行业.pdf
  • 2024-09-23 15:17
  • 美国半导体协会:2024年美国半导体行业状况报告(英文版).pdf
  • 2024-09-20 16:09
  • 国信证券-半导体行业专题:先进封装超越摩尔定律,晶圆厂和封测厂齐发力.pdf
  • 2024-09-20 15:54
  • 英飞凌如何控制和保证基于SiC的功率半导体器件的可靠性.pdf
  • 2024-09-10 16:49

全文链接:https://tecdat.cn/?p=44943
原文出处:拓端数据部落公众号

封面:封面

专题名称:大语言模型Llama 4轻量化微调实战与医疗推理场景适配研究

引言

随着大语言模型技术的快速迭代,新一代大模型凭借更优的推理能力成为行业落地的核心选择,但这类模型普遍存在硬件门槛高的问题,常规微调需求动辄需要数张高端GPU,让中小团队与个人开发者难以开展垂直领域的适配工作。在实际业务咨询中,众多医疗领域客户向我们提出了通用大模型的低成本行业微调需求,希望在控制算力成本的同时,让模型具备专业的临床推理能力。

基于此,我们在客户咨询项目中开展了Llama 4 Scout模型的低成本微调技术研究,创新性地采用云GPU平台搭建多GPU训练环境,将原本需要4张高端GPU的微调任务成本控制在极低水平,同时针对医疗推理场景完成了模型的有监督微调。研究过程中,我们攻克了Transformers库嵌入不匹配、大模型显存不足、量化模型兼容等多个技术痛点,还设计了适配医疗临床推理的Prompt工程,让微调后的模型能够实现专业的医学问题分析与解答。本文将完整拆解该项目的落地流程,从云环境搭建到模型训练、性能验证再到模型部署,为大模型在垂直领域的轻量化微调提供可直接落地的实践方案,所有技术方案均经过实际业务校验,具备极强的实用性。

本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码与数据已分享至交流社群。阅读原文进群,可与800+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂 怎么做,也懂 为什么这么做;遇代码运行问题,更能享24小时调试支持。
本次Llama 4微调项目的整体实施流程如下(竖版流程图):

云GPU平台多GPU训练环境搭建

Llama 4 Scout模型对硬件算力与显存要求较高,本地消费级GPU无法满足模型加载与微调的需求,而采购专业GPU服务器的成本过高,因此选择云GPU平台按需搭建训练环境是最优解。本次项目选用的RunPod平台支持灵活的多GPU配置,且算力单价较低,能大幅降低微调成本。

需要注意的是,RunPod为海外云GPU平台,国内直接访问需要借助网络代理工具,国内可选择的替代平台有AutoDL、极链云、阿里云GPU服务器、腾讯云GPU服务器等,这类平台均支持多GPU灵活配置,国内可直接访问,且预装了PyTorch、TensorFlow等大模型训练所需的基础框架,无需手动配置底层环境

虚拟服务器环境优化配置

虚拟服务器初步部署完成后,还需要进行两项关键的环境优化,确保后续模型加载与训练工作顺利开展:一是将容器磁盘容量扩容至300GB,满足Llama 4模型文件、医疗推理数据集的存储需求,避免因磁盘空间不足导致模型加载失败;二是添加HF_TOKEN环境变量,该变量为海外Hugging Face模型平台的访问令牌,是加载门控模型与上传微调后模型的必要条件。Hugging Face为海外模型平台,国内直接访问需要借助网络代理工具,国内可选择的替代平台为魔搭社区ModelScope,该平台提供丰富的大模型、数据集资源,国内可直接访问,同时支持模型的上传、下载与二次开发,功能与Hugging Face高度契合

启动JupyterLab交互式开发环境

虚拟服务器的容器配置完成后,平台会完成底层环境的初始化,该过程需要少量时间,初始化完成后点击Connect按钮,选择启动JupyterLab实例,该实例为云端的交互式开发环境,操作方式与本地JupyterLab完全一致,可直接在其中编写、运行Python代码,完成后续所有的模型加载、数据处理、训练推理等操作。

新建开发笔记本开展后续工作

成功进入JupyterLab实例后,在界面中新建Python笔记本,即可开始搭建模型微调的代码环境,后续所有的技术实现步骤,包括依赖包安装、模型量化加载、数据集处理、LoRA配置、SFT训练等,均在该笔记本中完成,云端环境与本地开发的操作体验无差异。

微调环境依赖包安装与模型平台认证

在开展模型微调的核心工作前,需要先安装项目所需的Python依赖包,同时完成模型平台的身份认证,确保后续模型的正常加载与上传。本次项目中需要重点注意的是,最新版本的Transformers库存在嵌入不匹配的bug,直接使用会导致Llama 4模型加载失败,因此我们选择固定4.51.0版本进行安装;同时安装模型平台的xet集成组件,该组件可将模型文件的下载速度提升3倍,大幅节省模型加载时间。

核心依赖包安装代码

%%capture!pip install transformers==4.51.0 # 固定版本解决嵌入不匹配bug,保证模型正常加载%pip install -U datasets # 行业数据集加载与处理核心库%pip install -U accelerate # 多GPU分布式训练加速库...... # 省略了peft、trl、bitsandbytes等大模型微调核心依赖包的安装代码%pip install huggingface_hub[hf_xet] # 安装xet集成,提升模型下载速度

上述代码中,通过%%capture屏蔽了依赖包安装过程的冗余输出信息,让代码运行结果更简洁;省略的peft为LoRA低秩适配的核心库,trl为SFT有监督微调的核心库,bitsandbytes为大模型量化降显存的核心库,均为本次大模型微调项目的必备依赖。

模型平台身份认证

完成依赖包安装后,通过环境变量读取提前配置的模型平台访问令牌,完成平台的登录认证,只有认证成功后,才能访问受权限控制的门控模型,同时也能将微调后的模型顺利上传至模型仓库,实现模型的共享与二次开发。

from huggingface_hub import loginimport osplat_auth_token = os.environ.get("HF_TOKEN") # 修改变量名,读取环境变量中的平台令牌login(plat_auth_token) # 完成模型平台的登录认证

相关文章

Python用langchain、OpenAI大语言模型LLM情感分析AAPL股票新闻数据及提示工程优化应用

原文链接:https://tecdat.cn/?p=39614


Llama 4 Scout模型与分词器的量化加载

本次项目选用Llama 4 Scout系列的17B规模模型为基础模型,该模型具备较强的通用推理能力,是垂直领域适配的优质基础模型,需要注意的是该模型为门控模型,需在对应模型平台完成申请后才能获得访问权限。为了大幅降低模型的显存占用,满足多GPU分布式加载的需求,我们采用4-bit量化策略加载模型,同时将device_map参数设置为auto,让模型自动将参数分配到3张H200 GPU上,充分利用多GPU的算力与显存资源,避免单GPU显存不足的问题。

模型4-bit量化加载代码

import osimport torchfrom transformers import AutoTokenizer, Llama4ForConditionalGeneration, BitsAndBytesConfigbase_model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct" # 修改变量名,定义模型标识# 配置4-bit量化参数,修改变量名,降低模型显存占用quant_4bit_config = BitsAndBytesConfig( load_in_4bit=True, # 开启4-bit量化 bnb_4bit_use_double_quant=False, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=torch.bfloat16,)......

上述代码执行后,模型将以4-bit量化的形式完成加载,模型参数会自动分配到3张H200 GPU上,完美解决大模型显存不足的技术痛点,加载完成后JupyterLab会输出模型的网络层结构、参数分配的设备信息等内容,可直观查看模型加载状态。

分词器加载与GPU显存检测

加载与基础模型完全匹配的分词器,其核心作用是将医疗推理的文本数据转换为模型能够识别的张量格式,是连接文本数据与模型的关键桥梁;同时通过nvidia-smi命令检测3张GPU的显存使用情况,确认模型加载后剩余的显存资源能够满足后续SFT有监督微调的需求,避免因显存不足导致训练中断。

执行nvidia-smi命令后,JupyterLab会输出3张H200 GPU的显存总容量、已占用显存、剩余显存、算力使用率等详细信息,本次项目中模型4-bit量化加载后,各GPU仍有充足的剩余显存,完全能够支撑后续的模型训练工作。

医疗推理数据集的处理与专属Prompt工程

为了让通用的Llama 4模型具备专业的医疗推理能力,本次项目选用医疗推理领域的专用数据集开展微调工作,该数据集包含大量真实的医学问题、临床分步推理过程与专业解答结果,完全适配医疗场景的落地需求。我们首先结合医学临床推理的业务特点,设计专属的Prompt模板,再通过自定义函数将数据集按模板格式进行格式化处理,让数据与模型的输入格式高度匹配,提升模型的训练效果与推理能力。

医疗推理场景专属Prompt模板设计

结合医学临床推理的业务逻辑,我们设计了包含任务指令、医学问题、分步推理链、专业答案的一体化Prompt模板,该模板能够引导模型按照“分析医学问题-构建分步临床推理链-给出专业准确答案”的逻辑生成内容,有效提升模型的医疗问题分析能力与解答专业性。

# 修改变量名,设计医疗推理场景专属Prompt模板med_train_prompt_tpl = """以下是一个描述医疗任务的指令,搭配对应的临床背景信息。请撰写合适的内容完成任务要求。回答前请仔细分析医学问题,构建分步的临床推理链,保证推理逻辑与答案的准确性和专业性。### 指令:你是具备高级临床推理、疾病诊断与治疗方案制定能力的医疗专家,请专业解答下述医学问题。### 问题:{} ### 回答: {} {}"""

医疗数据集格式化处理

自定义数据格式化处理函数,将数据集中的医学问题、临床推理链、专业答案三个核心字段,按顺序填充到上述Prompt模板中,生成模型可直接用于训练的文本数据;同时为每个格式化后的文本添加模型结束符,让模型能够准确识别文本的结束位置,避免出现无意义的内容生成。

# 定义模型结束符,修改变量名MODEL_END_TOKEN = text_tokenizer.eos_token# 自定义医疗数据集格式化函数,修改函数名与入参变量名def format_med_dataset(med_data_samples): qs_list = med_data_samples["Question"] cot_chain_list = med_data_samples["Complex_CoT"] ans_list = med_data_samples["Response"] format_text_list = [] ...... # 省略了循环遍历的边界判断与空值处理代码,核心为字段填充与文本拼接 # 遍历数据集,按模板格式化文本

执行上述代码后,数据集将生成新的text字段,该字段为按Prompt模板填充后的完整训练文本,JupyterLab会输出第一条格式化后的文本内容,可直观查看数据处理的效果,确认文本格式符合模型训练要求。

语言模型数据整理器配置

本次项目使用SFT有监督微调训练器开展模型训练,该训练器不直接支持分词器的直接输入,因此我们将已加载的分词器转换为语言模型专用的数据整理器,其核心作用是将格式化后的文本数据批量转换为模型训练所需的张量格式,同时完成数据的批量处理与封装,提升训练效率。

from transformers import DataCollatorForLanguageModeling# 配置语言模型数据整理器,修改变量名lm_data_collator = DataCollatorForLanguageModeling( tokenizer=text_tokenizer, # 关联匹配的分词器 mlm=False # 因果语言模型训练,关闭掩码语言建模)

微调前的模型推理能力验证

为了清晰对比微调前后模型的医疗推理能力提升效果,我们在开展正式训练前,先对未经过微调的基础模型进行推理能力验证。设计不含临床推理链与专业答案的测试Prompt模板,输入典型的医学问题让模型生成解答内容,观察基础模型在医疗推理场景下的原始表现,为后续的训练效果评估提供基准。

测试Prompt模板与基础模型推理代码

# 设计医疗推理测试专用Prompt模板,修改变量名med_test_prompt_tpl = """以下是一个描述医疗任务的指令,搭配对应的临床背景信息。请撰写合适的内容完成任务要求。回答前请仔细分析医学问题,构建分步的临床推理链,保证推理逻辑与答案的准确性和专业性。### 指令:你是具备高级临床推理、疾病诊断与治疗方案制定能力的医疗专家,请专业解答下述医学问题。### 问题:{} ### 回答: {}"""# 微调前基础模型推理验证,修改所有变量名与调用方式test_med_question = med_infer_data[0]['Question']# 将测试问题转换为模型输入张量model_inputs = text_tokenizer( [med_test_prompt_tpl.format(test_med_question, "") + MODEL_END_TOKEN], return_tensors="pt").to("cuda")# 模型生成解答内容base_model_outputs = llama_base_model.generate( input_ids=model_inputs.input_ids, attention_mask=model_inputs.attention_mask, max_new_tokens=1200, eos_token_id=text_tokenizer.eos_token_id, use_cache=True,)# 解析并打印模型生成的解答内容gen_text = text_tokenizer.batch_decode(base_model_outputs, skip_special_tokens=True)print(gen_text[0].split("### 回答:")[1])

执行上述代码后,未微调的基础模型将对输入的医学问题进行推理并生成解答内容,实际测试结果显示,基础模型的临床推理链冗长且逻辑不够紧凑,给出的答案较为简略,与数据集中的专业临床解答存在较大差距,说明通用模型在医疗推理垂直领域的适配性较差,亟需通过行业数据集开展针对性微调。

LoRA低秩适配配置与SFT有监督微调

为了实现大模型的高效、低成本微调,本次项目采用LoRA(低秩适配)技术,该技术是大模型垂直领域适配的主流技术,核心原理是冻结基础模型的绝大部分参数,仅训练少量新增的低秩矩阵参数,既能大幅降低训练所需的算力与显存成本,又能保证微调后模型的性能与全量微调接近。同时搭配SFT(有监督微调)训练器,结合格式化后的医疗推理数据集,完成模型的针对性训练。

LoRA低秩适配核心参数配置

from peft import LoraConfig, get_peft_model# 配置LoRA低秩适配训练参数,修改所有变量名lora_config = LoraConfig( lora_alpha=16, # LoRA缩放因子,平衡低秩矩阵贡献 lora_dropout=0.05, # Dropout概率,防止模型训练过拟合 r=64, # 低秩矩阵的秩,控制训练参数数量 bias="none", # 不进行偏置参数的重参数化 task_type="CAUSAL_LM", # 任务类型定义为因果语言建模 # 定义LoRA训练的目标模块,覆盖模型注意力与前馈层 target_modules=[ "q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj", ],)# 为基础模型添加LoRA适配器,修改变量名lora_med_model = get_peft_model(llama_base_model, lora_config)

SFT训练器配置与模型训练启动

配置SFT有监督微调训练器的核心训练参数,包括输出目录、批次大小、学习率、训练轮数、梯度累积步数等,同时将添加了LoRA适配器的模型、格式化后的医疗推理数据集、语言模型数据整理器、LoRA配置等核心组件传入训练器,完成初始化后启动训练,模型将自动在3张H200 GPU上开展分布式训练。

from trl import SFTTrainerfrom transformers import TrainingArguments# 配置SFT训练核心参数,修改所有变量名train_config = TrainingArguments( output_dir="llama4_med_infer_output", # 训练结果输出目录 per_device_train_batch_size=1, # 单设备训练批次大小 per_device_eval_batch_size=1, # 单设备验证批次大小 gradient_accumulation_steps=2, # 梯度累积步数 optim="paged_adamw_32bit", # 训练优化器 ...... # 省略了训练轮数、预热步数、日志记录等参数配置 learning_rate=2e-4, # 训练学习率 group_by_length=True, # 按文本长度分组,提升训练效率 report_to="none")# 初始化SFT有监督微调训练器,修改所有变量名med_model_trainer = SFTTrainer( model=lora_med_model, args=train_config, train_dataset=med_infer_data, peft_config=lora_config, data_collator=lm_data_collator,)# 启动模型训练med_model_trainer.train()

启动训练后,可在RunPod平台的虚拟服务器仪表盘查看3张GPU的算力与显存使用情况,仪表盘显示所有GPU均处于高负载状态,说明多GPU的算力资源得到了充分利用,分布式训练配置生效。

本次项目中,得益于4-bit量化与LoRA低秩适配的技术优化,模型的实际训练时间仅为7分钟,从云环境搭建到模型训练完成的总耗时仅为30分钟,大幅提升了大模型在垂直领域的微调效率;训练过程中,JupyterLab会实时输出训练步数、损失值、训练耗时等关键信息,可直观监控模型的训练状态。

同时我们提供24小时响应的代码运行异常应急修复服务,针对大模型微调过程中出现的显存不足、库兼容报错、训练中断、模型生成异常等问题提供实时调试支持,相比开发者自行调试,问题解决效率提升40%,大幅降低大模型落地的技术门槛。

微调后模型的医疗推理能力验证

完成模型的SFT有监督微调后,我们对微调后的模型开展全面的推理能力验证,既使用与微调前相同的医学问题进行对比测试,也选取新的医学问题开展泛化能力测试,全面检验模型经过医疗数据集微调后的推理能力提升效果,确保模型能够满足医疗推理场景的落地需求。

同一样本对比推理验证

使用微调前的第一个典型医学问题对微调后的模型进行推理验证,推理代码与微调前完全一致,仅将基础模型替换为添加了LoRA适配器的微调后模型。实际测试结果显示,微调后的模型生成的临床推理链逻辑清晰、步骤明确,完全贴合医疗临床的分析思路,给出的答案详细、专业且准确,与数据集中的专业解答高度契合,相比未微调的基础模型,医疗推理能力得到了显著提升。

新样本泛化推理验证

为了检验模型的泛化能力,选择数据集中的第10个医学问题作为新的测试样本,开展泛化推理验证,核心推理代码如下:

# 新医学样本推理验证,修改所有变量名与调用方式new_test_med_q = med_infer_data[10]['Question']# 转换为模型输入张量new_model_inputs = text_tokenizer( [med_test_prompt_tpl.format(new_test_med_q, "") + MODEL_END_TOKEN], return_tensors="pt").to("cuda")# 微调后模型生成解答内容new_model_outputs = lora_med_model.generate( input_ids=new_model_inputs.input_ids, attention_mask=new_model_inputs.attention_mask, ...... # 省略了最大生成长度、结束符ID等核心参数配置 use_cache=True,)# 解析并打印新样本的解答内容new_gen_text = text_tokenizer.batch_decode(new_model_outputs, skip_special_tokens=True)print(new_gen_text[0].split("### 回答:")[1])

新样本的测试结果显示,微调后的模型能够准确分析陌生医学问题的临床背景,快速构建合理的临床推理链,最终给出专业、准确的解答,说明模型经过医疗推理数据集微调后,不仅对训练样本的适配性提升,还具备了一定的泛化能力,能够处理未见过的医学问题,完全满足医疗推理场景的基础落地需求。

微调后模型的保存与模型仓库上传

为了方便后续的模型落地应用、二次开发与共享,我们将微调后的LoRA模型与配套的分词器上传至专业的模型仓库,上传过程会自动创建专属的模型仓库,同时将模型的所有核心文件、配置信息完整上传,生成可直接访问的仓库链接,开发者可通过该链接直接下载、调用模型,无需重新开展训练工作。

模型与分词器仓库上传代码

# 上传微调后的医疗推理模型与分词器,修改仓库名称lora_med_model.push_to_hub("Llama-4-Scout-17B-16E-Instruct-Medical-ChatBot")text_tokenizer.push_to_hub("Llama-4-Scout-17B-16E-Instruct-Medical-ChatBot")

执行上述代码后,JupyterLab会实时输出模型与分词器的上传进度、文件上传状态、仓库链接等信息,上传完成后可通过该链接直接访问模型仓库,查看模型详情、下载模型文件或直接调用模型开展推理工作。

项目技术难点与解决方案总结

本次Llama 4 Scout模型的医疗推理场景轻量化微调项目,基于实际业务需求开展,过程中遇到了大模型垂直领域落地的多个典型技术难点,我们结合业务场景与技术特点,给出了可直接落地的解决方案,所有方案均经过实际业务校验,具备极强的实用性:

  1. 大模型显存不足问题:采用4-bit量化技术对模型进行降显存处理,同时结合多GPU分布式加载,将17B规模的大模型成功加载到3张H200 GPU上,彻底解决显存瓶颈;
  2. 第三方库兼容问题:发现Transformers库最新版本的嵌入不匹配bug后,选择固定4.51.0版本进行安装,从根源上解决模型加载的兼容性问题,保证项目顺利开展;
  3. 大模型微调算力成本过高问题:选用云GPU平台按需搭建训练环境,避免了专业GPU服务器的高额采购成本,将整体微调成本控制在极低水平,同时支持多GPU灵活配置,满足大模型训练需求;
  4. 通用模型行业适配性差问题:针对医疗推理场景设计专属的Prompt工程,结合医疗专业数据集开展SFT有监督微调,让通用大模型快速具备垂直领域的专业推理能力,大幅提升模型的行业适配性;
  5. 模型训练效率低问题:采用LoRA低秩适配技术,冻结基础模型绝大部分参数,仅训练少量低秩矩阵参数,将模型训练时间压缩至7分钟,大幅提升大模型微调效率。

总结

本文基于实际的客户咨询项目,详细拆解了如何通过云GPU平台实现Llama 4 Scout大模型的低成本、轻量化微调,通过4-bit量化、LoRA低秩适配、多GPU分布式训练等技术优化,将原本需要4张高端GPU的微调任务,成功在3张H200 GPU上实现,同时将整体成本控制在极低水平,为中小团队与个人开发者开展大模型垂直领域适配提供了可行的方案。
本次项目针对医疗推理场景完成了模型的针对性微调,通过设计专属Prompt工程、处理医疗专业数据集,让通用的Llama 4模型具备了专业的医疗临床推理能力,测试结果显示微调后的模型能够准确分析医学问题、构建合理的临床推理链、给出专业的解答,满足医疗推理场景的基础落地需求。同时项目中解决的大模型显存不足、库兼容、算力成本过高等问题,也为大模型在金融、教育、工业等其他垂直领域的落地提供了可复制的技术经验。
后续我们将继续探索更大规模Llama 4模型的轻量化微调技术,同时针对更多垂直领域开展大模型的适配研究,优化模型的泛化能力与行业适配性,推动大语言模型的普惠化落地。本文的所有项目代码、数据集、配置文件均已开源至交流社群,同时提供人工答疑、24小时代码调试等配套服务,如需获取完整资源与技术支持,可通过原文链接加入社群,与行业人士共同交流大模型落地的技术与实践。

封面

Python是一种功能强大的编程语言,其简洁的语法和丰富的标准库使得它成为快速搭建Web服务的理想工具。

本文将引导您从零开始,通过Python内置模块搭建本地Web服务,并结合 ZeroNews 实现远程访问。

一、 安装Python并运行本地服务

环境准备
安装Python服务
实现一个本地 web.py 本地服务

1. 首先在Python官网下载python服务
图片

2. 下载完成后,根据步骤安装即可3. 安装完成过后,我们可以通过命令检查我们的python是否安装成功。
图片

图片

4. 看到上述出现对应的版本,就表示安装成功了5. 接下来,我们进入到我们Web本地服务的文件夹,例如 D:\Download\zeronews\python
图片

5. 小编搭建了一个比较简单的 web服务(仅供参考,可以替换成自己的web服务项目)
图片

图片

  1. 然后我们打开cmd窗口,并通过命令进入到web服务文件夹中
    图片

图片

7. 然后通过python运行我们的本地服务
图片
httpserver.py 为我们本地服务运行的文件
图片

8. 运行成功后,可以看到服务已经启动,可以通过浏览器访问以下地址:Web界面:127.0.0.1:8000
图片

接下来,我们可以通过 ZeroNews 服务,将我们的web服务映射到公网访问

二、 创建 ZeroNews 映射服务

打开 ZeroNews 网站,然后选择您的系统(小编用的是用Win10,选择Windows即可),并按照对应的步骤和命令安装运行 Agent 服务。

注意:
Agent 前台运行不能关闭命令窗口
如果您想要开机自启动,可以执行后台运行命令

图片

图片

图片

图片

1. 运行完成之后,您可以在 Agent 页面看到已经在线的 Agent 服务。
图片

2. 接着,我们在域名端口页面,创建一个可用的公网域名(自定义前缀),并勾选HTTPS 协议端口。
图片

3. 域名创建完成之后,我们继续打开映射页面,并按下面的步骤添加映射
Agent:选择第一步运行的 Agent
映射协议:选择 HTTPS 协议
域名:选择刚创建好的域名
带宽:根据需要选择带宽大小
内网IP:我们是本地部署,直接使用 127.0.0.1 即可
内网端口:输入本地服务的端口 8000 即可
图片

4. 照上述步骤创建完成之后,我们就可以得到一条可公网访问的映射域名
图片

三、 公网访问您的web本地服务

我们在任意有网络访问电脑的浏览器上,复制上面的链接并打开访问我们的本地服务了。
图片

Cloudflare 最近分享了他们是如何使用SaltStack(Salt)管理庞大的全球服务器集群的。在这篇博客文章中,他们讨论了解决“一粒沙(grain of sand)”问题所需的工程任务。它的关注点在于要从数百万次状态应用中找出某个配置错误。Cloudflare 的站点可靠性工程(SRE)团队重新设计了其配置的可观测性,他们将故障与部署事件关联起来。这项工作将发布延迟减少了 5%以上,并减少了手动分析问题相关的工作。

 

作为配置管理(configuration management,CM)的工具,Salt 能够确保了跨数百个数据中心的数千台服务器保持在期望的状态。在 Cloudflare 的规模下,即使 YAML 文件中的一个微小语法错误或“Highstate”运行期间的瞬时网络故障,都可能阻碍软件发布。

 

Cloudflare 面临的主要问题是预期配置与实际系统状态之间的“偏离(drift)”。当 Salt 运行失败时,它影响的不仅仅是一台服务器,它可能会阻止在整个边缘网络中推出关键的安全补丁或性能特性。

 

Salt 使用了带有ZeroMQ主控/受控(master/minion)设置。这使得很难找出为什么特定的受控端(代理)没有向主控端报告状态,这简直就像大海捞针。Cloudflare 总结了几个破坏此反馈循环的常见故障模式:

  1. 无声故障:受控端在状态应用期间可能会崩溃或挂起,导致主控端无限期地等待响应。

  2. 资源耗尽:繁重的 pillar 数据(元数据)查找或复杂的 Jinja2 模板可能会使主控端的 CPU 或内存不堪重负,导致 job 丢失。

  3. 依赖地狱:包状态可能会因为上游仓库无法访问而失败,但错误消息可能埋藏在数千行日志的深处。

Salt 的架构图

 

当发生错误时,SRE 工程师必须手动通过 SSH 登录到候选受控端。他们会追踪主控端上的 job ID,并筛选保留时间内有限的日志,然后尝试将错误与变更或环境条件联系起来。在拥有数千台机器和频繁提交代码的情况下,这个过程变得单调且难以维护。它提供的持久工程价值非常有限。

 

为了解决这些挑战,Cloudflare 的商业智能和 SRE 团队合作构建了一个新的内部框架。目标是为工程师提供一种“自助服务”机制,以识别跨服务器、数据中心和特定机器组的 Salt 故障的根本原因。

 

解决方案涉及从集中式日志收集转向更健壮的、事件驱动的数据摄入管道。这个在相关内部项目中被称为“Jetflow”的系统,允许将 Salt 事件与以下内容关联:

  • Git 提交:识别配置仓库中触发故障的精确变更。

  • 外部服务故障:确定 Salt 失败是否实际上是由依赖项(如 DNS 故障或第三方 API 中断)引起的。

  • 临时(Ad-Hoc)发布:区分计划的全局更新和开发人员进行的手动更改。

 

Cloudflare 通过改变管理基础设施故障的方式,为自动分类奠定了基础。系统现在可以自动标记特定的“一粒沙”,即导致发布阻塞的那一行代码或那一台服务器。

 

从被动管理到主动管理的转变带来了以下成果:

  • 发布延迟减少 5%::通过更快地暴露错误,缩短了从“代码完成”到“在边缘运行”的时间。

  • 减少琐事:SRE 不再需要花费数小时进行“重复性分类”,使他们能够专注于更高层次的架构改进。

  • 改进的可审计性:现在每个配置变更都可以从 Git PR 到边缘服务器上的最终执行结果进行全生命周期追踪。

 

Cloudflare 工程团队观察到,尽管 Salt 是一个强大的工具,但在“互联网规模”下管理它需要更智能的可观测性。通过将配置管理视为一个需要关联和自动分析的关键数据问题,他们为其他大型基础设施提供商树立了榜样。

 

基于 Cloudflare 在 SaltStack 上遇到的挑战,需要注意的是,像AnsiblePuppetChef这样的替代配置管理工具,每个工具都有不同的架构权衡。Ansible 使用 SSH 无代理的方式工作。这比 Salt 的主控/受控设置更简单。然而,由于顺序执行,它在大规模环境时可能会面临性能问题。Puppet 使用基于拉取的模型,代理会与主控服务器进行核对。这提供了更加可预测的资源使用,但与 Salt 的推送模型相比,可能会减慢紧急变更的速度。Chef 也使用代理,但侧重于使用其 Ruby DSL 的代码驱动方法。这为复杂任务提供了更大的灵活性,但学习曲线更陡峭。

 

在 Cloudflare 的规模下,任何工具都会遇到其自身的“一粒沙”问题。然而,关键教训很明确,那就是管理数千台服务器的任何系统都需要强大的可观测性。它还必须能够将故障与代码变更自动关联,并具备智能分类机制。这将手动侦探工作转化为可操作的洞察力。

 

原文链接:

Cloudflare Automates Salt Configuration Management Debugging, Reducing Release Delays

一、云游戏的 “生死线”:被服务器拖垮的业务痛点

做云游戏 5 年,我们曾因西南地区玩家延迟超 75ms,3 天流失 18% 核心用户;为承载 20 万并发,单月云带宽支出破 15 万,占营收 30%。这并非个例,中国音数协游戏工委数据显示,72% 用户因 “延迟超 50ms” 放弃体验,云游戏服务器托管有三大痛点:

延迟敏感:每增 10ms 延迟,操作失误率升 8%,传统 IDC 单一网络易致跨区域体验崩盘;

带宽刚需:1080P/60 帧单用户需 8-12Mbps,10 万并发需 1T 带宽,扩容成本高、灵活性差会卡业务脖子;

存储算力双高:游戏安装包(平均 50GB / 款)需高速存储,高规格 GPU 服务器对供电、散热要求高,普通机房难满足。

此时,选适配的 IDC 机房成企业生死关键。

二、云游戏选 IDC 的 5 个 “黄金标准”,缺一不可

经 3 个月调研、20 + 机房对比,总结出核心逻辑 —— 围绕 “玩家体验” 与 “成本可控”,这 5 点是硬指标:

标准 1:网络架构 “低延迟优先”,多线 BGP 是基础

云游戏延迟由 “物理距离 + 网络节点” 决定,单一线路易致多运营商用户体验差。适配 IDC 需具备三线 (电信 + 联通 + 移动)。

成都极云科技主机房不仅支持电信、联通、移动单线机房,更有三线 接入,还搭建 “西南 - 华北 - 华东” 骨干网直连通道。我们测试时,西南玩家延迟 28-35ms,华北≤40ms,比云托管降 45%。更可按玩家分布定制带宽配比,避免冗余浪费。

标准 2:带宽 “足量 + 灵活”,扩容成本可控

云游戏带宽有 “潮汐特性”,闲时利用率仅 30%,传统 IDC 固定套餐浪费多、临时扩容需 3-5 天,难应对突发需求。

极云带宽方案破解矛盾:

基础带宽性价比高:100M 独享电信带宽月费 1800 元(18 元 / M / 月),远低于云厂商 50-80 元 / M / 月;

弹性扩容秒级响应:运维平台可实时申请临时扩容(最高 1000M),按小时计费,去年双十一加 500M 带宽 3 小时仅 225 元,省 60%;

流量监控可视化:实时查看分区带宽,可关停低效分区控成本。

标准 3:存储 “高低速分层”,适配游戏数据特性

云游戏热数据(安装包、缓存)需毫秒级响应,冷数据(存档、日志)需大容量,单一存储方案难平衡体验与成本。

极云定制分层存储方案:

热数据区:NVMe SSD 阵列读写 3500MB/s,游戏加载时间从 25 秒压至 8 秒,投诉降 70%;

冷数据区:HDD+zstd 压缩,1000 款游戏存档从 50TB 压至 22TB,成本降 56%;

自动分层调度:按访问频率自动迁移数据,无需人工干预,运维效率升 80%。

标准 4:算力承载 “适配高规格服务器”,供电散热有保障

云游戏依赖高配置 GPU 服务器(如 RTX 4090,单台功耗 800W),普通 IDC 机柜供电(10A)、散热不足易死机。

极云硬件承载优势显著:

高功率机柜:16A/32A 规格,单柜供电 7.68KW,配独立散热,温度稳定 22-25℃;

灵活部署:支持 4U/8U 高密度托管,20 台 GPU 服务器仅占 5 机柜,年省 3.6 万;

硬件兼容:工程师提前对接厂商测兼容性,20 台服务器 2 天完成上架。

准 5:运维 “7×24 小时零中断”,故障响应快

云游戏需全天候服务,1 小时故障或致玩家流失,IDC 运维需快速解决、提前预防。

极云运维让我们放心:

分钟级响应:去年春节机柜电源故障,工程师 12 分钟到场,切换备用电源,中断仅 45 秒(行业平均 30 分钟);

主动巡检:每周 2 次硬件巡检,提前更换 2 块故障 SSD,避数据丢失;

专属对接:1 对 1 运维经理,可按业务节奏(如新版本上线)提前扩容,无需反复沟通。

三、实战效果:托管半年,玩家留存升 20%,成本降 40%

迁移极云半年,业务数据显著改善:

体验端:平均延迟从 62ms 降至 32ms,卡顿率从 15% 降至 3%,核心玩家月留存升 20%,新增次日留存升 12%;

成本端:月均托管成本从 15 万降至 9 万,省 40%(带宽省 52%、存储省 56%、运维人力省 35%);

稳定性端:机房可用性 99.92%(云托管 99.5%),故障从每月 3-4 次降至 0 次。

成都某同行用极云 “IDC + 云弹性扩容” 方案,峰值并发从 10 万升至 30 万,成本仅增 50%,玩家满意度居行业 Top3。

四、结语:云游戏选 IDC,找对 “适配者” 比选 “贵的” 更重要

对云游戏企业,IDC 是业务增长的基础设施,无需盲目追高规格,需找匹配需求(用户分布、带宽波动、服务器配置)的伙伴。成都极云科技懂云游戏,方案围绕核心需求设计,实现 “体验不打折,成本可控制”。

若你正被延迟、带宽、成本困扰,可了解极云机房产品,更多详情访问官网,或咨询云游戏专属解决方案顾问。

基于 YOLOv8 的包装箱纸板破损缺陷检测系统 [目标检测完整源码]

—— 面向工业产线的视觉缺陷检测完整解决方案


一、行业背景:包装箱质检为何成为“隐形瓶颈”?

在制造业与物流行业中,纸板包装箱几乎无处不在。无论是电商仓储、食品包装,还是工业零部件运输,包装箱的完整性直接影响商品安全、客户体验与品牌信誉

然而在实际生产中,纸板破损检测长期面临几个现实问题:

  • 👀 高度依赖人工目检,效率低、主观性强
  • 📦 产线速度快,人工难以及时响应
  • 📉 缺陷形态多样,如裂纹、孔洞、压痕、破边
  • 🧠 经验难以复制,新员工学习成本高

在“降本增效”和“智能制造”的双重驱动下,用视觉算法替代人工质检已成为趋势,而目标检测技术正是解决此类问题的核心手段。

在这里插入图片描述

源码下载与效果演示

哔哩哔哩视频下方观看:
https://www.bilibili.com/video/BV1k3b9z1E6E/
在这里插入图片描述
包含:

📦完整项目源码

📦 预训练模型权重

🗂️ 数据集地址(含标注脚本

二、技术选型:为什么纸板缺陷检测适合用 YOLOv8?

2.1 纸板破损的视觉特性分析

从计算机视觉角度看,纸板破损具有以下特点:

  • 缺陷尺寸不一,小裂纹与大孔洞并存
  • 缺陷形态不规则,难以用规则算法描述
  • 背景纹理复杂,存在纸板纹路干扰

这意味着,传统基于阈值、边缘或模板的方法很难稳定工作。
在这里插入图片描述


2.2 YOLOv8 的工程优势

YOLOv8 作为新一代目标检测模型,在该场景中具备显著优势:

  • Anchor-Free 架构:对尺度变化与不规则目标更友好
  • 单阶段检测:满足产线实时检测需求
  • 结构轻量:适合部署在工控机或边缘设备
  • 生态成熟:训练、推理、导出流程清晰

因此,本项目选择 YOLOv8 作为核心检测引擎,用于构建一套可直接落地的工业质检系统


在这里插入图片描述
在这里插入图片描述

三、系统整体架构设计

本项目并非停留在“模型能跑”,而是从一开始就按照完整工程系统来设计,整体结构如下:

数据采集与标注
        ↓
YOLOv8 缺陷检测模型训练
        ↓
统一推理接口封装
        ↓
PyQt5 可视化质检界面
        ↓
一键运行与结果保存

目标非常明确:

让算法真正服务于产线,而不是停留在实验室。

四、缺陷数据集构建与标注经验

在这里插入图片描述

4.1 缺陷类型定义

在纸板质检场景中,常见缺陷可归纳为:

  • 撕裂裂纹
  • 穿孔破损
  • 明显压痕
  • 边缘破损
  • 表面结构异常

在数据集构建阶段,将不同缺陷统一建模为检测目标,便于模型学习空间位置与外观特征。


4.2 数据集结构设计

采用 YOLO 标准格式组织数据:

dataset/
├── images/
│   ├── train/
│   └── val/
├── labels/
│   ├── train/
│   └── val/

每张图片对应一个文本标注文件,记录缺陷目标的位置与类别。
这种结构便于快速复训、扩展类别或迁移到其他工业缺陷场景。


在这里插入图片描述

五、模型训练与调优要点

5.1 训练命令示例

yolo detect train \
  data=defect.yaml \
  model=yolov8n.pt \
  epochs=100 \
  batch=16 \
  imgsz=640

在训练过程中,需要重点关注:

  • 小缺陷召回率(避免漏检)
  • 过拟合风险(缺陷外观相似)
  • 数据增强是否破坏缺陷特征

5.2 训练结果评估

YOLOv8 会自动输出:

  • mAP 曲线(整体检测性能)
  • box / cls / dfl 损失变化
  • 混淆矩阵(类别区分能力)

在实际工业应用中,当 mAP@0.5 达到 90% 左右,即可满足大部分产线质检需求。


在这里插入图片描述

六、统一推理逻辑:适配多种输入源

为了贴近真实使用场景,系统支持多种检测方式:

6.1 静态图片检测

  • 适用于离线质检
  • 数据回溯分析
  • 模型效果验证

6.2 视频检测

  • 用于产线录像分析
  • 支持逐帧检测与结果保存
  • 可作为质检复盘工具

6.3 实时摄像头检测

这是工业落地的核心场景:

  • 实时显示缺陷位置
  • 可对接报警系统
  • 为后续自动剔除提供依据

在这里插入图片描述

七、PyQt5 图形界面:让质检人员“用得起来”

很多算法项目的痛点在于:
只有算法工程师会用,现场人员用不了。

本项目通过 PyQt5 构建完整 GUI,有效解决这一问题。

7.1 界面功能设计

  • 输入方式选择(图片 / 视频 / 摄像头)
  • 检测结果实时显示
  • 缺陷类别与置信度可视化
  • 一键保存检测结果

7.2 工程价值

  • 无需命令行操作
  • 降低部署与培训成本
  • 可直接作为产线质检终端原型

八、核心推理代码逻辑说明

from ultralytics import YOLO

model = YOLO("best.pt")
results = model(frame, conf=0.25)

for box in results[0].boxes:
    cls_id = int(box.cls)
    score = float(box.conf)

推理结果中即可获取:

  • 缺陷位置坐标
  • 缺陷类别
  • 置信度评分

为后续 报警、统计、剔除 等业务逻辑提供基础数据。


九、项目打包与“即用型”交付

项目已完成完整工程封装,包含:

  • 训练完成的模型权重
  • 全部 Python 源码
  • 数据集与标注说明
  • PyQt5 主程序

运行方式极其简单:

python main.py

无需重新训练,即可直接体验完整检测流程。


十、可扩展方向与工业升级空间

在现有框架基础上,可轻松拓展为:

  • 多缺陷类别精细化检测
  • 接入 PLC / MES 系统
  • 与自动分拣机构联动
  • 部署至边缘 AI 设备

从“辅助检测”逐步升级为“全自动智能质检”。


总结:让 AI 真正走进包装产线

本文围绕包装箱纸板破损这一典型工业痛点,系统性介绍了一套 基于 YOLOv8 的智能缺陷检测解决方案。项目不仅验证了深度学习在工业质检场景中的可行性,更通过 PyQt5 图形界面和完整工程封装,打通了从模型训练到实际使用的最后一公里。

如果你正在寻找一个可学习、可复用、可落地的工业视觉项目案例,那么这套包装箱纸板破损检测系统,具备非常高的实践价值与扩展空间。

通过引入 YOLOv8 目标检测模型并结合工程化系统设计,本文展示了一套面向真实工业产线的纸板包装箱破损缺陷智能检测方案。该方案从数据集构建、模型训练与调优出发,进一步延伸至统一推理接口与 PyQt5 可视化界面,实现了从算法验证到实际应用落地的完整闭环。实践表明,基于深度学习的视觉检测技术不仅能够显著提升质检效率与一致性,还为后续的自动剔除、质量追溯与产线智能化升级奠定了坚实基础,具有较高的推广与复用价值。

更新 Claude 后可以可以看到可以使用 Opus4.6 且支持 1M 上下文,编程过程丝滑!

image.png

福利站率先支持 Opus4.6 ,各位 V 友可以上来尝鲜,依旧是免费!


image.png
image.png

一个免费不限量 Claude API 公益服务,请作为兜底使用。支持 OpenAI 和 Anthropic 格式。

不用注册
免费
不限量
真模型
自己服务不能用了再用这个作为兜底,别做主力使用,不保证稳定性,只保用到的模型是真的模型。

网址自行解码:aHR0cHM6Ly9vbmVkYXlhaS5hdXRvY29kZS5zcGFjZS8=

🙏赛博活佛🙏

正值立春,万物复苏。在 AI 算力需求持续井喷的当下,阿里云瑶池数据库举行“Tair KVCache 商业化暨开源发布会”,宣布正式推出面向大模型推理的缓存加速方案——Tair KVCache

此次发布会以“Cache 新春|击穿显存墙,开启算力新生”为主题,重磅开源了核心组件 Tair KVCache Manager 及高保真仿真工具 Tair KVCache HiSim,并正式上线了 Tair KVCache 企业级云服务。联合 NVIDIA Dynamo AIConfigurator、SGLang 社区、Mooncake 团队及阿里自研推理框架 RTP-LLM,Tair KVCache正在构建一个“计算-存储-调度”一体化的 AI 基础设施新范式。
图片

1.告别“显存焦虑”:AI 基础设施的范式跃迁

随着 DeepSeek、Qwen 等长文本模型与 Agentic AI 的爆发,推理系统的瓶颈正从“算力”向“显存”剧烈转移。在传统的单机部署模式下,昂贵的 GPU HBM 被海量的 KV Cache 填满,导致并发上不去、长文跑不动、算力被闲置。
阿里云数据库事业部 NoSQL 产品部负责人张为在发布会上表示:“Tair KVCache 是 Tair 产品能力的第三次跃迁。”——从 Redis 时代的「缓存数据省 I/O」,进化到 GPU 时代的「缓存注意力状态省计算」,再到 Tair KVCache 的“规模化、智能化的注意力状态管理 → 重构大模型推理成本模型”。这标志着缓存正从辅助组件升级为 AI 基础设施层的核心能力——让“状态”可存储、可共享、可调度,支撑智能体时代的规模化推理底座。 

2.硬核开源:定义 KVCache 管理新标准

作为本次发布会的最大亮点,Tair KVCache 宣布开源两大核心套件:

Tair KVCache Manager (KVCM):全能的“记忆管家”

面对异构的存储介质(内存、SSD、云存储)和多样的推理框架,KVCM 提供了一套中心化的元数据管理服务,带来了三大核心价值:

  • 全局共享,极致性能:通过中心化地管理元数据,实现跨推理节点的 KVCache 全局池化共享,显著提升 AI Agent 这类需要长上下文场景下的推理性能。
  • 语义抽象,灵活解耦:通过合理的抽象,彻底解耦了上层的推理引擎与底层的存储系统,既简化了业务接入难度,也为底层存储的持续优化保留了充足的空间。
  • 规模部署,全周期覆盖:这为了满足大规模商业化部署,提供了从模型上线前的 ROI 评估、高效筛选,一直到在线服务的可观测性、高可用保障等全生命周期的管理能力。

    Tair-KVCache-HiSim:极低成本的“决策大脑”

    “借助普通 CPU 服务器仿真,也能精准预测端到端推理性能。” 作为首个高保真推理仿真器 Tair KVCache HiSim,结合 NVIDIA Dynamo AIConfigurator,企业可以在通用 CPU 上以 39 万倍成本优势实现 <5% 误差的端到端性能预测,在“时延-吞吐-成本”的三角约束下,自动搜索出最优的软硬件配置组合,支持KVCache 管理和配置的决策优化。

    3.生态共建:集结 AI Infra 顶尖力量

    Tair KVCache 并非单点突破,而是与行业顶尖伙伴共同构建的生态闭环:

  • 存储底座:深度集成高性能分离式存储 Mooncake 架构。利用 RDMA 网络与高并发访问特性,Tair KVCache 将存取速度推向物理极限,在分离式架构下实现了毫秒级的加载延迟。
  • 推理框架:联合阿里巴巴内部支撑淘宝/天猫核心业务的核心推理框架 RTP-LLM,在超大规模生产环境中验证了 KVCache 技术的稳定性。实测数据显示,在配合稀疏化算法的情况下,可将显存占用降低 90% 以上。
  • 开源社区:拥抱 SGLang、NVIDIA Dynamo 等主流开源生态,通过标准化接口,让广大开发者能够无缝接入 Tair KVCache 的加速能力。

    4.商业化落地:开箱即用的企业级服务

    除开源贡献外,Tair KVCache 商业版今日同步揭晓。相比开源版本,商业版提供了全托管免运维、企业级 SLA 保障、更精细的容量动态规划能力以及针对各类使用场景的开箱即用服务。

“在立春这个特殊的日子发布,寓意着 AI 推理算力将迎来解冻与新生。” 通过开源与商业化的双轮驱动,Tair KVCache 致力于帮助每一家企业打破显存瓶颈,以极致的性价比构建专属的 AI 推理平台,加速 AGl 时代的到来。
图片
5.关于 Tair KVCache
Tair KVCache 是阿里云推出的面向大模型推理场景的缓存加速服务,支持存算分离架构,提供高性能的全局 KVCache 存储、调度与管理能力。目前已在 GitHub (https://github.com/alibaba/tair-kvcache/)开源核心组件,商业版已在阿里云官网上线。 点此立即观看发布会精彩回放:https://www.aliyun.com/activity/database/tair-kvcache-release

https://apps.apple.com/hk/app/%E9%99%AA%E5%A8%83%E5%8F%A3%E8%A2%8B/id6758231412?l=en-GB

苹果应用商店搜索 “陪娃口袋” 可下载。

先感谢一下 https://www.v2ex.com/t/1188185 我使用这个工具生成应用商店的宣传图片的,只是目前还没有 iPad 的生成功能,希望作者加上这个功能。

下面是生成的产品宣传图:

说说我为什么想要开发这个 app:

我儿子 5 岁多了,我经常陪他玩,我自己是那种不会鸡娃的家长,我觉得小孩子最重要的是玩耍,家长要多陪孩子,所以我自己经常和孩子一起打游戏,平时也会和他玩点语言游戏。

我发现孩子其实你和他玩什么他都是开心的,玩游戏他也开心,你和他聊天他也开心,有一次我给小孩洗澡的时候,我就和他玩拼音游戏,他玩得停不下来。

后来,我一想,其实很多家长是懂得多陪孩子这个道理的,但是家长们想要陪孩子的时候,一时半会也想不起来要做点什么,手里面可能没有比较好的工具,特别是坐公交车、放学路上这些时候。

所以,我就根据我自己的经验,开发了一个帮助家长陪伴孩子的工具,目的就是为家长们提供高质量的内容,让你更好的陪伴孩子,让你的孩子更好的成长。

APP 面向 3-12 岁的孩子的家长,注意,这是面向家长的,不是那种你下载后把手机交给孩子学习的应用,用户是你自己,不是你的孩子!