2026年2月


点量团队在与用户交流的过程中发现,有不少用户对摩尔线程显卡的实际图形负载能力存在疑问。为解答这一疑问,点量团队将Linux系统下摩尔线程S80显卡,和Windows系统下的RTX 3060显卡做了个对比,测试了WebGL和UE两个场景,以实际数据评估其性能表现。

  • 测评环境1:Windows系统、RTX3060、点量云流实时云渲染windows版
  • 测评环境2:Linux系统、摩尔线程S80、点量云流实时云渲染Linux版
  • 测评3D应用:WebGL和UE两种引擎

测试之前,在云推流过程中统一了分辨率为1920x1080,帧率为60FPS,并且同时设置开三路。得到以下测试结论:

一、WebGL引擎测试

以ThreeJS官方的某个示例做测试,结果如下:
1、Windows下3060:显卡利用率,平均在21%。


2、Linux下摩尔线程S80:显卡利用率在20%左右,和3060相差不大。

由此可见,摩尔线程S80在WebGL模式下几乎等同于3060显卡。

二、UE引擎测试

以某个游戏UE场景做云推流测试,结果如下。若以Unity场景做测试,测试结果类似,这里不再展开。
1、Windows下3060:可以跑244.55fps,显卡利用率75%。


2、Linux下摩尔线程S80:只能跑20多FPS,显卡利用率97%。


我们判断,由于UE默认使用的Vulkan RHI, 猜测是摩尔线程驱动针对Vulkan优化不足的缘故。随后,我们继续测试了S80在Windows下的效果,用相同的UE程序(默认Windows下是使用DirectX),只能到30多帧,因此可能也不只是对Vulkan优化的问题。对比3060的话,UE是可以跑到240多帧,这方面的差异还是比较明显。

另外,测试还发现,S80在Windows下的WebGL效果也不如Linux下的表现,Windows下开三个WebGL就掉帧了,GPU利用率100%。

以上效果说明,S80在Linux下的WebGL效果还是不错的,能跟3060达到类似性能效果。但在UE程序、Windows系统等一些效果上还是差距比较明显。

特别说明:本次所有测试均为在特定测试环境(包括但不限于特定机型、驱动版本、系统设置)中完成的结果。不同软硬件配置、测试方法或环境变量均可能导致数据差异,本文内容仅作为客观事实记录与经验分享,不作为官方性能指标或决策依据,请读者结合多方信息进行综合判断。

通过本次测试,明确了摩尔线程在云渲染负载中的性能表现,并验证了摩尔线程在相关场景下的实际承载能力。点量云流系统的兼容适配能力并不局限于单一系统或硬件,且已在多系统、多配置场景中实现全面支持,真正做到了“一次适配,处处运行”,为不同技术架构下的用户提供统一、可靠的高性能云流服务。

模板方法模式

在很多业务代码中,我们都会遇到这种场景:

  • 整体流程是固定的
  • 但流程中的某些步骤因业务类型不同而不同
  • 又不希望子类随意修改流程顺序

如果你把这些逻辑全部写进一个类里,往往会出现:

  • 类越来越大
  • if / switch 越来越多
  • 改一处逻辑容易影响其他场景

这正是 模板方法模式 要解决的问题。


一、问题从哪里来?

一开始,我有一个用于“保存代码文件”的工具类,大概长这样:

  • 校验参数
  • 创建唯一目录
  • 把代码写成文件
  • 返回目录路径

当前代码存在不同的报错逻辑:

  • HTML 单文件是一套保存逻辑
  • HTML + CSS + JS 又是一套保存逻辑
  • 所有逻辑都堆在一个类里,越来越臃肿

导致:
这个类在不断变大,而且每加一种类型就要改原有代码。


二、什么是不变的?

整理之后会发现:

不变的部分:

  1. 保存流程是固定的
  2. 都要校验参数
  3. 都要创建目录
  4. 最后都返回一个目录

变化的部分:

  • 写哪些文件
  • 每个文件的内容来自哪里

这正好符合一句模版方法的逻辑:

流程固定,具体实现内容待定。

三、模板方法模式的核心想法

模板方法模式其实很简单:

把“流程”放在父类,把“变化”交给子类。

父类只做一件事:
规定顺序,不让子类乱来。


四、一个简化后的模板类

public abstract class CodeFileSaverTemplate<T> {

    public final File saveCode(T result) {
        validate(result);
        String dir = createDir();
        saveFiles(result, dir);
        return new File(dir);
    }

    protected void validate(T result) {}

    protected abstract void saveFiles(T result, String dir);

    protected String createDir() {
        
        return dir;
    }
}

这里有三个关键信号:

  • saveCode()final:流程不能被改【固定的模版流程】
  • protected:只给子类用
  • abstract:子类必须实现

五、子类只关心自己具体实现

HTML 保存

public class HtmlSaver extends CodeFileSaverTemplate<HtmlCodeResult> {

    @Override
    protected void saveFiles(HtmlCodeResult result, String dir) {
        write(dir, "index.html", result.getHtmlCode());
    }
}

多文件保存

public class MultiFileSaver extends CodeFileSaverTemplate<MultiFileCodeResult> {

    @Override
    protected void saveFiles(MultiFileCodeResult result, String dir) {
        write(dir, "index.html", result.getHtmlCode());
        write(dir, "style.css", result.getCssCode());
        write(dir, "script.js", result.getJsCode());
    }
}

子类不需要关心:

  • 目录怎么建
  • 校验顺序
  • 返回值

只管一件事:
我要写哪些文件。


六、为什么不用 if / switch?

当然可以写成这样:

if (type == HTML) { ... }
else if (type == MULTI) { ... }

但问题是:

  • 每加一种类型就要改这个类
  • 老逻辑和新逻辑混在一起
  • 长期一定失控

模板方法的好处是:

新增一种类型 = 新增一个类,不动旧代码。

七、什么时候该用模板方法?

适合用在:

  • 流程天然有顺序
  • 顺序不允许被破坏
  • 变化点明确、可控

不适合用在:

  • 流程差异非常大
  • 需要频繁运行时切换逻辑
  • 不想使用继承的场景

在金融科技(FinTech)开发中,Real-time Data Fetching 是最基础也是最核心的模块。最近在重构我的交易系统,特地把数据接入层剥离出来做一个技术分享。

背景与问题 传统的Web开发中,我们习惯用REST API处理请求。但在金融交易场景下,HTTP协议存在明显的短板:

  1. Header开销大:高频请求下,流量浪费严重。
  2. 被动获取:无法做到服务器端的主动推送(Server Push)。
  3. 并发限制:容易触流控(Rate Limit)。

对于美股这种Tick级别的数据量,WebSocket是唯一的正解。

技术实现路径 我的需求很简单:订阅AAPL、TSLA等热门标的的实时Tick,并存入Redis做清洗。在对比了多家数据提供商后,为了兼容性和稳定性,我选择了AllTick作为上游数据源,配合Python的websocket-client库进行开发。

代码架构 整个模块采用异步回调的方式处理数据,确保主线程不阻塞。以下是最小可行性产品(MVP)的代码实现:

import websocket
import json

# WebSocket连接地址(替换为实际API接口)
url = "wss://api.alltick.co/realtime/stock"

# 请求体,订阅的股票代码和API密钥
message = {
    "api_key": "your_api_key_here",  # 你的API密钥
    "symbol": "AAPL"  # 订阅Apple的实时行情
}

def on_message(ws, message):
    data = json.loads(message)
    print(f"实时获取的数据:{data}")

def on_error(ws, error):
    print(f"发生错误:{error}")

def on_close(ws, close_status_code, close_msg):
    print("WebSocket连接已关闭")

def on_open(ws):
    ws.send(json.dumps(message))

# 创建WebSocket应用并启动
ws = websocket.WebSocketApp(url,
                            on_message=on_message,
                            on_error=on_error,
                            on_close=on_close)
ws.on_open = on_open

# 保持连接并接收数据
ws.run_forever()

技术细节注意事项 在实际部署中,还需要考虑断线重连(Reconnection)和心跳检测(Heartbeat)。上述代码展示了最基础的订阅逻辑。通过on_message回调,我们可以直接解析JSON数据包。

经测试,这种方式比传统的while True: requests.get()循环,延迟降低了至少两个数量级。对于开发者来说,掌握WebSocket在金融数据处理中的应用,是一项必备技能。

如题,希望能够抛砖引玉

1. 仔细审查 cloud-init 内容

cloud-init 负责网络/ssh 密钥设置......,但有些服务商可能会在 user-data 里设置 runcmd ,安装监控服务。推荐关闭 cloud-init ,静态配置 IP

2. 尽可能关闭 qemu-guest-agent

vps 开启 qemu-guest-agent 可以方便关机/获取基本操作系统信息。但是可能很多人没有注意到,服务商是可以执行任何命令的。

socat unix-connect:/tmp/qga.sock readline
{"execute":"guest-get-osinfo"}
{"return": {"name": "Debian GNU/Linux", "kernel-release": "6.12.63+deb13-arm64", "version": "13 (trixie)", "pretty-name": "Debian GNU/Linux 13 (trixie)", "version-id": "13", "kernel-version": "#1 SMP Debian 6.12.63-1 (2025-12-30)", "machine": "aarch64", "id": "debian"}}


{"execute": "guest-info"}
{"return": {"version": "10.0.7", "supported_commands": [{"enabled": true, "name": "guest-network-get-route", "success-response": true}, {"enabled": true, "name": "guest-get-load", "success-response": true}, {"enabled": true, "name": "guest-get-cpustats", "success-response": true}, {"enabled": true, "name": "guest-get-diskstats", "success-response": true}, {"enabled": true, "name": "guest-ssh-remove-authorized-keys", "success-response": true}, {"enabled": true, "name": "guest-ssh-add-authorized-keys", "success-response": true}, {"enabled": true, "name": "guest-ssh-get-authorized-keys", "success-response": true}, {"enabled": true, "name": "guest-get-osinfo", "success-response": true}, {"enabled": true, "name": "guest-get-timezone", "success-response": true}, {"enabled": true, "name": "guest-get-users", "success-response": true}, {"enabled": true, "name": "guest-get-host-name", "success-response": true}, {"enabled": true, "name": "guest-exec", "success-response": true}, {"enabled": true, "name": "guest-exec-status", "success-response": true}, {"enabled": true, "name": "guest-get-memory-block-info", "success-response": true}, {"enabled": true, "name": "guest-set-memory-blocks", "success-response": true}, {"enabled": true, "name": "guest-get-memory-blocks", "success-response": true}, {"enabled": true, "name": "guest-set-user-password", "success-response": true}, {"enabled": true, "name": "guest-get-fsinfo", "success-response": true}, {"enabled": true, "name": "guest-get-disks", "success-response": true}, {"enabled": true, "name": "guest-set-vcpus", "success-response": true}, {"enabled": true, "name": "guest-get-vcpus", "success-response": true}, {"enabled": true, "name": "guest-network-get-interfaces", "success-response": true}, {"enabled": true, "name": "guest-suspend-hybrid", "success-response": false}, {"enabled": true, "name": "guest-suspend-ram", "success-response": false}, {"enabled": true, "name": "guest-suspend-disk", "success-response": false}, {"enabled": true, "name": "guest-fstrim", "success-response": true}, {"enabled": true, "name": "guest-fsfreeze-thaw", "success-response": true}, {"enabled": true, "name": "guest-fsfreeze-freeze-list", "success-response": true}, {"enabled": true, "name": "guest-fsfreeze-freeze", "success-response": true}, {"enabled": true, "name": "guest-fsfreeze-status", "success-response": true}, {"enabled": true, "name": "guest-file-flush", "success-response": true}, {"enabled": true, "name": "guest-file-seek", "success-response": true}, {"enabled": true, "name": "guest-file-write", "success-response": true}, {"enabled": true, "name": "guest-file-read", "success-response": true}, {"enabled": true, "name": "guest-file-close", "success-response": true}, {"enabled": true, "name": "guest-file-open", "success-response": true}, {"enabled": true, "name": "guest-shutdown", "success-response": false}, {"enabled": true, "name": "guest-info", "success-response": true}, {"enabled": true, "name": "guest-set-time", "success-response": true}, {"enabled": true, "name": "guest-get-time", "success-response": true}, {"enabled": true, "name": "guest-ping", "success-response": true}, {"enabled": true, "name": "guest-sync", "success-response": true}, {"enabled": true, "name": "guest-sync-delimited", "success-response": true}]}}


{
"execute":"guest-exec",
"arguments":{
"path":"/bin/sh",
"arg":["-c","echo hacked > /root/pwned"],
"capture-output":false
}
}
{"return": {"pid": 912}}



3. 全盘加密

VPS 服务商可以复制和挂载用户的磁盘,所以磁盘加密是必要的。但全盘加密会降低磁盘性能,折中的方案是分一个专门放密钥的区,仅加密此分区。



听说 VPS 服务商还可以打快照,读取内存?这个应该防不胜防

摘要:
OceanBase 针对现代数据架构核心挑战重构物化视图能力,融合分布式架构与多模引擎,提供非实时和实时两类视图、灵活刷新机制及多维度查询加速技术,底层基于 LSM-Tree 引擎和 MLOG 日志实现。该能力在电商大促、SaaS ERP 等场景落地,实现查询加速、链路简化与负载隔离,也存在存储、维护等使用限制,后续将从运维、链路、场景类型三方面持续迭代优化。

本文作者 | 朱涛,OceanBase 高级技术专家,负责 OceanBase 查询优化器的研发工作

在实时数仓、HTAP(混合事务/分析处理)与库内计算(In-database Computing)成为主流的今天,数据架构的核心矛盾已悄然转变:企业不再仅仅追求“更快的查询”,而是面临着如何降低算力成本、简化数据链路、并保障核心系统稳定性的艰巨挑战。

传统的、依赖于复杂 ETL 管道的 T+1 数仓架构,日益无法满足企业的实时决策需求。正是在这一背景下,物化视图(Materialized View)这项经典技术,正被重新审视并赋予全新的战略价值。

物化视图的本质,是将高频、复杂的查询结果预先计算并物理存储在数据库内部。这看似简单的“空间换时间”,在现代架构中解决的远不止单个查询的性能问题。它通过将计算左移至数据源头,极大地简化了外部数据处理链路,减少了数据冗余和不一致的风险。更重要的是,它将消耗巨大的分析负载从核心交易流程中剥离,从而保障了在线业务的稳定性。因此,设计精良的物化视图能力,已不再是分析型数据库的“附加功能”,而是衡量一个现代数据库能否高效支撑 HTAP 和实时分析场景的核心指标。

基于此,OceanBase 对物化视图进行了深度重构,使其不仅仅是一个性能加速器,更是一个与分布式架构、多模引擎(行存、列存)深度融合的数据处理中枢,其实时物化视图能力能够在保证数据新鲜度的同时,提供高性能的查询服务。

本文将对 OceanBase 物化视图的核心能力、技术原理及应用场景进行全面介绍。

OceanBase 物化视图的核心能力

OceanBase 的物化视图并非单一的功能,而是一套包含多种类型、灵活刷新策略和多样化查询加速机制的完整解决方案。其核心能力可归纳为以下几个方面:

01多样化的物化视图类型

为了适应不同业务场景对数据新鲜度的需求,OceanBase 提供了两种主要的物化视图类型 :

非实时物化视图:此类型视图中的数据并非总是与基表保持实时同步。它根据预设的计划(如定时)或手动触发进行刷新,在刷新间隔期内,查询将访问物化视图中已物理存储的数据。这种方式适用于对数据新鲜度要求不高,但对查询性能和资源消耗更为敏感的场景,如 T+1 的报表生成。

实时物化视图:该类型视图能够提供实时或准实时的数据查询结果。它通过内部的物化视图日志(MLOG)机制,捕获基表的增量数据变更。在查询时,系统会在线计算物化视图的存量数据和日志中的增量数据,从而返回最新的结果集。这使得用户即便在物化视图尚未完成物理刷新时,也能查询到最新的数据状态,特别适合实时监控、实时大屏等对数据时效性要求高的场景。

02灵活的刷新机制

数据的刷新是维持物化视图生命力的关键。OceanBase 提供了全面且灵活的刷新策略与方式,以平衡数据时效性、系统资源开销和管理复杂度。

03全方位的查询加速技术

创建物化视图的最终目的是加速查询。OceanBase 为此提供了一系列配套功能,最大化其性能优势:

查询改写 (Query Rewrite):这是物化视图最核心的价值之一。当启用查询改写功能后,优化器能够自动将用户针对基表的查询请求,智能地重定向到已经预计算好的物化视图上,整个过程对应用透明,极大地降低了业务改造的复杂度。

与列存深度融合:自 4.3.3 版本起,OceanBase 支持创建基于列存格式的物化视图。当物化视图的查询逻辑涉及复杂的分析和聚合操作时,将其存储为列存格式可以获得比传统行存更优的查询性能,尤其是在“大宽表”分析场景下。

索引、主键与分区支持:物化视图在 OceanBase 中被视为一种特殊的表对象,因此可以像普通表一样,在其上创建索引、定义主键和设计分区策略。这些手段可以进一步优化对物化视图自身的查询性能,例如通过索引加速特定字段的过滤,或通过分区裁剪减少扫描的数据量。

OceanBase 物化视图的实现深度依赖其分布式架构和核心组件 :

LSM-Tree 存储引擎:作为 OceanBase 的基石,LSM-Tree 引擎的特性使得列存表可以支持事务和流式写入,为实时数仓和物化视图的实现提供了基础。

物化视图日志 (MLOG):这是实现增量刷新和实时物化视图的核心。当基表发生 DML 操作时,变更的增量信息会被同步记录到 MLOG 中。刷新时,系统只需读取 MLOG 即可获取变更数据,避免了对整个基表的扫描。

OceanBase 物化视图的典型场景及案例

典型场景

01实时数据分析

对于需要实时洞察业务动态的场景,如实时监控大屏、实时推荐、实时风控等,OceanBase 的实时物化视图能够提供强有力的支持。通过结合 Flink CDC 等实时数据同步工具,可以构建端到端的实时数仓,而实时物化视图则作为查询加速层,确保在数据持续流入的同时,分析查询依然能够获得极低的延迟。

02复杂查询性能优化

在许多 OLTP(在线事务处理)和 HTAP(混合事务/分析处理)系统中,存在一些消耗大量资源的“慢查询”,这些查询往往涉及多张大表的连接和复杂的聚合计算。通过为这些特定查询创建物化视图,可以将其计算成本从每次查询时发生,转移到后台的刷新任务中,从而有效降低在线业务高峰期的系统负载,保障核心业务的稳定性。

相关案例

电商大促价格计算:多表 Join 加工宽表,支撑近实时分析

业务问题:多源商品关系数据需要预加工为分析宽表

在电商大促期间,运营人员需要将商品基础信息、商品销售属性、促销活动商品等多维数据整合为统一宽表,用于运营分析与决策查询。上游数据同步进入 OceanBase 后,如果每次分析查询时再做多表 join,会带来较高计算开销和不稳定延迟。

因此,优化目标是在库内完成多表数据加工,沉淀可复用的加工明细宽表,供下游 AP 查询分析,如运营分析、数据服务等,直接消费。

典型模型为四表 join,即:活动商品池表 + 商品基础信息表 + 商品销售属性表 + 商家店铺表,通过 inner join 生成加工结果宽表。

技术挑战:Join 成本高 + 变更模式不均匀

该场景的难点不只是表规模,而是变更分布极不均匀,对实时 join 和全量重算都不友好。

测试数据特征如下:
竞品基础信息表:全量约 40 万(预期可到 180 万);高峰单次增量 10–15 万(新品/状态变更);
商品销售属性表:全量约 44 万,高峰单次增量 2–3 千;
活动商品池表:日常全量仅约 1 千,但存在单次 400–500 万级集中变更;
加工结果宽表(物化视图):约 50–100 万级。

这种模式下:
查询时 join → 成本高且波动大;
批量变更触发全量重算 → 代价不可控;
下游分析查询与加工计算争抢资源。

方案:使用 OceanBase 物化视图做增量 Join 加工

解决方案是在 OceanBase 内定义物化视图(MV),将多表 join 的加工逻辑固化为数据库内持续维护的结果集。

实现方式:
基于四张源表定义 join 型 MV,生成加工宽表;
下游查询直接访问 MV,不再执行多表 join;
采用增量刷新模式:REFRESH FAST ON DEMAND;
基于基表变更日志,仅对受影响数据做增量重算。

这样将“查询时 join”转换为“写入后增量维护”。

效果:增量刷新可控,宽表近实时可用

基于测试环境数据:
增量刷新周期:每 5 分钟一次;
非高峰期刷新耗时:1 分钟以内;
全量刷新耗时:约 20 分钟(用于追位或重建)。

MV 宽表规模稳定在 50–100 万行,在大批量集中变更场景下,增量刷新仍可维持可控窗口,避免频繁全量重算。

该方案的核心收益集中在三个方面:
将多表 join 的高成本计算前移为库内增量维护;
适配“大批量突发变更 + 多表关联”的数据模式;
为大促价格计算分析提供稳定的近实时宽表数据层。

对分析侧来说,查询路径从“多表实时 join”简化为“单宽表查询”,执行代价与延迟稳定性明显改善。

SaaS ERP 报表与分析 — 基于物化视图(MV)的数仓 ETL 简化与性能提升

业务问题:ERP 报表与分析需求

在企业资源计划(ERP)系统中,报表与分析对数据口径的稳定性和准确性要求较高。传统的 ETL(提取、转换、加载)流程可能涉及到多个系统或步骤,导致数据的加工过程冗长,效率低下。

在此场景下,需要解决以下问题:
TP 实时入库与基于 MV 的近实时 ETL 加工在同一个 OceanBase 集群中并行运行;
物理隔离:确保这两者的负载不相互干扰,并保证加工结果的稳定性与可持续性;
稳定加工链路:报表与分析查询必须直接消费加工后的数据,避免重复计算和保证查询响应稳定。

技术挑战与方案:物化视图(MV)简化 ETL 分层

为了解决上述挑战,采用了 OceanBase 的物化视图(MV)功能,将数仓 ETL 的不同层次(明细层、主题加工层、报表层)直接固化为物化视图,并通过级联刷新机制保证数据一致性。

上述方案中:

ETL 分层处理:通过 MV 完成从明细层到主题加工层,再到报表层的数据流动。每一层的加工都在数据库内完成,最终结果直接存储在物化视图中。

物理隔离:将 TP 数据写入与 MV 数据容器表的 leader 放置到不同节点上,实现计算和存储的物理隔离。ETL 加工操作仅在 MV 所在节点进行,而数据的增量更新(MLOG)从 TP 节点读取,从而有效减少了负载冲突和资源争抢。

嵌套 MV 和级联刷新:通过自底向上的刷新机制,确保每个层次的数据都能保持一致性,特别适合需要稳定数据口径的分层加工模式。

方案优势:简化架构、加速报表分析

该方案的实施带来了明显的架构和性能优势:

架构简化:通过在 OceanBase 内部使用 MV 承接 ETL 分层加工,避免了外部计算和数据拼接链路的复杂性,减少了中间处理环节,降低了故障点和运维成本。

报表分析加速:高频查询的报表数据从“每次实时重算”变为“读取已经预计算好的 MV 数据”,使得报表查询变得更加高效和稳定,响应时间大幅缩短。

可控的实时性:通过物化视图的增量刷新,报表查询的实时性变得更加可控,避免了因复杂计算而导致的查询延迟。

性能与效果:稳定的 ETL 和报表查询性能

实施该方案后,OceanBase 系统的 ETL 加工和报表查询性能得到了显著提升,特别是在高频报表查询场景下,具体效果如下:

报表查询响应加速:查询不再依赖实时计算,而是直接读取加工后的 MV 数据,显著提高了查询的稳定性和响应速度。

ETL 加工稳定性:由于采用了物化视图的嵌套与级联刷新,ETL 加工链路中的每个环节都能保持一致性,减少了数据刷新过程中可能出现的错误或不一致。

高频操作的负载隔离:物理隔离机制使得 TP 入库负载与 MV 刷新负载互不干扰,保证了系统的整体性能稳定。

这套方案带来了多方面的技术价值:

提高 ETL 加工效率:通过物化视图将 ETL 流程内的多层次数据预计算并存储,减少了外部计算链路的依赖,提升了数据处理效率。

提升报表查询稳定性:报表查询通过直接访问 MV 中的加工数据,而不再依赖实时计算,减少了系统负担,提高了报表分析的稳定性和效率。

架构简化与运维降低:简化了 ETL 流程和查询路径,减少了复杂度,同时降低了运维成本,避免了多点故障的风险。

总的来说,OceanBase 的物化视图功能通过提供高效的数据加工和稳定的报表查询,帮助用友 ERP 系统实现了数据处理的优化,提升了业务分析的效率与可持续性。

物化视图的使用限制

值得注意的是,尽管物化视图功能强大,但在使用时也需要权衡其带来的成本与限制:

存储开销:物化视图是数据的物理副本,会额外占用存储空间。

维护成本:刷新物化视图会消耗 CPU 和 I/O 资源,需要合理规划刷新策略,避免对在线业务造成影响。

数据一致性:对于非实时物化视图,其数据与基表之间存在一定的延迟,应用需要能够容忍这种数据“过时”。

使用限制:物化视图本身不支持直接的 DML 操作,且基表的 DDL 操作可能会影响物化视图的有效性。

物化视图能力演进计划

为了让用户使用更顺手、更安心,OceanBase 会持续迭代物化视图能力,接下来的版本主要聚焦在以下核心能力:

01运维透明化(可观测性)

拒绝“黑盒”运行。上线刷新任务 Explain 及全链路可视化监控,提供任务级吞吐、延迟指标及明确的异常诊断报告,确保问题看得清、排得准。

02复杂链路支撑(Nested MV)

针对多层级数仓场景,持续优化嵌套物化视图的级联刷新能力,支持构建更深度的 ETL 加工链路。

03场景与类型扩展

广泛兼容:逐步支持外表(External Table)的物化能力。
丰富类型:原生支持 JSON、LOB、Geometry 等复杂数据类型的增量计算。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

前段时间去看国家地理照片展览的时候路过一个商城看到的(我没有擦除 EXIF 信息,理论上可以看到是哪个商城)
image
image

在现代汽车制造中,涂装工艺不仅是外观品质的最后防线,更是影响整车耐久性、环保合规性与成本控制的关键环节。传统涂装依赖人工经验调节喷涂参数,面对环境温湿度波动、涂料批次差异、设备老化等多重干扰,往往导致色差、橘皮、流挂等缺陷频发,返修率居高不下。随着消费者对车身质感要求的提升与环保法规日益严苛,单纯依靠经验判断的工艺模式已难以为继。真正的突破,必须建立在对生产全过程的深度感知与智能决策之上——即从“事后补救”转向“事前预测”,从“静态设定”迈向“动态优化”。
这一转型的核心,在于构建一个融合物联网感知、AI建模与闭环控制的智能系统。涂装工艺涉及数十个变量:喷涂压力、枪距、扇幅、环境温湿度、涂料粘度、车身材质、甚至车间气流分布,每一个参数的微小变化都可能引发连锁反应。传统方法难以捕捉这些非线性关系,而人工智能则能通过海量历史数据训练模型,识别出隐含的工艺规律。更重要的是,系统不再只是“报告异常”,而是能主动推荐最优参数组合,甚至在缺陷发生前就进行干预。这种从“人盯机器”到“机器自适应”的转变,标志着涂装工艺进入了一个全新的智能时代。
在这一领域,广域铭岛的Geega工业互联网平台提供了极具代表性的中国方案。其在领克汽车成都工厂部署的GQCM涂装质量管理APP,通过实时采集50余个测色点的色差、膜厚与橘皮数据,结合数字孪生技术构建虚拟喷涂模型,实现了对每辆车漆膜形成过程的全生命周期监控。系统不仅能提前48小时预测色差风险,准确率高达97.5%,还能自动调整喷枪参数,使色差值ΔE稳定控制在1.2以内,涂料利用率提升12%,年节约成本超百万元。与此同时,国外领先企业如德国博世(Bosch)也在其智能涂装系统中引入自适应控制算法,通过激光扫描与机器视觉实时反馈车身曲面变化,动态调整喷涂轨迹,使复杂曲面的漆膜均匀性提升30%。而美国通用汽车则与IBM合作,将AI预测模型与设备振动数据结合,实现喷枪堵塞的预测性维护,将非计划停机时间减少近七成。这些实践共同证明,无论地域与技术路径如何不同,智能化涂装的底层逻辑高度一致:数据是燃料,算法是引擎,闭环是灵魂。
当涂装不再依赖老师傅的“手感”,而是由系统自主决策、持续优化,汽车制造便真正迈向“零缺陷、零浪费、零停机”的新阶段。未来,随着5G边缘计算与多模态大模型的融合,涂装系统或将实现完全自主运行——无需人工干预,仅凭环境与材料的微小变化,就能自动完成参数调优。这不仅是技术的进步,更是制造哲学的重塑。

过去两年,AI 在中国经历了从概念热潮到密集试点的阶段。无论是大模型、智能体(Agentic AI),还是自动化应用,越来越多企业已完成初步探索。进入 2026 年,AI 正迈入一个新的发展阶段——从试点应用走向业务规模化。

 

企业关注的核心问题也随之发生变化,不再只是“能否用 AI”,而是 AI 是否能够在可控、可持续的前提下,稳定运行并转化为可衡量的业务成果。基于对中国企业 AI 实践的持续观察,Cloudera 对 2026 年 AI 与数据技术的发展趋势做出如下判断:

预测一:AI 走向产业化,业务价值与可复制能力成为核心衡量标准

 

到 2026 年,中国企业的 AI 应用将明显超越聊天机器人和单点工具,转向流程优化、运营自动化和行业级智能应用。

 

在制造、金融、电信等领域,企业将更倾向于复用已验证的 AI 能力,并通过智能体工作流将 AI 深度嵌入核心业务流程,而不再局限于单一模型或实验项目。ROI、业务效率提升和可持续运营能力,将取代模型参数与算力规模,成为衡量 AI 成功与否的关键指标。

 

同时,随着 AI 被视为重要的“新型生产力”,企业和行业客户将更加重视 AI 系统的稳定性、连续性与可运营性。能够在复杂环境中长期运行、不断优化并适应业务变化的 AI 平台,将在竞争中脱颖而出。

 

Cloudera 大中华区技术总监刘隶放在一次公开分享中表示,AI 技术的第一阶段是能力展示与智能回答等“噱头应用”,例如模型回答数学题能力等功能。然而,进入产业化落地后,企业对 AI 的关注点更多转向如何结合已有业务系统、优化流程并创造可衡量的商业价值。这与当前行业趋势高度一致。

Cloudera 大中华区技术总监刘隶放

行业数据显示,企业从单点 AI 尝鲜逐步转向系统化、流程化应用,特别是在流程优化、与数据平台整合等关键领域的能力要求急剧上升。此外,随着智能体(AI agents)出现,企业内部正在探索如何将模型能力系统性融入现有的业务逻辑中。

预测二:可信、可治理的私有 AI 将成为企业的关键差异化能力

 

在中国市场,数据安全与合规可控始终是 AI 应用的前提条件。2026 年这一趋势将进一步强化。

虽然公有云与预训练模型极大降低了 AI 试验门槛,但在实际生产环境中,企业逐渐意识到:如果数据治理、访问控制和合规机制不到位,AI 带来的效率提升,可能同时放大数据风险。

 

因此,越来越多中国企业将转向私有 AI(Private AI) 路径:

 

  • 在受治理的环境中部署和运行模型;

  • 数据不出域,权限可控、流程可追溯;

  • 通过检索增强生成(RAG)等方式,为模型提供业务上下文,同时保持数据可控;

 

刘隶放进一步指出,数据合规永远优先于 AI 功能本身。在涉及企业核心数据的训练过程中,如果使用公有云平台进行训练,不仅有可能触及竞争性泄露风险,还可能违反监管要求。因此,只要涉及企业敏感数据,私有化部署基本成为不可替代的方向。

 

可信 AI 不再是“最佳实践”,而将成为企业实现 AI 规模化落地的基本门槛。治理能力与敏捷性不再是对立选项,而是 AI 成熟度的两个必要组成部分。

预测三:本地化私有部署成为中国企业 AI 规模化落地的基础架构

在中国市场,2026 年企业对 AI 与数据架构的判断将进一步趋于清晰:本地化私有部署是 AI 规模化落地的基础前提。

 

刘隶放强调,相较于公有云部署,私有化 AI 环境更能满足企业对可控性、数据安全和长期运营的核心诉求。在安全与合规成为企业 AI 战略基础的背景下,“可控”被视为 AI 落地的前提条件。

 

行业调研报告显示,企业在 AI 部署中越来越倾向于选择私有化或混合云架构,以保障数据主权和业务独立性。IDC 发布的《2025 年中国企业 AI 大模型应用趋势报告》指出,约 72%中大型企业在实施 AI 智能体时,将私有化部署置于优先考虑因素之一。

 

根据 Rackspace 发布的趋势分析,面向企业的私有云 AI 部署正在成为主流,其中检索增强生成(RAG)等敏感工作负载正从公有环境向私有部署迁移,以提升性能稳定性和数据控制能力。

相关行业观点也总结出几个核心趋势:

 

  • 私有化部署可提升响应速度并避免核心数据泄露风险

  • 企业希望避免将敏感数据发送至外部 AI 平台,以控制数据流出风险

  • 企业 CIO 和 CTO 在架构设计过程中,将合规与数据控制置于 AI 战略核心

 

在金融、制造、能源、电信等关键行业,核心业务系统与数据资产长期运行在本地或私有环境中。这一架构形态,既源于对数据安全与合规可控的要求,也来自企业对系统稳定性、连续性与长期运营能力的现实考量。

 

随着 AI 从试点走向生产级应用,企业开始更加关注一个根本问题:AI 是否能够在本地私有环境中持续运行、不断优化,并稳定支撑核心业务。一次性部署或短期验证已无法满足需求,取而代之的是对平台级能力的要求,包括统一的数据管理、可治理的模型运行,以及对业务变化的长期适配能力。

 

到 2026 年,能够在本地私有架构下支撑 AI 持续演进的数据与 AI 平台,将成为中国企业实现 AI 规模化、可复制落地的重要基础。这一能力,也将成为衡量企业 AI 成熟度的关键标志。

Cloudera 成立于 2008 年,总部位于美国硅谷,是最早一批围绕 Hadoop 生态 成立的企业级大数据公司之一。公司创始团队中包括多位 Hadoop 核心贡献者,因此 Cloudera 在早期被广泛视为“企业级 Hadoop 的事实标准”。

2019 年,Cloudera 与另一家老牌大数据公司 Hortonworks 合并,形成当时全球最大的大数据平台厂商之一。合并后,Cloudera 的技术版图从单一的大数据存储与计算,扩展到 数据管理、数据治理、数据分析、机器学习与 AI 工程化 等完整链条。

2026:AI 从“概念热潮”走向“硬核成果”的一年

2026 年,中国 AI 的竞争焦点将不再是“谁的模型更大”,而是在可控、可信、可复制的基础上,真正把 AI 变成业务成果。

 

最终胜出的企业,将是那些能够负责任地规模化 AI、用数据治理支撑智能决策、用韧性架构保障长期运营的企业。因为真正可信的 AI,始于可信的数据;而可信的数据,离不开稳健、可持续的数据基础架构。

 

刘隶放称,在 AI 实践中,企业真正关心的并非单一模型表现,而是整体平台建设后的长期运营能力。例如,在金融、制造等行业,已有大量的信息系统和数据资产,AI 必须与这些系统无缝整合,才能真正提升业务效率。

 

此外,在人才流动频繁的市场环境下,构建松耦合体系架构被认为是确保 AI 平台可持续运营的关键。这种设计允许平台适应技术更新和人员变动,避免因关键人员离职而造成系统停滞。

 

公司援引自身服务的典型案例(如上汽大众的供产销数据平台与 AI 集成实践),强调企业在部署 AI 时,最终评估的核心是投入产出与长期收益。

 

从「会对话的大模型」到「能自主完成复杂任务的智能体(AI Agent)」,人工智能研究正在进入一个以规划、执行与协同为核心的新阶段。随着大语言模型逐步具备工具调用、长期记忆与环境交互能力,研究焦点不再局限于单一模型的性能提升,而是转向如何通过多智能体架构与任务级分工,让 AI 在真实世界中持续产生可验证、可复用的成果。

在这一背景下,Agent 技术正快速渗透至科研生产、软件开发、数据分析与虚拟环境交互等多个方向:从自动生成高质量学术插图、在无显式奖励下完成强化学习优化,到在三维开放世界中执行长时任务,乃至将模糊研究想法系统化为完整科学叙事。学术界与工业界围绕「如何让模型真正成为执行者而非仅是生成器」展开密集探索。

本周,我们为大家推荐的 5 篇 Agent 的热门 AI 论文,涵盖北京大学、谷歌云 AI 研究院、AgentAlpha、亚马逊等团队。集中展示了当前 Agent 研究在框架设计、跨模态协同、自我反馈学习以及端到端任务闭环方面的代表性进展,为理解下一代通用智能体的演进路径提供了清晰切面。一起来学习吧 ⬇️

此外,为了让更多用户了解学术界在人工智能领域的最新动态,HyperAI 超神经官网(hyper.ai)现已上线「最新论文」板块,每天都会更新 AI 前沿研究论文。

最新 AI 论文https://go.hyper.ai/hzChC

本周论文推荐

1. PaperBanana: Automating Academic Illustration for AI Scientists

北京大学与谷歌云 AI 研究院的研究人员提出了PaperBanana,这是一种代理式框架,通过协调专门的视觉语言模型(VLM)驱动代理,自动完成出版级学术插图的检索、规划、风格化与迭代优化,在方法图和统计图的保真度、简洁性、可读性和美观性方面显著优于基线方法。

论文及详细解读 https://go.hyper.ai/skQUQ


效果展示

作者使用 PaperBanana(基于 NeurIPS 2025 方法图构建的基准)评估自动化图表生成。该基准涵盖现代 AI 论文中多样且美学复杂的图表。


数据集

2. Reinforcement Learning via Self-Distillation

本文提出自蒸馏策略优化(Self-Distillation Policy Optimization, SDPO)。SDPO 无需外部教师模型或显式的奖励模型,即可将分词后的反馈转化为密集的学习信号。SDPO 将当前模型在给定反馈条件下的输出视为自教师,将其基于反馈生成的下一词预测结果回传并蒸馏到策略中。通过这种方式,SDPO 充分利用了模型在上下文中回溯识别自身错误的能力。在 LiveCodeBench v6 上的科学推理、工具使用和竞赛编程任务中,SDPO 在样本效率和最终准确率方面均显著优于现有的强基准 RLVR 方法。

论文及详细解读 https://go.hyper.ai/oBMuM


RLVR and RLRF 实验对比示例

3. Lumine: An Open Recipe for Building Generalist Agents in 3D Open Worlds

本文提出 Lumine,这是首个开源的通用智能体开发方案,能够实现在复杂三维开放世界环境中实时执行长达数小时的复杂任务。Lumine 采用类人类交互范式,通过视觉-语言模型,以端到端的方式统一感知、推理与行动。它以每秒 5 帧的频率处理原始像素输入,生成每秒 30 帧的精确键盘鼠标操作,并仅在必要时动态调用推理模块。

论文及详细解读: https://go.hyper.ai/aUakj


效果展示

实验结果表明,Lumine 在不同世界设定与交互机制下均具备高效适应能力,标志着迈向开放环境中通用智能体的重要一步。

Lumine 性能对比实验结果示例

4. Idea2Story: An Automated Pipeline for Transforming Research Concepts into Complete Scientific Narratives

AgentAlpha 团队提出了 Idea2Story,这是一种预计算框架,通过从同行评审论文中构建方法论知识图谱,将模糊的研究想法转化为结构化、可复用的模式,从而减少大语言模型的上下文限制与幻觉,同时在无需运行时重新处理文献的前提下实现高效、新颖的科学发现。

论文及详细解读 https://go.hyper.ai/KyWe0


Idea2Story 框架示例

该数据集用于训练 Idea2Story,系统利用论文-评审对学习研究贡献的表述与评估方式,支持可复用方法论模式的检索与组合,而非领域特定内容。


数据集

5. Insight Agents: An LLM-Based Multi-Agent System for Data Insights

亚马逊研究人员提出了 Insight Agents(IA),这是一种基于大语言模型的多智能体系统,采用「规划-执行」架构,配备分层智能体与 OOD 感知路由机制,使美国亚马逊卖家能够在 15 秒内获得准确的业务洞察,人工评估准确率达 90%。

论文及详细解读 https://go.hyper.ai/LbaHD


Insight Agents(IA)架构示例

作者使用一个精选数据集用于训练和评估 OOD 检测与智能体路由模型,该数据集总计 301 个问题:178 个域内问题,123 个域外问题;另设包含 100 个热门问题的基准测试集,附带真实答案,用于端到端评估。


数据集

以上就是本周论文推荐的全部内容,更多 AI 前沿研究论文,详见 hyper.ai 官网「最新论文」板块。

同时也欢迎研究团队向我们投稿高质量成果及论文,有意向者可添加神经星星微信(微信号:Hyperai01)。

下周再见!

最近,工位从 2 楼搬到了 3 楼,发现 3 楼只有马桶,没有蹲坑

现在遇到的麻烦就是上大号的时候,不知道牛子放在哪里合适?

放在马桶内部,稍微蹲久点,牛子很容易就嗯了,由于我割过包皮,🐢头直接暴露在外面,很容易就直接接触到马桶

放在外部,一个是要用手扶着比较麻烦,除非一直保持嗯的状态,二一个是,上大号的过程中,有时候也会挤几滴尿出来,就容易尿到外面,还可能尿到裤子上

有什么比较舒服的蹲马桶姿势吗?我之前一直只用的惯蹲坑

基因组基础模型(GFMs)是解码生命密码的核心工具,它们通过分析 DNA 序列解锁细胞功能、 organism 发育等关键生物信息。然而,现有基于 Transformer 的 GFMs 存在致命短板:依赖大规模预训练和密集计算间接推断多核苷酸基序,不仅效率低下,还在基序主导的功能元件检测任务中表现受限。

近日,由华大生命科学研究院与浙江之江实验室组成的 Genos 团队提出的 Gengram(Genomic Engram)模型,为这一难题提供了革命性解决方案。这一设计既避免了硬编码生物规则,又让模型获得了明确的基因组 「语法」 认知。

作为一款专为基因组基序建模设计的轻量级条件记忆模块,Gengram 的核心创新在于基于 k-mer 的 hash memory 机制,构建了可高效查询的多碱基基序记忆库。与传统模型间接推断基序不同,它直接存储 1-6 个碱基长度的 k-mer 及其嵌入向量,通过局部窗口聚合机制捕捉功能基序的局部上下文依赖,再经门控控制模块(gate-controlled module)将基序信息与主干网络融合。研究团队表示,当集成于 当前SOTA 的基因组模型 Genos 时,同等训练条件下,Gengram 在多项功能基因组学任务中实现显著性能提升,最高达 22.6%。


论文地址:https://arxiv.org/abs/2601.22203\
代码地址:https://github.com/BGI-HangzhouAI/Gengram\
模型权重:https://huggingface.co/BGI-HangzhouAI/Gengram

训练数据覆盖人类与非人灵长类基因组

训练数据集包含 145 个高质量的单倍型解析组装序列,涵盖人类与非人灵长类基因组。人类序列主要来源于人类泛基因组参考联盟(HPRC,第 2 版),并辅以 GRCh38 与 CHM13 参考基因组。非人灵长类序列则整合自 NCBI RefSeq 数据库,以纳入演化多样性。所有序列均使用 one hot 编码处理。词汇表包含四种标准碱基(A、T、C、G)、模糊核苷酸 N 以及文档结束标记 。

最终,系统构建了 3 套数据以支撑消融实验及正式预训练

50B tokens @ 8,192(消融)

200B tokens @ 8k(10B 正式预训)

100B tokens @ 32k(10B 正式预训)

并且保持 human : non-human = 1:1 的数据混合比例。

基因组建模从「注意力推导」走向「记忆增强」

受 DeepSeek Engram 记忆机制启发,Genos 团队快速开发并部署 Gengram,为基因组基础模型提供显式 motif 存取与复用能力,突破主流 GFMs 缺乏结构化 motif memory、只能通过扩大训练数据「隐式记忆」的限制,推动基因组建模从「注意力推导」走向「记忆增强」。该模块架构如下图所示:


Gengram 架构图

建表:对 k=1~6 的所有 k-mer 建立 hash memory(静态 key + 可学习 embedding value)

检索:把窗口内出现的所有 k-mer 映射到表项

聚合:先在每个 k 上聚合,再跨 k 拼接

门控:gate 控制激活,把 motif 证据写入 residual stream,然后再进入 attention。

一个关键设计:Local Window Aggregation(W=21bp)

Gengram 并非在每个位置仅检索单一 n-gram,而是采用固定窗口内的多 k-mer embedding 聚合,以更稳定地注入「局部、结构一致」的 motif 证据。研究人员通过窗口大小策略搜索进行验证,发现 21 bp 在验证集上达到最优性能。一个可能的生物学解释是:典型的 DNA 双螺旋周期约为每旋转一圈 10.5 个碱基对,因此 21 个碱基对正好旋转两圈;这意味着,相隔 21bp 的两个碱基,在三维空间中恰好位于螺旋的同一侧,面对相似的生化环境,在该尺度上进行窗口聚合,或更有利于对齐局部序列信号的相位一致性。

评测提升突出:小参数,大改变

团队采用多标准基准数据集对模型进行了全面评估,涵盖 Genomic Benchmarks (GB)、Nucleotide Transformer Benchmarks (NTB)、Long-Range Benchmarks (LRB)及Genos Benchmarks (GeB)。从中选取了 18 个具有代表性的数据集,涉及 5 个主要任务类别:序列结构理解 (Genomic Structure Understanding)、基因调控预测 (Gene Regulation Prediction)、表观遗传图谱 (Epigenetic Profiling)、变异效应与临床影响 (Variant Effect & Clinical Impact) 以及进化分析 (Evolutionary Analysis)。

Gengram 作为一个仅约 2,000 万参数的轻量化插件,相对于百亿级规模的基座模型而言参数占比极小,但其带来的性能提升显著。在 8k 与 32k 两种上下文长度设定下,同等训练条件,集成 Gengram 的模型在绝大多数任务中均优于未集成的版本。具体表现上,剪接位点预测任务的 AUC Score 从 0.776 提升至 0.901,增幅达 16.1%;表观遗传预测任务(H3K36me3)的 AUC Score 从 0.656 提升至 0.804,增幅为 22.6%。


8k 和 32k context 下,加入 Gengram 前后的评测结果,加入 Gengram 后提升显著

此外,该性能提升还伴随着显著的「数据杠杆」效应。在与 Evo2、NTv3、GENERATOR-3B 等主流 DNA 基础模型的横向对比中,集成 Gengram 的模型仅需极小规模的训练数据和较少的激活参数量,便可在核心任务上媲美训练数据规模领先其数倍至数十倍的公开模型,体现出较高的数据训练效率。


Gengram 模型也主流 DNA 大语言基础模型的评测比较

深度剖析 Gengram

为什么 Gengram 能加速训练?

团队引入 KL 散度作为训练过程的表征诊断指标,并采用 LogitLens-KL 对不同层的「可预测性(prediction-readiness)」进行量化跟踪。结果显示,引入 Gengram 后,模型在浅层即可更早形成稳定的预测分布:相较基线模型,其层间 KL 更快下降并提前进入低值区间,表明有效监督信号更早被组织为可用表征,从而使梯度更新更直接、优化路径更平滑,最终体现为更快的收敛速度与更高的训练效率。


这一现象并非「凭空发生」,而是由 Gengram 的结构性设计直接驱动:

显式的 motif 记忆检索,缩短「证据到表征」的路径。 在基因组任务中,监督信号往往由短而稀疏的 motif(如剪接共识序列、启动子相关片段、低复杂度 tract 等)触发。基线 Transformer 需要通过多层 attention/MLP 逐步「推导并固化」这些局部证据;而 Gengram 通过对 k-mer 的显式存取,把这类高信息密度的局部模式以记忆形式直接提供给网络,使模型不必等待深层逐渐形成 motif detectors,从一开始就更接近可预测状态。

窗口聚合 + 动态门控,使注入的证据「稳定且可控」。 Gengram 不是逐位置硬注入,而是在固定窗口内聚合多个 k-mer embedding,并通过门控选择性写入 residual stream:在功能区域更倾向激活检索,在大段背景区抑制检索。这种「稀疏、对齐功能元件」的写入方式,一方面减少噪声干扰,另一方面让网络更早获得高信噪比的训练信号,降低了优化难度。

Motif 记忆从何而来?详解 Gengram 的写入机制

研究团队在下游评测中首先观察到一个明确且跨任务一致的现象:在相同训练设定下,引入 Gengram 后,模型在典型的 motif 主导任务上取得显著提升,尤其是在依赖短程序列模式的场景中表现突出,例如剪切位点识别与表观遗传相关的组蛋白修饰位点预测。以代表性任务为例,剪接位点预测 AUC 从 0.776 提升至 0.901,H3K36me3 预测 AUC 从 0.656 提升至 0.804,增益稳定且幅度可观。

为了进一步回答「这些提升从何而来」,团队没有止步于指标层面,而是从模型前向传播中提取 Gengram 的残差写入项(residual write),并将其在序列维度上的强度分布可视化为热图进行分析。结果显示,写入信号呈现出高度稀疏且强对比的结构:绝大多数位置接近基线,只有少数位置形成尖锐峰值;更重要的是,这些峰值并非随机出现,而是显著富集并对齐于功能相关区域与边界,包括启动子邻近的 TATA-box 片段、低复杂度 poly-T 片段,以及基因/外显子等功能区域边界附近的关键位置。这意味着 Gengram 的写入更像是在「抓住决定功能的局部证据」,而非无差别地在全序列范围内注入信息。

综合上述现象与证据链,研究人员可以将 Gengram 的 motif 记忆机制概括为「按需检索—选择性写入—结构化对齐」:模块通过门控控制检索与写入强度,在功能信息密度更高的区域更积极地注入可复用的 motif 证据,在背景区域则抑制写入以降低噪声干扰。由此,模型对 motif 的掌握不再主要依赖更大规模数据带来的「隐式记忆」,而是转向一种显式存取、可解释地写入表征的结构化能力。

结语

近年来,基因组建模领域正经历从「序列统计学习」向「结构感知建模」的关键转向。

以 Gengram 为代表的条件化基序记忆机制,揭示了一条不同于传统密集计算的技术路径:通过将多碱基功能基序显式建模为可检索的结构化记忆,模型得以在保持通用架构兼容性的同时,实现更高效、更稳定的功能信息利用。这一思路不仅在多项功能基因组任务中展现出显著性能优势,也为稀疏计算、长序列建模以及模型可解释性提供了统一的工程解法。

此外,从产业视角看,Gengram 所体现的「结构化先验 + 模块化增强」范式,显著降低了基因组大模型在算力、数据与训练周期上的边际成本,为其在药物研发、变异筛选、基因调控分析等高价值场景中的规模化部署提供了现实可行性。更长远地看,这类可复用、可插拔式的架构组件,或将成为下一代基因组基础模型的标准配置,推动行业从「更大的模型」走向「更聪明的模型」,并加速学术研究成果向产业平台与临床应用的持续转化。

1. 免费IP定位服务的限制与挑战

IP定位技术广泛应用于广告投放、用户行为分析、安全监控等领域,然而,大多数免费IP定位工具存在诸多限制。

1.1 精度问题

免费IP定位服务通常依赖于公开的数据源,这些数据往往不如付费服务精准。免费工具的定位精度往往只能精确到国家或省级地区,无法提供更精确的城市或街道级别的定位信息。因此,许多依赖高精度地理信息的场景(如精准营销、金融风险控制等)不适合使用免费工具。

1.2 数据更新频率

免费服务的数据更新频率较低,无法及时反映IP地址的变化。由于IP地址的归属地和运营商信息是动态变化的,特别是在网络环境较为复杂的地区,更新缓慢的数据库可能导致查询结果不准确,从而影响业务决策。

1.3 服务限制

免费工具通常有查询次数限制。例如,一些免费服务每天只能提供几十次查询,而对于需要高频次查询的业务,这显然无法满足需求。免费服务还可能限制某些功能,如无法获取运营商信息、ASN编号等详细数据,严重影响其应用场景的拓展。

1.4 应用场景的局限性

虽然免费的IP定位工具可以应付一些基本的应用需求,如简单的用户地域定位和基本的数据分析,但它们并不适用于那些对精度要求高的场景。例如,在广告投放、金融风控等领域,定位误差可能导致严重的经济损失,因此对于这些高精度需求的场景,免费工具无法满足需求。

2. 付费IP定位服务的优势

付费IP定位服务通常能提供更高的精度和更丰富的数据,适用于高要求的商业场景。

2.1 高精度定位

付费服务能够提供更加精准的IP定位,精确到城市甚至街道级别。在某些高精度需求场景下,付费服务能够提供详细的IP地址归属地,甚至能显示运营商信息、ASN编号以及用户的地理坐标(经纬度)。这一点对精准营销、反欺诈监控、跨区域服务定制等应用至关重要。

2.2 更丰富的数据维度

除了基本的地理位置,付费IP定位服务通常还提供更丰富的附加数据。例如,IP的风险评分、代理检测、历史位置记录、用户行为分析等,这些都能帮助企业更加全面地评估IP地址的可靠性与风险。

2.3 实时更新和监控

与免费服务相比,付费服务的数据更新频率更高,能够实时监控IP地址的变化。这对于需要快速响应的业务(如金融反欺诈、风险控制等)至关重要。付费服务通常会提供更稳定、持续的数据支持,确保企业在面对突发事件时能够快速调整策略。

2.4 API和集成支持

大多数付费IP定位服务提供API接口,企业可以通过API将IP定位服务集成到现有系统中,支持大规模、自动化的数据获取。这对于开发者和企业来说,能够提高工作效率,降低运营成本。
免费IP定位和付费服务的精度差距有多大?

3. 精度差距的实例对比

通过实际案例对比,我们可以更清晰地看到免费和付费服务在精度上的差距。

3.1 归属地对比

为了更清晰地对比不同之处,我们选择了IP数据云的免费查询和付费查询进行了比较。当我们查询一个IP地址时,通过免费的IP定位服务,查询结果可能仅显示该IP所属的国家和省份;而通过付费服务,除了国家和省份信息,还可以精准到具体的城市/街道,并附带运营商信息、经纬度、风险评分等。
IP数据云免费与付费查询结果对比

3.2 应用场景差异

以金融行业为例,银行或支付平台需要对用户进行身份验证和风险评估。在这个过程中,IP定位的精度至关重要。免费的IP定位服务可能无法准确判断用户的真实地理位置,这可能导致跨区域交易的误判。而付费服务能够提供更精确的位置信息,帮助企业更好地识别潜在的风险和欺诈行为。

4. 如何选择适合的IP定位服务

根据不同的业务需求,选择合适的IP定位服务是至关重要的。

4.1 业务需求驱动

对于一些中小型企业,免费服务足以应付一些简单的地理定位需求。而对于大型企业或对精度有较高要求的场景(如广告投放、精准营销、风险控制等),付费服务则显得更为必要。

4.2 成本效益分析

免费服务通常适用于预算有限或对精度要求不高的场景。但当业务规模扩大,或者需要处理更多的数据和复杂的需求时,选择付费服务能够提供更高的ROI。企业应根据自身的预算和业务需求做出决策。

5. 技术和安全性上的差异

5.1 技术实力

付费服务背后通常拥有更多的技术支持,提供更加稳定和高效的服务。技术团队的持续研发和优化,能够保证付费服务始终处于技术前沿。

5.2 安全性和隐私保护

对于需要保护用户隐私和数据安全的应用场景,付费服务通常会提供更加严密的数据加密、IP匿名化等安全措施。付费服务不仅保障数据的安全,还能避免数据滥用,帮助企业减少法律风险。

6. IP定位服务的选择

在选择IP定位服务时,企业应根据实际需求来决定。如果业务需求较为简单,且对精度的要求不高,那么免费服务是一个不错的选择。但对于大中型企业,尤其是金融、广告、电子商务等行业,精确的IP定位与实时数据支持是至关重要的。在这些场景下,IP数据云作为付费服务提供了精准的定位结果和丰富的附加功能,帮助企业更好地实现精准营销和风控监控。通过对比,我们可以看到IP数据云在提供高精度IP定位数据的同时,能够为企业带来更多的功能支持,尤其适用于那些对数据安全、精度、更新频率有高要求的业务场景。

最近看到飞牛事件,开始认真审视自己对外发布服务的安全性,想向大家请教一些相对成熟、可落地的 Web / WAF 方案。

当前现状

  • 通过 Lucky 作为反向代理对外发布应用
  • 对外暴露面较小,主要是自建服务( NAS / Web 等)

期望能力

  1. 支持 SSL 证书自动申请与续期( ACME / Let’s Encrypt ,有尝试过 NPM 或者 cerd ,家庭缺少部分端口,似乎不太好用,也可以大佬分享下)
  2. 具备 可用的 WAF 规则集
  3. 偏向 自建 / 私有化部署 / 开源

已完成的测试

雷池( SafeLine )

  • 整体体验不错,拦截能力和规则集都比较成熟
  • 但日志、分析等关键能力基本在 Pro 版本
  • 对个人 / 自建环境来说 pro 成本偏高,最终放弃

南墙( OpenWAF )

  • 能用,部署和使用相对轻量
  • 可控性略弱 ,毕竟不是专业的从业人员。
  • 日常防护可以,但整体不够“顺手”

想请教大家

  • 是否有更合适的 Web / WAF 方案推荐?
  • 是否有实际长期运行的经验分享(误报率、维护成本、性能等)?
  • 如果是「反向代理 + WAF + 自动证书」这一套,大家目前都怎么组合?

感谢分享 🙏

这网站登录要验证码,我想一直保持登录,就准备定时去请求后端服务保持登录态,结果没注意到它有签名。

看了一下其实签名很简单。
image
先看了下个人信息部分,后端返回加密的,前端解开了,先验证下在哪里脱敏的,有的系统是后端脱敏,有的偷懒就在前端脱敏。

既然解密了邮箱,先搜一下 decrypt 看看
image
找到了几个解密方法,直接去 app......js 里面看
image
这里是加解密方法,下面有两个密钥,其实可以猜一下,长的是私钥(别问我为什么)

然后验证下
image
成功解析了,是一个私钥(为什么不用 AES 呢?这样不就是后端用公钥加密,前端用私钥解密了)

image
解密成功,果然是前端脱敏的。

下面看看请求签名吧。
image
每个 api 的请求都有个 signature 的请求头
这个签名由两部分组成,其实见得多了就知道,这里就是时间戳+MD5

我们先搜索 signature
image
直接锁定了,定位过去打断点就行了。

image
下断点,触发请求,这里主要看Object(h.a)(o, n)

image
第一部分断点下错了,应该在 app 里面下,不影响,现在已经断到了

image
这里就是 a+;+o,a 是时间戳跟上面的猜测是一样的,o 是 Object(f.a)(a, n)的结果,n 就是请求体,直接单步进去

image
这里就是核心方法了,其实很简单,自己分析或者直接下断点就行了
r 就是 md5
无非就是i = e + "," + a + ",1e31af8c14999aa99d78537a8641ea4d"或者c = e + ",1e31af8c14999aa99d78537a8641ea4d"

image
1770360125648,10,1,1e31af8c14999aa99d78537a8641ea4d
时间戳+请求体中 json 的键值对的值+固定字符串

image
1770360125648,10,1,1e31af8c14999aa99d78537a8641ea4d的 md5 结果为:20736f5e42b82db8c5d0c92bdd89c262

image
后端请求的签名和我们拿得原文再 MD5 的签名一模一样,这里报错是因为断点时间太长导致请求的时间戳超时,实际上算法是对的。

原文链接:https://tecdat.cn/?p=44948
原文出处:拓端抖音号@拓端tecdat

封面

引言

2025年,全球半导体产业正站在技术革新与供应链重构的关键十字路口。AI大模型的爆发式增长,让高端算力芯片、高带宽存储(HBM)成为需求核心,直接推动光刻机、先进封装、光刻胶等关键环节的技术迭代进入“加速档”;而地缘政治博弈与“科技自立自强”的国家战略双重驱动下,国产化替代已从“可选”变为“必选”,成为中国半导体产业突围的核心命题。从晶圆制造到封装测试,从设备材料到终端应用,产业各环节正经历前所未有的变革,机遇与挑战并存。

本报告洞察系统梳理产业核心趋势、关键数据与落地路径。本文完整报告数据图表和文末100+最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和800+行业人士共同交流和成长。

一、产业核心趋势:AI与国产化双轮驱动

半导体产业的增长引擎已从传统消费电子彻底转向AI算力与国产化替代。全球半导体市场2025年预计突破6970亿美元,其中AI相关逻辑芯片、GPGPU增速分别达16.8%和27%,成为最强增长动力;而中国作为全球最大半导体市场,2024年贡献ASML 41%的营收,却在高端光刻机、先进光刻胶等领域国产化率不足1%,千亿级替代空间已全面打开。

(一)光刻机:高端垄断与国产突破的正面博弈

光刻机作为半导体制造的“皇冠明珠”,是国产化替代的核心攻坚环节。2024年全球市场呈现“一超两强”格局,ASML以61.2%的份额主导全局,尤其在EUV和ArFi先进机型中形成绝对垄断,Canon与Nikon则聚焦成熟制程。

2024年全球光刻机厂商出货量份额横向条形图表1
2024年全球光刻机厂商出货量份额(百分比):ASML 61.2%、Canon 34.1%、Nikon 4.7%、其他0.0%。
3秒解读:ASML垄断高端市场,国产厂商尚未进入主流份额,成熟制程是国产替代首攻方向。
对应人群行动建议:晶圆厂可优先布局ASML成熟制程设备备份,降低断供风险;国产设备厂商应聚焦DUV细分环节(如双工件台、光源系统)突破,联合晶圆厂开展联合验证,缩短导入周期。
2024年全球光刻机市场份额 - 保持横向比例条形图1数据EXCEL及图表PDF模板已分享到会员群
中国光刻机国产化正迎来关键突破:上海微电子90nm ArF光刻机实现出货,华卓精科双工件台打破国外垄断,哈尔滨工业大学成功研制13.5nm EUV光源,为7nm以下先进制程奠定基础。但当前仍面临验证周期长、核心零部件依赖进口等挑战,短期聚焦成熟制程替代、长期攻坚EUV核心技术,成为行业共识。

(二)光刻胶:国产化率的“技术阶梯”困境

光刻胶作为光刻工艺的核心材料,其国产化进程呈现明显的技术梯度差异——技术难度越高,国产化率越低,成为制约先进制程推进的关键瓶颈。

PCB光刻胶国产化率瀑布图表7
PCB光刻胶国产化率(百分比):干膜光刻胶5%、湿膜光刻胶50%、阻焊油墨50%、整体国产化率35%。
3秒解读:中低端产品已实现部分替代,干膜光刻胶因技术壁垒高,仍高度依赖进口。
对应人群行动建议:材料厂商可优先加大湿膜光刻胶产能扩张,巩固现有替代成果;同时联合PCB厂商开展干膜光刻胶联合研发,聚焦光引发剂等核心配方突破;晶圆厂可建立国产材料测试绿色通道,缩短验证周期。
PCB光刻胶国产化率瀑布图表7数据EXCEL及图表PDF模板已分享到会员群

半导体光刻胶国产化率阴影条形图表8
半导体光刻胶国产化率(百分比):G/I线光刻胶30%、KrF光刻胶5%、ArF光刻胶0.5%、EUV光刻胶0%。
3秒解读:先进制程光刻胶完全依赖进口,7nm以下制程面临供应链安全风险。
对应人群行动建议:政策层面可加大对EUV光刻胶研发的专项补贴,支持校企联合攻关;企业层面应加强与晶圆厂的工艺协同,针对14nm制程所需的KrF光刻胶开展量产验证,逐步突破技术瓶颈。
半导体光刻胶国产化率阴影条形图表8数据EXCEL及图表PDF模板已分享到会员群

(三)先进封装:后摩尔时代的性能“破局者”

随着制程微缩逼近物理极限,先进封装成为AI时代提升芯片性能的核心路径——通过Chiplet异构集成、2.5D/3D堆叠等技术,无需制程迭代即可实现算力翻倍,成为产业增长的新引擎。

2019-2029年全球先进封装技术路线占比堆叠面积图表10
2019-2029年全球先进封装技术路线占比:2.5D封装占比从30%升至55%,3D封装从20%升至42%,其他先进封装从50%降至3%。
3秒解读:2.5D/3D封装成为主流,AI芯片需求直接推动技术迭代提速。
对应人群行动建议:封装厂商应重点布局CoWoS、Chiplet技术,加大与HBM厂商的协同研发;AI企业在芯片设计阶段即融入先进封装方案,优化算力密度与功耗平衡;设备厂商需聚焦TSV刻蚀、微凸块电镀等关键设备突破,适配封装技术升级需求。
全球先进封装技术占比堆叠面积图表10数据EXCEL及图表PDF模板已分享到会员群
中国先进封装产业呈现“成熟制程与先进封装齐头并进”的格局:长电科技XDFOI Chiplet工艺进入稳定量产,通富微电承接AMD 70%-80%的封测订单,华天科技布局面板级封装(FOPLP),本土企业已在AI芯片封测领域形成差异化竞争力。


相关文章

2025半导体行业核心趋势与市场动态报告:AI驱动、先进封装、SiC、掩膜版|附130+份报告PDF、数据、可视化模板汇总下载

原文链接:https://tecdat.cn/?p=44426


二、关键支撑环节:设备、材料与供应链的协同突围

(一)半导体设备:市场增长与国产替代的共振效应

全球半导体设备市场正受益于AI驱动的扩产潮,2025年预计达1210亿美元,2026年增至1390亿美元,其中晶圆加工设备(WFE)占比超80%。中国作为全球最大设备采购市场,2024年设备采购金额达490亿美元,国产化率已提升至13.6%,刻蚀、清洗设备进展显著。

全球半导体设备销售额气泡图表2
全球半导体设备销售额(亿美元):2023年1063、2024年1171、2025年预测1215、2026年预测1394,增长率分别为10.2%、3.8%、14.7%。
3秒解读:设备市场稳步增长,2026年将迎来加速期,AI芯片扩产是核心驱动力。
对应人群行动建议:设备厂商应聚焦客户验证周期缩短,针对晶圆厂需求优化设备稳定性;晶圆厂可加大国产设备导入比例,采用“成熟制程批量导入+先进制程小批量测试”的策略,降低替代风险。
全球半导体设备销售额气泡图表2数据EXCEL及图表PDF模板已分享到会员群

(二)混合键合:AI芯片互连的“核心纽带”

混合键合技术通过铜-铜直接键合实现10μm以下间距互连,是HBM和3D集成的关键支撑,2030年前市场规模年复合增长率达24.7%。当前全球市场由BESI主导,占比67%,国产厂商如拓荆科技已推出量产设备,在AI驱动下国产化进程加速。

混合键合技术多维评估雷达图表5
混合键合技术多维评估(0-30分):市场规模6.2、年复合增长率24.7、技术成熟度8.0、国产化率2.0、AI需求拉动9.0。
3秒解读:技术需求旺盛,但国产化率偏低,存在较大替代空间。
对应人群行动建议:企业应加强与HBM厂商的联合研发,聚焦设备精度与可靠性提升;政策层面可支持核心零部件国产化,降低设备制造成本;产业链应建立技术标准联盟,加速国产设备验证流程。
混合键合技术评估雷达图表5数据EXCEL及图表PDF模板已分享到会员群

2023年全球混合键合设备厂商市场份额半圆面积图表6
2023年全球混合键合设备厂商市场份额:BESI 67%、其他厂商33%。
3秒解读:BESI垄断全球市场,国产厂商需突破技术瓶颈实现弯道超车。
对应人群行动建议:国产设备厂商应聚焦客户验证,针对AI芯片互连需求优化设备性能;晶圆厂可给予国产设备更多测试机会,通过联合攻关解决实际应用中的技术问题。
混合键合设备市场份额半圆面积图表6数据EXCEL及图表PDF模板已分享到会员群

(三)锡供应:电子焊料的地缘风险预警

锡作为半导体封装的关键材料,其供应稳定性直接影响封装环节产能。2024年全球锡产量高度集中,中国、印尼、缅甸三国占比超50%,供应易受政策和地缘冲突影响,而AI芯片封装密度提升进一步推动锡需求增长,供应链稳定性成为企业关注重点。

2024年全球锡产量分布气泡图表9
2024年全球锡产量(万吨):中国6.9、印尼5.0、缅甸3.4、其他地区14.7。
3秒解读:供应集中度高,地缘风险可能引发价格波动,影响封装成本。
对应人群行动建议:企业应建立多区域供应商体系,降低单一地区依赖;布局再生锡回收业务,提升资源循环利用效率;密切关注地缘政治动态,建立库存预警机制。
全球锡产量分布气泡图表9数据EXCEL及图表PDF模板已分享到会员群

(四)测试设备:AI芯片复杂度驱动的需求爆发

AI芯片测试向量深度指数级膨胀,推动测试设备量价齐升——2025年全球测试设备市场预计同比增长48.1%,达166亿美元。中国测试设备市场中,测试机占比62.3%,但SoC测试机国产化率仅10%,高端替代空间广阔。

2024年中国半导体测试设备细分市场占比华夫图表3
2024年中国半导体测试设备细分市场占比(每格代表1%):测试机62.3%、探针台20.0%、分选机17.7%、其他0.0%。
3秒解读:测试机是核心细分领域,国产化潜力巨大,是测试设备替代的核心突破口。
对应人群行动建议:测试设备厂商应聚焦AI芯片专用测试方案,开发高算力、高精度测试设备;晶圆厂可导入国产测试设备进行并行验证,逐步提高国产设备在测试环节的占比。
中国测试设备市场结构华夫图表3数据EXCEL及图表PDF模板已分享到会员群

全球半导体测试设备销售额及同比增速双轴图表4
全球半导体测试设备销售额(亿美元):2024年112、2025年预测166、2026年预测186、2027年预测199,增长率分别为48.1%、12.0%、7.0%。
3秒解读:测试设备市场进入高速增长期,2025年增速最快,AI芯片是核心驱动因素。
对应人群行动建议:企业应加大研发投入,突破高端测试机核心技术,尤其是SoC测试机的国产化;产业链应建立测试设备与芯片设计的协同机制,提升测试效率。
全球测试设备销售额双轴图表4数据EXCEL及图表PDF模板已分享到会员群

三、核心数据对比与落地路径

(一)不同报告数据差异对比表

核心主题报告1:华创证券《光刻机行业深度研究报告》报告2:亿欧智库《2025年泛半导体光刻胶供应链发展研究》报告3:浙商证券《2026年半导体设备行业策略报告》数据差异原因分析
全球半导体设备市场规模2025年1210亿美元无直接数据2025年1215亿美元5亿美元差异统计口径不同,是否包含二手设备及配件
光刻胶国产化率半导体光刻胶国产化率不足1%G/I线30%、KrF5%、ArF0.5%无直接数据细分品类差异报告1为整体口径,报告2按技术路线细分
先进封装市场规模2029年695亿美元无直接数据2029年600亿美元95亿美元差异预测时间周期及技术路线统计范围不同

(二)可落地的3件事

  1. 晶圆厂联合材料厂商建立国产光刻胶联合测试平台,优先导入KrF光刻胶进行量产验证,制定明确的验证标准与时间表,缩短替代周期;
  2. 封装企业聚焦Chiplet与CoWoS技术,与AI芯片设计公司共建联合实验室,同步优化封装方案与芯片设计,提升产品适配性;
  3. 设备厂商联合高校、科研院所攻坚EUV光源、双工件台等关键环节,建立核心零部件国产化供应链,降低对外依赖。

(三)风险提示与应对方案

风险类型具体风险应对方案社群支持
技术风险先进制程设备研发进度不及预期聚焦成熟制程替代,分阶段攻坚核心技术,优先满足中低端市场需求共享最新技术研发进展与专利布局,提供技术交流对接
供应链风险高端零部件进口受限建立多区域供应商体系,扶持国产零部件企业,签订长期供货协议提供国产零部件厂商名录与对接机会,组织供应链对接会
市场风险全球晶圆厂扩产放缓拓展汽车电子、工业控制等细分市场,开发定制化设备与材料分享细分市场需求数据与客户资源,提供市场趋势研判

四、核心数据表格汇总

(一)全球半导体核心市场规模预测(亿美元)

领域2025年预测2026年预测年增长率
全球半导体市场6971.84760711.2%
全球晶圆代工市场170020%
全球半导体设备市场1210139014.9%
全球先进封装市场11%(2023-2029CAGR)
全球测试设备市场16618612.0%

(二)中国半导体核心产品国产化率(%)

产品类型国产化率关键企业
光刻机不足1%上海微电子、华卓精科
PCB光刻胶35%容大感光、广信材料
半导体光刻胶(G/I线)30%晶瑞电材、彤程新材
半导体光刻胶(KrF)5%彤程新材、晶瑞电材
半导体设备13.6%北方华创、中微公司
先进封装未明确长电科技、通富微电

五、数据图表列表

  1. 2024年全球光刻机厂商出货量份额横向条形图表1
  2. 全球半导体设备销售额气泡图表2
  3. 2024年中国半导体测试设备细分市场占比华夫图表3
  4. 全球半导体测试设备销售额及同比增速双轴图表4
  5. 混合键合技术多维评估雷达图表5
  6. 2023年全球混合键合设备厂商市场份额半圆面积图表6
  7. PCB光刻胶国产化率瀑布图表7
  8. 半导体光刻胶国产化率阴影条形图表8
  9. 2024年全球锡产量分布气泡图表9
  10. 2019-2029年全球先进封装技术路线占比堆叠面积图表10

封面

本专题内的参考报告(PDF)目录

  • 半导体行业分析手册之二:混合键合设备:AI算力时代的芯片互连革命与BESI的领航之路.pdf
  • 2026-02-03 16:15
  • 半导体行业深度报告:Agentic AI时代的算力重构:CPU,从“旁观者”到“总指挥”的价值回归.pdf
  • 2026-02-03 16:15
  • 半导体行业先进封装与测试专题报告:先进封装量价齐升,测试设备景气上行.pdf
  • 2026-02-03 16:14
  • 半导体行业分析手册之二:混合键合设备,AI算力时代的芯片互连革命与BESI的领航之路.pdf
  • 2026-01-30 15:55
  • 锡专题:供应扰动频繁,AI+半导体催化需求增长.pdf
  • 2026-01-27 15:47
  • 半导体先进封装研究报告.pdf
  • 2026-01-26 13:49
  • 半导体测试设备行业深度研究报告:算力迭代与先进封装重塑价值,国产测试设备步入替代加速期.pdf
  • 2026-01-26 13:49
  • 2026年半导体设备行业策略报告:AI驱动新成长,自主可控大时代.pdf
  • 2026-01-26 13:48
  • 对点咨询&韬略咨询:2025半导体行业薪酬报告.pdf
  • 2026-01-23 15:42
  • 江苏省市场监督管理局:2025内外贸一体化认证服务指南-半导体产业.pdf
  • 2026-01-19 16:52
  • CSA Research:2025年半导体照明产业发展蓝皮书.pdf
  • 2026-01-16 15:08
  • 【人才】猎聘2025半导体产业人才供需洞察报告.pdf
  • 2026-01-13 17:24
  • 爱建电子深度报告:半导体产业的发展复盘与方向探索.pdf
  • 2025-12-30 14:40
  • 2025深圳市半导体与集成电路行业中小企业数字化转型实践样本.pdf
  • 2025-12-22 15:13
  • 2025 半导体业人才报告书.pdf
  • 2025-12-17 16:10
  • 2025年中国半导体设备特殊涂层零部件行业独立市场研究报告.pdf
  • 2025-12-09 16:14
  • 2025年泛半导体光刻胶供应链发展研究.pdf
  • 2025-12-05 16:47
  • 亿欧智库 _ 2025年泛半导体光刻胶供应链发展研究.pdf
  • 2025-12-04 16:55
  • 集微网:2025中国半导体激光设备白皮书.pdf
  • 2025-11-24 15:08
  • 云半导体:需求“全球”强劲至2026年.pdf
  • 2025-10-21 16:53
  • 光刻机行业深度研究报告:光刻机,半导体设备价值之冠,国产替代迎来奇点时刻.pdf
  • 2025-10-18 17:10
  • 2025年全球及中国半导体制造市场预测和产业分析报告.pdf
  • 2025-10-17 16:05
  • 深芯盟:2024年年国产半导体前道设备调研报告.pdf
  • 2025-10-17 16:03
  • 2025年深圳集成电路及国产半导体产业调研报告.pdf
  • 2025-10-17 16:02
  • 2025年国产半导体设备及深圳集成电路产业调研报告.pdf
  • 2025-10-17 16:02
  • 2024年深芯盟国产半导体前道设备+第三代半导体(SiC)设备调研分析报告.pdf
  • 2025-10-17 15:58
  • 光刻机行业深度研究报告:半导体设备价值之冠,国产替代迎来奇点时刻.pdf
  • 2025-10-17 15:51
  • MIR睿工业:2025年上半年中国半导体行业投融资情况分析报告.pdf
  • 2025-10-11 16:01
  • 半导体行业专题:空白掩模版:光刻工艺核心原料,国产化亟待突破.pdf
  • 2025-10-11 15:51
  • 半导体行业专题研究:AI存储革命已至,“以存代算”开启存储新纪元.pdf
  • 2025-09-30 16:36
  • 蓝凌研究院:2025年半导体企业AI数智化白皮书.pdf
  • 2025-09-24 16:28
  • 半导体设备行业深度:AI芯片快速发展,看好国产算力带动后道测试&先进封装设备需求.pdf
  • 2025-09-23 16:35
  • 2025第三代半导体行业研究报告.pdf
  • 2025-09-21 17:17
  • 美光(Micron):2025年半导体制造工艺介绍报告(英文版).pdf
  • 2025-09-19 16:44
  • 2025年第37期(总第712期):2025年美国半导体产业现状.pdf
  • 2025-09-12 16:39
  • 半导体行业分析手册系列之一:AI驱动下的晶圆代工新纪元,2025产业格局、技术突破与中国力量.pdf
  • 2025-08-29 16:23
  • 半导体存储行业深度研究报告:供需双振驱动价格持续上扬,企业级存储国产化加速推进.pdf
  • 2025-08-28 16:31
  • 半导体系列深度报告:走向更高端,国产掩膜版厂商2.0时代开启.pdf
  • 2025-08-22 16:25
  • 半导体行业深度报告:高端先进封装:AI时代关键基座,重视自主可控趋势下的投资机会.pdf
  • 2025-08-16 16:42
  • 埃森哲:2025年应对半导体行业的的人才短缺报告.pdf
  • 2025-08-10 18:39
  • 2025年弥合鸿沟:全球半导体行业人才短缺应对路径研究报告(英文版).pdf
  • 2025-08-06 16:16
  • 薪智:2025年Q3薪智半导体行业薪酬报告.pdf
  • 2025-07-27 17:23
  • 可控核聚变行业专题:核聚变“黑马”FRC,关注半导体开关产业趋势.pdf
  • 2025-07-25 15:42
  • 深圳来觅数据信息科技-半导体2025年二季度投融市场报告.pdf
  • 2025-07-19 19:37
  • 2025年全球半导体产业展望报告:AI赋能增长(英文版).pdf
  • 2025-07-10 16:41
  • 半导体行业专题研究:涨价持续性+AI强催化+国产化加速,重点推荐存储板块机遇.pdf
  • 2025-07-04 16:19
  • 半导体行业2025年中期策略报告:“AI+国产化”双轮驱动,并购整合浪潮已掀起.pdf
  • 2025-06-30 15:03
  • 半导体材料系列报告之一:国际形式严峻,国产半导体材料行业如何发展.pdf
  • 2025-06-27 16:31
  • 2025年第三代半导体SiC GaN产业链研究报告-深企投.pdf
  • 2025-06-21 17:19
  • 电子行业2025年中期投资策略:人工智能创新百花齐放,半导体自主可控加速推进.pdf
  • 2025-06-21 17:14
  • 2025第三代半导体产业链研究报告.pdf
  • 2025-06-20 15:06
  • 沙利文:2025年中国半导体及光伏用石英坩埚行业市场独立研究报告.pdf
  • 2025-06-19 16:13
  • 半导体产业人才报告-智联猎头.pdf
  • 2025-06-16 09:46
  • 与非网:2024年车规功率半导体产业分析报告.pdf
  • 2025-06-12 15:36
  • 2025全球半導體產業大調查-毕马威_Password_Removed.pdf
  • 2025-06-09 13:37
  • 2025深入了解博世的碳化硅(SiC)半导体技术白皮书.pdf
  • 2025-06-04 16:27
  • 2025深入了解博世的碳化硅(SiC)半导体技术白皮书(英文版).pdf
  • 2025-06-04 16:27
  • 金元证券:功率半导体黄金赛道:技术迭代×能源革命×国产替代的三重奏.pdf
  • 2025-05-30 17:01
  • 意法半导体:2025年电机驱动IC工业应用选型指南白皮书.pdf
  • 2025-05-25 16:51
  • 2025年半导体品牌30强(英文).pdf
  • 2025-05-22 15:51
  • 2025年半导体品牌30强.pdf
  • 2025-05-21 15:40
  • 半导体行业深度研究:光掩模:高壁垒材料,国产化率低,下游新应用打开成长新空间.pdf
  • 2025-05-20 17:03
  • 2024年美国半导体行业报告.pdf
  • 2025-04-30 17:22
  • 意法半导体:2025年电源管理指南白皮书.pdf
  • 2025-04-26 14:32
  • 2025年半导体行业白皮书-薪智.pdf
  • 2025-04-26 14:28
  • 电子行业:国产替代系列研究-一--半导体国产替代产业研究体系-上.pdf
  • 2025-04-23 15:58
  • 半导体设备、材料、零部件产业链蓄势乘风起-国盛证券.pdf
  • 2025-04-19 14:39
  • 电子行业半导体量检测设备:控制芯片生产良率的关键,具备极大国产替代空间和极强迫切性.pdf
  • 2025-04-15 16:10
  • 半导体行业深度报告:AI算力芯片——AI时代的引擎.pdf
  • 2025-04-09 16:17
  • 半导体行业深度报告(十二):AI大模型竞赛方兴未艾,OpenAI与DeepSeek引领行业生态重.pdf
  • 2025-03-31 09:38
  • 半导体行业深度报告-十二-:AI大模型竞赛方兴未艾,OpenAI与DeepSeek引领行业生态重构.pdf
  • 2025-03-29 16:11
  • 泛半导体材料研究系列之二:偏光片行业:解码偏光片国产替代加速与中大尺寸增量机遇.pdf
  • 2025-03-28 16:27
  • 半导体行业策略:云巅千帆竞渡,端侧万物生辉,自主驭潮生.pdf
  • 2025-03-24 14:29
  • 半导体行业策略:云巅千帆竞渡,端侧万物生辉,自主驭潮生.pdf
  • 2025-03-22 16:53
  • 半导体:AI算力芯片是“AI时代的引擎”,河南省着力布局.pdf
  • 2025-03-21 15:41
  • 半导体材料系列报告之三:半导体材料市场景气上行,各领域头部企业受益于国产化浪潮.pdf
  • 2025-03-20 14:48
  • 2025年Q1半导体行业薪酬报告.pdf
  • 2025-03-17 14:41
  • 2024 年中国芯片半导体行业投融资报告.pdf
  • 2025-03-17 14:37
  • 半导体材料系列报告之二:AI和晶圆厂扩建驱动半导体材料市场回暖,高端材料国产化进程加速.pdf
  • 2025-03-15 15:28
  • 2025年全球半导体产业展望(英文).pdf
  • 2025-03-07 16:25
  • 半导体键合设备行业深度:先进封装高密度互联推动键合技术发展,国产设备持续突破.pdf
  • 2025-03-07 16:17
  • 英飞凌:2025年GaN功率半导体预测报告.pdf
  • 2025-02-27 14:51
  • 电子设备-产业深度:积微累著,久久为功— —美国对华半导体制裁政策变迁分析与中国对策研究.pdf
  • 2025-02-21 14:45
  • 2025年中国半导体行业出口分析及各国进口政策影响白皮书.pdf
  • 2025-02-18 15:55
  • 国信证券-半导体专题:多相电源是增量蓝海市场,看好国产替代机遇.pdf
  • 2025-02-06 17:34
  • 半导体材料专题报告:先进制程驱动市场扩容,细分环节国产替代加速.pdf
  • 2025-01-22 15:59
  • 2024年中国半导体照明及应用领域出口统计及市场发展趋势分析白皮书.pdf
  • 2025-01-17 13:11
  • 半导体设备零部件行业深度研究报告:半导体设备之磐基,国产替代正当时.pdf
  • 2025-01-10 16:23
  • 2025年电子行业投资策略:AI+国产化双轮驱动,关注消费电子、半导体产业链投资机遇.pdf
  • 2025-01-03 16:06
  • EDA和IP行业专题:半导体产业基石,国产替代打破垄断格局.pdf
  • 2024-12-26 15:45
  • 半导体行业系列专题-七-:晶圆代工:特色工艺蓬勃发展,自主可控成果显著.pdf
  • 2024-12-21 17:17
  • 招银国际-半导体2025展望:AI热潮将延续.pdf
  • 2024-12-18 15:47
  • 半导体行业2025年年度策略报告:AI将是强引擎,国产化有望进深水区.pdf
  • 2024-12-17 15:30
  • 四氯化硅:高科技材料,推动半导体与光伏产业发展 头豹词条报告系列.pdf
  • 2024-12-15 14:15
  • 电子行业2025年度投资策略:人工智能创新持续推进,半导体自主可控方兴未艾.pdf
  • 2024-12-03 15:33
  • 海外半导体设备巨头巡礼系列:先晶-ASM-深耕薄膜沉积&外延设备,专业化布局的半导体设备龙头.pdf
  • 2024-12-03 15:32
  • 毕马威:2024年全球半导体行业展望报告.pdf
  • 2024-11-29 15:31
  • 企业竞争图谱:2024年半导体掩膜版 头豹词条报告系列.pdf
  • 2024-11-22 15:47
  • 可持续管理成就基业长青-半导体企业ESG管理案例.pdf
  • 2024-11-20 16:33
  • 半导体行业月度深度跟踪:自主可控需求长期趋势不变,关注产业链卡脖子环节和核心公司.pdf
  • 2024-11-19 16:03
  • 半导体行业2025年上半年投资策略:国产替代持续深化,AI带来硬件增量.pdf
  • 2024-11-15 15:22
  • 海外半导体设备巨头巡礼系列:应用材料-AMAT-内生外延打造“半导体设备超市”,整线设备&高品质服务构筑护城河.pdf
  • 2024-11-15 15:22
  • 全球半导体测试探针行业市场研究报告2024.pdf
  • 2024-11-12 16:34
  • 全球半导体测试探针行业市场研究报告2024-2028.pdf
  • 2024-11-11 15:27
  • 半导体供应链行业报告:行业复苏分化加深,静待需求回暖.pdf
  • 2024-11-09 16:50
  • 2023年第三代半导体产业发展报告.pdf
  • 2024-10-31 15:44
  • 半导体前道设备:前沿科技驱动未来制造,探索高效前道工艺解决方案 头豹词条报告系列.pdf
  • 2024-10-24 16:24
  • 2024上半年半导体行业招聘报告.pdf
  • 2024-10-23 15:32
  • 半导体行业研究周报:四季度安卓旗舰密集发布,半导体需求有望旺季很旺.pdf
  • 2024-10-18 16:57
  • 可持续芯动力:2024年半导体行业ESG转型之路研究报告.pdf
  • 2024-10-17 15:44
  • 东吴证券-海外半导体设备巨头巡礼系列:详解光刻巨人ASML成功之奥妙.pdf
  • 2024-10-17 15:40
  • 全球半导体制造类EDA行业白皮书(2024)-沙利文.pdf
  • 2024-10-12 15:09
  • 源达信息-雄安新区专题研究:重点布局半导体产业发展,助力国内高新技术产业向前.pdf
  • 2024-10-12 14:55
  • 锡行业深度报告系列(一):半导体景气复苏,锡供需格局持续向好.pdf
  • 2024-10-07 15:10
  • 头豹研究院-2024半导体检测设备:铸就芯片品质新高度 头豹词条报告系列.pdf
  • 2024-09-28 15:57
  • ...刻蚀设备市场空间持续拓宽——半导体设备系列报告之刻蚀设备.pdf
  • 2024-09-25 15:59
  • 深度解读半导体行业.pdf
  • 2024-09-23 15:17
  • 美国半导体协会:2024年美国半导体行业状况报告(英文版).pdf
  • 2024-09-20 16:09
  • 国信证券-半导体行业专题:先进封装超越摩尔定律,晶圆厂和封测厂齐发力.pdf
  • 2024-09-20 15:54
  • 英飞凌如何控制和保证基于SiC的功率半导体器件的可靠性.pdf
  • 2024-09-10 16:49

我妈妈说,她嫁过来不到三个月,就是分家的日子。所谓“分家”,是从奶奶手里接过的几只碗——粗瓷的,边沿带着小小的缺口。锅呢?没有。田地呢?都是最远的、最贫瘠的山坳角落。我爸爸只是沉默地接下。

我的出生,并未给这个家庭在奶奶那里赢得半分暖意。她没来看过一眼,更别说抱一抱。月子里,是父亲照顾母亲。他清早六点起身,生火做饭,在八点前赶到工地。妈妈总记得那个清晨,爸爸杀鸡时一刀切在手上,血怎么都止不住,他竟晕了过去。空荡荡的灶房,只有妈妈无助的哭声。许多年后我听到这里,眼泪仍会毫无预兆地滚下来。

偏心是一把钝刀,它不一下致命,却经年累月地磨着人的心。小姑的孩子寄养在奶奶身边,和我们一般大。孩子间的打闹本是常事,可一旦小姑的孩子哭了,奶奶的骂声便即刻响起。有一次,她竟指着我们吼:“我女儿只生了这一个儿子,打死了要偿命!”妈妈积压多年的火气轰然炸开,她一把将我和弟弟拽到跟前,声音发抖却字字清晰:“来!看看!你儿子生了 12 个儿子!打死了不用偿命,是不是?”空气凝固了。从那以后,那话她再没说过,但冰冷的空气,再没暖过。

那偏心的尺度,精确到一颗弹珠。弟弟和小叔的儿子玩弹珠,赢了全部。堂弟一哭,奶奶便骂了整整三天,污言秽语,说我们“偷抢”、“穷酸恶毒”。同一个屋檐下,她却能对寄养在大伯家(是大伯娘弟弟的儿子)、毫无血缘的孩子温言软语,说着“奶奶背你”、“奶奶喂你”——这些我们从未听过的字眼。

最伤人的,往往在最不经意间。八九岁时,一个肉丸被堂弟好心地分成两半,给了弟弟一份。奶奶发现后,刻薄的话冲口而出:“这么馋!有吃的分给外人!”那个“外人”,像一根冰锥,扎进了我们全家的耳朵。我爸爸当时就在屋里,他什么也没说,只是烟抽得更凶了。

我们就在这样的“区别”里长大了。十七八岁,我们不再叫她。婶婶劝父亲:“教教孩子,怎么不叫奶奶?”父亲只回了一句:“我的孩子,不用教。”原来,他自己也已十几年,没叫过那一声“妈”。

时间似乎能冲淡一切。我结婚前,我妈,说:“算了。”她主动走向奶奶,邀请她来参加婚礼。这是二十多年来,妈妈第一次对她开口。奶奶挪开目光,淡淡地推脱:“大孙女结婚,我都没去呢。”一旁的婶婶忍不住:“那时您病着,现在身子不是硬朗么?”最终,她也没来。母亲那扇好不容易才推开一条缝的门,又轻轻地关上了。

她九十多岁,摔断了盆骨。我去看她,那片刻的关心,竟让我生出一种背叛母亲、背叛那些年所有委屈的罪恶感。

如今,我也成了父母。偶尔和爸爸谈起过去,他只是沉默地听着,烟雾缭绕里,看不清表情。我懂得了他的沉默。 母亲态度坚决:“她走时,我不会去。”父亲则对我们说:“你们……还是得去。” 表面还是做一下。

我正在使用 linux 系统,用在一款老旧笔记本上。我在微信官网下载并安装了微信,登陆的时候却发现手机端提示需要我输入身份证并且进行人脸识别。我对此比较介意,请问怎样才能避开微信对我私密信息和生物信息的审核呢?

根据这个排行榜 https://artificialanalysis.ai/leaderboards/models
豆包排名非常低,国内最聪明的是 kimi 和 deepseek 。豆包只有 34 分,kimi 47 分,deepseek 42 分
不过说实话我也没用过 kimi
之前在手机上我用豆包,因为它可以语音输入,比较方便。现在 ds 也有语音输入了,我就不用豆包了。
为什么豆包这么火呢,豆包的聪明程度也不是很高啊。