在数字化浪潮中,软件定制开发已成为企业竞争力的核心引擎。然而,项目的失败率依然居高不下,常见场景是:客户对最终交付物不满意,开发方则抱怨需求反复无常。其根源往往不在于技术能力,而在于选择了不匹配的交付与协作模式

本文将深入剖析两种主流的交付模式,并论证为何周期性订阅制(升级迭代模式) 正逐渐取代传统的一次性买断模式(按图施工模式),成为对客户和开发方都更为明智的选择。


一、两种交付模式的本质剖析

1. 按图施工式(一次性买断模式)

  • 核心理念:交付一个确定的、完整的软件产品
  • 类比:如同建筑领域的「总包工程」。客户提供详细的设计图纸(需求文档),开发方作为「施工队」,负责在规定时间和预算内按图完工,验收交付后即完成主要合同义务。
  • 特点:需求需高度明确,合同范围固定,采用固定总价或分阶段里程碑付款。变更需要繁琐的流程和额外的费用。

2. 协作设计式(周期订阅制/迭代模式)

  • 核心理念:提供一项持续的软件进化服务
  • 类比:如同客户雇佣了一位长期的「建筑设计师兼工程顾问」。双方从概念草图开始,通过不断沟通、建造样板间(MVP)、调整优化,最终共同建造出理想的房屋,并在入住后持续提供改建和维保服务。
  • 特点:需求在过程中动态澄清和调整,采用敏捷开发、小步快跑,按时间材料或周期性(如月度/年度)订阅付费。

二、模式对比:一次性买断 vs. 周期订阅

维度一次性买断模式(按图施工)周期订阅制(协作设计)
需求适应性低。前期必须锁定需求,后期变更成本极高。高。拥抱变化,需求随市场与认知迭代。
客户风险极高。承担了「图纸是否正确」的全部产品风险。。风险被分摊到各个周期,每个迭代都在验证和降低风险。
开发方风险交付风险高。必须完全按约定规格交付,超支风险自担。前期启动风险存在,但通过MVP可控制。长期关系更稳定。
费用与现金流客户:一次性大笔支出。
开发方:现金流波动大,项目间隙有收入空窗。
客户:可预测的运营费用,启动门槛低。
开发方:持续稳定的现金流
合作关系交易型、契约型,易因范围变更产生对立。伙伴型、协作型,目标一致(让产品成功)。
心理账户客户视为「重大资本投资」,期待完美,容错率低。客户视为「持续运营成本」,关注价值增长,容错与协作空间大。
交付体验漫长的开发期后「开盲盒」,峰终体验取决于最终验收频繁的小版本交付与演示,持续获得正向反馈与成就感
对开发方的长期价值项目结束,价值终止。代码复用偶然。持续积累可复用组件与行业解决方案,形成技术资产与竞争壁垒。

三、为何劝说各方拥抱周期订阅制?

对客户的八大价值主张

  1. 降低决策门槛与风险:无需在项目启动时就押注全部预算,可以用最小的成本验证核心思路,让投资始终追逐可见的价值。
  2. 掌控感十足:您不是花钱买一个「黑盒」,而是雇佣一个团队。您全程参与,每2-4周就能看到进展并调整方向。
  3. 灵活应对变化:市场在变,您的需求也会变。订阅制让您的软件能够像业务一样敏捷进化,而非被半年前签订的合同所束缚。
  4. 财务更健康:将不确定的资本性支出(CAPEX)转化为清晰、可预测的运营费用(OPEX),便于财务规划和审批。
  5. 获得持续关怀:软件上线只是开始,持续的优化、适配和运维支持同样关键。订阅制天然包含了这份长期承诺。
  6. 期望值管理:多次、小额的支付降低了「巨额花费必须完美」的焦虑感,让协作氛围更积极、理性。
  7. 专注于业务,而非技术细节:您无需一次性想清所有功能细节,可以优先解决当前最痛的痛点,把专业问题交给专业团队。
  8. 建立长期技术伙伴:您获得的不是一个供应商,而是一个深度理解您业务、伴随您成长的技术伙伴。

对开发方的六大战略优势

  1. 构建可持续的商业模式:从「项目驱动」的饥饱不定,转向「服务驱动」的稳定现金流,业务更健康,估值更高。
  2. 沉淀核心资产,实现复利增长:每个项目积累的通用模块、行业解决方案,都是未来项目的「加速器」。开发成本边际递减,交付速度和质量却边际递增,形成强大竞争壁垒。
  3. 深化客户关系,提升生命周期价值:长期合作带来深度信任,您从成本部门转变为价值部门,客户流失率低,增购和转介绍机会多。
  4. 优化团队与项目管理:稳定的工作流和节奏,有利于团队技术成长和知识沉淀,减少因项目频繁启动/结束带来的管理损耗。
  5. 专注于创造价值,而非争论范围:摆脱了「按合同条款扯皮」的消耗战,将精力真正投入到为客户解决问题、创造价值上,从而获得更高的职业成就感和客户满意度。
  6. 吸引优质客户:这种模式会自动筛选出那些看重长期价值、理性决策、寻求伙伴的优质客户,远离那些一味比价、期望不切实际的客户。

四、如何成功开启订阅制合作?

  1. 从最小可行产品(MVP)开始:用4-8周时间,集中资源打造一个解决最核心痛点的、可运行演示的MVP。这是建立信任的第一块基石。
  2. 设计清晰的服务产品包:明确订阅费包含的内容(如:每月X人天的开发投入、运维支持范围、沟通机制等),让服务标准化、透明化。
  3. 拥抱极致透明:使用协作工具共享开发看板,坚持定期演示与复盘。让客户的钱花得明明白白,进度看得清清楚楚。
  4. 签订着眼于长期的合同:在合同中明确服务模式、知识产权归属(通用组件归属开发方)、续约与终止条款,为长期合作奠定法律基础。

给开发方的关键话术

“我们建议采用分阶段订阅合作,核心是 ‘为您降低风险,而非抬高预算’。我们先投入一小笔资金和几周时间,快速打造一个核心功能可用的‘样品’。您能立刻验证方向。若可行,我们就像您的内部技术团队一样,每月规划、每月投入、每月交付可见价值。您的资金始终在驱动确定的进展,而非消耗在漫长的、不确定的等待中。”


结语

从「按图施工」到「协作设计」,从「一次性买断」到「周期订阅」,这不仅仅是收费方式的变化,更是软件开发行业从手工作坊模式向现代专业服务模式的范式转移。

它要求开发方从代码工匠进化为价值顾问,也要求客户从被动验收者进化为积极参与的共创者。当双方基于信任与共同目标,以订阅制为纽带结成长期伙伴时,软件才能真正摆脱「项目」的桎梏,进化为持续驱动业务增长的活的生命体

选择订阅制,就是选择了一条更稳健、更灵活、更具长期价值的数字化征程。

在现代汽车制造中,冲压工艺作为车身成型的核心环节,其稳定性与精度直接影响整车质量与生产节拍。然而,传统冲压依赖工程师经验进行参数调整,面对材料批次差异、模具磨损、环境温湿度波动等复杂变量,往往陷入“试错—反馈—再试错”的低效循环。模具更换动辄数小时,首件合格率徘徊在80%左右,不仅造成产能浪费,更推高了单位制造成本。这一困境的本质,是多变量强耦合与动态不确定性超出了人类经验的掌控边界。要真正突破瓶颈,必须引入一种能实时感知、自主学习、动态响应的智能系统,而人工智能,正成为破解这一难题的关键钥匙。
AI对冲压工艺的赋能,不在于替代人,而在于扩展人的感知与决策能力。通过在压力机、模具、送料系统等关键节点部署高精度传感器,结合PLC与MES系统,AI平台能够采集每一道工序的温度、压力、位移、振动等数百项参数,并以毫秒级频率进行流式处理。这些数据不再是孤立的数字,而是被赋予了时间序列与工艺语义的“工艺语言”。基于LSTM、Transformer等深度学习模型,系统能从历史数据中挖掘出材料回弹、模具热变形与压力补偿之间的隐性关联,构建出超越传统物理模型的预测能力。更重要的是,AI能将资深工程师的“手感”转化为可复用的决策规则,比如当模具温度上升至某一阈值时,自动触发压力微调补偿,这种隐性知识的显性化,使工艺优化从经验驱动转向数据驱动。
在实践层面,广域铭岛的Geega工业AI平台已在多家头部车企落地。以某自主品牌新能源车企为例,其冲压线曾因模具热变形导致尺寸超差,返修率高达12%。部署AI系统后,平台通过实时监测模具温度场变化,结合历史回弹数据训练出动态补偿模型,自动调节液压机压力曲线,使曲轴冲压件尺寸精度稳定在±0.02mm以内,换模时间从4小时压缩至1.5小时,设备综合效率提升35%,年节约成本超1800万元。无独有偶,德国博世旗下汽车零部件工厂也引入了基于数字孪生的AI冲压优化系统,通过在虚拟环境中模拟不同材料与润滑条件下的成型过程,提前预测模具寿命与缺陷风险,实现预防性维护与参数预调,使模具更换周期减少40%,废品率下降32%。两家企业的共同点在于,都未追求“一步到位”的全面改造,而是从关键工位试点,逐步构建起数据闭环与持续优化机制。
AI驱动的冲压工艺优化,正在重新定义汽车制造的精度边界。它不是一次性的技术升级,而是一场从“人适应机器”到“机器理解工艺”的范式转变。未来,随着多模态感知与自主决策代理的发展,冲压线或将实现真正意义上的“无人干预、自适应运行”,为全球汽车产业迈向零缺陷、零浪费的智能制造新阶段提供坚实支撑。

昨晚写了一个 OpenClash (也兼容其他使用 Clash 内核的应用) 的流量可视化面板。

主要是为了解决原生面板在数据分析和历史趋势查看上的不足,直观感知家庭网络流量。

推荐家里用 OpenClash 或 Clash 内核的朋友体验下 👇

👁️ 旁路部署:非侵入式设计,不影响原 Clash 核心稳定性
📊 多维度统计:域名 / IP / 节点流量 / ASN / 地理位置实时监控
📈 30 分钟~24 小时趋势分析
🔄 多后端监控:支持同时管理多个 Clash 实例
💾 数据持久化
🐳 部署便捷:Docker 一键启动


代码已开源,欢迎 Star 和试用:
🔗 https://github.com/foru17/clash-master



后台系统(如ERP、OA、CRM,)作为企业内部系统,具有需求明确、变化频繁、逻辑复杂度适中的特点,而后台管理系统的开发效率和响应速度直接影响到运营效率,更甚者可能影响到业务竞争力。

传统开发模式面临成本高、周期长、维护难等挑战。

本文从背景分析、设计方案、核心模块及核心功能三个维度,系统阐述低代码平台如何从根本上提升运营后台开发效率,为企业数据化转型提供新路径。

image.png

一、背景分析

传统运营开发模式的核心痛点:

1、重复造轮子,创新成本高昂

运营后台70%功能是增删改查,简单的列表查询配置业务,占比30%,相同功能在不同项目中反复开发,不仅浪费资源,更导致技术债务累积。

2、响应速度滞后

简单的列表查询配置业务,从需求提出到最终上线,传统开发需求经历需求评审、技术设计、编码实现、测试验证、部署上线等多个环节,平均耗时3-5天。

二、设计方案

以贴合自身业务需求、落地开发提效为核心导向,前期充分调研业内主流低代码平台,深度分析各平台的功能优势,不盲从”全功能“标杆,而是以自身开发需求、业务场景、技术栈特性为标尺,构建低代码平台。

平衡功能与易用性,拒绝过度开发,针对平台基础能力与通用组件,采用“基础配置+业务轻封装”的设计思路。基础项保留灵活的原生配置能力;同时结合运营后台业务的通用场景,对高频使用的功能、组件进行简单封装,既保留配置灵活性,又能适配业务实际。平台整体架构设计如下:
image.png

应用层模块介绍

业务中心模块:接收页面管理模块同步的已发布页面,展示用户有权限的业务页面。

权限模块管理:管理系统权限、页面权限、用户。

数据源管理模块:

数据源管理:对接数据库、API接口,支持数据源的新增、编辑、停用等;

元数据配置:可视化配置数据库字段信息,定义字段类型(文本/数值/日期)、显示别名等。

页面管理模块

页面创建:提供空白画布、预制组件,支持拖拽式组件布局(文本、表格、筛选器等)。

组件配置:配置基础属性、数据源、事件交互等。

预览并保存:生成预览结果;保存即发布。

四大模块共同构建了平台的基础能力矩阵,但从业务落地的优先级来看,页面管理模块是驱动整个平台运转的核心引擎 —— 运营人员的所有配置操作都围绕它展开,其他模块也都是为它提供数据、权限、业务关联的支撑。

基于此,我们将从整体框架下沉到核心模块及核心功能。

三、核心模块及核心功能

01、核心模块——页面管理模块
image.png

页面管理模块分三大核心:引擎、物料服务、数据源。

三个核心的职责

引擎(蓝色模块):是页面构建的 “操作中枢”,负责页面的可视化编辑与最终输出。它提供了页面拖拽布局、页面编排、组件树管理、组件属性配置等功能(运营人员通过这些操作完成页面的样式与逻辑配置),最终通过 “渲染、出码” 能力,将配置好的内容转化为可访问的页面。

物料服务(绿色模块):是页面的 “组件资源库”,负责组件的生产、管理与规范。它提供标准化的组件(如按钮、表格、图表),并通过 “物料规范” 保证组件的统一性;同时支持组件的版本管理,确保不同页面使用的组件版本一致。

数据源(黄色模块):是页面的 “数据支撑”,负责提供页面所需的业务数据。它对接企业的数据库、API 等数据来源,为页面中的组件(如数据表格、报表)提供数据绑定的基础。

三个核心的协同流程

物料服务与引擎联动:物料服务将标准化组件(按物料规范)同步到引擎的 “组件树” 中,供引擎的页面编辑功能调用。

数据源与引擎联动:数据源提供数据元信息,供引擎在 “属性配置” 环节将组件与具体业务数据绑定。

引擎整合输出:引擎通过 “拖拽布局、页面编排” 整合物料组件与数据源,最终通过 “渲染、出码” 生成可访问的页面(图下方的最终产物)。

核心功能

页面管理模块,通过具体能力支撑业务快速开发落地,核心功能主要包含:可视化页面开发、自定义组件、发布、出码。

可视化页面开发:可视化页面开发是低代码的核心优势。开发者通过拖拽组件绘制页面布局和配置组件与数据源绑定,整合物料组件与数据源,无需编写大量前端代码,快速实现项目落地。下面以实例介绍可视化页面开发过程。

实例:开发项目阶段信息维护页面

页面需求:展示页面名称“项目阶段信息维护,展示数据表格,包含id、项目阶段名称、操作三列,表格按照 id 正序排列,列表项支持编辑和删除两种操作,支持弹窗新增数据,并且需要校验阶段名称必填。

页面开发流程:
image.png

重点介绍拖拽组件绘制页面布局和配置组件与数据源绑定。

页面绘制区块介绍:
image.png
图源:织信低代码

在组件库中,选择合适的组件,拖拽到编辑器画布中;

对画布中的组件,进行组件配置,例如组件基础属性、数据源、交互事件、样式等。

针对实例需求:

标题:使用Title组件

新增按钮和列表:使用高级表格组件

配置组件与数据源绑定

列表:配置数据列,配置列标题、数据类型、数据字段、对齐方式等。

新增按钮:配置操作栏,配置名称、按钮样式、是否禁用、是否隐藏、点击事件等;其中点击事件绑定用户在左侧源码面板中创建的组件事件。

新增弹窗:配置弹窗标题、弹窗按钮、弹窗中表单、表单项校验是否必填项等。

最终页面结果:在上面的实例中,我们使用的是平台标准化组件,拖拽组件搭建页面布局,配置组件属性实现交互逻辑,将开发时间从天压缩到小时,显著提升开发效率。

功能二

自定义组件

组件库是整个平台的核心基石与价值载体,它直接决定了平台的开发效率、功能上限、交付质量和用户体验,是低代码模式能够实现 “少写代码、快速交付” 的核心支撑。

自定义组件让平台能够满足个性化的业务需求,突破标准化组件的功能局限。下面以实例介绍自定义组件开发过程。

实例:自定义组件table,实现表格展示支持多场景

背景介绍:标准化表格组件,不满足运营对列表展示要求,存在展示局限性:

仅支持基础文本展示,无法满足运营后台多样化内容展示需求,例如图片、超链接、音频、视频等

原始数据可读性差,例如:操作时间展示时间戳,状态展示0、1等

解决思路:

归纳运营后台常见列展示需求,覆盖多类型内容形式,

增加表格列属性配置,不同类型搭配不同配置项,

支持拓展,实现跨列数据源展示等。

开发实现:遵守物料协议和引擎规则标准化开发,确保组件能无缝融入平台的页面编辑与渲染体系;

类型汇总:

基础类:文字,直接展示列绑定数据,无需其他配置项

时间类:时间,将时间戳转换为YYYY-MM-DD HH:mm:ss 格式,无需其他配置项

媒体类:

图片,配置图片路径、替代文本

音频,配置音频资源

视频,配置视频资源

链接类:超链接,配置跳转地址、链接文案

拓展类:HTML自定义片段,配置渲染函数,满足个性化需求

部署发布:

组件物料独立打包发布

修改平台依赖包配置

平台重新构建发布

平台共实现自定义组件10+个,包括表格组件、统计图组件、菜单组件、布局组件等,满足运营后台个性化业务需求,丰富组件库生态,实现根据业务需求持续新增、优化组件,保障平台能力与企业业务发展同频,降低技术架构的迭代成本。

功能三

发布

平台采用保存即发布模式,页面配置完成后,直接同步至平台数据库,无需编写代码、单独测试与复杂的环境部署,可通过平台生成的专属链接直接访问使用,部分轻量需求甚至能实现小时级配置、即时上线,大幅简化开发流程,省去传统模式中编码、部署等核心耗时环节,将简单需求的交付周期从天级压缩至小时级,大幅提升业务需求的响应与落地效率。

功能四

image.png

出码

平台深度基于 Vue Render 渲染机制构建,支持通过可视化拖拽、属性配置完成页面 / 组件的可视化绘制后,一键导出基于 Vue2.js 框架 + ElementUI 组件库的标准 Vue 单文件组件(.vue)源代码。导出的代码完全遵循 Vue2 语法规范与 ElementUI 组件调用逻辑,保留完整的组件结构(template/script/style)、属性配置、事件绑定及逻辑关联,无黑盒封装,可直接在 Vue2 项目中复用、二次开发或部署运行,实现 “可视化搭建” 与 “原生代码” 的无缝衔接。

出码优势:摆脱平台绑定,掌握开发自主权

获取完整的源代码,能基于导出的文件进行独立部署、运维和迭代,让系统开发不再依赖低代码平台本身。

兼顾高效开发与深度定制,平衡效率与灵活:前期依托低代码可视化拖拽快速完成项目主体搭建,大幅缩短开发周期;针对高复杂度、高个性化的业务需求,可导出源文件通过纯代码进行深度定制优化,既用低代码省时间,又用原生代码满足极致化需求,实现“高效搭建 + 深度定制”的双重效果。

二次开发的灵活性:跨项目、跨技术栈开发时,源文件能被复用、拆解,提升整体开发资源利用率。

跨项目、跨技术栈开发时,源文件能被复用、拆解,提升整体开发资源利用率。

结论

总而言之,织信低代码平台以可视化配置、快速部署、低门槛上手的核心优势,契合当下对数字化开发 “快、准、省” 的需求。它不仅是一款开发工具,更是企业数字化转型的专属解决方案,用技术简化开发,用效率赋能业务,这正是低代码平台的核心价值所在。

大模型的商业模式逐步清晰,随着千问奶茶、元宝红包这次大规模的营销活动开始,各大互联网巨头开始争夺市场份额了。

新领域,老套路。

我想最伤心的可能是百度了,文心还有机会吗?


从目前来看,各家公司在大模型的商业化路径选择上,开始出现明显差异了:

一、谷歌、微软、苹果等巨头,依托流量和入口优势,比较重视通用领域的的应用。

1 、未来,在通用领域,由于在搜索引擎时代的数据和技术积累,谷歌仍然可能保持类似互联网搜索时代的巨大优势。

2 、微软、苹果在操作系统和办公软件方面优势,由于人机交互逻辑发生改变,在 AI 时代可能面临一定的冲击。在这个领域可能会存在一些创新机会,资本市场的情况可能也是反映了这样一种担忧。

二、OpenAI 、Anthropic 这些公司,可能会更加专注于编程等高附加值领域。
大量的 AI 创新企业,将主要在各垂直领域发力,力图建立自己的护城河。

1 、OpenAI 在和谷歌的竞争中,渐渐开始处于下风,未来将面临一定的经营风险。

2 、Anthropic 目前在编程领域有一定优势,未来有可能会被微软收购。

大家认为,除了通用领域和编程开发等垂直领域的应用外,大模型还有哪些前景看好的商业化模式?


点量团队在与用户交流的过程中发现,有不少用户对摩尔线程显卡的实际图形负载能力存在疑问。为解答这一疑问,点量团队将Linux系统下摩尔线程S80显卡,和Windows系统下的RTX 3060显卡做了个对比,测试了WebGL和UE两个场景,以实际数据评估其性能表现。

  • 测评环境1:Windows系统、RTX3060、点量云流实时云渲染windows版
  • 测评环境2:Linux系统、摩尔线程S80、点量云流实时云渲染Linux版
  • 测评3D应用:WebGL和UE两种引擎

测试之前,在云推流过程中统一了分辨率为1920x1080,帧率为60FPS,并且同时设置开三路。得到以下测试结论:

一、WebGL引擎测试

以ThreeJS官方的某个示例做测试,结果如下:
1、Windows下3060:显卡利用率,平均在21%。


2、Linux下摩尔线程S80:显卡利用率在20%左右,和3060相差不大。

由此可见,摩尔线程S80在WebGL模式下几乎等同于3060显卡。

二、UE引擎测试

以某个游戏UE场景做云推流测试,结果如下。若以Unity场景做测试,测试结果类似,这里不再展开。
1、Windows下3060:可以跑244.55fps,显卡利用率75%。


2、Linux下摩尔线程S80:只能跑20多FPS,显卡利用率97%。


我们判断,由于UE默认使用的Vulkan RHI, 猜测是摩尔线程驱动针对Vulkan优化不足的缘故。随后,我们继续测试了S80在Windows下的效果,用相同的UE程序(默认Windows下是使用DirectX),只能到30多帧,因此可能也不只是对Vulkan优化的问题。对比3060的话,UE是可以跑到240多帧,这方面的差异还是比较明显。

另外,测试还发现,S80在Windows下的WebGL效果也不如Linux下的表现,Windows下开三个WebGL就掉帧了,GPU利用率100%。

以上效果说明,S80在Linux下的WebGL效果还是不错的,能跟3060达到类似性能效果。但在UE程序、Windows系统等一些效果上还是差距比较明显。

特别说明:本次所有测试均为在特定测试环境(包括但不限于特定机型、驱动版本、系统设置)中完成的结果。不同软硬件配置、测试方法或环境变量均可能导致数据差异,本文内容仅作为客观事实记录与经验分享,不作为官方性能指标或决策依据,请读者结合多方信息进行综合判断。

通过本次测试,明确了摩尔线程在云渲染负载中的性能表现,并验证了摩尔线程在相关场景下的实际承载能力。点量云流系统的兼容适配能力并不局限于单一系统或硬件,且已在多系统、多配置场景中实现全面支持,真正做到了“一次适配,处处运行”,为不同技术架构下的用户提供统一、可靠的高性能云流服务。

模板方法模式

在很多业务代码中,我们都会遇到这种场景:

  • 整体流程是固定的
  • 但流程中的某些步骤因业务类型不同而不同
  • 又不希望子类随意修改流程顺序

如果你把这些逻辑全部写进一个类里,往往会出现:

  • 类越来越大
  • if / switch 越来越多
  • 改一处逻辑容易影响其他场景

这正是 模板方法模式 要解决的问题。


一、问题从哪里来?

一开始,我有一个用于“保存代码文件”的工具类,大概长这样:

  • 校验参数
  • 创建唯一目录
  • 把代码写成文件
  • 返回目录路径

当前代码存在不同的报错逻辑:

  • HTML 单文件是一套保存逻辑
  • HTML + CSS + JS 又是一套保存逻辑
  • 所有逻辑都堆在一个类里,越来越臃肿

导致:
这个类在不断变大,而且每加一种类型就要改原有代码。


二、什么是不变的?

整理之后会发现:

不变的部分:

  1. 保存流程是固定的
  2. 都要校验参数
  3. 都要创建目录
  4. 最后都返回一个目录

变化的部分:

  • 写哪些文件
  • 每个文件的内容来自哪里

这正好符合一句模版方法的逻辑:

流程固定,具体实现内容待定。

三、模板方法模式的核心想法

模板方法模式其实很简单:

把“流程”放在父类,把“变化”交给子类。

父类只做一件事:
规定顺序,不让子类乱来。


四、一个简化后的模板类

public abstract class CodeFileSaverTemplate<T> {

    public final File saveCode(T result) {
        validate(result);
        String dir = createDir();
        saveFiles(result, dir);
        return new File(dir);
    }

    protected void validate(T result) {}

    protected abstract void saveFiles(T result, String dir);

    protected String createDir() {
        
        return dir;
    }
}

这里有三个关键信号:

  • saveCode()final:流程不能被改【固定的模版流程】
  • protected:只给子类用
  • abstract:子类必须实现

五、子类只关心自己具体实现

HTML 保存

public class HtmlSaver extends CodeFileSaverTemplate<HtmlCodeResult> {

    @Override
    protected void saveFiles(HtmlCodeResult result, String dir) {
        write(dir, "index.html", result.getHtmlCode());
    }
}

多文件保存

public class MultiFileSaver extends CodeFileSaverTemplate<MultiFileCodeResult> {

    @Override
    protected void saveFiles(MultiFileCodeResult result, String dir) {
        write(dir, "index.html", result.getHtmlCode());
        write(dir, "style.css", result.getCssCode());
        write(dir, "script.js", result.getJsCode());
    }
}

子类不需要关心:

  • 目录怎么建
  • 校验顺序
  • 返回值

只管一件事:
我要写哪些文件。


六、为什么不用 if / switch?

当然可以写成这样:

if (type == HTML) { ... }
else if (type == MULTI) { ... }

但问题是:

  • 每加一种类型就要改这个类
  • 老逻辑和新逻辑混在一起
  • 长期一定失控

模板方法的好处是:

新增一种类型 = 新增一个类,不动旧代码。

七、什么时候该用模板方法?

适合用在:

  • 流程天然有顺序
  • 顺序不允许被破坏
  • 变化点明确、可控

不适合用在:

  • 流程差异非常大
  • 需要频繁运行时切换逻辑
  • 不想使用继承的场景

在金融科技(FinTech)开发中,Real-time Data Fetching 是最基础也是最核心的模块。最近在重构我的交易系统,特地把数据接入层剥离出来做一个技术分享。

背景与问题 传统的Web开发中,我们习惯用REST API处理请求。但在金融交易场景下,HTTP协议存在明显的短板:

  1. Header开销大:高频请求下,流量浪费严重。
  2. 被动获取:无法做到服务器端的主动推送(Server Push)。
  3. 并发限制:容易触流控(Rate Limit)。

对于美股这种Tick级别的数据量,WebSocket是唯一的正解。

技术实现路径 我的需求很简单:订阅AAPL、TSLA等热门标的的实时Tick,并存入Redis做清洗。在对比了多家数据提供商后,为了兼容性和稳定性,我选择了AllTick作为上游数据源,配合Python的websocket-client库进行开发。

代码架构 整个模块采用异步回调的方式处理数据,确保主线程不阻塞。以下是最小可行性产品(MVP)的代码实现:

import websocket
import json

# WebSocket连接地址(替换为实际API接口)
url = "wss://api.alltick.co/realtime/stock"

# 请求体,订阅的股票代码和API密钥
message = {
    "api_key": "your_api_key_here",  # 你的API密钥
    "symbol": "AAPL"  # 订阅Apple的实时行情
}

def on_message(ws, message):
    data = json.loads(message)
    print(f"实时获取的数据:{data}")

def on_error(ws, error):
    print(f"发生错误:{error}")

def on_close(ws, close_status_code, close_msg):
    print("WebSocket连接已关闭")

def on_open(ws):
    ws.send(json.dumps(message))

# 创建WebSocket应用并启动
ws = websocket.WebSocketApp(url,
                            on_message=on_message,
                            on_error=on_error,
                            on_close=on_close)
ws.on_open = on_open

# 保持连接并接收数据
ws.run_forever()

技术细节注意事项 在实际部署中,还需要考虑断线重连(Reconnection)和心跳检测(Heartbeat)。上述代码展示了最基础的订阅逻辑。通过on_message回调,我们可以直接解析JSON数据包。

经测试,这种方式比传统的while True: requests.get()循环,延迟降低了至少两个数量级。对于开发者来说,掌握WebSocket在金融数据处理中的应用,是一项必备技能。

如题,希望能够抛砖引玉

1. 仔细审查 cloud-init 内容

cloud-init 负责网络/ssh 密钥设置......,但有些服务商可能会在 user-data 里设置 runcmd ,安装监控服务。推荐关闭 cloud-init ,静态配置 IP

2. 尽可能关闭 qemu-guest-agent

vps 开启 qemu-guest-agent 可以方便关机/获取基本操作系统信息。但是可能很多人没有注意到,服务商是可以执行任何命令的。

socat unix-connect:/tmp/qga.sock readline
{"execute":"guest-get-osinfo"}
{"return": {"name": "Debian GNU/Linux", "kernel-release": "6.12.63+deb13-arm64", "version": "13 (trixie)", "pretty-name": "Debian GNU/Linux 13 (trixie)", "version-id": "13", "kernel-version": "#1 SMP Debian 6.12.63-1 (2025-12-30)", "machine": "aarch64", "id": "debian"}}


{"execute": "guest-info"}
{"return": {"version": "10.0.7", "supported_commands": [{"enabled": true, "name": "guest-network-get-route", "success-response": true}, {"enabled": true, "name": "guest-get-load", "success-response": true}, {"enabled": true, "name": "guest-get-cpustats", "success-response": true}, {"enabled": true, "name": "guest-get-diskstats", "success-response": true}, {"enabled": true, "name": "guest-ssh-remove-authorized-keys", "success-response": true}, {"enabled": true, "name": "guest-ssh-add-authorized-keys", "success-response": true}, {"enabled": true, "name": "guest-ssh-get-authorized-keys", "success-response": true}, {"enabled": true, "name": "guest-get-osinfo", "success-response": true}, {"enabled": true, "name": "guest-get-timezone", "success-response": true}, {"enabled": true, "name": "guest-get-users", "success-response": true}, {"enabled": true, "name": "guest-get-host-name", "success-response": true}, {"enabled": true, "name": "guest-exec", "success-response": true}, {"enabled": true, "name": "guest-exec-status", "success-response": true}, {"enabled": true, "name": "guest-get-memory-block-info", "success-response": true}, {"enabled": true, "name": "guest-set-memory-blocks", "success-response": true}, {"enabled": true, "name": "guest-get-memory-blocks", "success-response": true}, {"enabled": true, "name": "guest-set-user-password", "success-response": true}, {"enabled": true, "name": "guest-get-fsinfo", "success-response": true}, {"enabled": true, "name": "guest-get-disks", "success-response": true}, {"enabled": true, "name": "guest-set-vcpus", "success-response": true}, {"enabled": true, "name": "guest-get-vcpus", "success-response": true}, {"enabled": true, "name": "guest-network-get-interfaces", "success-response": true}, {"enabled": true, "name": "guest-suspend-hybrid", "success-response": false}, {"enabled": true, "name": "guest-suspend-ram", "success-response": false}, {"enabled": true, "name": "guest-suspend-disk", "success-response": false}, {"enabled": true, "name": "guest-fstrim", "success-response": true}, {"enabled": true, "name": "guest-fsfreeze-thaw", "success-response": true}, {"enabled": true, "name": "guest-fsfreeze-freeze-list", "success-response": true}, {"enabled": true, "name": "guest-fsfreeze-freeze", "success-response": true}, {"enabled": true, "name": "guest-fsfreeze-status", "success-response": true}, {"enabled": true, "name": "guest-file-flush", "success-response": true}, {"enabled": true, "name": "guest-file-seek", "success-response": true}, {"enabled": true, "name": "guest-file-write", "success-response": true}, {"enabled": true, "name": "guest-file-read", "success-response": true}, {"enabled": true, "name": "guest-file-close", "success-response": true}, {"enabled": true, "name": "guest-file-open", "success-response": true}, {"enabled": true, "name": "guest-shutdown", "success-response": false}, {"enabled": true, "name": "guest-info", "success-response": true}, {"enabled": true, "name": "guest-set-time", "success-response": true}, {"enabled": true, "name": "guest-get-time", "success-response": true}, {"enabled": true, "name": "guest-ping", "success-response": true}, {"enabled": true, "name": "guest-sync", "success-response": true}, {"enabled": true, "name": "guest-sync-delimited", "success-response": true}]}}


{
"execute":"guest-exec",
"arguments":{
"path":"/bin/sh",
"arg":["-c","echo hacked > /root/pwned"],
"capture-output":false
}
}
{"return": {"pid": 912}}



3. 全盘加密

VPS 服务商可以复制和挂载用户的磁盘,所以磁盘加密是必要的。但全盘加密会降低磁盘性能,折中的方案是分一个专门放密钥的区,仅加密此分区。



听说 VPS 服务商还可以打快照,读取内存?这个应该防不胜防

摘要:
OceanBase 针对现代数据架构核心挑战重构物化视图能力,融合分布式架构与多模引擎,提供非实时和实时两类视图、灵活刷新机制及多维度查询加速技术,底层基于 LSM-Tree 引擎和 MLOG 日志实现。该能力在电商大促、SaaS ERP 等场景落地,实现查询加速、链路简化与负载隔离,也存在存储、维护等使用限制,后续将从运维、链路、场景类型三方面持续迭代优化。

本文作者 | 朱涛,OceanBase 高级技术专家,负责 OceanBase 查询优化器的研发工作

在实时数仓、HTAP(混合事务/分析处理)与库内计算(In-database Computing)成为主流的今天,数据架构的核心矛盾已悄然转变:企业不再仅仅追求“更快的查询”,而是面临着如何降低算力成本、简化数据链路、并保障核心系统稳定性的艰巨挑战。

传统的、依赖于复杂 ETL 管道的 T+1 数仓架构,日益无法满足企业的实时决策需求。正是在这一背景下,物化视图(Materialized View)这项经典技术,正被重新审视并赋予全新的战略价值。

物化视图的本质,是将高频、复杂的查询结果预先计算并物理存储在数据库内部。这看似简单的“空间换时间”,在现代架构中解决的远不止单个查询的性能问题。它通过将计算左移至数据源头,极大地简化了外部数据处理链路,减少了数据冗余和不一致的风险。更重要的是,它将消耗巨大的分析负载从核心交易流程中剥离,从而保障了在线业务的稳定性。因此,设计精良的物化视图能力,已不再是分析型数据库的“附加功能”,而是衡量一个现代数据库能否高效支撑 HTAP 和实时分析场景的核心指标。

基于此,OceanBase 对物化视图进行了深度重构,使其不仅仅是一个性能加速器,更是一个与分布式架构、多模引擎(行存、列存)深度融合的数据处理中枢,其实时物化视图能力能够在保证数据新鲜度的同时,提供高性能的查询服务。

本文将对 OceanBase 物化视图的核心能力、技术原理及应用场景进行全面介绍。

OceanBase 物化视图的核心能力

OceanBase 的物化视图并非单一的功能,而是一套包含多种类型、灵活刷新策略和多样化查询加速机制的完整解决方案。其核心能力可归纳为以下几个方面:

01多样化的物化视图类型

为了适应不同业务场景对数据新鲜度的需求,OceanBase 提供了两种主要的物化视图类型 :

非实时物化视图:此类型视图中的数据并非总是与基表保持实时同步。它根据预设的计划(如定时)或手动触发进行刷新,在刷新间隔期内,查询将访问物化视图中已物理存储的数据。这种方式适用于对数据新鲜度要求不高,但对查询性能和资源消耗更为敏感的场景,如 T+1 的报表生成。

实时物化视图:该类型视图能够提供实时或准实时的数据查询结果。它通过内部的物化视图日志(MLOG)机制,捕获基表的增量数据变更。在查询时,系统会在线计算物化视图的存量数据和日志中的增量数据,从而返回最新的结果集。这使得用户即便在物化视图尚未完成物理刷新时,也能查询到最新的数据状态,特别适合实时监控、实时大屏等对数据时效性要求高的场景。

02灵活的刷新机制

数据的刷新是维持物化视图生命力的关键。OceanBase 提供了全面且灵活的刷新策略与方式,以平衡数据时效性、系统资源开销和管理复杂度。

03全方位的查询加速技术

创建物化视图的最终目的是加速查询。OceanBase 为此提供了一系列配套功能,最大化其性能优势:

查询改写 (Query Rewrite):这是物化视图最核心的价值之一。当启用查询改写功能后,优化器能够自动将用户针对基表的查询请求,智能地重定向到已经预计算好的物化视图上,整个过程对应用透明,极大地降低了业务改造的复杂度。

与列存深度融合:自 4.3.3 版本起,OceanBase 支持创建基于列存格式的物化视图。当物化视图的查询逻辑涉及复杂的分析和聚合操作时,将其存储为列存格式可以获得比传统行存更优的查询性能,尤其是在“大宽表”分析场景下。

索引、主键与分区支持:物化视图在 OceanBase 中被视为一种特殊的表对象,因此可以像普通表一样,在其上创建索引、定义主键和设计分区策略。这些手段可以进一步优化对物化视图自身的查询性能,例如通过索引加速特定字段的过滤,或通过分区裁剪减少扫描的数据量。

OceanBase 物化视图的实现深度依赖其分布式架构和核心组件 :

LSM-Tree 存储引擎:作为 OceanBase 的基石,LSM-Tree 引擎的特性使得列存表可以支持事务和流式写入,为实时数仓和物化视图的实现提供了基础。

物化视图日志 (MLOG):这是实现增量刷新和实时物化视图的核心。当基表发生 DML 操作时,变更的增量信息会被同步记录到 MLOG 中。刷新时,系统只需读取 MLOG 即可获取变更数据,避免了对整个基表的扫描。

OceanBase 物化视图的典型场景及案例

典型场景

01实时数据分析

对于需要实时洞察业务动态的场景,如实时监控大屏、实时推荐、实时风控等,OceanBase 的实时物化视图能够提供强有力的支持。通过结合 Flink CDC 等实时数据同步工具,可以构建端到端的实时数仓,而实时物化视图则作为查询加速层,确保在数据持续流入的同时,分析查询依然能够获得极低的延迟。

02复杂查询性能优化

在许多 OLTP(在线事务处理)和 HTAP(混合事务/分析处理)系统中,存在一些消耗大量资源的“慢查询”,这些查询往往涉及多张大表的连接和复杂的聚合计算。通过为这些特定查询创建物化视图,可以将其计算成本从每次查询时发生,转移到后台的刷新任务中,从而有效降低在线业务高峰期的系统负载,保障核心业务的稳定性。

相关案例

电商大促价格计算:多表 Join 加工宽表,支撑近实时分析

业务问题:多源商品关系数据需要预加工为分析宽表

在电商大促期间,运营人员需要将商品基础信息、商品销售属性、促销活动商品等多维数据整合为统一宽表,用于运营分析与决策查询。上游数据同步进入 OceanBase 后,如果每次分析查询时再做多表 join,会带来较高计算开销和不稳定延迟。

因此,优化目标是在库内完成多表数据加工,沉淀可复用的加工明细宽表,供下游 AP 查询分析,如运营分析、数据服务等,直接消费。

典型模型为四表 join,即:活动商品池表 + 商品基础信息表 + 商品销售属性表 + 商家店铺表,通过 inner join 生成加工结果宽表。

技术挑战:Join 成本高 + 变更模式不均匀

该场景的难点不只是表规模,而是变更分布极不均匀,对实时 join 和全量重算都不友好。

测试数据特征如下:
竞品基础信息表:全量约 40 万(预期可到 180 万);高峰单次增量 10–15 万(新品/状态变更);
商品销售属性表:全量约 44 万,高峰单次增量 2–3 千;
活动商品池表:日常全量仅约 1 千,但存在单次 400–500 万级集中变更;
加工结果宽表(物化视图):约 50–100 万级。

这种模式下:
查询时 join → 成本高且波动大;
批量变更触发全量重算 → 代价不可控;
下游分析查询与加工计算争抢资源。

方案:使用 OceanBase 物化视图做增量 Join 加工

解决方案是在 OceanBase 内定义物化视图(MV),将多表 join 的加工逻辑固化为数据库内持续维护的结果集。

实现方式:
基于四张源表定义 join 型 MV,生成加工宽表;
下游查询直接访问 MV,不再执行多表 join;
采用增量刷新模式:REFRESH FAST ON DEMAND;
基于基表变更日志,仅对受影响数据做增量重算。

这样将“查询时 join”转换为“写入后增量维护”。

效果:增量刷新可控,宽表近实时可用

基于测试环境数据:
增量刷新周期:每 5 分钟一次;
非高峰期刷新耗时:1 分钟以内;
全量刷新耗时:约 20 分钟(用于追位或重建)。

MV 宽表规模稳定在 50–100 万行,在大批量集中变更场景下,增量刷新仍可维持可控窗口,避免频繁全量重算。

该方案的核心收益集中在三个方面:
将多表 join 的高成本计算前移为库内增量维护;
适配“大批量突发变更 + 多表关联”的数据模式;
为大促价格计算分析提供稳定的近实时宽表数据层。

对分析侧来说,查询路径从“多表实时 join”简化为“单宽表查询”,执行代价与延迟稳定性明显改善。

SaaS ERP 报表与分析 — 基于物化视图(MV)的数仓 ETL 简化与性能提升

业务问题:ERP 报表与分析需求

在企业资源计划(ERP)系统中,报表与分析对数据口径的稳定性和准确性要求较高。传统的 ETL(提取、转换、加载)流程可能涉及到多个系统或步骤,导致数据的加工过程冗长,效率低下。

在此场景下,需要解决以下问题:
TP 实时入库与基于 MV 的近实时 ETL 加工在同一个 OceanBase 集群中并行运行;
物理隔离:确保这两者的负载不相互干扰,并保证加工结果的稳定性与可持续性;
稳定加工链路:报表与分析查询必须直接消费加工后的数据,避免重复计算和保证查询响应稳定。

技术挑战与方案:物化视图(MV)简化 ETL 分层

为了解决上述挑战,采用了 OceanBase 的物化视图(MV)功能,将数仓 ETL 的不同层次(明细层、主题加工层、报表层)直接固化为物化视图,并通过级联刷新机制保证数据一致性。

上述方案中:

ETL 分层处理:通过 MV 完成从明细层到主题加工层,再到报表层的数据流动。每一层的加工都在数据库内完成,最终结果直接存储在物化视图中。

物理隔离:将 TP 数据写入与 MV 数据容器表的 leader 放置到不同节点上,实现计算和存储的物理隔离。ETL 加工操作仅在 MV 所在节点进行,而数据的增量更新(MLOG)从 TP 节点读取,从而有效减少了负载冲突和资源争抢。

嵌套 MV 和级联刷新:通过自底向上的刷新机制,确保每个层次的数据都能保持一致性,特别适合需要稳定数据口径的分层加工模式。

方案优势:简化架构、加速报表分析

该方案的实施带来了明显的架构和性能优势:

架构简化:通过在 OceanBase 内部使用 MV 承接 ETL 分层加工,避免了外部计算和数据拼接链路的复杂性,减少了中间处理环节,降低了故障点和运维成本。

报表分析加速:高频查询的报表数据从“每次实时重算”变为“读取已经预计算好的 MV 数据”,使得报表查询变得更加高效和稳定,响应时间大幅缩短。

可控的实时性:通过物化视图的增量刷新,报表查询的实时性变得更加可控,避免了因复杂计算而导致的查询延迟。

性能与效果:稳定的 ETL 和报表查询性能

实施该方案后,OceanBase 系统的 ETL 加工和报表查询性能得到了显著提升,特别是在高频报表查询场景下,具体效果如下:

报表查询响应加速:查询不再依赖实时计算,而是直接读取加工后的 MV 数据,显著提高了查询的稳定性和响应速度。

ETL 加工稳定性:由于采用了物化视图的嵌套与级联刷新,ETL 加工链路中的每个环节都能保持一致性,减少了数据刷新过程中可能出现的错误或不一致。

高频操作的负载隔离:物理隔离机制使得 TP 入库负载与 MV 刷新负载互不干扰,保证了系统的整体性能稳定。

这套方案带来了多方面的技术价值:

提高 ETL 加工效率:通过物化视图将 ETL 流程内的多层次数据预计算并存储,减少了外部计算链路的依赖,提升了数据处理效率。

提升报表查询稳定性:报表查询通过直接访问 MV 中的加工数据,而不再依赖实时计算,减少了系统负担,提高了报表分析的稳定性和效率。

架构简化与运维降低:简化了 ETL 流程和查询路径,减少了复杂度,同时降低了运维成本,避免了多点故障的风险。

总的来说,OceanBase 的物化视图功能通过提供高效的数据加工和稳定的报表查询,帮助用友 ERP 系统实现了数据处理的优化,提升了业务分析的效率与可持续性。

物化视图的使用限制

值得注意的是,尽管物化视图功能强大,但在使用时也需要权衡其带来的成本与限制:

存储开销:物化视图是数据的物理副本,会额外占用存储空间。

维护成本:刷新物化视图会消耗 CPU 和 I/O 资源,需要合理规划刷新策略,避免对在线业务造成影响。

数据一致性:对于非实时物化视图,其数据与基表之间存在一定的延迟,应用需要能够容忍这种数据“过时”。

使用限制:物化视图本身不支持直接的 DML 操作,且基表的 DDL 操作可能会影响物化视图的有效性。

物化视图能力演进计划

为了让用户使用更顺手、更安心,OceanBase 会持续迭代物化视图能力,接下来的版本主要聚焦在以下核心能力:

01运维透明化(可观测性)

拒绝“黑盒”运行。上线刷新任务 Explain 及全链路可视化监控,提供任务级吞吐、延迟指标及明确的异常诊断报告,确保问题看得清、排得准。

02复杂链路支撑(Nested MV)

针对多层级数仓场景,持续优化嵌套物化视图的级联刷新能力,支持构建更深度的 ETL 加工链路。

03场景与类型扩展

广泛兼容:逐步支持外表(External Table)的物化能力。
丰富类型:原生支持 JSON、LOB、Geometry 等复杂数据类型的增量计算。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

前段时间去看国家地理照片展览的时候路过一个商城看到的(我没有擦除 EXIF 信息,理论上可以看到是哪个商城)
image
image

在现代汽车制造中,涂装工艺不仅是外观品质的最后防线,更是影响整车耐久性、环保合规性与成本控制的关键环节。传统涂装依赖人工经验调节喷涂参数,面对环境温湿度波动、涂料批次差异、设备老化等多重干扰,往往导致色差、橘皮、流挂等缺陷频发,返修率居高不下。随着消费者对车身质感要求的提升与环保法规日益严苛,单纯依靠经验判断的工艺模式已难以为继。真正的突破,必须建立在对生产全过程的深度感知与智能决策之上——即从“事后补救”转向“事前预测”,从“静态设定”迈向“动态优化”。
这一转型的核心,在于构建一个融合物联网感知、AI建模与闭环控制的智能系统。涂装工艺涉及数十个变量:喷涂压力、枪距、扇幅、环境温湿度、涂料粘度、车身材质、甚至车间气流分布,每一个参数的微小变化都可能引发连锁反应。传统方法难以捕捉这些非线性关系,而人工智能则能通过海量历史数据训练模型,识别出隐含的工艺规律。更重要的是,系统不再只是“报告异常”,而是能主动推荐最优参数组合,甚至在缺陷发生前就进行干预。这种从“人盯机器”到“机器自适应”的转变,标志着涂装工艺进入了一个全新的智能时代。
在这一领域,广域铭岛的Geega工业互联网平台提供了极具代表性的中国方案。其在领克汽车成都工厂部署的GQCM涂装质量管理APP,通过实时采集50余个测色点的色差、膜厚与橘皮数据,结合数字孪生技术构建虚拟喷涂模型,实现了对每辆车漆膜形成过程的全生命周期监控。系统不仅能提前48小时预测色差风险,准确率高达97.5%,还能自动调整喷枪参数,使色差值ΔE稳定控制在1.2以内,涂料利用率提升12%,年节约成本超百万元。与此同时,国外领先企业如德国博世(Bosch)也在其智能涂装系统中引入自适应控制算法,通过激光扫描与机器视觉实时反馈车身曲面变化,动态调整喷涂轨迹,使复杂曲面的漆膜均匀性提升30%。而美国通用汽车则与IBM合作,将AI预测模型与设备振动数据结合,实现喷枪堵塞的预测性维护,将非计划停机时间减少近七成。这些实践共同证明,无论地域与技术路径如何不同,智能化涂装的底层逻辑高度一致:数据是燃料,算法是引擎,闭环是灵魂。
当涂装不再依赖老师傅的“手感”,而是由系统自主决策、持续优化,汽车制造便真正迈向“零缺陷、零浪费、零停机”的新阶段。未来,随着5G边缘计算与多模态大模型的融合,涂装系统或将实现完全自主运行——无需人工干预,仅凭环境与材料的微小变化,就能自动完成参数调优。这不仅是技术的进步,更是制造哲学的重塑。

过去两年,AI 在中国经历了从概念热潮到密集试点的阶段。无论是大模型、智能体(Agentic AI),还是自动化应用,越来越多企业已完成初步探索。进入 2026 年,AI 正迈入一个新的发展阶段——从试点应用走向业务规模化。

 

企业关注的核心问题也随之发生变化,不再只是“能否用 AI”,而是 AI 是否能够在可控、可持续的前提下,稳定运行并转化为可衡量的业务成果。基于对中国企业 AI 实践的持续观察,Cloudera 对 2026 年 AI 与数据技术的发展趋势做出如下判断:

预测一:AI 走向产业化,业务价值与可复制能力成为核心衡量标准

 

到 2026 年,中国企业的 AI 应用将明显超越聊天机器人和单点工具,转向流程优化、运营自动化和行业级智能应用。

 

在制造、金融、电信等领域,企业将更倾向于复用已验证的 AI 能力,并通过智能体工作流将 AI 深度嵌入核心业务流程,而不再局限于单一模型或实验项目。ROI、业务效率提升和可持续运营能力,将取代模型参数与算力规模,成为衡量 AI 成功与否的关键指标。

 

同时,随着 AI 被视为重要的“新型生产力”,企业和行业客户将更加重视 AI 系统的稳定性、连续性与可运营性。能够在复杂环境中长期运行、不断优化并适应业务变化的 AI 平台,将在竞争中脱颖而出。

 

Cloudera 大中华区技术总监刘隶放在一次公开分享中表示,AI 技术的第一阶段是能力展示与智能回答等“噱头应用”,例如模型回答数学题能力等功能。然而,进入产业化落地后,企业对 AI 的关注点更多转向如何结合已有业务系统、优化流程并创造可衡量的商业价值。这与当前行业趋势高度一致。

Cloudera 大中华区技术总监刘隶放

行业数据显示,企业从单点 AI 尝鲜逐步转向系统化、流程化应用,特别是在流程优化、与数据平台整合等关键领域的能力要求急剧上升。此外,随着智能体(AI agents)出现,企业内部正在探索如何将模型能力系统性融入现有的业务逻辑中。

预测二:可信、可治理的私有 AI 将成为企业的关键差异化能力

 

在中国市场,数据安全与合规可控始终是 AI 应用的前提条件。2026 年这一趋势将进一步强化。

虽然公有云与预训练模型极大降低了 AI 试验门槛,但在实际生产环境中,企业逐渐意识到:如果数据治理、访问控制和合规机制不到位,AI 带来的效率提升,可能同时放大数据风险。

 

因此,越来越多中国企业将转向私有 AI(Private AI) 路径:

 

  • 在受治理的环境中部署和运行模型;

  • 数据不出域,权限可控、流程可追溯;

  • 通过检索增强生成(RAG)等方式,为模型提供业务上下文,同时保持数据可控;

 

刘隶放进一步指出,数据合规永远优先于 AI 功能本身。在涉及企业核心数据的训练过程中,如果使用公有云平台进行训练,不仅有可能触及竞争性泄露风险,还可能违反监管要求。因此,只要涉及企业敏感数据,私有化部署基本成为不可替代的方向。

 

可信 AI 不再是“最佳实践”,而将成为企业实现 AI 规模化落地的基本门槛。治理能力与敏捷性不再是对立选项,而是 AI 成熟度的两个必要组成部分。

预测三:本地化私有部署成为中国企业 AI 规模化落地的基础架构

在中国市场,2026 年企业对 AI 与数据架构的判断将进一步趋于清晰:本地化私有部署是 AI 规模化落地的基础前提。

 

刘隶放强调,相较于公有云部署,私有化 AI 环境更能满足企业对可控性、数据安全和长期运营的核心诉求。在安全与合规成为企业 AI 战略基础的背景下,“可控”被视为 AI 落地的前提条件。

 

行业调研报告显示,企业在 AI 部署中越来越倾向于选择私有化或混合云架构,以保障数据主权和业务独立性。IDC 发布的《2025 年中国企业 AI 大模型应用趋势报告》指出,约 72%中大型企业在实施 AI 智能体时,将私有化部署置于优先考虑因素之一。

 

根据 Rackspace 发布的趋势分析,面向企业的私有云 AI 部署正在成为主流,其中检索增强生成(RAG)等敏感工作负载正从公有环境向私有部署迁移,以提升性能稳定性和数据控制能力。

相关行业观点也总结出几个核心趋势:

 

  • 私有化部署可提升响应速度并避免核心数据泄露风险

  • 企业希望避免将敏感数据发送至外部 AI 平台,以控制数据流出风险

  • 企业 CIO 和 CTO 在架构设计过程中,将合规与数据控制置于 AI 战略核心

 

在金融、制造、能源、电信等关键行业,核心业务系统与数据资产长期运行在本地或私有环境中。这一架构形态,既源于对数据安全与合规可控的要求,也来自企业对系统稳定性、连续性与长期运营能力的现实考量。

 

随着 AI 从试点走向生产级应用,企业开始更加关注一个根本问题:AI 是否能够在本地私有环境中持续运行、不断优化,并稳定支撑核心业务。一次性部署或短期验证已无法满足需求,取而代之的是对平台级能力的要求,包括统一的数据管理、可治理的模型运行,以及对业务变化的长期适配能力。

 

到 2026 年,能够在本地私有架构下支撑 AI 持续演进的数据与 AI 平台,将成为中国企业实现 AI 规模化、可复制落地的重要基础。这一能力,也将成为衡量企业 AI 成熟度的关键标志。

Cloudera 成立于 2008 年,总部位于美国硅谷,是最早一批围绕 Hadoop 生态 成立的企业级大数据公司之一。公司创始团队中包括多位 Hadoop 核心贡献者,因此 Cloudera 在早期被广泛视为“企业级 Hadoop 的事实标准”。

2019 年,Cloudera 与另一家老牌大数据公司 Hortonworks 合并,形成当时全球最大的大数据平台厂商之一。合并后,Cloudera 的技术版图从单一的大数据存储与计算,扩展到 数据管理、数据治理、数据分析、机器学习与 AI 工程化 等完整链条。

2026:AI 从“概念热潮”走向“硬核成果”的一年

2026 年,中国 AI 的竞争焦点将不再是“谁的模型更大”,而是在可控、可信、可复制的基础上,真正把 AI 变成业务成果。

 

最终胜出的企业,将是那些能够负责任地规模化 AI、用数据治理支撑智能决策、用韧性架构保障长期运营的企业。因为真正可信的 AI,始于可信的数据;而可信的数据,离不开稳健、可持续的数据基础架构。

 

刘隶放称,在 AI 实践中,企业真正关心的并非单一模型表现,而是整体平台建设后的长期运营能力。例如,在金融、制造等行业,已有大量的信息系统和数据资产,AI 必须与这些系统无缝整合,才能真正提升业务效率。

 

此外,在人才流动频繁的市场环境下,构建松耦合体系架构被认为是确保 AI 平台可持续运营的关键。这种设计允许平台适应技术更新和人员变动,避免因关键人员离职而造成系统停滞。

 

公司援引自身服务的典型案例(如上汽大众的供产销数据平台与 AI 集成实践),强调企业在部署 AI 时,最终评估的核心是投入产出与长期收益。

 

从「会对话的大模型」到「能自主完成复杂任务的智能体(AI Agent)」,人工智能研究正在进入一个以规划、执行与协同为核心的新阶段。随着大语言模型逐步具备工具调用、长期记忆与环境交互能力,研究焦点不再局限于单一模型的性能提升,而是转向如何通过多智能体架构与任务级分工,让 AI 在真实世界中持续产生可验证、可复用的成果。

在这一背景下,Agent 技术正快速渗透至科研生产、软件开发、数据分析与虚拟环境交互等多个方向:从自动生成高质量学术插图、在无显式奖励下完成强化学习优化,到在三维开放世界中执行长时任务,乃至将模糊研究想法系统化为完整科学叙事。学术界与工业界围绕「如何让模型真正成为执行者而非仅是生成器」展开密集探索。

本周,我们为大家推荐的 5 篇 Agent 的热门 AI 论文,涵盖北京大学、谷歌云 AI 研究院、AgentAlpha、亚马逊等团队。集中展示了当前 Agent 研究在框架设计、跨模态协同、自我反馈学习以及端到端任务闭环方面的代表性进展,为理解下一代通用智能体的演进路径提供了清晰切面。一起来学习吧 ⬇️

此外,为了让更多用户了解学术界在人工智能领域的最新动态,HyperAI 超神经官网(hyper.ai)现已上线「最新论文」板块,每天都会更新 AI 前沿研究论文。

最新 AI 论文https://go.hyper.ai/hzChC

本周论文推荐

1. PaperBanana: Automating Academic Illustration for AI Scientists

北京大学与谷歌云 AI 研究院的研究人员提出了PaperBanana,这是一种代理式框架,通过协调专门的视觉语言模型(VLM)驱动代理,自动完成出版级学术插图的检索、规划、风格化与迭代优化,在方法图和统计图的保真度、简洁性、可读性和美观性方面显著优于基线方法。

论文及详细解读 https://go.hyper.ai/skQUQ


效果展示

作者使用 PaperBanana(基于 NeurIPS 2025 方法图构建的基准)评估自动化图表生成。该基准涵盖现代 AI 论文中多样且美学复杂的图表。


数据集

2. Reinforcement Learning via Self-Distillation

本文提出自蒸馏策略优化(Self-Distillation Policy Optimization, SDPO)。SDPO 无需外部教师模型或显式的奖励模型,即可将分词后的反馈转化为密集的学习信号。SDPO 将当前模型在给定反馈条件下的输出视为自教师,将其基于反馈生成的下一词预测结果回传并蒸馏到策略中。通过这种方式,SDPO 充分利用了模型在上下文中回溯识别自身错误的能力。在 LiveCodeBench v6 上的科学推理、工具使用和竞赛编程任务中,SDPO 在样本效率和最终准确率方面均显著优于现有的强基准 RLVR 方法。

论文及详细解读 https://go.hyper.ai/oBMuM


RLVR and RLRF 实验对比示例

3. Lumine: An Open Recipe for Building Generalist Agents in 3D Open Worlds

本文提出 Lumine,这是首个开源的通用智能体开发方案,能够实现在复杂三维开放世界环境中实时执行长达数小时的复杂任务。Lumine 采用类人类交互范式,通过视觉-语言模型,以端到端的方式统一感知、推理与行动。它以每秒 5 帧的频率处理原始像素输入,生成每秒 30 帧的精确键盘鼠标操作,并仅在必要时动态调用推理模块。

论文及详细解读: https://go.hyper.ai/aUakj


效果展示

实验结果表明,Lumine 在不同世界设定与交互机制下均具备高效适应能力,标志着迈向开放环境中通用智能体的重要一步。

Lumine 性能对比实验结果示例

4. Idea2Story: An Automated Pipeline for Transforming Research Concepts into Complete Scientific Narratives

AgentAlpha 团队提出了 Idea2Story,这是一种预计算框架,通过从同行评审论文中构建方法论知识图谱,将模糊的研究想法转化为结构化、可复用的模式,从而减少大语言模型的上下文限制与幻觉,同时在无需运行时重新处理文献的前提下实现高效、新颖的科学发现。

论文及详细解读 https://go.hyper.ai/KyWe0


Idea2Story 框架示例

该数据集用于训练 Idea2Story,系统利用论文-评审对学习研究贡献的表述与评估方式,支持可复用方法论模式的检索与组合,而非领域特定内容。


数据集

5. Insight Agents: An LLM-Based Multi-Agent System for Data Insights

亚马逊研究人员提出了 Insight Agents(IA),这是一种基于大语言模型的多智能体系统,采用「规划-执行」架构,配备分层智能体与 OOD 感知路由机制,使美国亚马逊卖家能够在 15 秒内获得准确的业务洞察,人工评估准确率达 90%。

论文及详细解读 https://go.hyper.ai/LbaHD


Insight Agents(IA)架构示例

作者使用一个精选数据集用于训练和评估 OOD 检测与智能体路由模型,该数据集总计 301 个问题:178 个域内问题,123 个域外问题;另设包含 100 个热门问题的基准测试集,附带真实答案,用于端到端评估。


数据集

以上就是本周论文推荐的全部内容,更多 AI 前沿研究论文,详见 hyper.ai 官网「最新论文」板块。

同时也欢迎研究团队向我们投稿高质量成果及论文,有意向者可添加神经星星微信(微信号:Hyperai01)。

下周再见!

最近,工位从 2 楼搬到了 3 楼,发现 3 楼只有马桶,没有蹲坑

现在遇到的麻烦就是上大号的时候,不知道牛子放在哪里合适?

放在马桶内部,稍微蹲久点,牛子很容易就嗯了,由于我割过包皮,🐢头直接暴露在外面,很容易就直接接触到马桶

放在外部,一个是要用手扶着比较麻烦,除非一直保持嗯的状态,二一个是,上大号的过程中,有时候也会挤几滴尿出来,就容易尿到外面,还可能尿到裤子上

有什么比较舒服的蹲马桶姿势吗?我之前一直只用的惯蹲坑

基因组基础模型(GFMs)是解码生命密码的核心工具,它们通过分析 DNA 序列解锁细胞功能、 organism 发育等关键生物信息。然而,现有基于 Transformer 的 GFMs 存在致命短板:依赖大规模预训练和密集计算间接推断多核苷酸基序,不仅效率低下,还在基序主导的功能元件检测任务中表现受限。

近日,由华大生命科学研究院与浙江之江实验室组成的 Genos 团队提出的 Gengram(Genomic Engram)模型,为这一难题提供了革命性解决方案。这一设计既避免了硬编码生物规则,又让模型获得了明确的基因组 「语法」 认知。

作为一款专为基因组基序建模设计的轻量级条件记忆模块,Gengram 的核心创新在于基于 k-mer 的 hash memory 机制,构建了可高效查询的多碱基基序记忆库。与传统模型间接推断基序不同,它直接存储 1-6 个碱基长度的 k-mer 及其嵌入向量,通过局部窗口聚合机制捕捉功能基序的局部上下文依赖,再经门控控制模块(gate-controlled module)将基序信息与主干网络融合。研究团队表示,当集成于 当前SOTA 的基因组模型 Genos 时,同等训练条件下,Gengram 在多项功能基因组学任务中实现显著性能提升,最高达 22.6%。


论文地址:https://arxiv.org/abs/2601.22203\
代码地址:https://github.com/BGI-HangzhouAI/Gengram\
模型权重:https://huggingface.co/BGI-HangzhouAI/Gengram

训练数据覆盖人类与非人灵长类基因组

训练数据集包含 145 个高质量的单倍型解析组装序列,涵盖人类与非人灵长类基因组。人类序列主要来源于人类泛基因组参考联盟(HPRC,第 2 版),并辅以 GRCh38 与 CHM13 参考基因组。非人灵长类序列则整合自 NCBI RefSeq 数据库,以纳入演化多样性。所有序列均使用 one hot 编码处理。词汇表包含四种标准碱基(A、T、C、G)、模糊核苷酸 N 以及文档结束标记 。

最终,系统构建了 3 套数据以支撑消融实验及正式预训练

50B tokens @ 8,192(消融)

200B tokens @ 8k(10B 正式预训)

100B tokens @ 32k(10B 正式预训)

并且保持 human : non-human = 1:1 的数据混合比例。

基因组建模从「注意力推导」走向「记忆增强」

受 DeepSeek Engram 记忆机制启发,Genos 团队快速开发并部署 Gengram,为基因组基础模型提供显式 motif 存取与复用能力,突破主流 GFMs 缺乏结构化 motif memory、只能通过扩大训练数据「隐式记忆」的限制,推动基因组建模从「注意力推导」走向「记忆增强」。该模块架构如下图所示:


Gengram 架构图

建表:对 k=1~6 的所有 k-mer 建立 hash memory(静态 key + 可学习 embedding value)

检索:把窗口内出现的所有 k-mer 映射到表项

聚合:先在每个 k 上聚合,再跨 k 拼接

门控:gate 控制激活,把 motif 证据写入 residual stream,然后再进入 attention。

一个关键设计:Local Window Aggregation(W=21bp)

Gengram 并非在每个位置仅检索单一 n-gram,而是采用固定窗口内的多 k-mer embedding 聚合,以更稳定地注入「局部、结构一致」的 motif 证据。研究人员通过窗口大小策略搜索进行验证,发现 21 bp 在验证集上达到最优性能。一个可能的生物学解释是:典型的 DNA 双螺旋周期约为每旋转一圈 10.5 个碱基对,因此 21 个碱基对正好旋转两圈;这意味着,相隔 21bp 的两个碱基,在三维空间中恰好位于螺旋的同一侧,面对相似的生化环境,在该尺度上进行窗口聚合,或更有利于对齐局部序列信号的相位一致性。

评测提升突出:小参数,大改变

团队采用多标准基准数据集对模型进行了全面评估,涵盖 Genomic Benchmarks (GB)、Nucleotide Transformer Benchmarks (NTB)、Long-Range Benchmarks (LRB)及Genos Benchmarks (GeB)。从中选取了 18 个具有代表性的数据集,涉及 5 个主要任务类别:序列结构理解 (Genomic Structure Understanding)、基因调控预测 (Gene Regulation Prediction)、表观遗传图谱 (Epigenetic Profiling)、变异效应与临床影响 (Variant Effect & Clinical Impact) 以及进化分析 (Evolutionary Analysis)。

Gengram 作为一个仅约 2,000 万参数的轻量化插件,相对于百亿级规模的基座模型而言参数占比极小,但其带来的性能提升显著。在 8k 与 32k 两种上下文长度设定下,同等训练条件,集成 Gengram 的模型在绝大多数任务中均优于未集成的版本。具体表现上,剪接位点预测任务的 AUC Score 从 0.776 提升至 0.901,增幅达 16.1%;表观遗传预测任务(H3K36me3)的 AUC Score 从 0.656 提升至 0.804,增幅为 22.6%。


8k 和 32k context 下,加入 Gengram 前后的评测结果,加入 Gengram 后提升显著

此外,该性能提升还伴随着显著的「数据杠杆」效应。在与 Evo2、NTv3、GENERATOR-3B 等主流 DNA 基础模型的横向对比中,集成 Gengram 的模型仅需极小规模的训练数据和较少的激活参数量,便可在核心任务上媲美训练数据规模领先其数倍至数十倍的公开模型,体现出较高的数据训练效率。


Gengram 模型也主流 DNA 大语言基础模型的评测比较

深度剖析 Gengram

为什么 Gengram 能加速训练?

团队引入 KL 散度作为训练过程的表征诊断指标,并采用 LogitLens-KL 对不同层的「可预测性(prediction-readiness)」进行量化跟踪。结果显示,引入 Gengram 后,模型在浅层即可更早形成稳定的预测分布:相较基线模型,其层间 KL 更快下降并提前进入低值区间,表明有效监督信号更早被组织为可用表征,从而使梯度更新更直接、优化路径更平滑,最终体现为更快的收敛速度与更高的训练效率。


这一现象并非「凭空发生」,而是由 Gengram 的结构性设计直接驱动:

显式的 motif 记忆检索,缩短「证据到表征」的路径。 在基因组任务中,监督信号往往由短而稀疏的 motif(如剪接共识序列、启动子相关片段、低复杂度 tract 等)触发。基线 Transformer 需要通过多层 attention/MLP 逐步「推导并固化」这些局部证据;而 Gengram 通过对 k-mer 的显式存取,把这类高信息密度的局部模式以记忆形式直接提供给网络,使模型不必等待深层逐渐形成 motif detectors,从一开始就更接近可预测状态。

窗口聚合 + 动态门控,使注入的证据「稳定且可控」。 Gengram 不是逐位置硬注入,而是在固定窗口内聚合多个 k-mer embedding,并通过门控选择性写入 residual stream:在功能区域更倾向激活检索,在大段背景区抑制检索。这种「稀疏、对齐功能元件」的写入方式,一方面减少噪声干扰,另一方面让网络更早获得高信噪比的训练信号,降低了优化难度。

Motif 记忆从何而来?详解 Gengram 的写入机制

研究团队在下游评测中首先观察到一个明确且跨任务一致的现象:在相同训练设定下,引入 Gengram 后,模型在典型的 motif 主导任务上取得显著提升,尤其是在依赖短程序列模式的场景中表现突出,例如剪切位点识别与表观遗传相关的组蛋白修饰位点预测。以代表性任务为例,剪接位点预测 AUC 从 0.776 提升至 0.901,H3K36me3 预测 AUC 从 0.656 提升至 0.804,增益稳定且幅度可观。

为了进一步回答「这些提升从何而来」,团队没有止步于指标层面,而是从模型前向传播中提取 Gengram 的残差写入项(residual write),并将其在序列维度上的强度分布可视化为热图进行分析。结果显示,写入信号呈现出高度稀疏且强对比的结构:绝大多数位置接近基线,只有少数位置形成尖锐峰值;更重要的是,这些峰值并非随机出现,而是显著富集并对齐于功能相关区域与边界,包括启动子邻近的 TATA-box 片段、低复杂度 poly-T 片段,以及基因/外显子等功能区域边界附近的关键位置。这意味着 Gengram 的写入更像是在「抓住决定功能的局部证据」,而非无差别地在全序列范围内注入信息。

综合上述现象与证据链,研究人员可以将 Gengram 的 motif 记忆机制概括为「按需检索—选择性写入—结构化对齐」:模块通过门控控制检索与写入强度,在功能信息密度更高的区域更积极地注入可复用的 motif 证据,在背景区域则抑制写入以降低噪声干扰。由此,模型对 motif 的掌握不再主要依赖更大规模数据带来的「隐式记忆」,而是转向一种显式存取、可解释地写入表征的结构化能力。

结语

近年来,基因组建模领域正经历从「序列统计学习」向「结构感知建模」的关键转向。

以 Gengram 为代表的条件化基序记忆机制,揭示了一条不同于传统密集计算的技术路径:通过将多碱基功能基序显式建模为可检索的结构化记忆,模型得以在保持通用架构兼容性的同时,实现更高效、更稳定的功能信息利用。这一思路不仅在多项功能基因组任务中展现出显著性能优势,也为稀疏计算、长序列建模以及模型可解释性提供了统一的工程解法。

此外,从产业视角看,Gengram 所体现的「结构化先验 + 模块化增强」范式,显著降低了基因组大模型在算力、数据与训练周期上的边际成本,为其在药物研发、变异筛选、基因调控分析等高价值场景中的规模化部署提供了现实可行性。更长远地看,这类可复用、可插拔式的架构组件,或将成为下一代基因组基础模型的标准配置,推动行业从「更大的模型」走向「更聪明的模型」,并加速学术研究成果向产业平台与临床应用的持续转化。