2026年3月

随着大模型应用进入生产环境,AI 推理基础设施复杂度快速上升。

模型规模扩大、迭代加速、多模态增加,以及企业私有化需求,使统一算力管理、模型服务治理与工程运维成为关键。

早期,团队多通过推理框架直接提供 API,但随着模型与业务规模增长,问题逐渐显现:

  • 部署方式碎片化
  • 推理引擎生态不统一
  • 模型调用缺乏治理
  • 异构算力难以统一管理

AI 推理服务正从单模型部署工具演进为 AI 基础设施平台

在此背景下,GPUStack v2.1 重点增强模型生态、异构算力、推理统一、模型治理、推理引擎生态与运维能力,并优化离线部署体验。

本文将从 AI 基础设施视角,介绍 GPUStack v2.1 的主要技术变化。

AI 推理基础设施的复杂性正在快速上升

在企业实践中,大模型服务通常呈现以下特点:

  • 同时运行多种模型类型(LLM / VLM / Embedding / Reranker / Image / ASR / TTS / OCR 等)
  • 不同团队使用不同推理框架
  • GPU、NPU 及国产 AI 加速芯片共存
  • 公有模型 API 与私有模型混合调用

这些变化带来三个核心挑战:

算力统一:异构芯片需统一调度,屏蔽底层差异。

模型治理:提供稳定接口,且支持治理而非绑定具体模型。

工程运维:部署、升级、测试与监控需标准化。

GPUStack 旨在解决这些问题,构建统一高性能 AI 模型服务平台(MaaS),并提供异构算力调度管理能力

模型生态扩展:加速跟进主流模型迭代

大模型生态快速发展,多模态与各类任务模型不断更新。

AI 平台需持续跟进主流模型,为用户提供稳定、标准化的部署入口,降低适配与运维成本。

GPUStack 2.1 模型库加速支持最新发布的各类主流模型,使用户能够在统一平台中快速部署并调用最新 AI 能力。

大语言模型与多模态模型:Qwen3.5、Qwen3-Coder-Next、MiniMax-M2.5、Kimi-K2.5 等

Embedding 与 Reranker 模型:Qwen3-VL-Embedding、Qwen3-VL-Reranker 等

语音模型:Qwen3-ASR、Qwen3-TTS 等

图像模型:FLUX.2-Klein、Qwen-Image-2512 等

GPUStack 将持续验证更多主流模型,将最佳实践纳入内置库,帮助用户快速尝试并应用最新模型能力。

image-20260308123225817

异构算力扩展:新增阿里 PPU 支持

AI 基础设施的长期趋势是算力逐渐多元化。

除 NVIDIA GPU 外,越来越多企业深入使用国产 AI 芯片以降低成本并提升供应链稳定性。

GPUStack 2.1 进一步扩展异构算力支持版图,新增支持阿里 PPU平头哥)。

image-20260301150643139

当前支持:

  • vLLM
  • SGLang

PPU 设备可直接接入 GPUStack 模型服务体系,实现:

  • 异构算力统一调度
  • 推理框架与硬件解耦
  • 应用无需感知底层芯片差异

在国产算力生态发展下,这类能力愈发关键。

推理能力统一:vLLM-Omni 集成

多模态模型的发展,也带来了推理框架分散的问题,不同模态往往依赖不同推理组件,例如文本、视觉、语音以及图像或视频生成。

继 2.0 集成 SGLang Diffusion 之后,GPUStack 2.1 将 vLLM-Omni 集成进 vLLM Runner 镜像,用于统一多模态推理能力。

这一整合带来了几个变化:

  • 多模态模型统一推理入口
  • 更一致的部署路径与技术栈
  • 更标准化的推理框架管理

从而减少多模态模型部署时的组件复杂度,也简化了推理环境的维护与升级。

模型服务治理:公共模型统一接入与模型路由

公共模型提供商统一接入

在很多实际项目中,企业往往同时使用本地部署模型、云厂商 API 和第三方模型服务。

GPUStack 2.1 提供了统一的公共模型提供商接入能力,当前已支持 OpenAI、Anthropic、DeepSeek、豆包、通义千问等数十种模型服务,并兼容自定义 OpenAI 协议接口。

通过这一能力,GPUStack 可以作为统一模型网关使用。应用侧只需调用一个 API,即可访问私有部署模型、云端模型服务和第三方平台。

平台同时提供统一的调用计量、访问控制和路由策略管理,从而简化多模型环境下的接入与治理。

image-20260214154723631

模型路由策略控制

在企业环境中,模型版本升级和切换是常见需求。

如果应用直接绑定具体模型,每次升级往往需要修改代码或重启服务。

GPUStack 2.1 引入模型路由机制,核心能力包括:

  • 虚拟模型名:应用侧仅调用逻辑模型名
  • 流量权重分配:支持灰度发布
  • Fallback 容灾:主模型异常自动切换
  • 自动重试策略

例如,应用只需调用一个逻辑模型名,平台即可在后台灵活切换不同模型(如 Qwen、DeepSeek 或私有微调模型)。

这一机制类似于服务网关的流量治理能力,能够实现模型的平滑升级、流量控制和高可用保障。

bf7c2d40a340b5e461139363dec77558

推理引擎生态:社区推理后端市场

推理框架生态非常活跃,不同模型往往依赖不同推理引擎。

GPUStack 2.1 引入社区推理后端市场,支持一键启用 llama.cpp 等多种社区推理框架,并为第三方推理引擎提供统一接入方式。

image-20260308123541052

通过可插拔的推理后端机制,GPUStack 可以快速接入新的推理框架,而无需对平台本身进行大量适配。

用户可以在统一平台中根据模型类型、硬件环境或性能需求选择合适的推理引擎,而无需分别搭建和维护多个独立推理服务。

随着社区生态的发展,社区推理后端市场也将持续扩展更多后端,逐步形成开放、可扩展的推理引擎生态

运维能力增强:全流程管理与性能治理

在 AI 推理平台的早期阶段,运维主要关注模型部署服务可用性

随着模型数量和推理流量增长,运维需求升级:不仅要保证服务稳定,还需要能够量化性能、统一可观测,并支持多节点、多模型的高效管理

AI 推理运维的全流程

一个完整的 AI 推理运维流程通常包括:

  1. 部署前检查:硬件资源、推理框架兼容性、资源评估
  2. 模型部署与初始化:权重准备、资源分配、实例创建、容器启动
  3. 运行中管理:实例健康检查、资源监控、日志收集
  4. 性能评估与优化:推理速度、吞吐量、延迟监控,负载分析
  5. 版本迭代与扩展:模型升级、副本扩容、部署策略优化

这一流程构成了 AI 推理平台运维的核心闭环:

部署 → 运行 → 监控 → 评估 → 优化

GPUStack 之前的运维能力

在 2.0 及以前版本,GPUStack 已构建较为完整的 AI 推理运维体系,覆盖算力管理、模型接入与部署、运行监控、性能调优与使用管理,为企业模型服务提供稳定基础。

GPUStack 2.1 的运维增强

GPUStack 2.1 在此基础上增强了性能评估、可观测与部署效率

1. 内置 Benchmark 基准测试

支持不同模型版本、硬件、推理框架及参数配置的标准化性能评估,为部署、升级和参数调整提供依据。

2. 开箱即用的可观测能力

UI 集成 Grafana 面板,无需额外部署即可监控:

- GPU / NPU 与系统资源利用率

- 模型实例运行状态

- 推理指标(TTFT / TPOT / ITL、延迟分布、缓存命中率等)

推理服务运行状态更加直观,同时可与企业监控体系集成。

image-20260305142022481

366315dde4e98febceb50b62eefbfb59

3. 部署体验优化

GPUStack 2.1 对模型部署与实例管理进行了优化:

  • 模型克隆部署
  • 跨节点兼容性检查
  • 显存分配可视化
  • 指定容器运行用户
  • 启动命令变量覆盖

显著提升了多模型、多部署环境下运维效率

未来发展方向

随着企业 AI 应用扩大,运维体系将持续演进:

  • 跨集群/跨地域算力调度
  • 智能运维与自动优化
  • 更完善的性能治理
  • 运维数据分析与资源运营

GPUStack 将从模型服务运维平台,逐步演进为企业级 AI 基础设施的大规模模型服务治理与算力运营体系

增强离线环境支持:容器镜像选择器

在内网或离线环境部署 GPUStack 时,不同硬件环境的容器镜像准备往往较为复杂。

为此,GPUStack 官方提供了离线镜像选择器

https://docs.gpustack.ai/latest/image-selector

用户只需选择对应的硬件环境,即可生成所需镜像及下载命令。

8f62e564bba28dc85c17921b23c21eb5

AI 推理平台的下一阶段

AI 基础设施正在经历一个清晰的演进路径:

  • 早期:单模型推理服务
  • 中期:模型服务平台(MaaS)
  • 进一步:AI 基础设施平台

此阶段通常具备:异构算力管理、推理框架生态、模型治理与运维可观测能力。

GPUStack 2.1 围绕这些核心能力持续演进。

随着模型规模与企业应用增长,基础设施在 AI 技术栈中作用愈发关键

GPUStack 将持续探索落地场景,构建面向企业的可靠 AI 基础设施底座

加入 GPUStack 社区

GPUStack 社区聚焦 AI 基础设施与大模型实践

社区中持续分享真实环境下的部署经验、问题排查案例,以及推理引擎、算力管理和系统架构相关讨论。

欢迎扫码加入 GPUStack 社区,与更多关注 AI Infra 的伙伴交流分享。

5e4c9caeb1dcb99cfd6097b657a0917d

二维码失效?获取最新群二维码:
https://github.com/gpustack/gpustack/blob/main/docs/assets/wechat-group-qrcode.jpg

大模型微调(LLM Fine-tuning)是在通用预训练模型基础上,针对特定任务或领域更新部分或全部参数的技术,核心价值是以远低于预训练的成本,让模型掌握垂直领域知识或特定风格。根据参数更新范围,微调分为全量微调(Full Fine-tuning)和参数高效微调(PEFT)两大类,后者以 LoRA、QLoRA 为代表,是当前产业界主流选择。


微调 vs 预训练:为什么企业需要微调

预训练赋予了大模型通用语言能力,但无法覆盖企业私有数据和专业场景。微调解决三类问题:

  • 知识注入:让模型掌握企业内部文档、行业术语、私有知识库
  • 风格对齐:统一输出语气、格式规范(如客服话术、法律合同模板)
  • 任务专精:在特定任务(分类、摘要、代码补全)上超越通用模型

根据斯坦福 HAI 研究院 2024 年 AI Index 报告,企业 AI 采用率中,将基础模型微调用于垂直业务的比例已超过 40%,是 RAG 之外的第二大定制化路径。


主流微调方法全景

方法分类与核心对比

方法更新参数量显存需求(7B模型)效果上限适用场景
全量微调(Full FT)100%≥80GB最高任务关键、GPU 资源充足
LoRA约 1-3%约 16GB接近全量通用首选,资源受限
QLoRA约 1-3%约 10-12GB略低于 LoRA消费级 GPU(24GB)
Adapter Tuning约 2-4%约 16GB中等多任务并行场景
P-Tuning v2Prompt 层约 8GB中等小模型表现突出
AdaLoRA动态调整约 14GB关键参数优化需求

结论:绝大多数企业场景,从 LoRA 开始是性价比最优选择。


LoRA 与 QLoRA 深度解析

LoRA(Low-Rank Adaptation)通过低秩矩阵分解旁路注意力权重,在原有冻结权重旁插入可训练的低秩矩阵 A 和 B,训练完成后合并回原矩阵,推理时无额外延迟。

LoRA 核心原理

原始权重 W (d×d)
→ 冻结 W
→ 新增 W_A (d×r) 和 W_B (r×d),其中 r ≪ d
→ 实际更新参数:W_A × W_B
→ 训练结束后:W_new = W + W_A × W_B

关键参数 rank r 通常取 8-64,秩越大效果越接近全量微调,显存需求也越高。

LoRA 实测数据:在只额外增加约 3.6% 参数规模的情况下,可取得接近全量微调的效果(Microsoft Research, 2021)。

QLoRA 的额外价值

QLoFA 在 LoRA 基础上引入 4-bit NormalFloat 量化(NF4),将基础模型量化后加载,把 65B 参数模型的微调显存从 780GB 压缩至约 48GB,让单卡 A100(80GB)可完成百亿参数模型微调。消费级 GPU(如 RTX 4090,24GB)可支持 7B 模型的 QLoRA 训练。


如何选择微调方法:决策框架

根据资源约束和任务要求,按以下流程做决策:

Step 1:评估显存

  1. 单卡 ≥ 80GB(A100/H100)→ 可考虑全量微调或 LoRA
  2. 单卡 24-40GB(A6000/RTX 4090)→ QLoRA 是主选
  3. 单卡 < 24GB → QLoRA + 梯度累积,或使用更小模型

Step 2:评估任务敏感度

  • 核心业务、容错率低 → 全量微调(效果上限最高)
  • 快速原型、多任务切换 → LoRA(可保存多个 adapter,灵活切换)
  • 资源严重受限 → QLoRA

Step 3:评估模型规模

模型大小推荐方法最低显存
≤ 3B全量微调或 LoRA8GB
7BLoRA / QLoRA16GB / 10GB
13BQLoRA24GB
70BQLoRA(多卡)4×24GB

实战:用 LLaMA-Factory 微调大模型

LLaMA-Factory 是目前最主流的开源微调框架,截至 2025 年在 GitHub 获得 68,100+ stars,支持 100+ 大语言模型和视觉语言模型,被亚马逊、英伟达、阿里云等企业采用,学术引用超过 1000 次。

快速上手:5 步完成 LoRA 微调

Step 1:安装环境

git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

Step 2:准备数据集

LLaMA-Factory 支持 Alpaca 和 ShareGPT 两种格式。以 Alpaca 格式为例:

[
  {
    "instruction": "将以下句子翻译成英文",
    "input": "大模型微调是什么?",
    "output": "What is large language model fine-tuning?"
  }
]

Step 3:配置微调参数

# lora_config.yaml
model_name_or_path: meta-llama/Llama-3.1-8B-Instruct
stage: sft
finetuning_type: lora
lora_rank: 8
lora_target: all
dataset: alpaca_en
per_device_train_batch_size: 2
gradient_accumulation_steps: 8
learning_rate: 1.0e-4
num_train_epochs: 3.0

Step 4:启动训练

llamafactory-cli train lora_config.yaml

Step 5:导出合并模型

llamafactory-cli export \
  --model_name_or_path meta-llama/Llama-3.1-8B-Instruct \
  --adapter_name_or_path ./saves/lora \
  --export_dir ./merged_model

LLaMA-Factory 同时提供 Web UI(llamafactory-cli webui),支持零代码可视化配置。训练完成后,可直接通过标准 OpenAI 兼容接口部署推理服务;如需调用云端模型 API 进行效果对比,七牛云推理服务兼容 OpenAI SDK 格式,无需修改现有代码即可接入。


大模型微调适用场景

场景 1:垂直领域知识问答

典型案例:医疗、法律、金融的专业问答系统。通用模型对行业术语和专有知识覆盖不足,通过微调注入领域语料,可显著提升准确率和专业度。

场景 2:企业内部文档助手

将内部 SOP、产品手册、历史工单等数据用于微调,模型可直接回答企业特定问题,配合 RAG 架构效果更佳。

场景 3:代码生成与补全

在特定代码库或框架上微调,模型可学会内部 API 风格、命名规范,代码补全准确率远超通用模型。

场景 4:风格对齐

统一模型输出风格(如品牌声音、客服话术)。相比提示词工程,微调后的风格稳定性更高,不受上下文长度限制。


微调 vs RAG:怎么选

维度微调RAG
知识更新频率低(需重新训练)高(实时更新文档库)
推理延迟低(无检索步骤)较高(检索+生成)
知识注入深度深(改变模型权重)浅(上下文注入)
成本训练成本高,推理成本低训练成本低,检索成本持续产生
适用场景风格对齐、固定任务专精动态知识库、文档问答

最佳实践:知识频繁更新选 RAG,风格对齐和任务专精选微调,两者结合(微调 + RAG)可获得最优效果。


常见问题

Q:微调后的模型会忘记原来的通用能力吗?
这一现象称为"灾难性遗忘"(Catastrophic Forgetting)。LoRA 因为仅训练旁路矩阵、冻结原模型权重,天然抑制遗忘问题。全量微调则需通过控制学习率(建议 1e-5 量级)、混入通用指令数据等手段缓解遗忘。

Q:微调数据集需要多大?
数据质量比数量更重要。高质量数据集 500-2000 条可取得不错效果;低质量数据集即使 100 万条也难以提升性能。建议优先人工标注核心样本,再用模型扩充辅助数据。

Q:QLoRA 比 LoRA 效果差多少?
差异通常在 1-3% 以内(在标准 benchmark 上),对大多数业务场景可以忽略不计。如果显存充裕,优先选 LoRA;资源受限时,QLoRA 是极佳替代方案。

Q:微调需要多久?
7B 模型 + 1000 条数据 + 单卡 A100 + LoRA,通常 1-3 小时可完成。70B 模型全量微调则需要多节点集群,时间以天计算。

Q:有哪些支持指令微调的开源数据集?

  • 通用:Alpaca-52k、ShareGPT、LIMA(1000 条高质量)
  • 中文:BELLE、Firefly、Chinese-Vicuna
  • 代码:Code Alpaca、OSS-Instruct
  • 对话:OpenAssistant Conversations(OASST)

总结

大模型微调的核心路径已高度成熟:LoRA 以极低参数增量实现接近全量微调的效果,是产业界首选;QLoRA 进一步将硬件门槛降至消费级 GPU;LLaMA-Factory 等一站式框架将微调操作标准化,显著降低了工程复杂度。据 GitHub 数据,LLaMA-Factory 在 2025 年已累积超过 68,000 stars,成为最广泛采用的开源微调框架之一。

选择微调策略时,建议从 LoRA + 高质量小数据集起步,验证效果后再决定是否扩大数据规模或切换方法。

本文核心数据来源:Microsoft Research LoRA 原文(2021)、LLaMA-Factory GitHub 仓库(2025)、斯坦福 HAI 2024 AI Index Report。内容基于 2026 年 3 月数据,建议定期更新以反映最新模型和框架动态。


延伸资源

在能源矿产行业数字化转型的浪潮下,数据要素与AI技术的融合成为央国企突破发展瓶颈、构建新增长曲线的核心抓手。本文将从行业需求背景出发,拆解能源矿产智能化转型的建设思路、实施路径、应用场景,并结合实际案例,全面解析从战略规划到落地执行的全景路径,为行业数字化转型提供实践参考。

一、能源矿产行业智能化转型的需求背景

能源矿产行业是央国企核心业务与国民经济命脉,其数字化转型紧跟央国企发展要求,呈现多重转变。转型从资源驱动升级为数字化驱动,数据成核心;技术由手工向自动化、AI迭代;业务拓展至产业链上下游,搭建数字化共享平台。“十五五”开局下,能源矿产及化工数字化建设围绕四大维度:符合监管规范、强化生产安全监控、推进智能制造与AI升级、推动数据要素资产化转型。

从行业自身产业链特性来看,能源矿产行业形成了矿山开采—冶炼加工—深度精加工的完整闭环,各环节的转型需求各有侧重。矿山环节重点聚焦基础设施建设,包括矿山网络、矿道等硬件布局;冶炼环节核心围绕生产工艺优化,提升冶炼效率与品质;精加工环节则侧重产成品相关的精细化数据分析,为经营管理提供科学思路,且产业链上下游的各企业均需结合自身环节完成对应的数字化建设工作。

图片

在此基础上,国家对能源矿产领域的央国企数字化建设提出了三大具体要求:

一是聚焦场景落地,打造适配行业需求的数据与AI平台,满足实际业务场景的应用要求;

二是完善服务体系,通过数字化服务优化产品与企业运营,构建完整的运营闭环;

三是强化人才与标准建设,推进数字化人才能力培养,建立统一的数据标准规范,这三点也成为能源矿产及化工冶炼行业数字化建设的核心方向。

图片

二、能源矿产智能化转型的核心建设思路

结合行业需求与国家规范,能源矿产的数据+AI智能化转型需从对标规范、明确目标、分步实施三个核心维度展开,兼顾集团与工厂两个层级的不同要求,形成体系化的建设思路。

1.对标国标规范,划分集团与工厂双层级建设等级

转型建设需严格参考国标数字化转型规范,分别从集团和工厂两个维度,按照L1到L5的建设等级推进,不同等级对应不同的建设要求与能力标准,目前多数企业处于L3层级,也是数据建设的核心节点。

集团层级:L3层级聚焦数据规范、数据使用与数据管理,是数字化建设的基础;L4及以上层级对AI技术提出更高要求,需在数据算法、模型构建等方面实现突破。集团层级的建设分为三层支撑体系,基础层以技术工具、治理后的有效数据为核心,提供底层能力支撑;应用层聚焦数据+AI的赋能能力,打造多元化数据应用;顶层规划层围绕企业经营与“十五五”规划要求,完成品规设计与整体战略布局。

图片

工厂层级:依据智能制造规范的L1-L5模型开展数字化建设,各等级的核心能力各有侧重。L1侧重数据的可获取性,实现生产数据的全面采集;L5则聚焦数据的实际应用,通过数据指导生产端操作、实现业务精准触达;L2-L4则覆盖中间层级的能力建设,为从数据采集到数据应用的过渡提供支撑。

图片

2.明确转型目标,聚焦制造型企业核心需求

能源矿产企业作为典型的制造型企业,其数字化转型目标与非制造型企业存在显著差异,核心围绕生产经营全链路展开,突出五大重点:提升效率、优化决策管理、强化风险监控、完善运营调度、培养人员能力,其中运营管理与生产调度是最核心的两大环节,也是数据+AI技术应用的核心场景。

图片

3.分步推进实施,遵循标准化的建设流程

转型实施过程参考信息化技术服务规范,分为五个标准化阶段,确保建设工作有序落地:

现场对标分析:开展企业现场调研,以Benchmark对标思路,明确企业数字化建设的现状与行业差距;

整体蓝图规划:基于对标结果与企业现状,完成数字化转型的整体蓝图设计,明确建设方向;

实施计划制定:确定建设的具体实施步骤、人员安排与时间节点;

项目卡片落地:根据蓝图形成多样化的项目建设内容,涵盖系统改造、数据分析、专题场景打造、AI应用开发等,且明确各项工作的先后顺序;

项目过程管理:建立全流程的项目管理体系,保障建设过程的规范性与有效性。

图片

三、能源矿产智能化转型的核心实施路径

能源矿产智能化转型的核心是实现物理生产过程与虚拟数据世界的双向联动,即通过数据采集与分析让物理生产过程反馈至虚拟数据世界,再通过虚拟数据世界的决策与调度指导物理生产端的操作。具体实施路径围绕数据融合、流程拆解、平台建设三大核心展开,同时构建高质量数据集与数字化全景设计,保障转型落地。

1.数据融合:整合多类型数据,结合机理模型分析

企业需全面整合集团旗下的两类核心数据:经营管理类数据与生产相关类数据。在数据分析过程中,除了运用常规的数据分析模型与算法模型,还需重点结合工业机理模型——这是工业领域的核心分析依据,涵盖动力模型、化学模型、物理模型等,与企业产成品的生产逻辑深度绑定,实现数据+AI+机理模型的融合分析,为运营调度与经营管理提供科学支撑。

基于数据融合分析,转型成果可拆解为六大核心板块,根据企业建设等级逐步落地:实现数据可视化呈现、完成风险预警与趋势预测、优化生产过程调度、提供经营管理辅助决策、实现生产运营的智能指挥、降低生产运营整体风险,形成从数据感知到决策执行的完整链路。

图片

2.流程拆解:覆盖全生产工艺,实现各环节数字化监管

以铜业、铅锌、黄金、铝业等典型能源矿产品类为例,其生产工艺遵循原料采购—熔炼—吹炼—电解—产成品加工/销售的核心流程,湿法与火法工艺虽有差异,但整体逻辑一致。转型过程中,需对每个工艺段与生产环节进行数字化拆解,配套对应的业务系统实现全流程监管:包括原料管理系统、工艺管控系统、安全生产工控系统、过程质量控制系统等,最终在指挥中心坐席端,结合虚拟数据完成生产的综合调度与管理,实现物理生产与虚拟数据的精准匹配。

图片

3.平台建设:以ISA95为标准,分四阶段推进落地

平台建设以ISA95标准为依据,将落地过程拆分为四个等级,结合企业需求阶段的集团与工厂层级评估,输出对应的项目建设卡片,确保平台建设与企业实际需求匹配:

边缘层(设备端):聚焦生产底层设备,实现设备数据的实时采集与边缘计算;

资源层:整合企业各类数据与硬件资源,实现资源的统一管理与调配;平台层:打造数据中台与AI平台,实现数据的加工、分析与模型构建;

应用层:基于平台能力,开发多元化的智能应用与数据服务,赋能实际业务。

图片

4.基础保障:构建高质量数据集,打造数字化全景设计

高质量数据集建设:高质量数据集的核心是“有效、可用”,而非单纯的“干净数据”,需确保数据与企业生产经营场景高度适配,为数据+AI应用提供坚实的底层数据支撑;

数字化全景设计:构建“业务系统—数据平台—分析模型—场景应用”的四层全景架构。底层以业务系统为基础,保障数据的源头采集;第二层为数据平台,实现数据的承载、加工与分析;第三层为分析模型层,通过算法模型与机理模型支撑数据分析需求;顶层为场景应用层,面向经营管理与生产调度场景,打造专题化应用,实现问题发现、归因分析与流程管控的闭环。

图片

同时,平台建设需突出数据平台与AI平台的核心能力,涵盖本体与多模态技术、数据中台等基础模块,向上输出智能体与多样化数据服务,重点解决工业企业“数据怎么用”“如何用数据闭环业务过程”两大核心问题。

四、能源矿产数据+AI的核心应用场景

能源矿产行业的数字化应用场景核心是实现数据+AI的深度融合,通过构建决策指挥中心(作战指挥中心),打通虚拟数据世界(数据智能引擎)与实体世界(智能空间)的联动,基于多模态与数据本体技术构建二者的关联,为上层指挥与决策提供基础。核心应用场景覆盖经营、运营、生产、产销协同、客户服务、数字孪生六大维度,各场景针对性解决行业核心痛点。

1.集团大经营:评估企业经营健康度,实现全维度管控

该场景面向企业总经理、董事长等高层管理者,核心是通过经营健康评估模型,对企业整体经营情况进行量化评分与等级划分,替代传统分散化的板块分析(财务、销售、生产等)。当评分低于阈值时,系统自动发出预警,后续通过追踪分析,结合数据与业务实际定位问题根源,实现企业经营的全维度、智能化管控,让高层管理者精准掌握企业经营状况。

图片

2.精细化运营:分层级管控,聚焦能源矿产行业核心痛点

该场景面向运营总监、厂长、部门部长等中层管理者,按管理层级划分管控重点:部长聚焦各板块运营细节,运营总监关注全运营链路(以订单或产品为核心单位)。结合能源矿产行业大宗原料属性与经济属性,重点解决三大核心问题:

原料价格管控:原料价格占企业成本的50%以上,通过分析多维度价格因子,整合企业内外部数据,构建价格趋势预测模型(支持单月、季度、半年度、年度预测,时间越近准确度越高),并结合EOQ、EPQ等采购模型,为采购决策提供支撑,甚至实现采购对冲策略制定;

生产工艺优化:通过工艺优化降低生产成本、提升净利率,是企业核心的降本增效路径;

产业链链路打通:优化上下游复杂链路的运营效率,提升企业对抗地缘、市场等风险的抗压能力。

图片

同时,实现采购决策的数字化闭环:通过指挥中心让采购人员完成采购操作,直接触达ERP系统,目前以人机协同为主,未来将通过智能体实现自动化采购,人员仅负责审核。

3.智能化生产:聚焦工艺优化,覆盖全生产要素管控

生产场景与工艺深度绑定,直接决定产品竞争力、良率与升级潜力,同时覆盖成本、设备、安全、质量、备品备件等全生产要素,核心亮点体现在三大方面:

工艺参数优化:企业生产工艺参数在投产时虽已固化,但通过数据+AI分析可发现精细化改善点,即便产品品位提升0.1-0.2个百分点,也能带来200%-300%的经济效益提升,由工业端落地工艺调整动作;

生产成本精细化核算:能源矿产生产属于混合制造,存在热胀冷缩、能量损失等问题,通过“十大平衡”方式平衡人员、质量、成本等要素,解决传统成本核算粗、生产过程成本不可知的痛点;

设备与安全生产管控:生产设备属于重投资资产,重点管控非计划内停机——如冶炼炉子非计划停机后,预热需1-2个月,成本高达300-500万,需通过数据监控实现设备故障预警;安全生产方面,严格落实HSE、双碳要求,防范矿场、冶炼车间等场景的安全事故,同时做好备品备件的库存与成本管理。

图片

4.产销协同:实现订单全生命周期管理,保障资源精准匹配

核心是确保销售订单的按需交付,结合能源矿产产品标准品+非标准品的特性,对订单进行分类管理(标准品按库存生产,非标准品按订单生产),实现四大核心能力:

订单资源匹配:营销端实时查看库存与产能,针对新订单完成全生命周期的资源匹配;

计划达成率监控:跟踪生产计划执行情况,监控库存满足率与产能满足率;

产销比预警:通过分析产销比数据,及时发出库存或产能预警;

资源智能调配:基于订单与生产数据,实现生产、原料、人员等资源的精准调配,打通产销协同与生产调度的联动。

图片

5.客户服务:构建ToB客户体验体系,实现满意度闭环管理

能源矿产行业客户以ToB为主,核心是通过数字化构建客户体验本体设计,打造客户满意度分析模型,实现客户服务的全流程闭环:

客户数据采集:整合产品、渠道、产品质量等客户服务相关数据;

满意度分析与修复:通过模型分析客户满意度,针对低满意度问题生成修复工单,由市场、售后等部门落地修复动作;

模型持续优化:基于修复结果优化客户体验大模型,为客户提供更精准的服务,同时针对产品问题、服务问题等不同类型,通过智能体实现部分修复动作的自动化。

图片
该体系同样适用于新能源板块(车厂、电池、光伏等),具备跨领域的应用价值。

6.数字孪生:打造物理世界的虚拟镜像,实现全场景智能管控

数字孪生以物理世界的实体为基础,由设备、传感器、空间等构建底层实体,打造袋鼠云“软生世界”,融合地理、场景、设备模型/引擎等要素,衍生四大核心应用,实现虚拟对物理的精准映射与智能管控:

指挥调度:面向全生产过程,在指挥中心坐席实现生产的远程智能调度;

生产监控:聚焦单一或多个工艺段(如铜冶炼的吹炼、电解阶段),实现生产过程的实时监控;

工艺组态:将传统工控DCS的二维、简陋组态升级为三维组态,通过流向、颜色告警等方式,直观呈现全工艺生产过程的设备运行状态;

智能巡检:通过电子围栏、安全告警、异常检测等功能,满足安全生产巡检需求,覆盖人员、设备、管网等巡检对象。

数字孪生的应用覆盖冶炼与矿山两大核心环节:冶炼环节重点实现炉子建模、温度管控、管道/粉尘/酸气等污染管控;矿山环节完成地下矿/地面矿建模、矿层品位分析、断层分析、开采周期预测,同时覆盖矿山导览、选矿、填充、安全管控等全流程,实现矿山开采的智能化与安全化。

图片

五、能源矿产智能化转型的实践案例

袋鼠云在能源矿产领域已服务众多世界500强、央国企及民营企业,覆盖煤炭、矿产、铜冶炼等多个细分领域,以下三大典型案例展现了不同转型阶段与方向的实践路径,为行业提供参考。

1.煤炭行业:以数据治理为基础,构建高质量数据集

该案例是煤炭开采与炼煤企业的数字化转型1.0项目,核心以数据治理为前导,实现煤炭行业数据标准从无到有的突破。项目完成了三大核心工作:发布煤炭行业数据资源标准1.0版本、构建煤炭板块的数据资源目录、为炼煤板块提供数据应用基础并落地试点应用。项目遵循“业务需求—现状分析—计划设计—实施落地—应用上线”的完整流程,为企业后续的数智化升级奠定了坚实的数据基础。

图片

2.矿产企业:打造企业级数字化大脑,实现数据分层应用

该项目是矿产企业数字化大脑的二期建设,在原有基础上完成升级优化。核心路径为:以业务系统升级改造为基础,构建统一的数据平台,在平台上开发多类型数据分析模型,最终打造企业级数据应用平台。针对不同使用人群进行功能划分:面向领导实现数据可视化查看,面向管理层提供运营辅助决策与业务操作支撑,面向执行层实现标准化的操作指令推送,让数据能力与不同层级的需求精准匹配。

图片

3.铜冶炼行业:从数据到数字孪生,实现全生产流程建模与推演

该项目核心实现了数据融合到数字孪生的全链路构建,不仅完成生产过程的设备与工艺组态三维建模,更实现了从原材料进厂、生产加工、工艺管理到产成品输出的全流程数据分析。同时,结合铜冶炼行业的安化特性,打造模拟演练与推演体系——针对生产过程中可能出现的问题,提前模拟解决方案,明确最优执行动作,将数字孪生从单纯的可视化升级为“可视化+工艺优化+全链路推演”的综合能力,实现生产过程的智能管控与风险预判。

图片

能源矿产行业数智化转型是以数据为核心、AI为手段、覆盖全产业链的系统性变革,关键在于打通物理生产与虚拟数据,实现双向联动与闭环管理。转型需契合央国企要求,满足产业链多元需求,对标国标、分层推进,协同数据融合、流程拆解与平台建设,覆盖经营、生产等六大场景,解决行业痛点。

袋鼠云在煤炭、矿产、铜冶炼等领域已验证Data+AI的落地价值,将持续提供从战略到落地的全流程数智化服务。

数智化转型是分步实施、持续优化的长期过程,只有深度融合技术与业务,才能实现从资源驱动到数字化驱动的升级,助力行业高质量发展。

相较于传统硬件负载均衡,DNS解析负载均衡具备全局调度、部署便捷、成本可控的优势,广泛应用于企业官网、电商平台、云服务节点调度等场景。本文基于互联网基础服务标准,结合国科云多年域名解析实践经验,系统拆解DNS解析负载均衡的实现逻辑、核心策略、部署要点及优化方向,为网站管理人员提供可落地的实施指南。

一、核心原理:基于DNS协议的智能流量分流

DNS解析负载均衡的核心逻辑,是在DNS解析链路中嵌入“负载调度”能力,其运行依赖于DNS协议的基础流程与多IP映射机制。

传统DNS解析中,一个域名仅对应一条A/AAAA记录(IPv4/IPv6地址),所有请求均指向同一服务器;而实现负载均衡时,需在权威DNS服务器中为域名配置多条相同类型的解析记录,每条记录对应一台健康的后端服务器。

当权威DNS服务器接收解析请求时,会根据预设的负载均衡策略,从多IP列表中筛选出最优地址返回给用户,用户设备随后基于该IP与后端服务器建立连接,既规避了单节点过载风险,又提升了服务的整体承载能力。

二、核心实现策略:按场景匹配,兼顾基础与智能

结合业务规模与复杂度,DNS解析负载均衡可分为基础静态策略和高级动态策略两大类,适配从小型服务到大型分布式架构的不同需求。

(一)基础静态策略:适配中小型同构服务

基础策略无需实时监控数据,配置简单,适合服务器配置一致、访问量平稳的中小型业务,核心包括轮询与加权轮询。

  1. 轮询策略

权威DNS服务器将多台服务器IP按顺序排列,接收到解析请求时,依次循环返回不同IP。例如,域名绑定3台服务器IP,第1次请求返回IP1,第2次返回IP2,第3次返回IP3,循环往复。

该策略的优势是实现零门槛,仅需添加多条A/AAAA记录即可;缺点是无法感知服务器负载与故障,且受本地DNS缓存影响,易出现流量分配不均。

  1. 加权轮询策略

为弥补轮询策略的不足,通过为不同服务器IP配置权重值实现差异化流量分配。权重与服务器处理能力正相关,高性能服务器设置更高权重,获得更多请求。

例如,权重为5的服务器接收50%流量,权重为3的接收30%,权重为2的接收20%。主流DNS服务商均支持该策略,可通过控制台直接配置权重参数,适配服务器异构的场景。

(二)高级动态策略:支撑大型分布式高可用业务

对于跨地域、高并发、对可用性要求严苛的业务,需采用结合实时数据的动态策略,核心包括地理路由(GeoDNS)、健康检查与动态负载调度。

  1. 地理路由策略

基于用户地理位置的智能调度方案,通过解析用户IP地址,匹配其所属地域(国家、省份、城市),返回距离最近的后端服务器IP。

例如,北京用户访问域名时,解析至北京节点;广东用户则解析至广州节点,有效降低网络延迟,提升访问速度。国科云、阿里云、腾讯云等服务商的智能解析功能,已实现按城市级粒度的路由调度,适配全球分布式服务的需求。

2.健康检查策略

保障服务高可用的核心机制,权威DNS服务器通过HTTP/TCP/ICMP探测,定期监控后端服务器的运行状态(连通性、响应速度、服务可用性)。

当检测到某台服务器故障(如连续3次探测超时),会自动将其从解析列表中移除,不再分配请求;待服务器恢复正常后,自动重新纳入调度。该策略解决了静态策略“无法感知故障”的痛点,实现故障自动转移,是金融、医疗、电商等核心业务的必备配置。

3.动态负载调度策略

结合实时监控数据的精细化调度,将权威DNS与服务器监控系统联动,实时采集服务器的CPU利用率、连接数、响应时间等负载数据,动态调整解析策略。

例如,当某服务器CPU利用率超过80%时,减少其流量分配比例;当负载回落时,恢复正常调度。该策略适用于直播、电商大促等流量波动剧烈的场景,可避免单点过载,最大化利用服务器资源。

三、快速部署指南

(一)基础部署:轮询/加权轮询(适配小型业务)

1.前期准备:部署多台同构/异构后端服务器,确保服务内容、端口一致,记录所有服务器的公网IP,确认域名已完成备案。

2.添加多解析记录:登录DNS解析控制台,进入目标域名的解析管理页,点击“添加记录”,记录类型选择A/AAAA,主机记录填写域名前缀(如www),记录值填写第一台服务器IP,TTL设置为60秒(缩短TTL可加快故障切换),保存后重复操作,添加所有服务器的解析记录。

3.配置负载均衡策略:在解析记录列表中,开启“负载均衡”功能,选择“轮询”或“加权轮询”;若为加权轮询,为每条记录设置对应权重值,保存配置。

4.验证效果:使用dig命令,多次查询域名,查看解析结果是否按策略循环返回不同IP;访问域名,确认所有服务器均能正常提供服务。

(二)高级部署:地理路由+健康检查(适配大型业务)

1.完成基础配置:按照上述步骤,添加所有后端服务器的解析记录,确保服务器正常运行。

2.配置地理路由:开启“智能解析”功能,创建地域线路(如华北、华东、华南),将各线路与对应地域的服务器IP绑定;支持按运营商(电信、移动、联通)细分线路,实现更精准的调度。

3.启用健康检查:为每条解析记录开启健康检查,选择探测方式(如HTTP探测,填写服务健康检查路径),设置探测频率(30秒/次)、超时时间(5秒)、故障阈值(3次),开启“故障自动屏蔽”功能。

4.配置故障转移:设置“跨地域故障转移”规则,当某一地域的服务器全部故障时,自动将请求导向其他地域的健康节点,确保服务不中断。

5.监控运维:通过DNS解析控制台的解析监控模块,查看解析量、服务器健康状态、流量分配比例,及时调整策略参数。

四、局限性与优化方向:突破技术瓶颈

尽管DNS解析负载均衡优势显著,但受限于DNS协议特性,仍存在流量分配粒度粗、故障切换有延迟等局限性,需通过针对性优化提升效果。

(一)核心局限性

1.缓存导致的调度延迟:本地DNS服务器会缓存解析结果,即使权威DNS已屏蔽故障节点,缓存未过期的用户仍会访问故障IP,导致服务不可用。

2.无会话保持能力:同一用户的多次请求可能被分配到不同服务器,对于需要登录状态的服务,需额外配置Redis等会话共享机制。

3.调度粒度较粗:仅能在解析层面分配流量,无法实现连接级、请求级的精细化调度。

(二)权威优化方案

1.合理设置TTL值:将TTL控制在60-300秒,平衡缓存有效性与故障切换速度;核心业务可设置为60秒,加快故障节点的屏蔽效率。

2.采用分层负载架构:结合“DNS解析负载均衡+内网负载均衡”,DNS负责跨地域全局调度,内网通过Nginx、F5等实现连接级精细调度,兼顾全局与本地优化。

3.启用HTTPDNS技术:让用户设备直接向权威DNS服务器发送解析请求,绕过本地DNS缓存,实现解析结果的实时性,适用于直播、手游等对延迟敏感的业务。

4.结合Anycast技术:将多地域服务器配置相同IP,通过BGP路由协议通告至全球,结合DNS地理路由,进一步降低网络延迟,提升访问稳定性。

近日,深圳市中微信息技术有限公司(以下简称“深中微”)正式签署CLA(Contributor Liscense Agreement,贡献者许可协议),宣布正式加OurBMC社区。

深中微作为国家级高新技术企业、专精特新企业、符合GJB 9100C-2017标准认证、由国内顶尖的装备计算机研发团队创立。 团队多年深耕我国装备计算机领域,以国产CPU应用为载体,广泛进行多领域探索,基于硬件、固件、驱动及软件上不断创新,逐步积累了在受控市场、服务器、车载、手持、船舶、信息加密、国产云计算等行业应用案例,技术纯熟,产品稳定可靠。

深中微基于自己的BMC团队,不仅与飞腾信息技术有限公司合作,完成了E2000s BMC软硬件设计,实现基本BMC功能,能实际应用到服务器产品中;还继续深耕AST2500 & AST2600 openbmc开发,完成合作伙伴的BMC管理需求及特色模块开发。

深中微将以加入OurBMC 社区为契机,积极发挥自身在国产化方面的优势,主动参与社区技术交流,携手社区成员单位,推进 BMC 技术快速发展,为构建繁荣的 BMC 软硬件生态发展贡献力量。

关于OurBMC

OurBMC 社区是开发者交流和创新 BMC 开源技术的根社区,社区秉承 “开放、平等、协作、创新” 原则,坚持 “开源、共建” 的合作方式,旨在共同推进 BMC 技术快速发展,辐射上下游形成产业共振,加速构建繁荣的信息系统软硬件生态。

image.png

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。个weibo.com/ttarticle/p/show?id=2309405274001261068311 weibo.com/ttarticle/p/show?id=2309405274001626234926 weibo.com/ttarticle/p/show?id=2309405274002087346229 weibo.com/ttarticle/p/show?id=2309405274002452512799 weibo.com/ttarticle/p/show?id=2309405274002788057171 weibo.com/ttarticle/p/show?id=2309405274003123601530 weibo.com/ttarticle/p/show?id=2309405274003463340137 weibo.com/ttarticle/p/show?id=2309405274003823788132 weibo.com/ttarticle/p/show?id=2309405274004167721013

AirPods 4 ANC 戴时间长了没有 Pro 的不适感,但是续航相比 Pro 时间太短了。日常一直戴着基本 2h+就快没电了,这个续航时间正常吗?
为什么这个降低风燥能力很低,可以说几乎没有,这个是应为和 Pro 对比有硬件上的缺失吗?


更新时间:2026-03-09

支持最新版本:2025.3.3(2026年2月20日发布)

支持在线更新

支持Windows、MAC、Linux
激活界面.png

新版本更新亮点:

核心功能升级

  1. Google Colab 原生免费支持:直接在IDE中连接Colab云端算力,无需浏览器切换,支持本地文件自动上传、远端文件可视化等功能
  2. 产品架构统一:所有用户自动获得1个月Pro免费试用,到期可免费使用含Jupyter支持的核心功能,Pro用户权益保持不变
  3. JetBrains AI 工具升级:内置免费AI代码补全、重构、智能修复能力,开发效率提升30%以上

开发体验优化

  1. uv 包管理器深度适配:uv管理的项目默认使用uv run运行,自动适配/下载对应Python版本,环境配置一步到位
  2. 数据探索能力增强(Pro):自动分析pandas DataFrame数据质量问题,支持AI一键生成修复代码
  3. Jupyter交互升级:Variables窗口默认置顶DataFrame,远程 notebook 连接稳定性大幅提升

2025.3.3版本专项修复

  • 解决远程开发连接断开问题
  • 修复Jupyter单元执行卡顿bug
  • 优化Ruff LSP集成兼容性
  • 提升整体运行稳定性,崩溃率降低40%

一 下载、安装、更新

  1. 官网下载最新版安装

    https://www.jetbrains.com/zh-cn/pycharm/

    安装后先不要运行程序。

  2. 如果已安装,则直接更新到最新版本即可。

    如果更新后激活失效,重新激活一遍。

  3. 如果更新到最新版后激活失败的,卸载软件,重启电脑,重新安装激活。

二、授权说明

方法1,按照官方教程进行激活

方法2,https://wwbxo.lanzoue.com/ie9mm3edhhni

三 使用

打开自己的项目,配置环境,开始开发

1.新增cookie导入组件。
2.优化鼠标拖动。
3.修复发布应用找图问题。
4.优化浏览器清空缓存。
5.浏览器模拟键盘支持emoji字符。
6.数据库执行SQL添加超时配置。
7.修复json提取失败后续流程不执行。
8.发布exe应用文件大小优化。
9.人工等待新增取消功能。
10.修复Excel读取组件报错问题。

快更新至火语言 0.9.99.2 版本,体验全新升级!如果在使用过程中遇到任何问题或有宝贵建议,欢迎在社区留言反馈,我们会持续优化改进,为大家提供更好的产品!
感谢大家一直以来对火语言的支持与信任!

在做产品设计的人基本都有一个共同感受:画原型真的很耗时间。从最开始的手绘草图,到一点点搭组件、调整布局,费时又费力。但随着AI设计工具的发展,原型设计已经变得轻松很多。现在只要简单几步操作,就能快速做出高保真原型,今天整理了一份AI原型设计工具清单。不管你是刚接触产品设计的新手,还是已经有经验的设计师,都可以从中找到适合自己的工具。

  1. UXbot(国内首选)
    UXbot它不只是能把文字描述、手绘草图,瞬间变成可编辑的原型,还支持多端适配,帮你一次性生成PC端、移动端页面。最省心的是,它能一次性生成高质量的完整项目,甚至直接输出开发能用的代码,让整个团队告别重复劳动。
    核心亮点
  2. 文字描述秒变原型:不用复杂操作,只要用日常话描述界面内容和交互逻辑,比如“做一个首页,有轮播图和商品列表,点击商品能跳转详情页”,AI A就能生成高保真原型,连按钮点击、页面跳转这些交互都能自动添加。
    image.png
  • 手绘草图/截图秒识别:随手画的原型草图或者喜欢的软件页面,直接截图上传,就能快速识别成可编辑页面,不用再重新描线、调整布局,省了超多功夫。
  • 自带自然语言处理 AI 助手,搭配支持像素级微调的专业可视化编辑器,可以任意修改原型图上任何一个元素,自由度拉满。
    image.png
  • 设计即代码:支持直接输出前端可用的代码,开发人员可以直接拿去使用,减少前端还原UI时的偏差和重复工作。
    适合人群
    中小型企业、工作室、设计和开发团队合作,快速把商业想法变成可展示的原型,提高原型评审和代码转化效率。
  1. Uizard
    Uizard比较突出的一个功能是:可以把手绘草图直接转换成原型界面。即使只是简单画出的线框图,它也能识别出页面里的按钮、图片区域、输入框等元素,并自动整理成完整的界面布局,省去了重新搭建页面结构的时间。
    除了草图识别功能,Uizard还加入了AI设计辅助。系统会根据页面结构给出一些基础优化,比如调整排版、统一样式,让整体界面看起来更清晰、更规范。对于设计经验不多的人来说,这个功能会比较友好。
    工具内部也提供了不少现成模板,可以在模板基础上直接修改内容,不需要从空白画布开始设计,这样做原型会更快一些。另外,它还支持交互预览,在设计阶段就可以查看页面跳转、按钮点击等效果,方便及时发现问题并进行调整。
    适合人群:
    初创团队、产品经理,以及刚接触UI/UX设计的新人,整体上手门槛比较低。
    image.png
  2. Visily
    Visily更适合用来做快速原型设计,从简单线框到中等精度的页面都可以完成。使用的时候,你可以直接上传竞品截图,或者导入自己画的草图,系统会自动识别页面里的结构,并生成可以继续编辑的界面。这样就不需要从零开始搭建布局,做原型会快很多。
    它的AI功能还会在设计过程中提供一些参考建议,比如组件排列、页面结构和间距调整等,让整体布局看起来更清晰,也更符合常见的设计习惯。
    Visily还支持多人同时在线协作。团队成员可以在同一个项目里一起编辑、评论和调整设计,很多修改都能实时看到结果,这样沟通效率会更高,原型迭代也会更顺畅。
    整体来说,这个工具学习成本不高,界面也比较直观,对于需要频繁修改原型的团队来说,会比较实用。
    适合人群:
    UX设计师,以及需要快速推进原型设计和迭代的产品团队。
    image.png
  3. Relume
    Relume更偏向网站原型设计,能快速生成页面框架和线框图,尤其适合做网站、落地页或者营销页面。在使用时,只需要简单描述页面内容或选择相关模块,Relume就能自动生成网站的基础结构和线框图,比如首页布局、内容区块和页面层级等。这样就不用自己一点点去组合组件,可以更快完成页面雏形。
    生成的线框原型还可以导入到Figma等设计工具中,再继续完善视觉设计或细化交互流程。对于需要频繁制作网页结构草稿的设计师来说,这种方式能节省不少时间。
    通过自动整理网站信息架构和生成基础线框图,Relume能帮助团队更快进入设计阶段,也方便在早期就进行页面结构讨论。
    适合谁用:Web设计师,以及需要快速搭建营销页面的团队。
    image.png
  4. Creatie
    Creatie不只是能生成原型,还能自动生成风格统一的UI元素和组件库,特别适合团队项目使用。它能智能识别设计文件里的组件,快速整理成风格库,让整个团队的设计保持一致,不用再担心样式混乱。同时,它支持多人协作和交互模拟,设计师在做原型、跟团队配合的时候都能更高效,减少重复操作,提升整体工作效率。
    适合谁用:团队项目、UX/UI设计师。
    image.png

选对工具真的能省太多事,原本要花几天甚至一周的原型工作,现在几小时就能搞定,让设计工作变得更轻松。说到底,要是想真正体验高效的AI原型设计,国内首选肯定是UXbot。不管你是产品经理、UI/UX设计师,还是开发协作团队,它都能帮你从文字或草图,快速生成高保真原型、自动整理设计文档,甚至直接输出代码,让设计交付又快又高效。

背景

随着全民健身意识的提升,传统健身房的运营模式面临着信息传递滞后、预约流程繁琐、数据统计困难等挑战。本设计旨在开发一款基于微信小程序的健身房轻量化服务平台,实现线上线下服务闭环。系统采用前后端分离架构,前端基于微信小程序开发,后端采用Java SpringBoot框架,数据库选用MySQL。系统主要包含用户端和管理端两大模块:用户端提供栏目浏览、在线注册、私教/团课/场地预约、个人中心管理等功能;管理端提供内容维护、预约规则设置、扫码核销、数据导出及权限管理等能力。测试结果表明,该系统有效提升了会员健身体验,优化了场馆运营效率,实现了服务质量的量化管理。

相关技术

微信小程序开发技术

介绍微信小程序框架特点(无需安装、触手可及)。
开发工具:微信开发者工具。

Java SpringBoot框架

介绍SpringBoot的快速开发特性、自动配置原理及其在后端服务中的优势。
开发环境:JDK 1.8+,IDEA。

MySQL数据库

介绍关系型数据库在存储用户信息、预约记录中的应用。
版本要求:MySQL 8.0+,字符集utf8mb4。

开发工具链

后端:IntelliJ IDEA
数据库管理:Navicat 16+
前端:微信开发者工具

系统需求分析

  • 会员角色:需要快速获取门店动态、学习健身知识、便捷预约教练/课程/场地、管理个人预约记录。
  • 管理员角色:需要发布资讯、灵活设置预约规则、核销用户到店、导出经营数据、管理用户账号。

功能分析

在这里插入图片描述

系统设计

  • 采用B/S架构与C/S架构结合(小程序端+C端管理入口)。
  • 前后端分离:前端通过API与后端SpringBoot交互。

数据库设计

  • 用户表:存储用户ID、微信OpenID、姓名、年龄、联系方式等。
  • 栏目内容表:存储文章标题、内容、类型(动态/干货/饮食)、发布时间。
  • 预约项目表:存储项目名称、类型(私教/团课/场地)、可预约时段、最大人数。
  • 预约记录表:存储用户ID、项目ID、预约时间、状态(已预约/已完成/已取消/已核销)。
  • 管理员表:存储账号、密码、角色权限。
CREATE TABLE `sys_user` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT '主键ID',
  `openid` varchar(64) NOT NULL COMMENT '微信OpenID',
  `username` varchar(50) DEFAULT NULL COMMENT '用户昵称',
  `phone` varchar(20) DEFAULT NULL COMMENT '联系电话',
  `age` int(3) DEFAULT NULL COMMENT '年龄',
  `gender` tinyint(1) DEFAULT 0 COMMENT '性别 0:未知 1:男 2:女',
  `create_time` datetime DEFAULT CURRENT_TIMESTAMP COMMENT '注册时间',
  `status` tinyint(1) DEFAULT 1 COMMENT '状态 1:正常 0:禁用',
  PRIMARY KEY (`id`),
  UNIQUE KEY `uk_openid` (`openid`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='用户信息表';
CREATE TABLE `gym_project` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `name` varchar(100) NOT NULL COMMENT '项目名称',
  `type` varchar(20) NOT NULL COMMENT '类型:PRIVATE(私教), GROUP(团课), VENUE(场地)',
  `coach_name` varchar(50) DEFAULT NULL COMMENT '教练姓名(私教/团课用)',
  `max_capacity` int(11) NOT NULL DEFAULT 1 COMMENT '最大容纳人数/场次',
  `price` decimal(10,2) DEFAULT 0.00 COMMENT '价格',
  `description` text COMMENT '项目详情',
  `is_available` tinyint(1) DEFAULT 1 COMMENT '是否上架',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='预约项目表';
CREATE TABLE `gym_reservation` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `user_id` bigint(20) NOT NULL COMMENT '用户ID',
  `project_id` bigint(20) NOT NULL COMMENT '项目ID',
  `reserve_date` date NOT NULL COMMENT '预约日期',
  `reserve_time_slot` varchar(50) NOT NULL COMMENT '预约时段 如 14:00-15:00',
  `verify_code` varchar(32) NOT NULL COMMENT '核销码/二维码内容',
  `status` tinyint(2) NOT NULL DEFAULT 0 COMMENT '状态: 0-已预约 1-已核销 2-已取消 3-已过期',
  `create_time` datetime DEFAULT CURRENT_TIMESTAMP,
  `verify_time` datetime DEFAULT NULL COMMENT '核销时间',
  `verify_admin_id` bigint(20) DEFAULT NULL COMMENT '核销管理员ID',
  PRIMARY KEY (`id`),
  KEY `idx_user_id` (`user_id`),
  KEY `idx_status` (`status`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='预约记录表';
CREATE TABLE `sys_admin` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `username` varchar(50) NOT NULL COMMENT '账号',
  `password` varchar(100) NOT NULL COMMENT '加密密码',
  `role` varchar(20) NOT NULL COMMENT '角色:SUPER_ADMIN, NORMAL_ADMIN, VERIFIER(核销员)',
  `create_time` datetime DEFAULT CURRENT_TIMESTAMP,
  PRIMARY KEY (`id`),
  UNIQUE KEY `uk_username` (`username`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='管理员表';

后端核心代码 (SpringBoot)

@Service
public class ReservationService {

    @Autowired
    private ReservationMapper reservationMapper;
    
    @Autowired
    private ProjectMapper projectMapper;

    /**
     * 用户发起预约
     * @param userId 用户ID
     * @param dto 预约参数包含项目ID、日期、时段
     * @return 预约结果
     */
    @Transactional(rollbackFor = Exception.class)
    public Result<Void> createReservation(Long userId, ReservationDTO dto) {
        // 1. 查询项目信息
        GymProject project = projectMapper.selectById(dto.getProjectId());
        if (project == null || !project.getIsAvailable()) {
            return Result.fail("该项目暂未开放预约");
        }

        // 2. 检查该时段剩余名额 (并发场景下建议使用数据库乐观锁或Redis锁,此处演示基础逻辑)
        int bookedCount = reservationMapper.countByProjectAndSlot(
            dto.getProjectId(), dto.getReserveDate(), dto.getReserveTimeSlot(), 0);
        
        if (bookedCount >= project.getMaxCapacity()) {
            return Result.fail("该时段名额已满,请更换时间");
        }

        // 3. 生成唯一核销码 (UUID + 时间戳)
        String verifyCode = UUID.randomUUID().toString().replace("-", "");

        // 4. 插入预约记录
        GymReservation reservation = new GymReservation();
        reservation.setUserId(userId);
        reservation.setProjectId(dto.getProjectId());
        reservation.setReserveDate(dto.getReserveDate());
        reservation.setReserveTimeSlot(dto.getReserveTimeSlot());
        reservation.setVerifyCode(verifyCode);
        reservation.setStatus(0); // 0: 已预约
        
        reservationMapper.insert(reservation);

        return Result.success("预约成功,请前往个人中心查看核销码");
    }

    /**
     * 管理员扫码核销
     */
    @Transactional(rollbackFor = Exception.class)
    public Result<Void> verifyReservation(String verifyCode, Long adminId) {
        GymReservation reservation = reservationMapper.selectByVerifyCode(verifyCode);
        
        if (reservation == null) {
            return Result.fail("无效的核销码");
        }
        if (reservation.getStatus() != 0) {
            return Result.fail("该预约状态不可核销 (当前状态:" + reservation.getStatus() + ")");
        }

        // 更新状态为已核销,记录核销人和时间
        reservation.setStatus(1);
        reservation.setVerifyAdminId(adminId);
        reservation.setVerifyTime(new Date());
        
        reservationMapper.updateById(reservation);
        return Result.success("核销成功");
    }
}
@RestController
@RequestMapping("/api/admin/export")
public class ExportController {

    @Autowired
    private ReservationService reservationService;

    /**
     * 导出预约数据 Excel
     * @param startDate 开始日期
     * @param endDate 结束日期
     * @param response HttpServletResponse
     */
    @GetMapping("/reservations")
    public void exportReservations(@RequestParam String startDate, 
                                   @RequestParam String endDate, 
                                   HttpServletResponse response) throws IOException {
        // 设置响应头
        response.setContentType("application/vnd.openxmlformats-officedocument.spreadsheetml.sheet");
        response.setCharacterEncoding("utf-8");
        String fileName = "健身预约数据_" + System.currentTimeMillis() + ".xlsx";
        response.setHeader("Content-disposition", "attachment;filename=" + URLEncoder.encode(fileName, "UTF-8"));

        // 查询数据
        List<ReservationVO> data = reservationService.getReservationList(startDate, endDate);

        // 使用 EasyExcel 写入流
        EasyExcel.write(response.getOutputStream(), ReservationVO.class)
                 .sheet("预约明细")
                 .doWrite(data);
    }
}

部署步骤

数据库部署:使用Navicat连接MySQL,运行初始化SQL。
后端部署:IDEA导入Maven项目,安装依赖,运行SmartWorkApplication.java。
前端部署:微信开发者工具导入项目,编译上传(或本地调试)。
初始化管理:使用默认超级管理员(admin/123456)登录,修改密码并添加子账号。

常见问题与解决方案

依赖包缺失问题(Maven install)。
数据库字符集不匹配问题(升级MySQL至8.0+)。
前后端端口不一致导致的连接失败。

UI设计

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

后台管理系统设计

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

git代码下载

点击下载

做产品设计时,画原型往往是最费时间的环节。从梳理需求、排版布局,到反复修改调整,产品经理和设计师得投入大量时间和精力。不过现在不一样了,借助AI生成APP原型工具,几分钟就能做出带交互逻辑的原型页面,省下来的时间能专注做更核心的事。今天就给大家整理了5款目前市场上好用又成熟的AI原型设计工具,不管你是产品经理、UI设计师,还是独立开发者,都值得收藏起来备用。

  1. Uizard
    这是海外一款很资深的AI设计平台,特别适合没有设计基础的人,用来做早期需求验证。它最亮眼的功能就是“草图识别”——你可以在纸上画一个简单的APP线框图,用手机拍下来上传,Uizard的AI就能自动把它转换成可编辑的数字版原型。另外,它的Autodesigner功能,也能通过自然语言,直接生成多页面的APP高保真原型流,操作很简单。
    image.png
  2. UXbot
    这是一款集高保真网页和应用界面设计、交互式原型以及Web、iOS、Android前端代码制作于一体的平台的工具。只需要输入一句话,UXbot就会自动学习目前市面上所有的UI页面,并生成视觉超精美的UI设计界面。而且她生成的是层次清晰、逻辑连贯且可交互的UI页面。(例如输入:生成一个app商城的UI界面,要求有有首页、商品页、下单、个人中心等)生成后可随意调布局、改样式、换图文,操作简单,非专业设计师也能上手,贴合实际需求。
    image.png
  3. Create.xyz
    这款工具的核心是通过自然语言,生成完整的交互原型。和那些只生成静态界面的工具不一样,它更侧重生成可用的交互组件。你用日常话描述APP功能就行,比如“做一个待办事项列表,点击能打勾并划掉已完成的内容”,AI就会直接生成带这个逻辑的交互原型,特别适合用来快速验证MVP(最小可行性产品),或者做功能演示。
    image.png
  4. Appy Pie AI
    Appy Pie是海外知名的无代码平台,它内置的AI App Generator,能通过简单的文本提示,直接生成APP原型框架。它的目标用户主要是业务人员或创业者,你只要描述自己的业务模式,比如“我想做一个宠物寄养预约的APP”,它就会自动规划需要的功能模块,生成对应的原型页面。虽然视觉定制化程度不如专业设计工具,但用来梳理早期业务逻辑和页面层级,能给你不错的参考。
    image.png
  5. Framer AI
    Framer是海外很火的交互原型和建站工具,加上AI功能后,原型生成能力更厉害了。在Framer里输入你的应用构思,AI几秒钟就能生成一个结构完整的响应式页面,还会自动搭配好色彩主题和排版布局。它最突出的优势是微交互特别流畅,要是你需要给客户展示动效丰富、逻辑顺畅的APP高保真原型,用它能省很多手动调参的时间。
    image.png

上面这5款AI生成APP原型工具,在草图识别、高保真视觉、代码生成等方面各有优势。如果你想找一款即真正懂国内业务场景的全能型工具,强烈推荐你试试UXbot。
它不仅能用中文对话快速生成可编辑的原型页面,还能无缝衔接你平时的工作流,真正让AI帮你省时间、提效率。

aborted. The agent has seen this error and will try a different approach to write the file if needed.

Error(s) while generating properties based on requirements

这两个 error 频繁出现,要不是它的 spec driven 模式能生成 tasks ,一点都不想用它。

大家好,我目前在寻找一份 远程全职 的机会。
我曾担任 吴恩达旗下 DeepLearning.AI 的首位全栈工程师,曾 0-1 独立完成 DeepLearning.AI 在线学习平台的搭建;
10 年全栈开发经验,做过 AI 学习平台、AI 教育产品、AI 设计工具等项目,比较擅长 从 0 到 1 搭建产品,并将大模型 / Agent 能力落地到业务中

我有 10 年全栈开发经验,过去主要做过:

  • AI 数学教育产品
  • AI Logo 设计平台
  • 在线 AI 视频学习平台
  • 大数据分析平台

我比较擅长的是:从 0 到 1 搭建完整 Web 产品,以及将 大模型、Agent 能力落地到真实业务中


0-1 建站项目


我的技术方向

前端

  • React

后端

  • Python / Java / Node.js

数据库

  • PostgreSQL / MongoDB / Redis

部署运维

  • Docker / AWS / 阿里云

AI 应用方向

  • OpenAI / Claude 等大模型 API 接入
  • AI Chat / AI Assistant
  • 简单到中等复杂度的 Agent / 工作流系统
  • AI 教育类产品 / 文生图 / 图像处理类应用


我能做什么

我比较适合承担下面这类工作:

  • 从 0 到 1 搭建一个 Web 产品
  • 独立完成前后端 + 数据库 + 部署上线整套链路
  • 实现简单到中等复杂度的 Agent


过往经历简述

过去做过一些 AI 教育和生成式 AI 相关产品,包括:

  • 在线 AI 视频学习平台
  • 在线 AI 编码学习平台
  • AI 数学教育产品
  • AI Logo 设计平台

其中部分项目达过百万级用户量,
我 5 年长期远程工作,比较熟悉远程开发、跨角色协同和独立推进工作。


我的工作方式

我比较偏 结果导向,能独立推进需求,沟通直接,执行力强,认真负责。
如果你的团队需要一位能够同时覆盖:

  • 前端
  • 后端
  • AI 接入
  • 数据库设计
  • 海内外平台部署上线

的工程师,欢迎联系我聊聊。


可承接方向

  • AI 聊天 / 问答 / Agent 应用
  • AI 教育类产品
  • 文生图 / 图像处理类业务
  • 支付 / 登录 / 会员 / 权限等通用业务模块开发
  • 大数据分析平台


联系方式

有合适机会欢迎直接联系或者帖子留言交流,
也欢迎朋友帮忙内推,感谢大家。

大家好,

我是一个英语/外刊爱好者。平时很喜欢看《 The New Yorker 》(纽约客),不仅是练英语,也是为了看里面的深度长文。

但在 PC 和手机端阅读时,痛点一直很明显:生词多需要来回查词、网页端排版复杂、市面上很多双语阅读网站充斥着各种广告,阅读体验非常割裂。

苦于找不到趁手的工具,于是我干脆自己动手写了一个纯净版的《纽约客》中英双语阅读网站。

🔗 网站地址gazerdaily.com

目前实现的核心功能:

  1. 极简排版: 没有任何花里胡哨的广告和弹窗,只保留纯粹的阅读区域,自适应了移动端和 PC 端。
  2. 高质量双语对照:段落级别的中英文精准对照。
  3. 每日更新:新鲜度拉满。

为什么发到这里:

网站刚刚上线 V1.0 版本,可能还存在一些 Bug 或者体验不佳的地方。V2EX 的老哥们技术和审美都在线,非常希望大家能帮忙体验一下,拍砖、提建议、找 Bug 都极其欢迎!

后续我会根据大家的反馈持续迭代(比如加入单词高亮、夜间模式等功能)。

感谢大家的时间!

我看到这个帖子的时候,马上开始自测,仅靠脑补,用时 60 多秒,硬的不敢起来走路了

兄弟们,你们仅靠脑补,多久能硬起来

看到此帖,立马开始计时

说一下个人背景,30 了,算上公积金和父母的支援,手里有 85 个,目前单身,以后的工作大概率一直在一街到五街。

迫于年龄到了开始看房,整体思路还是以最近 5 年的通勤优先,学区无所谓,反正离有小孩还早,之后再置换就好了,所以自身的诉求就是:上班近、价格合适、户型合适。

然后最近看中一个小区蓝岸丽景,在华阳板块,楼龄很老 08 年的,但是真的很便宜,户型也很好,上班也近,套二讲讲价感觉一百万就能拿下。

然后发给几个朋友看了以后,大家都觉的这房子太老了,板块也不行(华阳普遍脏乱差的感觉),不好出手。

但我感觉,不好出手主要是因为卖高了,再跌个 20 万,不可能不好出手。

而且吧,我自己的预算就是总价一百万左右,我对成都目前的楼市行情还是很悲观,看了看各个小区的历史成交价格,基本上下跌的势头都没有停止,如果到明后年,说不定还会跌个 20%。

如果选一个房龄新且近的,那总预算可能就得奔 150 去了,但是 150 算上贷款,如果跌 20%,那我可能就要亏 30-40 万了。

而 100W 的房子,再跌也跌不到 60W 去,我目前心里的底线就是跌到 80W 左右。(总的思想就是房价越贵跌的越多,所以自己内心期望是找个便宜的)

大家有什么建议吗?

事情是这样的 周末电动车后鼓刹坏了,一直显示正在刹车,用手往前顶才能正常骑行。

去了第一个雅迪店,雅迪店说我这个车把摔断了,需要换把手 90 元。直觉告诉我有问题,这跟把手有什么关系?

然后我就去找了旁边不远处露天的修车大爷他说你这个是闸线松了,然后鼓刹里边锈死了,导致的。
经过研究诊断,发现闸线那头也锈死了,拧不下来,最终换了一条闸线和鼓刹总成模块,花费 110 元。但是我在 pdd 搜索 发现这两个配件只需要不到 20 块就能买一套,花费时长 20 分钟搞定。

35 失业后去修电动车是不是也不错?感觉月入过万比较容易

此乃鼓刹总成 我一开始以为很贵 比较看着还比较值钱。。

可以看到用的是 nextjs+tailwind+daisyui,但是具体的论坛功能的实现是基于某些现有的开源框架么?有了解的 pu 么?