标签 NVIDIA 下的文章

如果你拥有一个纯净的 Ubuntu 22.04 环境,想要一次性配置好“AI 全家桶”开发环境,最稳妥、最标准的方法是遵循 NVIDIA 网络仓库安装流程

这套流程不仅会安装编译器(nvcc),还会安装驱动(Driver)、数学库(cuBLAS/cuDNN)以及开发工具,确保你后续安装 flash-attnvLLMDeepSpeed 时一马平川。

第一步:基础环境准备

首先确保系统有基础的下载和编译工具:

sudo apt update
sudo apt install -y build-essential charts-common wget curl git

第二步:配置 NVIDIA 官方仓库 (最关键)

通过官方提供的 cuda-keyring,让 apt 能够获取到所有 AI 相关的专用包。

# 1. 下载官方密钥配置包
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb

# 2. 安装密钥配置包
sudo dpkg -i cuda-keyring_1.1-1_all.deb

# 3. 更新仓库索引
sudo apt update

第三步:一键安装 CUDA + 驱动 + cuDNN

在纯净环境下,你可以直接安装 cuda 完整包,它会自动帮你匹配并安装最合适的显卡驱动。

# 安装 CUDA 完整版(包含驱动、Toolkit、示例、NVCC 等)
sudo apt -y install cuda

# 安装深度学习必备的 cuDNN 库
sudo apt -y install libcudnn9-cuda-12

注:由于我们正处在 2026 年,如果系统提示找不到 libcudnn9,可以尝试 sudo apt install libcudnn-cuda-12 来获取最新的兼容版本。


第四步:永久配置环境变量

安装在 /usr/local/cuda 的工具如果不加进 PATH,系统是识别不到 nvcc 的。

# 将配置写入当前用户的 .zshrc (如果是 bash 则改为 .bashrc)
echo 'export CUDA_HOME=/usr/local/cuda' >> ~/.zshrc
echo 'export PATH=$CUDA_HOME/bin:$PATH' >> ~/.zshrc
echo 'export LD_LIBRARY_PATH=$CUDA_HOME/lib64:$LD_LIBRARY_PATH' >> ~/.zshrc

# 立即生效
source ~/.zshrc

第五步:验证安装

运行以下两条命令,如果都能看到信息,说明你的 AI 塔基已经打好了:

  1. nvidia-smi:检查显卡驱动和硬件状态。
  2. nvcc --version:检查 CUDA 编译器是否就绪。

进阶:针对 AI 开发的额外补充

为了让你以后跑模型更顺滑,建议顺手装上这几个库:

  1. NCCL(多显卡通信库,分布式训练必装):

    sudo apt install libnccl2 libnccl-dev
    
  2. NVML(监控库):通常已随驱动安装。

总结你的“一键式”清单:

  1. dpkg -i cuda-keyring... (换源)
  2. apt install cuda (装驱动+工具链)
  3. apt install libcudnn... (装深度学习加速库)
  4. export PATH... (设环境变量)

当你完成这些后,再去你的虚拟环境中安装 flash-attn,它就会自动找到 nvcc 并开始愉快的编译了。需要我帮你写一个自动执行这些步骤的 .sh 脚本吗?

英伟达(NVIDIA)发布了一套涵盖语言、智能体系统、机器人技术、自动驾驶和生物医学研究的开放模型、数据集和开发工具。此次更新扩展了多个现有的 NVIDIA 模型家族,并通过 GitHub、Hugging Face 和 NVIDIA 的开发者平台提供了相应的训练数据和参考实现。

 

在代理式 AI 领域,NVIDIA 扩展了 Nemotron 模型家族,为语音识别、检索增强生成和安全提供了新的组件。Nemotron Speech 包括针对低延迟、实时用例优化的自动语音识别模型。Nemotron RAG 引入了用于多模态文档搜索和检索流程的嵌入和重排视觉语言模型。Nemotron Safety 增加了用于内容过滤和敏感或个人身份信息检测的更新模型。NVIDIA 还发布了用于选定 Nemotron 模型的数据集和训练代码,包括在公共基准上评估的嵌入模型。

 

对于机器人技术和物理 AI,NVIDIA 引入了新的 Cosmos 世界基础模型,这些模型支持在真实环境中的感知、推理和合成数据生成。Cosmos Reason 2 是一个多模态推理模型,旨在增强智能体在物理环境中操作的场景理解。Cosmos Transfer 2.5 和 Cosmos Predict 2.5 专注于在不同环境和条件下生成合成视频数据,支持仿真和数据增强工作流程。基于 Cosmos,NVIDIA 发布了 Isaac GR00T N1.6,这是一个用于人形机器人的开放视觉-语言-动作模型,支持全身控制并将视觉感知与动作规划集成。

 

公告的一个组成部分是 NVIDIA Alpamayo,一个用于基于推理的自动驾驶的新开放模型家族。Alpamayo 结合了感知、规划和可解释性,采用视觉-语言-动作架构,并与仿真工具和大规模驾驶数据集相匹配。NVIDIA 还引入了 AlpaSim,这是一个用于自动驾驶汽车模型闭环评估的开源仿真框架。

 

据 NVIDIA 汽车部门负责人吴信洲表示,Alpamayo 和相关工具反映了跨研究、模拟、数据工程、安全和集成团队多年的开发努力。吴指出,这项工作涉及广泛的道路测试、使用 Cosmos 等平台进行持续的大规模模拟,以及与包括梅赛德斯-奔驰在内的汽车合作伙伴的紧密合作,计划在即将推出的量产车辆中进行初步部署。

 

医疗保健和生命科学更新通过新的 NVIDIA Clara 模型提供。这些包括用于原子级蛋白质设计的 La-Proteina,用于合成感知药物设计的 ReaSyn v2,用于早期安全和相互作用预测的 KERMT,以及用于 RNA 结构建模的 RNAPro。NVIDIA 还发布了一个包含 45.5 万个合成蛋白质结构的数据集,以支持该领域的训练和评估。

 

所有模型和数据集均在开放许可下发布,可通过 GitHub 和 Hugging Face 访问。NVIDIA 表示,许多模型还被打包为 NIM 微服务,以便在从本地推理环境到云基础设施的 NVIDIA 加速系统上部署。

 

https://www.infoq.com/news/2026/01/nvidia-open-models/

贴个原报道的 ai 翻译

it 之家也有引用


📌 转载信息
原作者:
GYMo
转载时间:
2026/1/2 14:31:57