NVIDIA英伟达H100、H800与H200服务器GPU算力租赁

发布时间:2024/10/6 11:20:00

NVIDIA英伟达H100、H800与H200人工智能服务器为各类数据中心提供出色的性能、可扩展性和安全性,加速计算的数量级飞跃。

通过 NVIDIA H100 Tensor Core GPU,在每个工作负载中实现出色性能、可扩展性和安全性。使用 NVIDIA? NVLink? Switch 系统,可连接多达 256 个 H100 来加速百亿亿级 (Exascale) 工作负载,另外可通过专用的 Transformer 引擎来处理万亿参数语言模型。与上一代产品相比,H100 的综合技术创新可以将大型语言模型的速度提高 30 倍,从而提供业界领先的对话式 AI。

准备好迎接企业 AI 了吗?

企业采用 AI 现已成为主流,企业组织需要端到端的 AI 就绪型基础架构,加快自身迈向新时代的步伐。

适用于主流服务器的 H100 随附五年期 NVIDIA AI Enterprise 软件套件订阅(包括企业支持),能够以强大的性能简化 AI 的采用。这可确保组织能够访问构建 H100 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天机器人、推荐引擎和视觉 AI 等。

 

NVIDIA英伟达H100、H800与H200人工智能服务器GPU算力租赁配置参数:

项目

标准配置

框架

8U 机架式服务器

处理器

2 颗至强 Platinum 8468

48 核/3.8GHz 主频/105MB 缓存

内存

DDR5   4800MHz ECC 内存容量 1TB

GPU

NVIDIA   HGX H100H800或H200  GPU 模组

系统硬盘

M.2   NVMe PCIe 接口  2TB   SSD

数据硬盘

2*10TB   企业级 SATA 硬盘

RAID   10 阵列配置

InfiniBand   网络

200G/双端口/QSFP56

Ethernet   网卡

OCP 网卡/双电口/10G

PICE   插槽

9 个   PCIe 5.0 扩展插槽

电源

6*3000W,2*2700W,AC220   输入

风扇

10 个   54V 风扇组

操作系统

Windows   Server/RedHat Enterprise Linux/SUSE Linux Enterprise

Server/CentOS/Ubuntu/Vmware   EXSi

工作温度

+5°~+35°

其他接口

机箱后部:1 个 RJ45 管理接口,2 个 USB 3.0,1 个 VGA

机箱前部:2   个 USB 3.0,1 个 VGA

整机净重

120KG(以实际配置为准)

 

安全地加速从企业级到百亿亿次级规模的工作负载

实时深度学习推理

超大模型的 AI 推理性能提升高达 30 倍

HPC 应用的性能提升高达 7 倍

百亿亿次级高性能计算

加速数据分析

为企业提高资源利用率

内置机密计算

为大规模 AI 和高性能计算提供出色的性能