-
图文详情
-
产品属性
-
相关推荐
NVIDIA英伟达H100、H800与H200人工智能服务器为各类数据中心提供出色的性能、可扩展性和安全性,加速计算的数量级飞跃。
通过 NVIDIA H100 Tensor Core GPU,在每个工作负载中实现出色性能、可扩展性和安全性。使用 NVIDIA? NVLink? Switch 系统,可连接多达 256 个 H100 来加速百亿亿级 (Exascale) 工作负载,另外可通过专用的 Transformer 引擎来处理万亿参数语言模型。与上一代产品相比,H100 的综合技术创新可以将大型语言模型的速度提高 30 倍,从而提供业界领先的对话式 AI。
准备好迎接企业 AI 了吗?
企业采用 AI 现已成为主流,企业组织需要端到端的 AI 就绪型基础架构,加快自身迈向新时代的步伐。
适用于主流服务器的 H100 随附五年期 NVIDIA AI Enterprise 软件套件订阅(包括企业支持),能够以强大的性能简化 AI 的采用。这可确保组织能够访问构建 H100 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天机器人、推荐引擎和视觉 AI 等。
NVIDIA英伟达H100、H800与H200人工智能服务器GPU算力租赁配置参数:
项目 | 标准配置 |
框架 | 8U 机架式服务器 |
处理器 | 2 颗至强 Platinum 8468 48 核/3.8GHz 主频/105MB 缓存 |
内存 | DDR5 4800MHz ECC 内存容量 1TB |
GPU | NVIDIA HGX H100、H800或H200 GPU 模组 |
系统硬盘 | M.2 NVMe PCIe 接口 2TB SSD |
数据硬盘 | 2*10TB 企业级 SATA 硬盘 RAID 10 阵列配置 |
InfiniBand 网络 | 200G/双端口/QSFP56 |
Ethernet 网卡 | OCP 网卡/双电口/10G |
PICE 插槽 | 9 个 PCIe 5.0 扩展插槽 |
电源 | 6*3000W,2*2700W,AC220 输入 |
风扇 | 10 个 54V 风扇组 |
操作系统 | Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise Server/CentOS/Ubuntu/Vmware EXSi |
工作温度 | +5°~+35° |
其他接口 | 机箱后部:1 个 RJ45 管理接口,2 个 USB 3.0,1 个 VGA 机箱前部:2 个 USB 3.0,1 个 VGA |
整机净重 | 120KG(以实际配置为准) |
安全地加速从企业级到百亿亿次级规模的工作负载
实时深度学习推理
超大模型的 AI 推理性能提升高达 30 倍
HPC 应用的性能提升高达 7 倍
百亿亿次级高性能计算
加速数据分析
为企业提高资源利用率
内置机密计算
为大规模 AI 和高性能计算提供出色的性能