客服热线:010-62958599

NVIDIA H200 GPU
¥80000

型号:NVIDIA H200 GPU

产品特征

内存技术,搭载 141GB HBM3e内存,带宽高达 4.8TB/s

第四代张量核心,与 H100 相同的第四代张量核心技术,支持更高效的深度学习和推理

安全多实例GPU(MIG)

第四代 NVLink,提供高达 900GB/s 的双向带宽

推理性能,在处理如 Llama2 70B 等大语言模型时,推理性能是 H100 的 2 倍

  • 商品详情
  • 资料下载(PDF)

NVIDIA H200 Tensor核心GPU是基于Hopper架构的最新一代高性能计算和生成式人工智能加速器,专为处理复杂的AI推理和高性能计算(HPC)任务而设计。


品牌

NVIDIA英伟达

型号

H200 141GB SXM

货号

H200 141GB SXM

产品尺寸

268mmX111mm双槽

芯片厂方

NVIDIA

芯片型号

H200 141GB SXM

接口

PCIe

显存容量

141GB

核心位宽

5120bit

显卡插槽

PCIe 5.0 x16

显存类型

HBM2e/3

显存位宽

6144-bit

核心频率

1000MHzMHz)

显存频率

1593MHzMHz)

流处理器单元

14592(个)

3D API

DirectX 12

 

显存与带宽

H200是首款搭载HBM3e显存的GPU,显存容量达到141GB,显存带宽高达每秒4.8TB,相较于H100的3.35TB/s提升了1.4倍。这种更大的显存容量和更快的带宽显著加速了生成式AI和高性能计算任务的数据处理能力。

高性能计算(HPC)加速

H200在科学计算和模拟任务中表现出色,其高达110倍的性能提升(相较于传统CPU)得益于更高的显存带宽和优化的计算架构。这使其在内存密集型应用(如科学研究和模拟)中具有显著优势。

能效与成本优化

H200在提供卓越性能的同时保持了与H100相同的功耗设置(最高700W),但其能源效率更高,总体拥有成本(TCO)更低。这使其在AI工厂和超级计算系统中不仅更快速,还更环保。

适用场景

H200适用于生成式AI、科学计算、企业AI推理等多种场景,并支持NVIDIA AI Enterprise软件,简化AI开发和部署流程。


TOP
×