NVIDIA A800 | 深度学习 高性能运算 GPU

英伟达A800|NVIDIA A800 Tensor Core GPU - 6912个 NVIDIA CUDA 核数,40/80GB GDDR6 显存,最大功耗 300瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长;3年质

英伟达A800|NVIDIA A800 Tensor Core GPU - 6912个 NVIDIA CUDA 核数,40/80GB GDDR6 显存,最大功耗 300瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长;3年质

型号
NVIDIA A800
编号
900-21001-0030-100
价格
电话联系
热线
010-62561234;166 0112 1168
商家
保修
原厂全国联保
结算
银行汇款/转账支票
一、概况
NVIDIA A800是由英伟达公司生产,专为高性能计算和人工智能工作负载而设计的高端专业显卡,具有强大的计算能力和丰富的技术规格英伟达A800 型号是为了解决美国商务部对中国出口限制用来替代A100 GPU的一款中国区特供型号,已经在2022年三季度起投产。
新的A800可以替代A100,两者都是GPU(图形处理单元)处理器。 英伟达A800 GPU PCIe 版本的 技术参数数据略低于NVIDIA A100,数据传输速率为每秒400GB,而A100的每秒600GB,因此与A100相比其性能略有降低;但其他参数变化不大。

二、特性
NVIDIA AMPERE 架构
无论是使用 MIG 将 A800 GPU 分割为较小的实例,还是使用 NVLink连接多个 GPU 来加速大规模工作负载,A100 均可轻松满足不同规模的加速需求,从小型作业到大型多节点工作负载无一例外。A800 功能全面,这意味着 IT 经理可借此全天候充分利用数据中心内的每个 GPU。
第三代 TENSOR CORE 技术
NVIDIA A800 的深度学习运算能力可达 312 teraFLOPS(TFLOPS)。其深度学习训练的Tensor 每秒浮点运算次数(FLOPS)和推理的 Tensor 每秒万亿次运算次数(TOPS)皆为NVIDIA Volta GPU 的 20 倍。
新一代 NVLINK
A800 中采用的 NVIDIA NVLink可提供两倍于上一代的吞吐量。与 NVIDIA NVSwitch 结合使用时,此技术可将多达 16 个 A800 GPU 互联,并将速度提升至 600GB/s,从而在单个服务器上实现出色的应用性能。NVLink 技术可应用在 A800 中:SXM GPU 通过 HGX A100 服务器主板连接,PCIe GPU 通过 NVLink 桥接器可桥接多达 2 个 GPU。
多实例 GPU (MIG)
一个 A800 GPU 最多可分割成七个GPU 实例,这些实例在硬件级别完全独立,并独自拥有高带宽显存、缓存和计算核心。借助 MIG,开发者可为其所有应用实现惊人加速,IT 管理员也可为每个作业提供符合其规模的 GPU 加速,进而优化GPU 利用率,并让每个用户和应用都能使用 GPU实例。
高带宽显存(HBM2E)
凭借 80GB 的高带宽显存(HBM2e),A800 成为世界首款将显存带宽提升至超过 2TB/s 的GPU,并将动态随机存取存储器(DRAM)的利用效率提高至 95%。A800 提供的显存带宽是上一代产品的 1.7 倍。
结构化稀疏
AI 网络拥有数百万至数十亿个参数。实现准确预测并非要使用所有参数,而且我们还可将某些参数转换为零,以在无损准确性的前提下使模型变得“稀疏”。A800 中的 Tensor Core 可令稀疏模型的性能获得高达两倍的提升。稀疏功能不仅更容易使 AI 推理受益,同时还能提升模型的训练性能。
NVIDIA A800 Tensor Core GPU 是 NVIDIA 数据中心平台的旗舰产品,可用于深度学习、HPC 和数据分析。该平台可为 2000 余款应用和各大深度学习框架提供加速。A800适用于桌面、服务器以及云服务,不仅能显著提升性能,还能创造众多节约成本的机会。
 
三、规格
FP64 9.7 TFLOPs
FP64 Tensor Core 19.5 TFLOPS
FP32 19.5 TFLOPS
Tensor Float 32 (TF32) 156 TFLOPS | 312 TFLOPS*
BFLOAT16 Tensor Core 312 TFLOPS | 624 TFLOPS*
FP16 Tensor Core
  • 312 TFLOPS | 624 TFLOPS*
INT8 Tensor Core 624 TOPS | 1248 TOPS*
GPU Memory
  • 40GB HBM2/80GB HBM2e
GPU Memory Bandwidth A800 40GB GPU PCIe : 1,555GB/s
A800 80GB GPU PCIe : 1,935GB/s
A800 80GB GPU SXM : 2,039GB/s
Max Thermal Design Power (TDP)
  • A800 40GB GPU PCIe : 250W
    A800 80GB GPU PCIe : 300W
    A800 80GB GPU SXM : 400W***
Multi-Instance GPU
  • A800 40GB GPU PCIe : Up to 7 MIGs @ 5GB
    A800 80GB GPU PCIe : Up to 7 MIGs @ 10GB
    A800 80GB GPU SXM : Up to 7 MIGs @ 10GB
Form Factor
  • PCIe : NVIDIA® NVLink® Bridge for 2 GPUs: 400GB/s **
  •            PCIe Gen4: 64GB/
  • SXM : NVLink: 400GB/s
  •            PCIe Gen4: 64GB/s
Server Options PCIe : Partner and NVIDIA-Certified Systems™ with 1-8 GPUs
SXM : NVIDIA HGX™ A800-Partner and NVIDIA-Certified Systems with 4 or 8 GPUs

*With sparsity
** SXM4 GPUs via HGX A800 server boards; PCIe GPUs via NVLink Bridge for up to two GPUs
***400W TDP for standard configuration. HGX A800-80GB CTS (Custom Thermal Solution) SKU can support TDPs up to 500W

最新动态


© Copyright 2024 Netland Technology Co., Ltd. 版权所有 北京网络天地科技发展有限公司