NVIDIA Tesla V100

当今市场上数据中心 GPU 中的精尖之作

欢迎进入人工智能时代


各行各业都希望实现智能化,不断扩张的数据海洋中暗藏着可推动行业变革的真谛。无论是个性化癌症治疗方案、预测下一场飓风,还是能自如交谈的虚拟助手。只要数据科学家得到实现其毕生事业所需的工具,这些机遇即可变为现实。

NVIDIA® Tesla® V100 是当今市场上极其先进的数据中心 GPU,能加快人工智能、高性能计算和图形技术的发展。Tesla V100 采用新一代 GPU 架构(即 NVIDIA Volta),可在一个 GPU 中提供 100 个 CPU 的性能,让数据科学家、研究人员和工程师能够解决以前无法解决的难题。

AI Training

人工智能训练

从语音识别到训练虚拟个人助理和教会自动驾驶汽车自动驾驶,数据科学家们正利用人工智能解决日益复杂的挑战。解决此类问题需要花大量时间密集训练复杂性飞速增长的深度学习模型。

Tesla V100 拥有 640 个 Tensor 内核,是世界上第一个突破 100 万亿次 (TFLOPS) 深度学习性能障碍的 GPU。新一代 NVIDIA NVLink™ 以高达 300 GB/s 的速度连接多个 V100 GPU,在全球打造出功能极其强大的计算服务器。现在,在之前的系统中需要消耗数周计算资源的人工智能模型在几天内就可以完成训练。随着训练时间的大幅缩短,人工智能现在可以解决各类新型问题。

AI Inference

人工智能推理

为了利用最相关的信息、服务和产品加强人与人之间的联系,超大规模计算公司已经开始采用人工智能。然而,及时满足用户需求是一项困难的挑战。例如,全球最大的超大规模计算公司最近估计,如果每个用户一天仅花费三分钟时间使用其语音识别服务,他们便需要将数据中心的容量翻倍。

我们设计 Tesla V100 就是为了在现有的超大规模服务器机架上提供更高的性能。由于将人工智能作为核心,Tesla V100 GPU 可提供比 CPU 服务器高 30 倍的推理性能。这种吞吐量和效率的大幅提升将使人工智能服务的扩展变成现实。

High Performance Computing

高性能计算 (HPC)

高性能计算是现代科学的基石。从天气预报到发现药物和发现新能源,研究人员使用大型计算系统来模拟和预测我们的世界。人工智能可让研究人员分析大量数据,在仅凭模拟无法完全预测真实世界的情况下快速获取见解,从而扩展了传统的高性能计算。

Tesla V100 的设计能够融合人工智能和高性能计算。它为高性能计算系统提供了一个平台,在用于科学模拟的计算机科学和用于在数据中发现见解的数据科学方面表现优异。通过在一个统一架构内搭配使用 NVIDIA CUDA® 内核和 Tensor 内核,配备 Tesla V100 GPU 的单台服务器可以取代数百台仅配备通用 CPU 的服务器来处理传统的高性能计算和人工智能工作负载。现在,每位研究人员和工程师都可以负担得起使用人工智能超级计算机处理最具挑战性工作的做法。

数据中心 GPU

Data Center Tesla V100 NVLink

NVLINK 接口的 NVIDIA TESLA V100

为深度学习提供卓越性能

Data Center Tesla V100 PCle

PCIe 接口的 NVIDIA TESLA V100

通用性出众适合处理各种工作负载

NVIDIA TESLA V100 规格

 

NVLink 版本 Tesla V100

PCIe 版本 Tesla V100

NVIDIA GPU 加速
带来高性能

双精度
7.8 TeraFLOPS

单精度
15.7 TeraFLOPS

深度学习
125 TeraFLOPS

双精度
7 TeraFLOPS

单精度
14 TeraFLOPS

深度学习
112 TeraFLOPS

双向互联带宽

NVLink
300 GB/s

PCIe
32 GB/s

GPU 内存
显存带宽

容量
16 GB HBM2

带宽
900 GB/s

功率
最大功耗


300瓦特


250瓦特

获得详细的产品规格

NVIDIA DGX 系统
采用 VOLTA 架构

快来参加全新 NVIDIA Tesla V100
免费测试活动