NVIDIA Virtual Compute Server

Accélérez les opérations de calcul intensif sur serveur grâce aux GPU virtuels

Virtualisez les calculs pour l'IA, le Deep Learning et la science des données

Le serveur de calcul virtuel de NVIDIA (vCS) permet aux Data Centers d’accélérer la virtualisation des serveurs avec des GPU NVIDIA de nouvelle génération, comme le GPU NVIDIA A100 Tensor Core¹ de manière à exécuter les opérations de calcul les plus intensives sur une machine virtuelle (VM) dans des champs d'application tels que l'intelligence artificielle, le Deep Learning et la science des données.

Fonctionnalités

Partage de GPU

Partage de GPU

Le partage de GPU (fractionné) n’est possible qu’avec la technologie vGPU de NVIDIA. Il permet à plusieurs machines virtuelles de partager un GPU, maximisant ainsi l’utilisation pour des charges de travail plus légères nécessitant une accélération GPU.

Agrégation de GPU

Agrégation de GPU

Grâce à l’agrégation de GPU, une machine virtuelle peut accéder à plusieurs GPU, ce qui est souvent nécessaire pour des opérations de calcul intensif. vCS prend en charge les systèmes multi-vGPU et peer-to-peer. En multi-vGPU, les GPU ne sont pas directement connectés tandis que, en peer-to-peer, ils passent par NVLink pour bénéficier d'une bande passante plus élevée.

	 Gestion et supervision

Gestion et supervision

vCS apporte un support aux niveaux de l'application, de l'invité et de l'hôte. Les fonctionnalités de gestion proactive permettent en outre de procéder à une migration en direct, de suspendre et de reprendre une tâche, mais aussi d'identifier les principales tendances impactant les expériences utilisateur, le tout via le kit de développement pour la gestion vGPU.

NGC

NGC

NVIDIA GPU Cloud (NGC) est un ensemble de logiciels optimisés pour l'accélération GPU qui simplifie les workflows de Deep Learning, d’apprentissage automatique et de HPC, et qui prend désormais en charge les environnements virtualisés grâce à NVIDIA vCS.

Calculs en peer-to-peer

Calculs en peer-to-peer

NVIDIA® NVLink est une technologie d’interconnexion directe GPU vers GPU à haut rendement fournissant une bande passante plus élevée, un plus grand nombre de liens et une meilleure évolutivité pour les configurations système multi-GPU, et qui est désormais virtuellement compatible avec la technologie de GPU virtuels de NVIDIA (vGPU).

Retrait de page et ECC

Retrait de page et ECC

Les fonctionnalités de code de correction d’erreurs (ECC) et de retrait de page procurent une meilleure fiabilité pour les applications de calcul les plus sensibles à la corruption de données. Elles sont particulièrement importantes dans les environnements de calcul en cluster à grande échelle, où les GPU traitent d'importants volumes de données et/ou exécutent des applications sur de longues périodes.

GPU multi-instances (MIG)

GPU multi-instances (MIG)

La technologie de GPU multi-instances (MIG) constitue une innovation révolutionnaire qui améliore les capacités des Data Centers modernes et permet à chaque GPU A100 Tensor Core d’être partitionné en sept instances de GPU distinctes, entièrement isolées et sécurisées au niveau matériel avec leur propre mémoire à bande passante élevée, un cache dédié et des cœurs de calcul. Avec le logiciel vCS, une machine virtuelle peut être mise en œuvre sur chacune de ces instances MIG afin que les entreprises puissent tirer parti de fonctionnalités de gestion et de supervision avancées et d’avantages opérationnels majeurs grâce à un système de virtualisation de serveur basé sur des hyperviseurs.

GPUDirect

GPUDirect

La technologie GPUDirect® RDMA (Remote Direct Memory Access) permet aux périphériques réseau d'accéder directement à la mémoire GPU, contribuant ainsi à contourner la mémoire-hôte du CPU, à réduire la latence des communications GPU-vers-GPU et à décharger entièrement le CPU.

GPU recommandés

  NVIDIA A100¹ NVIDIA V100S NVIDIA A401 NVIDIA RTX 8000 NVIDIA RTX 6000 NVIDIA T4
Mémoire 40 Go HBM2 32 Go HBM2 48 Go GDDR6 48 Go GDDR6 24 Go GDDR6 16 Go GDDR6
Performances maximales FP32 19,5 TFLOPS 16,4 TFLOPS 38,1 TFLOPS 14,9 TFLOPS 14,9 TFLOPS 8,1 TFLOPS
Performances maximales FP64 9,7 TFLOPS 8,2 TFLOPS - - - -
NVLink : nombre de GPU par machine virtuelle Jusqu'à 8 Jusqu'à 8 2 2 2 -
ECC et retrait de page
Multi-vGPU par machine virtuelle1 Jusqu'à 16 Jusqu'à 16 Jusqu'à 16 Jusqu'à 16 Jusqu'à 16 Jusqu'à 16

PARTENAIRES POUR LA VIRTUALISATION

Foire aux questions

  • En quoi vCS diffère-t-il de GRID vPC/vApps et Quadro vDWS ?

    GRID vPC/vApps et Quadro vDWS sont des produits de calcul client pour la virtualisation graphique conçus pour les employés de bureau, ainsi que pour les professionnels créatifs et techniques. vCS traite les opérations de calcul intensif dans des domaines tels que l'IA, le Deep Learning et la science des données.

  • Le système de licence vCS est-il similaire à celui de GRID vPC/vApps et Quadro vDWS ?

    Non, vCS possède un système de licence qui diffère de celui de GRID vPC/vApps et Quadro vDWS. Les licences GRID vPC/vApps et Quadro vDWS, qu'elles soient perpétuelles ou annuelles, sont octroyées pour une utilisation multi-utilisateurs (modèle de licence CCU). Dans la mesure où vCS est destiné aux opérations de calcul sur serveur, la licence est liée au GPU et non à un utilisateur. C'est pourquoi la licence vCS est concédée sous la forme d'un abonnement annuel par GPU. Vous trouverez de plus amples informations sur les licences dans le Guide de conditionnement, de tarification et de licence NVIDIA vGPU.

  • Quels sont les GPU NVIDIA compatibles avec vCS?

    Veuillez consulter le tableau de recommandations GPU ci-dessus. Outre les accélérateurs NVIDIA V100S, V100, T4, RTX 8000, RTX 8000 recommandés pour vCS, les GPU NVIDIA P100, P40 et P6 sont également pris en charge. Le GPU NVIDIA A100 Tensor Core sera prochainement pris en charge.

  • Quels sont les serveurs certifiés pour exécuter vCS?

    Veuillez vous rendre sur la page des Serveurs vGPU certifiés afin de consulter la liste des serveurs certifiés pour tous les produits vGPU.

  • Les conteneurs peuvent-ils être utilisés avec vCS?

    Oui, vous pouvez exécuter des conteneurs sur des machines virtuelles avec vCS. NVIDIA NGC propose un catalogue exhaustif de conteneurs accélérés par GPU pour le Deep Learning, l’apprentissage automatique et le calcul haute performance. Les charges de travail peuvent également être exécutées directement dans une machine virtuelle via vCS, sans conteneur.

En savoir plus sur le logiciel NVIDIA vGPU

Consultez les notes de publication et la liste des produits tiers compatibles.