DOSSIER TECHNIQUE

Principales considérations pour le déploiement de l’IA à l’Edge

Déterminez si votre infrastructure est adaptée à l’Edge Computing.

Bibliothèques, API et modules DataFrame accélérés par GPU :

  • Reposant sur NVIDIA CUDA, la plateforme NVIDIA RAPIDS constitue une suite de bibliothèques et d’API open-source qui fournissent un haut degré de parallélisme GPU et une mémoire à haut débit via des opérations DataFrame et Graph, vous fournissant ainsi des performances 50 fois plus élevées ou plus avec les principaux workflows de science des données de bout en bout. Avec Spark 3.0, de nouvelles API RAPIDS sont par exemple utilisées par les bases de données Spark SQL et les modules DataFrame pour gérer avec davantage d’efficacité le traitement des données colonnaires et les plans de requêtes.
  • L’optimiseur de requêtes Catalyst intégré à Spark 3.0 a été spécialement modifié afin d’identifier rapidement les opérateurs au sein d’un plan de requêtes. Ces opérateurs peuvent ensuite être accélérés via l’API RAPIDS, puis programmés pour une exécution sur GPU dans le cluster Spark lors de la mise en œuvre du plan de requêtes.
  • Une nouvelle implémentation mixte de Spark basée sur des bibliothèques de communication accélérées par GPU - incluant le protocole RDMA (Remote Direct Memory Access) - permet d’accélérer le transfert des données entre les processus Spark. La technologie RDMA permet aux GPU de communiquer directement entre eux via plusieurs nœuds distants, comme s’ils se trouvaient sur un seul serveur, à une vitesse pouvant atteindre 100 Gbit/s.


Planification optimisée par GPU avec Spark

  • Spark 3.0 inclut des fonctionnalités d’intégration aux gestionnaires de cluster (avec YARN, Kubernetes ou des solutions tierces) pour communiquer plus efficacement avec les GPU et les plug-ins afin d’exécuter des opérations parfaitement optimisées pour le calcul sur GPU. Les développeurs d’applications Spark peuvent ainsi solliciter et utiliser plus facilement les GPU afin de mieux intégrer des frameworks d’IA et de Deep Learning tels que Horovod et TensorFlow sur Spark, ce qui permet une utilisation plus efficace des ressources GPU.

 

L’Edge Computing, processus qui consiste à mettre en œuvre une importante puissance de calcul sur le lieu de collecte des données, connaît une croissance rapide au sein des services informatiques d’entreprise. Avant d’investir dans l’Edge Computing, les entreprises doivent évaluer si cette technologie est adaptée à leurs besoins.

Ce dossier technique vous présente :

  • Comment évaluer si l’Edge Computing peut répondre aux besoins de votre entreprise
  • Ce que vous devez prendre en considération avant de déployer une infrastructure à l’Edge
  • Comment mettre en œuvre une infrastructure d’Edge Computing
  • Les ressources dont vous avez besoin
spark-e-book-thumb-2

TÉLÉCHARGER

Send me the latest enterprise news, announcements, and more from NVIDIA. I can unsubscribe at any time.