ジェネレーティブ AI モデルを構築、カスタマイズ、展開。
NVIDIA AI プラットフォームの一部である NVIDIA NeMo™ フレームワークは、数十億ものパラメーターを持つジェネレーティブ AI モデルを構築、カスタマイズ、展開するためのエンドツーエンドのクラウドネイティブ エンタープライズ フレームワークです。
NeMo フレームワークは、3D 並列処理技術を使用したトレーニング用のワークフローを高速化します。いくつかのカスタマイズ技術を選択でき、マルチ GPU やマルチノード構成で、言語や画像アプリケーションの大規模モデルの大規模な推論用に最適化されています。企業は、NeMo によりジェネレーティブ AI モデル開発を、簡単かつ費用効率よく、迅速に行うことができます。
NeMo フレームワークは、テキストからテキスト、テキストから画像、画像から画像の基礎モデルの開発をサポートします。
NeMo Guardrails は、信頼性が高く、安全で安心な大規模言語モデル (LLM) の対話型システムを簡単に開発するためのツールキットです。 LangChain をネイティブにサポートし、LLM ベースの対話アプリケーションに安全性、セキュリティ、文脈の整合性を確保するガードレールの層を追加します。
最先端の学習手法により、数十億または数兆のパラメーターを持つ基盤モデルのスループットを最大化し、学習時間を最小限に抑えます。
すべての依存関係が事前にパッケージ化され、言語と画像のジェネレーティブ AI モデルを学習させるための検証済みチュートリアルとともにインストールされ、推論向けに収束および展開されるクラウドネイティブなフレームワークです。
データ処理から学習、ジェネレーティブ AI モデルの推論まで、パイプライン全体で完全な柔軟姓を提供するオープンソースのアプローチです。
あらゆるサイズの基盤モデルを任意の GPU インフラストラクチャで、学習して展開します。すべての NVIDIA DGX™システム、NVIDIA DGX Cloud™、Microsoft Azure、Oracle Cloud Infrastructure、および Amazon Web Servicesでサポートされています。
企業のハイパーパーソナライゼーションのための基盤モデルをカスタマイズすためのツールを提供します。
企業向けに構築された、品質を高め、テストされ、検証されたコンテナーです。
NeMo フレームワークは、以下のような 3 次元並列処理技術により、大規模な基盤モデルの学習を可能にし、高い学習効率を提供します。
また、選択的活性化再計算により、バックプロパゲーション中のテンソル並列出デバイス全体の再計算とメモリ使用量を最適化することができます。
NeMo フレームワークは、次のツールを提供することで、エンタープライズ AI を実用的にします。
NVIDIA Triton Inference Server™ を使用して、推論用のジェネレーティブ AI モデルを展開します。FasterTransformer の強力な最適化により、シングル GPU、マルチ GPU、マルチノード構成で、最先端の精度、遅延、スループット推論性能を実現できます。
独自のデータセットを持ち込んで、データを消化可能な形式にトークン化します。NeMo には、Piles や 多言語 C4 (mC4) 上の言語データセットに対して、データのフィルタリング、重複排除、ブレンド、フォーマットなどの包括的な前処理機能があります。これらの機能により、研究者やエンジニアは数か月かかる開発および計算時間を短縮し、アプリケーションの構築に集中することができます。
NeMo フレームワークは、パイプライン全体にわたるスクリプト、リファレンス、ドキュメントがあらかじめ用意されており、初日からジェネレーティブ AI が可能となります。
また、自動設定ツールによって基盤モデルの構築が容易になり、最適なハイパーパラメータ設定を自動的に検索して、任意のマルチ GPU 設定、学習、または展開の制約に対する学習と推論を最適化できます。
エンタープライズのハイパーパーソナライゼーションと、インテリジェントな大規模言語モデルの大規模な展開を実現するクラウド サービス。
高解像度で写真のようにフォトリアリスティックな画像、動画、3D コンテンツを作成するために、カスタム ジェネレーティブ AI モデルを使用する企業向けの高速化されたクラウド サービスです。
AI Sweden は、北欧のエコシステムが地域言語の 1,000 億パラメーター モデルの能力を簡単にアクセスできるようにし、LLM 業界アプリケーションを加速させました。AI Sweden は、スウェーデンの歴史的記録をデジタル化し、企業アプリケーションで商用化できる非構造化データから言語モデルを構築しています。
Image Courtesy of Korea Telecom
韓国の大手携帯電話会社は、NVIDIA DGX SuperPOD プラットフォームと NeMo フレームワークでトレーニングされた 10 億パラメーターの LLM を構築し、スマート スピーカーとカスタマー コール センターを強化しています。
NeMo フレームワークと NVIDIA のジェネレーティブ AI フレームワークを使用して、13 億パラメーターの GPT-3 モデルをダウンロード、最適化、展開する方法をご紹介します。
マルチノード環境でデータを前処理する方法、最適なハイパーパラメーターを自動的に選択して複数の GPT-3 および T5 構成のトレーニング時間を最小限に抑える方法、モデルを大規模にトレーニングする方法、使いやすいスクリプト セットを使用してマルチノードの運用環境にモデルをデプロイする方法についてご紹介します。
GPT-3 モデル用の調整済みハイパーパラメーター設定を使用して、企業の LLM の導入を加速します。NeMo フレームワークで大規模な NLP モデルをトレーニングする方法を学んでいただけます。