NeMo Megatron は、無数のパラメーターを持つ LLM を学習し、展開するためのエンドツーエンド フレームワークです。
コンテナー化されたフレームワークは、数千単位の GPU で高い学習効率を実現し、企業が大規模なモデルを構築し、展開することを可能にします。学習データをキュレートし、最大数兆単位のパラメーターを持つ大規模モデルを学習し、プロンプト学習でカスタマイズし、NVIDIA Triton™ Inference Server を使用して展開し、複数の GPU と複数のノードで大規模モデルを実行するための機能を提供します。
NeMo Megaton は、NVIDIA DGX™ Foundry、NVIDIA DGX SuperPOD™、Amazon Web Services、Microsoft Azure、Oracle Cloud Infrastructure での実行に最適化されています。