大規模言語モデルを開発から運用に移行するために最適なツールを見つける
NeMo オープンソース コードで開発したい個人向け。
無料 NeMo コンテナーで開発したい個人向け。
本番環境での開発と展開のために NeMo を購入する企業向け。
NVIDIA NeMo™ は、場所を問わず、生成 AI モデルを構築、カスタマイズ、展開するためのエンドツーエンドのクラウドネイティブ フレームワークです。トレーニングと推論のフレームワーク、ガードレール ツールキット、データ キュレーション ツール、学習済みモデルが含まれており、企業は生成 AI を簡単かつ費用対効果に優れた方法で時間をかけずに導入できます。開発者は NeMo を、GitHub でオープンソースとして、 NVIDIA NGC カタログでパッケージ化されたコンテナーとして、あるいは NVIDIA AI Enterprise サブスクリプションとして利用できます。
NeMo は NVIDIA AI Enterprise の一部として利用できます。価格とライセンスの詳細はこちらをご覧ください。
お客様は、 NVIDIA Business Standard サポートを、NeMo が含まれる NVIDIA AI Enterprise サブスクリプションから入手できます。Business Standard サポートには、サービス内容合意書 (SLA)、NVIDIA エキスパートへの問い合わせ、オンプレミス展開とクラウド展開での長期サポートが含まれています。
NVIDIA AI Enterprise には 、Business Standard サポートが含まれています。ビジネス クリティカル サポート、テクニカル アカウント マネージャー、トレーニング、プロフェッショナル サービスなど、その他の利用可能なサポートとサービスについては、「NVIDIA Enterprise Support and Service Guide」を参照してください。
NeMo はパッケージ化されており、NGC カタログから自由に入手できるため、開発者は LLM の構築やカスタマイズをすぐに簡単に始めることができます。これは、AI の研究者や開発者にとって、NeMo のトレーニング コンテナーと推論コンテナーの使用を始める最速かつ最も簡単な方法となります。開発者は、GitHub からも NeMo オープンソース コードにアクセスすることができます。
商用で LLM を構築している開発者のために、 NVIDIA AI Enterprise は、NeMo フレームワーク、生成 AI リファレンス アプリケーション、導入を合理化するエンタープライズ サポートを含む、本番環境グレードで安全なエンドツーエンド ソフトウェア プラットフォームを提供します。内容:
NeMo フレームワークに含まれる NeMo Data Curator はスケーラブルなデータ キュレーション ツールです。開発者は LLM を事前にトレーニングする目的で兆単位の多言語データセットを選別することができます。Message-Passing Interface (MPI)、Dask、Redis Cluster を利用し、データ ダウンロード、テキスト抽出、クリーニング、フィルタリング、厳密な/ファジーな重複排除などのデータ キュレーション タスクを数千単位のコンピューティング コアに拡張する一連の Python モジュールで構成されています。
NeMo Guardrails は、安全で信頼できる LLM 対話型システムを簡単に開発するためのオープンソース ツールキットです。開発者は、LLM を活用するアプリが安全で、企業の専門知識やブランド価値の範囲内に収まるように調整することができます。Guardrails は NeMo フレームワークに特化しているわけではなく、OpenAI ChatGPT を含むすべての LLM で動作するように設計されています。
NeMo Guardrails では、開発者は 3 種類の境界を設定できます。
生成 AI 関連の最新情報を NVIDIA から受け取る
NVIDIA からの開発者向けアップデート、お知らせなどをメールでお届けします。
NVIDIA からエンタープライズ ビジネス ソリューションと開発者向けテクノロジ & ツールに関する最新情報やお知らせなどを受け取る。
NVIDIA プライバシー ポリシー