NVIDIA NeMo を始める方法

本番環境における AI エージェントの構築、監視、最適化のためのツールと技術で AI エージェントのライフサイクルを管理します。

AI モデルからエージェント型 AI アプリケーションへの道のり

AI エージェントをライフサイクル全体で管理する、エンドツーエンドのエンタープライズ対応プラットフォームを体験してください。

1

NVIDIA Nemotron™ など、NVIDIA に最適化された基盤モデルを試してみてください。

2

NVIDIA NeMo™ で AI エージェントを構築、監視、最適化します。

3

NVIDIA Blueprints を活用して AI ソリューションの構築をすぐに始めましょう。

AI エージェントのライフサイクル管理のためのツール

AI エージェントのライフサイクルを管理する NVIDIA NeMo ソフトウェア スイートは、構築段階では NeMo Data Designer、NeMo Curator、NeMo Customizer、NeMo Evaluator、デプロイ段階では NeMo Retriever、NeMo Guardrails、NVIDIA NIM™、継続的な最適化の段階では NeMo Agent Toolkit を提供します。

目的 おすすめのツール 始めるには
オープンで高精度かつエネルギー効率の高いモデルを活用して、エージェント型 AI アプリケーションを構築する。 <strong>NVIDIA Nemotron</strong><br> オープンウェイト、オープン データ、レシピを活用して、高度なマルチモーダル AI リーズニングモデルを活用できます。 <div class="nv-text"> <ul> <li><a href="https://build.nvidia.com/search/models?filters=publisher%3Anvidia&q=Nemotron&ncid=no-ncid" target="_blank">Nemotron モデルを試す</a></li> </ul> </div>
モデルのトレーニング、ファインチューニング、評価に活用する高品質な合成データセットを生成する。 <strong>NeMo Data Designer</strong><br> ゼロから、またはシード例からドメイン固有のデータセットを設計することで、データのボトルネック解消や AI 開発の高速化につながります。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nemo/microservices/latest/generate-synthetic-data/index.html" target="_blank">ドキュメント</a></li> <li><a href="https://build.nvidia.com/nemo/data-designer" target="_blank">Data Designer を試す</a></li><li><a href="https://github.com/NVIDIA/GenerativeAIExamples/tree/main/nemo/NeMo-Data-Designer" target="_blank">ノートブックの例</a></li> </ul> </div>
AI 開発パイプライン向けに大規模なマルチモーダル データセットを準備する。 <strong>NeMo Curator</strong><br> オープンな GPU で高速化された Python ライブラリにより、マルチモーダル データのクリーニング、フィルタリング、準備ができます。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nemo/curator/latest/" target="_blank">ドキュメント</a></li> <li><a href="https://catalog.ngc.nvidia.com/orgs/nvidia/containers/nemo-curator" target="_blank">コンテナーのダウンロード</a></li> <li><a href="https://github.com/NVIDIA/NeMo-Curator" target="_blank">オープンソース コードにアクセス</a></li> </ul> </div>
モデルのファインチューニングと調整を高速化し、エージェント型 AI ワークフローを強化するため、使いやすい API を統合・公開する。 <strong>NeMo Customizer</strong><br> 独自のドメインデータによるファインチューニングの簡素化と拡張を実現します。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nemo/microservices/latest/fine-tune/index.html" target="_blank">ドキュメント</a></li> <li><a href="https://catalog.ngc.nvidia.com/orgs/nvidia/teams/nemo-microservices/containers/customizer" target="_blank">マイクロサービスをダウンロード</a></li> </ul> </div>
モデルやエージェントのパイプラインのパフォーマンスを評価する。 <strong>NeMo Evaluator</strong><br> デプロイの効率化、ベンチマークサポート、高度なハーネスにより、モデルおよびエージェントのパフォーマンスを評価できます。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nemo/microservices/latest/evaluate/index.html" target="_blank">ドキュメント</a></li> <li><a href="https://github.com/NVIDIA-NeMo/Evaluator" target="_blank">オープンソース SDK にアクセス</a></li> <li><a href="https://catalog.ngc.nvidia.com/orgs/nvidia/teams/nemo-microservices/containers/evaluator" target="_blank">マイクロサービスをダウンロード</a></li> </ul> </div>
コードレベルの制御と柔軟性を兼ね備えたうえで、生成 AI モデルの大規模な構築、ファインチューニング、調整を行う。 <strong>NeMo フレームワーク</strong><br> マルチモーダル モデルのシームレスな事前学習、事後学習、強化学習を実現し、単一の GPU から数千台まで拡張できます。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nemo-framework/user-guide/latest/overview.html" target="_blank">ドキュメント</a></li> <li><a href="https://catalog.ngc.nvidia.com/orgs/nvidia/containers/nemo" target="_blank">コンテナーのダウンロード</a></li> <li><a href="https://github.com/NVIDIA/NeMo" target="_blank">オープンソース コードにアクセス</a></li> </ul> </div>
検索拡張生成 (RAG) パイプラインを構築し、AI エージェントをデータに接続する。 <strong>NeMo Retriever</strong><br> オープンソースの検索モデルとプライバシーを保護するデータアクセスにより、高精度な RAG パイプラインを構築します。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nemo/retriever/latest/" target="_blank">ドキュメント</a></li> <li><a href="https://huggingface.co/collections/nvidia/nemotron-rag-68f01e412f2dc5a5db5f30ed" target="_blank">Hugging Face モデルを試す</a></li> <li><a href="https://build.nvidia.com/explore/retrieval" target="_blank">リトリーバー モデルを試す</a></li> </ul> </div>
エージェントの回答が安全かつ話題に合ったものかを確認したい。 <strong>NeMo Guardrails</strong><br> プログラマブルなオーケストレーション層を活用して、実行時の安全性、セキュリティ、トピックの関連性を確保します。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nemo/guardrails/latest/" target="_blank">ドキュメント</a></li> <li><a href="https://huggingface.co/collections/nvidia/nemoguard" target="_blank">Hugging Face モデルを試す</a></li> <li><a href="https://catalog.ngc.nvidia.com/orgs/nvidia/teams/nemo-microservices/containers/guardrails" target="_blank">マイクロサービスをダウンロード</a></li> <li><a href="https://github.com/NVIDIA/NeMo-Guardrails" target="_blank">オープンソースのツールキットにアクセス</a></li> </ul> </div>
高パフォーマンスな推論のためにモデルをデプロイする。 <strong>NVIDIA NIM</strong><br> コンテナ化されたマイクロサービスにより、あらゆる場所で安全かつ信頼性の高い AI モデルのデプロイを実現します。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nim/" target="_blank">ドキュメント</a></li> <li><a href="https://build.nvidia.com/explore/discover" target="_blank">NIM マイクロサービスを試す</a></li> </ul> </div>
AI エージェントのパフォーマンスを監視し、最適化する。 <strong>NeMo エージェント ツールキット</strong><br> オープンソースのフレームワークに依存しないツールキットで、エージェント システムをプロファイリング、評価、最適化します。 <div class="nv-text"> <ul> <li><a href="https://docs.nvidia.com/nemo/agent-toolkit/latest/" target="_blank">ドキュメント</a></li> <li><a href="https://github.com/NVIDIA/NeMo-Agent-Toolkit" target="_blank">オープンソース コードにアクセス</a></li> </ul> </div>

FAQ

NVIDIA NeMo は、データ キュレーション、モデルのカスタマイズ、評価からデプロイ、オーケストレーション、継続的な最適化まで、AI エージェントのライフサイクル管理 (構築、デプロイ、最適化) を包括的に支援するモジュール型のエンタープライズ対応ソフトウェア スイートです。 既存の AI エコシステムやプラットフォームとシームレスに統合し、AI エージェントを構築するための基盤を構築し、クラウド、オンプレミス、ハイブリッド環境を問わず、エージェント型システムの本番環境への導入を迅速に進めます。 迅速なスケーリングと簡単なデータ フライホイールの作成をサポートし、最新の情報で AI エージェントを継続的に改善します。

NeMo はオープンソースで、NVIDIA AI Enterprise の一部としてサポートされています。 価格とライセンスの詳細は、こちらをご覧ください。

NeMo は、大規模言語モデル (LLM)、ビジョン言語モデル (VLM)、自動音声認識 (ASR)、テキスト読み上げ (TTS) モデルをカスタマイズするために使用できます。

NVIDIA AI Enterprise には NVIDIA Business-Standard サポート が含まれています。 NVIDIA Business-Critical サポート、テクニカル アカウント マネージャー、トレーニング、プロフェッショナル サービスなどの追加サポートやサービスについては、NVIDIA エンタープライズ サポートおよびサービス ガイドをご覧ください。

NVIDIA NeMo フレームワークは、大規模な生成 AI モデルを効率的に構築するために、きめ細かい制御とコード レベルの柔軟性を求める研究者や開発者向けに構築されたオープンソースの生成 AI フレームワークです。 マルチモーダル生成 AI モデルの事前学習、事後学習、強化学習をサポートします。

NVIDIA NeMo マイクロサービスは、NeMo フレームワークを拡張するエンタープライズ対応の API ファーストのモジュール型サービスで、開発者が AI エージェントを簡単かつ迅速にカスタマイズし、大規模にデプロイできるように特別に構築されています。 モデルのファインチューニング、評価、ガードレール、合成データ生成を簡素化します。 既存の AI プラットフォームにシームレスに統合されるため、企業はカスタム AI エージェント開発を高速化し、データ フライホイール ワークフローを通じて継続的に最適化することができます。

NeMo Data Designer は、AI 開発者向けに特別に設計されたマイクロサービスです。設定可能なスキーマと AI を活用した生成モデルを通じて合成データを生成する効率的な方法を提供します。AI 開発ワークフローにシームレスに統合できるように設計されています。

NeMo Curator は、高品質なマルチモーダル データセットをキュレーションすることで生成 AI モデルの精度を向上させるオープンソースのライブラリです。 Dask、cuDF、cuGraph、Pytorch を活用してデータ ダウンロード、テキスト抽出、クリーニング、フィルタリング、正確/ファジー重複排除、テキスト分類などのデータ キュレーション タスクを数千ものコンピューティング コアに拡張するために API として表現された Python モジュールのセットで構成されています。

NeMo Customizer は、高度なファインチューニングと強化学習技術を使用して、ドメイン固有のユースケースに合わせて LLM のカスタマイズとファインチューニングを簡素化する高性能でスケーラブルなマイクロサービスです。

NeMo Auditor は、さまざまなプロンプトでモデルを検証する監査ジョブを実行し、脆弱性を特定することで LLM を監査します。 結果は、モデルとシステムの安全性の評価を支援するために活用できます。

NeMo Evaluator は、カスタム LLM と RAG パイプラインを高速かつ信頼性の高い評価ができるように設計されたマイクロサービスです。 人間の評価や LLM-as-a-judge 手法など、事前定義された指標を持つ多様なベンチマークを網羅しています。 API コールを介して、Kubernetes で複数の評価ジョブを任意のクラウド プラットフォームまたはデータ センターに同時にデプロイできるため、効率的な結果の集計が可能になります。

NeMo Guardrails は、大規模言語モデルを使用したスマート アプリケーションの適切性とセキュリティを確保するためのマイクロサービスです。 LLM システムの管理を担う組織を保護します。

NeMo Guardrails では、開発者が 3 種類の境界を設定できます。

  • トピック ガードレールは、アプリが望ましくない領域に逸脱することを防ぎます。 たとえば、カスタマーサービス アシスタントが天気に関する質問に回答することを防ぎます。
  • 安全性ガードレールは、アプリが正確で適切な情報で応答することを保証します。 望ましくない言葉を除外し、信頼できる情報源のみが参照されるよう強制できます。
  • セキュリティ ガードレールは、アプリが安全であることが確認された外部の第三者アプリケーションにのみ接続することを保証します。

NeMo RL は、NeMo フレームワーク ツールキットの一部であるオープンソースのライブラリで、高度な強化学習アルゴリズムとスケーラブルな事後学習を提供し、エンタープライズ規模で AI エージェントを最適化および調整します。

NeMo Retriever は、業界をリードする Nemotron RAG モデルのコレクションであり、50% の精度向上、15 倍のマルチモーダル PDF 抽出の高速化、35 倍のストレージ効率を実現し、企業がリアルタイムのビジネス インサイトを提供する RAG パイプラインを構築できるようにします。 NeMo Retriever はデータのプライバシーを確保し、所有するデータがどこに存在していてもシームレスに接続し、エンタープライズ グレードの安全な検索を実現します。

オープンソースの NVIDIA NeMo Agent Toolkit は、本番利用の AI エージェント システム向けに、フレームワークに依存しないプロファイリング、評価、最適化を実行します。この機能は、エージェント間の連携、ツール使用効率、計算コストに関する詳細な指標を収集し、NVIDIA アクセラレーテッド コンピューティングを通じたデータ主導の最適化を実現します。 低速なワークフローの並列化、高コストの操作のキャッシュ、モデル更新時のシステム精度の維持などに使用できます。 OpenTelemetry と主要なエージェント フレームワークと互換性があるため、このツールキットは、クラウド支出を削減しながら、単一エージェントからエンタープライズ グレードのデジタル労働力まで拡張するための洞察をもたらします。

NVIDIA NIM は NVIDIA AI Enterprise の一部であり、企業全体での生成 AI のデプロイメントを加速するために設計された使いやすいランタイムです。 この汎用的なマイクロサービスは、オープンソースのコミュニティ モデルから NVIDIA AI Foundation モデル、カスタマイズされた AI モデルまで、幅広い AI モデルをサポートしています。 推論エンジンの堅牢な基盤の上に構築されており、大規模でシームレスな AI 推論を実現し、AI アプリケーションがクラウド、データセンター、ワークステーション全体にデプロイできることを保証するよう設計されています。

検索拡張生成は、LLM を企業の知識ベースに接続することで、最新の情報から応答を作成できるようにする技術です。 NeMo は、Milvus、Llama Index、LangChain などさまざまなサードパーティやコミュニティが製作したツールと連携し、ベクトル データベースから情報に関連するスニペットを抽出して LLM にフィードすることで、自然言語で応答を生成します。 RAG ワークフローを使用した AI チャットボットのページを探索し、エンタープライズ データに関する質問に正確に回答できる本番環境品質の AI チャットボットの構築を始めましょう。

NVIDIA Blueprints は、NVIDIA AI および Omniverse ライブラリ、SDK、マイクロサービスで構築された包括的なリファレンス ワークフローです。 各 Blueprint には、リファレンス コード、デプロイメント ツール、カスタマイズ ガイド、リファレンス アーキテクチャが含まれており、AI エージェントやデジタル ツインなどの AI ソリューションのプロトタイプから本番環境へのデプロイを加速します。

NVIDIA AI Enterprise は、データ サイエンスのパイプラインを高速化し、生成 AI、コンピューター ビジョン、スピーチ AI など、本番環境向け AI アプリケーションの開発とデプロイを効率化するエンドツーエンドのクラウドネイティブ ソフトウェア プラットフォームです。 AI 専門家に向けたクラス最高の開発ツール、フレームワーク、事前学習済みモデル、マイクロサービスに加え、IT プロフェッショナルがパフォーマンス、API の安定性、セキュリティを確保できる信頼性の高い管理機能が含まれています。