ジェネレーティブ AI フレームワーク

NVIDIA NeMo フレー
ムワーク

ジェネレーティブ AI モデルを構築、カスタマイズ、展開。

What is the NVIDIA NeMo Framework?

NVIDIA AI プラットフォームの一部である NVIDIA NeMo™ フレームワークは、数十億ものパラメーターを持つジェネレーティブ AI モデルを構築、カスタマイズ、展開するためのエンドツーエンドのクラウドネイティブ エンタープライズ フレームワークです。

NeMo フレームワークは、3D 並列処理技術を使用したトレーニング用のワークフローを高速化します。いくつかのカスタマイズ技術を選択でき、マルチ GPU やマルチノード構成で、言語や画像アプリケーションの大規模モデルの大規模な推論用に最適化されています。企業は、NeMo によりジェネレーティブ AI モデル開発を、簡単かつ費用効率よく、迅速に行うことができます。

NeMo フレームワークが大規模な言語モデルを構築し、トレーニングし、展開する方法

異なる形式に対応した基盤モデルの構築

NeMo フレームワークは、テキストからテキスト、テキストから画像、画像から画像の基礎モデルの開発をサポートします。

言語

  • BERT
  • GPT-3
  • T5
  • T5-MoE
  • Inform

マルチモーダル

  •  Stable Diffusion v1.5
  •  VisionTransformers (ViT) 
  •  CLIP
  •  Instruct-Pix2Pix
  •  Imagen

信頼性が高く、安全で安心な LLM アプリケーションを構築する

LLM ベースのアプリケーション向けのプログラム可能なガードレール

NeMo Guardrails は、信頼性が高く、安全で安心な大規模言語モデル (LLM) の対話型システムを簡単に開発するためのツールキットです。 LangChain をネイティブにサポートし、LLM ベースの対話アプリケーションに安全性、セキュリティ、文脈の整合性を確保するガードレールの層を追加します。

利点

GPU による最速トレーニング

最先端の学習手法により、数十億または数兆のパラメーターを持つ基盤モデルのスループットを最大化し、学習時間を最小限に抑えます。

使いやすさ

すべての依存関係が事前にパッケージ化され、言語と画像のジェネレーティブ AI モデルを学習させるための検証済みチュートリアルとともにインストールされ、推論向けに収束および展開されるクラウドネイティブなフレームワークです。

完全な柔軟性

データ処理から学習、ジェネレーティブ AI モデルの推論まで、パイプライン全体で完全な柔軟姓を提供するオープンソースのアプローチです。

クラウドとオンプレミスで運用

あらゆるサイズの基盤モデルを任意の GPU インフラストラクチャで、学習して展開します。すべての NVIDIA DGX™システム、NVIDIA DGX Cloud™、Microsoft Azure、Oracle Cloud Infrastructure、および Amazon Web Servicesでサポートされています。

カスタマイズ

企業のハイパーパーソナライゼーションのための基盤モデルをカスタマイズすためのツールを提供します。

エンタープライズ品質

企業向けに構築された、品質を高め、テストされ、検証されたコンテナーです。

NVIDIA LaunchPad の無料ハンズオン ラボで NeMo Framework を体験する

大規模言語モデル開発のための主な機能

最先端のトレーニング技術

NeMo フレームワークは、以下のような 3 次元並列処理技術により、大規模な基盤モデルの学習を可能にし、高い学習効率を提供します。

  • ノード内でモデルを拡張させるテンソル並列性
  • 数千の GPU でデータとモデルを拡張するデータとパイプラインの並列化
  • テンソル並列デバイスをまたいでアクティベーション メモリを分散させるシーケンス並列性

また、選択的活性化再計算により、バックプロパゲーション中のテンソル並列出デバイス全体の再計算とメモリ使用量を最適化することができます。

カスタマイズ ツール

NeMo フレームワークは、次のツールを提供することで、エンタープライズ AI を実用的にします。

  • 焦点とガードレールの定義 : 焦点とガードレールの定義 : 高度にパーソナライズされたエンタープライズ モデルのガードレールと運用ドメインを定義し、微調整、プロンプト学習アダプター技術などを駆使して、LLM が不要なドメインに逸脱したり、不適切な発言をしたりしないようにします。
  • ドメイン固有の知識を盛り込む: NVIDIA Inform を使用して、AI に企業のリアルタイム情報をエンコードして埋め込み、最新の応答を提供します。
  • 機能的なスキルを含める: 顧客とのビジネスの問題を解決するための専門的なスキルを追加します。プロンプト学習技術を使って、高度にパーソナライズされたユース ケースのコンテキストを提供することで、より良い応答を得ることができます。
  • モデルを継続的に改善する: 人間のフィードバックに基づいた強化学習 (RLHF)により、エンタープライズ モデルは、人間の意図に合わせて時間の経過とともに賢くなっていきます。

最適化された推論

NVIDIA Triton Inference Server™ を使用して、推論用のジェネレーティブ AI モデルを展開します。FasterTransformer の強力な最適化により、シングル GPU、マルチ GPU、マルチノード構成で、最先端の精度、遅延、スループット推論性能を実現できます。

大規模なデータ処理

独自のデータセットを持ち込んで、データを消化可能な形式にトークン化します。NeMo には、Piles や 多言語 C4 (mC4) 上の言語データセットに対して、データのフィルタリング、重複排除、ブレンド、フォーマットなどの包括的な前処理機能があります。これらの機能により、研究者やエンジニアは数か月かかる開発および計算時間を短縮し、アプリケーションの構築に集中することができます。

トレーニングと推論のための使いやすいレシピとハイパーパラメーター ツール

NeMo フレームワークは、パイプライン全体にわたるスクリプト、リファレンス、ドキュメントがあらかじめ用意されており、初日からジェネレーティブ AI が可能となります。

また、自動設定ツールによって基盤モデルの構築が容易になり、最適なハイパーパラメータ設定を自動的に検索して、任意のマルチ GPU 設定、学習、または展開の制約に対する学習と推論を最適化できます。

NVIDIA NeMo 言語/画像サービスを利用したジェネレーティブ AI モデルを簡単にカスタマイズして利用する

NeMo 言語サービス

エンタープライズのハイパーパーソナライゼーションと、インテリジェントな大規模言語モデルの大規模な展開を実現するクラウド サービス。

Picasso サービス

高解像度で写真のようにフォトリアリスティックな画像、動画、3D コンテンツを作成するために、カスタム ジェネレーティブ AI モデルを使用する企業向けの高速化されたクラウド サービスです。

NVIDIA NeMo フレームワークでジェネレーティブ AI と LLM アプリケーションを高速化するお客様

LLM で業界アプリケーションを加速する

AI Sweden は、北欧のエコシステムが地域言語の 1,000 億パラメーター モデルの能力を簡単にアクセスできるようにし、LLM 業界アプリケーションを加速させました。AI Sweden は、スウェーデンの歴史的記録をデジタル化し、企業アプリケーションで商用化できる非構造化データから言語モデルを構築しています。

Image Courtesy of Korea Telecom

LLM による新しい顧客体験の創出

韓国の大手携帯電話会社は、NVIDIA DGX SuperPOD プラットフォームと NeMo フレームワークでトレーニングされた 10 億パラメーターの LLM を構築し、スマート スピーカーとカスタマー コール センターを強化しています。

関連情報

NVIDIA NeMo Framework による 13億 GPT-3 モデルの展開

NeMo フレームワークと NVIDIA のジェネレーティブ AI フレームワークを使用して、13 億パラメーターの GPT-3 モデルをダウンロード、最適化、展開する方法をご紹介します。

NeMo フレームワークによる LLM の効率的な大規模トレーニングと展開

マルチノード環境でデータを前処理する方法、最適なハイパーパラメーターを自動的に選択して複数の GPT-3 および T5 構成のトレーニング時間を最小限に抑える方法、モデルを大規模にトレーニングする方法、使いやすいスクリプト セットを使用してマルチノードの運用環境にモデルをデプロイする方法についてご紹介します。

NVIDIA LaunchPad の無料ハンズオンラボ

GPT-3 モデル用の調整済みハイパーパラメーター設定を使用して、企業の LLM の導入を加速します。NeMo フレームワークで大規模な NLP モデルをトレーニングする方法を学んでいただけます。

NVIDIA NeMo Framework を今すぐ始める