大規模言語モデルを構築、カスタマイズ、展開。
NVIDIA NeMoTM は、場所を問わず、生成AI モデルを構築、カスタマイズ、展開するためのエンドツーエンドのクラウドネイティブ フレームワークです。トレーニングと推論のフレームワーク、ガードレール ツールキット、データ キュレーション ツール、学習済みモデルが含まれており、企業は生成 AI を簡単かつ費用対効果に優れた方法で迅速に導入することができます。
データ処理からトレーニングに生成 AI モデルの推論まで、大規模言語モデル (LLM) パイプライン全体にわたる完全なソリューション。
NVIDIA AI Enterprise の一部として利用可能なサポート、セキュリティ、安定した API により、企業を加速するように設計され、安全で最適化されたフルスタック ソリューション。
NeMo を利用すれば、組織は LLM を短期間でトレーニング、カスタマイズし、大規模に展開できるため、ソリューションまでの時間が短縮され、ROI を高めることができます。
データをキュレートし、最大で兆単位のパラメーターにおよぶ大規模モデルをトレーニングし、そのモデルを推論に展開する機能を備えたエンドツーエンド フレームワーク。
GitHub と NVIDIA NGC ソフトウェア カタログからオープン ソースとして入手できるため、開発者や研究者は新しい LLM を簡単に作成することができます。
マルチノードとマルチ GPU のトレーニングと推論により、スループットを最大化し、LLM トレーニング時間を最小限に抑えます。
生成 AI モデルとその開発が急速に進化し、拡大するにつれて、AI スタックとその依存関係がますます複雑になっています。NVIDIA AI Enterprise は、AI で事業を展開する企業のために、NeMo などの本番環境グレードで安全なエンドツーエンド ソフトウェア プラットフォームに加え、生成 AI リファレンス アプリケーション、導入を合理化するエンタープライズ サポートを提供します。
NeMo は、高度な拡張性、速度、効率を可能にする LLM の分散トレーニングのためのツールを提供します。
NeMo は、Inform を介してリアルタイムのドメイン固有データの統合を可能にします。これにより、ビジネス特有の課題に合わせた対応が容易になり、特定の顧客や企業のニーズに対応するための専門スキルを組み込むことが可能になります。
NeMo Guardrails は、モデルが意図されたドメイン内に留まり、不適切な出力を回避できるように、運用上の境界を定義するのに役立ちます。
NeMo は、人間のフィードバックからの強化学習 (RLHF) 技術をサポートしており、エンタープライズ モデルが時間の経過とともに人間の意図に合わせてよりスマートになることを可能にします。
NVIDIA Triton Inference Server™ を使用して、推論用の生成 AI モデルを展開します。強力な最適化により、シングル GPU、マルチ GPU、およびマルチノード構成で最先端の精度、レイテンシ、スループット推論性能を達成することができます。
独自のデータセットを持ち込み、データを消化しやすい形式にトークン化します。 NeMo には、データのフィルタリング、重複排除、ブレンディング、言語データセットの書式設定のための包括的な前処理機能が含まれており、開発者やエンジニアが何か月もの開発時間と計算時間を節約できるようになります。
NeMo フレームワークは、パイプライン全体にわたって、事前にパッケージ化されたスクリプト、参考例、ドキュメントを使用して、初日から生成 AI を可能にします。
自動構成ツールを使用することで基盤モデルの構築も簡単になります。このツールは最適なハイパー パラメーター構成を自動検索し、任意のマルチ GPU 構成、トレーニング、または展開の制約に対してトレーニングと推論を最適化します。
開発者が NeMo を使えば、NVIDIA の学習済みモデルや一般的なオープン ソース モデルを使用し、要件に合わせてカスタマイズすることができます。それにより、データとインフラストラクチャの要件が減り、解決までの時間が短くなります。
NeMo は、NGC と Hugging Face の両方から入手可能な学習済みモデルを提供し、これらは最高のパフォーマンスが得られるよう、テストされ、最適化されています。
NeMo フレームワークは柔軟性に優れ、クラウドからデータ センターまで場所を問わず、さらには NVIDIA RTX™ GPU を搭載した PC やワークステーションでも実行できます。サービスとしてカスタム LLM を構築することに興味がある組織なら、NVIDIA AI Foundations を活用できます。これは一連のモデル作成サービスであり、エンタープライズレベルの生成 AI を進化させるものであり、また、テキスト (NVIDIA NeMo)、ビジュアル コンテンツ (NVIDIA Picasso)、生物学 (NVIDIA BioNeMo™) などの分野のユース ケースでカスタマイズを可能にします。 NVIDIA DGX™ Cloud によって提供されます。
オープンソース ソフトウェアは、開発者がガードレールを AI チャットボットに追加し、大規模言語モデルで構築されたアプリケーションを安全性とセキュリティの要件に合わせて維持する上で役立ちます。
NeMo Data Curator は拡張性の高いデータ キュレーション ツールで、開発者は LLM を事前にトレーニングするために兆単位トークンの多言語データセットをキュレートし、大規模なデータセットのニーズの高まりに対応することができます。
ChatUSD は、テキストから Python-USD コード スクリプトを生成し、USD の知識に関する質問に答えるための大規模言語モデル (LLM) エージェントであり、NVIDIA NeMo フレームワーク上で開発されました。
トレーニングと推論のツールにすぐにアクセスすることで、企業は生成AI モデルを簡単に、かつ、費用対効果に優れ、迅速な方法で開発できます。
NVIDIA AI Foundations の一部である NVIDIA NeMo クラウド ファウンドリへの早期アクセスに申し込み、エンタープライズ AI アプリケーション向けの LLM をハイパーパーソナライズし、大規模に展開してください。
アクセスし、何十億ものパラメーターを持つマルチモーダル生成 AI モデルを構築、カスタマイズ、展開してください。申請の審査には 2 週間以上かかる場合があります。
AI Sweden は、パワフルな 1,000 億個のパラメーター モデルを簡単に使えるようにすることで、地域言語モデルの応用を促しました。同社は歴史的な記録をデジタル化し、商用として言語モデルを開発しました。
Image Courtesy of Korea Telecom
韓国の大手携帯電話会社が、NVIDIA DGX SuperPOD プラットフォームと NeMo フレームワークでトレーニングされた無数のパラメーターを有する LLM を構築し、スマート スピーカーやカスタマー コール センターを強化しています。
ServiceNow は ServiceNow プラットフォームでカスタム LLM を開発して、インテリジェントなワークフローの自動化を可能にし、企業の IT プロセス全体の生産性を上げています。
Writer では生成 AI を利用し、マーケティング、トレーニング、サポートなどの企業用途向けのカスタム コンテンツを開発しています。
Snowflake を利用すると、企業は Snowflake Data Cloud 内の占有データを使用し、カスタマイズされた生成 AI アプリケーションを作成することができます。
NVIDIA は、NeMo の一般提供を発表しました。ブログをチェックして、新機能と LLM の大規模な構築、カスタマイズ、展開の戦略をご確認ください。
チュートリアル、Jupyter Notebook、ドキュメントなど、NVIDIA NeMo を始めるために必要なすべてが揃います。
NeMo の技術的なチュートリアルと、大規模な生成 AI モデルを構築、カスタマイズ、展開する方法をご覧ください。
LLM の仕組み、その可能性、実際の導入事例など、LLM について知っておくべきことを全てご覧ください。