大規模言語モデルでインテリジェンスを体系化する

大規模言語モデル (LLM) は AI における大きな進歩であり、学習した知識を通して、専門領域を変革する可能性を秘めています。LLM の規模はここ数年、毎年 10 倍に増えています。これらのモデルが複雑化し、巨大化するにつれて、その能力も向上しています。

それでも、LLM の開発や保守管理は困難であり、ほとんどの企業にとって、LLM は身近ではありません。

テキスト生成

マーケティング コピーやストーリー制作向け。

要約

ニュースと電子メール向け。

画像生成

ブランド制作やゲーミング キャラクター向け。

チャットボット

インテリジェントな Q&A やリアルタイムのカスタマー サポート向け。

コーディング

動的なコメント作成と関数の生成向け。

翻訳

言語とウィキペディア向け。

NVIDIA NeMo LLM サービス

NVIDIA NeMo LLM サービス

エンタープライズ AI 向けの大規模言語モデルの力を解放します。

NeMo LLM Service は、NVIDIA AI プラットフォーム上で動作し、企業に対して、プライベートおよびパブリック クラウド上での LLM のカスタマイズと展開、あるいは API サービスを利用した LLM への最速のアクセスを提供します。

世界最大級にパワフルな言語モデルをお試しください。

NeMo LLM Service では、NVIDIA Megatron 530B モデルがクラウド API として公開されます。530B モデルの機能を Playground または REST (REpresentational State Transfer) API でお試しください。

NVIDIA NeMo

NVIDIA NeMo Megatron の詳細を見る。

NeMo Megatron は、無数のパラメーターを持つ LLM を学習し、展開するためのエンドツーエンド フレームワークです。

コンテナー化されたフレームワークは、数千単位の GPU で高い学習効率を実現し、企業が大規模なモデルを構築し、展開することを可能にします。学習データをキュレートし、最大数兆単位のパラメーターを持つ大規模モデルを学習し、プロンプト学習でカスタマイズし、NVIDIA Triton™ Inference Server を使用して展開し、複数の GPU と複数のノードで大規模モデルを実行するための機能を提供します。

NeMo Megaton は、NVIDIA DGX™ Foundry、NVIDIA DGX SuperPOD™、Amazon Web Services、Microsoft Azure、Oracle Cloud Infrastructure での実行に最適化されています。

NVIDIA Triton が LLM 推論にパワーを与えます。

データ サイエンティストやエンジニアは、大規模言語モデルで可能性の限界を広げ始めています。NVIDIA Triton™ Inference Server は、LLM の展開、実行、拡張に使用できるオープンソースの推論サービング ソフトウェアです。大規模言語モデルのマルチ GPU マルチノード推論を FasterTransformer バックエンドを使用してサポートしています。Triton は分散ハイパフォーマンス推論に Tensor やパイプラインの並列処理、Message Passing Interface (MPI) と NVIDIA Collective Communication Library (NCCL) を使用し、GPT、T5、その他の LLM をサポートしています。LLM 推論機能はベータ版です。

NVIDIA Triton
NVIDIA BioNeMo

NVIDIA BioNeMo で創薬研究を拡大します。

GTC で発表された BioNemo は、NVIDIA NeMo Megatron をベースに構築されたアプリケーション フレームワークとクラウド サービスおよびフレームワークで、スーパーコンピューティング規模で大規模な生体分子の Transformer AI モデルをトレーニングおよびデプロイします。このサービスには学習済みの LLM が含まれるほか、タンパク質、DNA、RNA、化学物質の一般的なファイル形式をサポートし、データ ローダーとして分子構造用の SMILES と、アミノ酸およびヌクレオチド配列用の FASTA に対応しています。BioNeMo フレームワークはダウンロードすれば、お使いのインフラストラクチャで実行することもできます。

関連情報

NVIDIA Triton が大規模な AI デプロイを簡素化する方法をご覧ください。

コミュニティに参加する。

NVIDIA Triton Inference Server と NVIDIA® TensorRT™ の製品アップデート、コンテンツ、ニュースなど、最新情報をお届けします。

最新の NVIDIA Triton オンデマンド セッションをご覧ください。

GTC セッションをオンデマンドで視聴する。

NVIDIA GTC の LLM に関する最新のオンデマンド セッションをご覧ください。

AI ディープラーニング モデルを導入する。

推論に関する資料を読む。

進化する推論用途の状況、最適な推論アクセラレータに関する考慮事項、NVIDIA AI プラットフォームについてご覧ください。

LLM の最新情報を受け取る

NVIDIA NeMo LLM サービスを今すぐお試しください。