NVIDIA NeMo LLM サービスにより、開発者は巨大な言語モデルのカスタマイズが可能になり、NVIDIA BioNeMo サービスが分子、タンパク質、DNA の生成や予測の研究を支援
2022 年 9 月 20 日、カリフォルニア州サンタクララ — GTC — NVIDIA は本日、NVIDIA NeMo Large Language Model サービスと NVIDIA BioNeMo LLM サービスという、2 つの大規模言語モデル (LLM) クラウド AI サービスを発表しました。これらのサービスにより、開発者は簡単に LLM を採用し、コンテンツ生成、テキスト要約、チャットボット、コード開発、ならびにタンパク質構造や生体分子特性の予測などのためにカスタマイズされた AI アプリケーションを導入できるようになります。
NeMo LLM サービスにより、開発者は NVIDIA によって管理されたインフラストラクチャ上でプロンプト学習と呼ばれるトレーニング手法を使い、事前トレーニングされたいくつもの基盤モデルを迅速にカスタマイズすることができます。NVIDIA BioNeMo サービスは、LLM のユースケースを言語だけでなく、科学アプリケーションにまで広げ、製薬企業やバイオテクノロジ企業の創薬を加速させる、クラウド アプリケーション プログラミング インターフェイス (API) です。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、次のように述べています。「大規模言語モデルには、すべての産業を変容させる潜在力があります。基盤モデルをチューニングできる機能により、数百万人の開発者が巨大なモデルを一から構築する必要なく、LLM のパワーを利用して言語サービスを創出し、科学的発見を促進できるようになります」
NeMo LLM サービスがプロンプト学習によって精度を高め、展開を加速 NeMo LLM を使うことで、開発者は独自のトレーニング データを使って多様なサイズの基盤モデル (30 億パラメーターのモデルから、Megatron 530B のような世界最大規模のモデル) をカスタマイズできるようになります。一からモデルをトレーニングする方法では数週間から数か月を必要としていましたが、この作業は数分から数時間で完了します。
モデルは、P-チューニングと呼ばれる手法を使うプロンプト学習によってカスタマイズされます。これにより、研究者はわずか数百の例を使うだけで、元々は数十億のデータ ポイントでトレーニングされた基盤モデルを迅速にカスタマイズできるようになります。このカスタマイズ作業により、タスク特有のプロンプト トークンが生成されます。その後、これらトークンが基盤モデルと組み合わされ、特定のユースケースに対してより高い精度とより適切なレスポンスを提供します。
開発者は、同じモデルを複数のユースケースに対応できるようにカスタマイズし、多様なプロンプト トークンを生成できるようになります。プレイグラウンド機能により、コーディングをせずに簡単にモデルの実験やインタラクションが可能になり、業界固有のユースケースで LLM の効果およびアクセシビリティをさらに高めることができます。
展開の準備が整うと、チューニングされたモデルをクラウド インスタンスまたはオンプレミスのシステム、もしくは API から実行することができます。
BioNeMo LLM サービスにより、研究者は巨大モデルのパワーを活用可能に BioNeMo LLM サービスには、化学および生物学用の 2 つの新しい BioNeMo 言語モデルが含まれています。タンパク質、DNA および化学的データに対応しており、研究者は生物学的配列のパターンを発見し、洞察を得られるようになります。
BioNeMo により、研究者は数十億個のパラメーターが含まれているモデルを活用して、自身の研究の幅を広げることができます。これらの大規模モデルは、タンパク質の構造や遺伝子間の進化的関係についてのより多くの情報を格納することができ、さらに治療に応用可能な、斬新な生体分子の生成もできるようになります。
クラウド API を通じて Megatron 530GB などトレーニング済みモデルへのアクセスが可能に 基盤モデルのチューニングに加えて、LLM サービスでは、クラウド API を通じてトレーニング済みのカスタム モデルを使用することもできます。
このオプションにより、開発者は Megatron 530B を含む多様なトレーニング済み LLM を利用することができます。LLM サービスを使う開発者は、現在オープン ベータが利用可能な、NVIDIA NeMo Megatron フレームワークを使って構築された T5 および GPT-3 モデルを利用して、多様なアプリケーションや多言語サービスの要件に対応することができます。
自動車、コンピューティング、教育、ヘルスケア、テレコミュニケーションおよびその他の業界における主要な企業は、NeMo Megatron を使って、中国語、英語、韓国語、スウェーデン語やその他の言語でのお客様向けの画期的なサービスを他社に先駆けて展開しています。
提供予定 NeMo LLM と BioNeMo の両サービス、ならびに クラウド API は、来月よりアーリーアクセスを通じて利用可能となる予定です。現在、開発者は詳細を知るために申請することができます。
NeMo Megatron フレームワークのベータ リリースは現在 NVIDIA NGC™ より入手可能で、NVIDIA DGX™ Foundry および NVIDIA DGX SuperPOD™、ならびに Amazon Web Services、Microsoft Azure および Oracle Cloud Infrastructure のアクセラレーテッド クラウド インスタンスで実行できるように最適化されています。
NeMo Megatron フレームワークを活用してみたい開発者は、NVIDIA LaunchPad ラボにて無料でお試しいただけます。
NVIDIA AI を活用した大規模言語モデルについての詳細を知るためには、GTCにおけるジェンスン フアンの基調講演のリプレイをご視聴ください。
NVIDIA について 1993 年の創業以来、NVIDIA (NASDAQ: NVDA) は、アクセラレーテッド コンピューティングのパイオニアとして活動してきました。1999年の GPU の発明は、PC ゲーミング市場の成長に拍車をかけ、コンピュータ グラフィックスを再定義し、現在の AI 時代の火付け役となりました。NVIDIA は現在、データセンター規模の製品を提供するフルスタック コンピューティング企業であり、産業のあり方を大きく変えています。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/
NeMo LLM Service および BioNeMo LLM Service など NVIDIA の製品およびテクノロジの利点、影響、能力および入手可能性、大規模言語モデルがすべての産業を変容させる可能性、基盤モデルの調整機能の影響、および大規模モデルがタンパク質の構造、遺伝子間の進化的関係についてより多くの情報を保存すること、および治療への応用のための新たな生体分子を生成することに関する記述を含め (ただし、これらに限定されません)、本プレスリリースに記載されている記述の中には、将来予測的なものが含まれており、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サードパーティに依存する製品の製造・組立・梱包・試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、NVIDIA 製品やパートナー企業の製品の市場への浸透、デザイン・製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時に NVIDIA 製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関しては、Form 10-K での NVIDIA のアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手することができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。
© 2022 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、NVIDIA NGC、NVIDIA DGX および NVIDIA DGX SuperPOD は、米国およびその他の国々の NVIDIA Corporation (エヌビディア コーポレーション) の商標かつ/あるいは登録商標です。その他の会社名や製品名についても、それらに関連付けられる各会社の商標である可能性があります。製品の特徴、価格、発売予定および仕様は、予告なしに変更されることがあります。