NVIDIA、言語理解でのブレークスルーにより、AI でのリアルタイム会話を実現

BERT を53 分間という記録的な早さでトレーニングし、推論を 2 ミリ秒にまで短縮することで、Microsoft およびその他を通じて、大規模なアプリケーションでの最先端の言語理解が利用可能に

2019 年 8 月 13 日 – カリフォルニア州サンタクララ - NVIDIA は、リアルタイム会話型の AI によって企業のより自然な顧客対応を可能にする、言語理解でのブレークスルーを発表しました。

NVIDIA の AI プラットフォームは、最先端の AI 言語モデルの 1 つである BERT を 1 時間未満でトレーニングし、わずか 2 ミリ秒で推論を完了した、最初のプラットフォームとなっています。この画期的な性能により、開発者は、最先端の言語理解を利用して、全世界の数百万人の顧客が利用できる、大規模なアプリケーションを開発することができます。

NVIDIA のこの画期的な性能を利用するアーリー アダプターには、Microsoft とともに世界でもっともイノベーティブなスタートアップ企業のいくつかが含まれており、これら企業は、NVIDIA のプラットフォームを導入することで、直感性に優れ、即座の反応が可能な、顧客向け言語ベース サービスを開発しようとしています。

限定された会話が可能な AI サービスは、数年前から存在していました。しかし、これまで、チャットボットやインテリジェント パーソナル アシスタント、検索エンジンを人レベルの理解度で運用するのは、きわめて大型の AI モデルをリアルタイムでデプロイできないため困難でした。NVIDIA は、自社の AI プラットフォームを最適な状態になるように調整し、その結果、同種のものではこれまでで最大規模となる言語モデルを構築することで、この問題を解決し、AI のトレーニングと推論の速度で新記録を達成しました。

NVIDIA のディープラーニング応用研究担当副社長のブライアン カタンザーロ (Bryan Catanzaro) は、次のように話しています。「大規模な言語モデルが、自然言語向け AI に革命をもたらしつつあります。これらのモデルにより、私たちは、きわめて困難な言語上の問題を解決できるようになり、真の意味での会話型 AI という目標に近づくことができるようになります。これらのモデルを加速させる、NVIDIA の画期的な業績により、組織は、これまで想像もしなかった方法で、顧客を支援し、喜ばせることのできる、新しい、最先端のサービスを生み出せるようになります」

最短のトレーニング時間、最短の推論時間、最大のモデル規模
自然言語理解を活用した AI サービスは、今後数年間で、指数関数的に成長すると予想されています。Juniper Research によれば、デジタル音声支援だけでも、次の 4 年間で搭載機器が 25 億台から 80 億台にまで増えるだろうと予測されています。さらに、Gartner では、2021 年にはすべての顧客サービス対応の 15% が完全に AI で処理されるようになり、2017 年から 400% 増加すると予想しています。1

この新しい時代の発展を支えるべく、 NVIDIA では自社の AI プラットフォームの主要な要素を最適化することで、自然言語理解性能で以下のような 3 つの新記録を樹立しました。

  • 最短トレーニング時間: 92 ノードの NVIDIA DGX-2H™ システムからなり、1472 基の NVIDIA V100 GPU を備える NVIDIA DGX SuperPOD™ で、世界最先端の AI 言語モデルの 1 つである Bidirectional Encoder Representations from Transformers (BERT) の大型バージョンを実行することで、BERT-Large のトレーニング時間を通常の数日からわずか 53 分に短縮しました。さらに、NVIDIA は、たった 1 台の NVIDIA DGX-2 で BERT-Large のトレーニングを 2.8 日間で完了することで、NVIDIA GPU の会話型 AI への拡張性をアピールしました。
  • 最短推論時間: NVIDIA TensorRT™ を実装した NVIDIA T4 GPU の利用により、NVIDIA は、BERT-Base SQuAD データセットでの推論をわずか 2.2 ミリ秒で行いました。これは、多くのリアルタイム アプリケーションでの閾値となる 10 ミリ秒より十分に短く、高度に最適化された CPU コードによる 40 ミリ秒以上という処理時間に較べ大幅な短縮が可能となります。
  • 最大モデル規模: より大きなモデルをつねに求める開発者の要望に焦点を当て、NVIDIA Research では、BERT ならびに増え続けている他の自然言語 AI モデルで使用されるTransformer をベースとした、世界最大の言語モデルの構築およびトレーニングを行いました。83 億のパラメータを持つ、NVIDIA のカスタム モデルは、BERT-Large の 24 倍の規模となっています。

エコシステムでの採用
全世界の数百人の開発者たちが、NVIDIA の AI プラットフォームをすでに使い、それぞれの言語理解研究を進め、新たなサービスを生み出しています。

Microsoft Bing では、Azure AI プラットフォームと NVIDIA のテクノロジを活用して BERT を実行し、より正確な検索結果を導き出しています。

Microsoft Bing のグループ プログラム マネージャーのランガン マジュムダー (Rangan Majumder) 氏は、次のように話しています。「Microsoft Bing では、最先端の AI モデルとコンピューティング プラットフォームの活用によって、世界中のお客様に満足していただける、最良の検索体験を提供しています。NVIDIA との密接な連携により、Bing では、Azure AI インフラストラクチャに組み込まれている NVIDIA GPU を使い、人気の自然言語モデルである BERT の推論をさらに最適化しており、Bing が昨年導入した、ランキング検索の品質の大幅向上に役立っています。当社では、Azure NVIDIA GPU を使った推論において、CPU ベースのプラットフォームに比べてレイテンシを半減、スループットは 5 倍向上しており、それによって、Bing では、全世界のすべてのお客様に、より関連性が高くて、費用効果の高い、リアルタイムの検索体験を提供できるようになっています」

Clinc や Passage AI、Recordsure といった、NVIDIA のInception プログラム に参加しているいくつかのスタートアップ企業も、NVIDIA の AI プラットフォームを使用して、銀行、自動車メーカー、小売業、医療プロバイダー、旅行などの業界のための、最先端の会話型 AI サービスを構築しています。

Clinc は、NVIDIA GPU を活用した、会話型 AI ソリューションを、大手の自動車メーカーや医療組織、ならびに Barclays や USAA、トルコ最大の銀行である Isbank などが名を連ねる顧客リストを通じて、全世界の 3,000 万人以上の人々に提供しています。

Clinc の CEO であるジェイソン マーズ (Jason Mars) 氏は、次のように話しています。「Clinc の先進の AI プラットフォームは、複雑な質問を理解し、それらをパワフルで、実現可能な洞察へと変容させて、全世界の大手ブランドに届けています。NVIDIA の AI プラットフォームが提供してくれる、画期的な性能により、当社では、会話型 AI の限界を押し広げることができ、当社のお客様がテクノロジを通じて、パワフルで、より意義深い方法でそれぞれの顧客に対応するための革新的なサービスを提供できるようになっています」

最適化されたソフトウェアを入手可能
NVIDIA では、会話型 AI のブレークスルーを実現するために使用された、以下のようなソフトウェア最適化を開発者に提供しています。

* NVIDIA の実装した BERT は、人気のHugging Face repo を最適化したバージョンです。

その他のリソース

NVIDIA についての最新情報:
公式ブログ NVIDIA blogFacebookGoogle+TwitterLinkedInInstagram、NVIDIA に関する動画 YouTube、 画像 Flickr

NVIDIAについて
1999年におけるNVIDIA (NASDAQ表示: NVDA)によるGPUの発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピュータ グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピュータ、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから: www.nvidia.com/ja-jp/