クラウドのイノベーションを加速

がんの診断。台風の予測。ビジネス運用の自動化。アクセラレーテッド コンピューティングを活用して膨大な量のデータに隠された洞察や知見を明らかにすれば、このようなブレイクスルーが実現します。Amazon Web Service (AWS) と NVIDIA はこれまで 13 年以上にもわたって連携し、最もパワフルかつ最先端の GPU によって処理の高速化が実現したクラウドを提供することで、よりインテリジェントな未来の構築のお手伝いをしてきました。

AWS と NVIDIA で新たな可能性を実現する

ヘルスケア

AWS と NVIDIA のソリューションで、個別化医療を実現し、生物医学研究のブレイクスルーを高速化しましょう。

メディアとエンターテインメント

クラウド コンピューティングの可能性を引き出し、デジタル コンテンツ制作に生かしましょう。スタジオの需要の増加に合わせてリソースを調整し、世界中の非常にクリエイティブな人材の雇用に対応できます。

金融サービス

生成 AI、ディープラーニング、機械学習、自然言語処理 (NLP) の各ソリューションを活用することで、リスク管理体制を強化し、データに基づく意志決定やセキュリティ対策のレベルを強化し、顧客体験を向上させることができます。

 

デジタル ツインとメタバース

産業/科学向けの大規模シミュレーションのパワーをご活用ください。

 

Enterprise AI and Machine Learning

AWS 上で稼働できる NVIDIA ソリューションによって、開発時間を短縮させ、コストを削減し、精度とパフォーマンスを向上させ、自信をもって AI を活用しましょう。

ハイパフォーマンス コンピューティング

AWS と NVIDIA のハイパフォーマンス コンピューティング (HPC) ソリューションによって、どのように連携を強化し、世界的に見ても非常に複雑な課題を費用対効果の高い方法で解決できるかをご覧ください。

顧客事例を見る

ビデオ通話の文字起こし

ソフトウェア企業の Read.ai では、NVIDIA® Riva でビデオ通話の文字起こし用プラットフォームを構築し、さらに NVIDIA A10G Tensor コア GPU を搭載した Amazon EC2 G5 インスタンスを活用することでコストを 20 〜 30% 削減しています。

ライフ サイエンスにおける機械学習

ライフ サイエンス企業の Paige では、NVIDIA A100 Tensor コア GPU を搭載した Amazon EC2 P4d インスタンスを活用してハイブリッドの機械学習ワークフローを構築し、がん治療を前進させています。

VFX スタジオがクラウドに

Netflix では、NVIDIA A10G GPU を搭載した Amazon EC2 G5 インスタンスを活用して視覚効果 (VFX) スタジオを展開し、世界中の従業員がリモートで連携できるようにしています。

コンテンツ用の生成 AI

Iternal Technologies では、NVIDIA GPU を搭載した Amazon EC2 インスタンスを活用して顧客のマーケティング活動を強化し、生成 AI によって ROI を 30 倍も向上させています。Iternal は NVIDIA Inception への参加を通じて、NVIDIA Riva の音声複製機能をいち早く入手し、概念実証用の音声生成 AI 製品を 2 週間で作り上げました。

 

小売業向けの HPC と機械学習

自動車会社の Reezocar では、NVIDIA GPU を搭載した AWS の HPC と機械学習インフラストラクチャを活用し、車両の修理見積もりを迅速かつ正確に行っています。このインフラストラクチャを活用することで、Reezocar では車のへこみや不具合を細かく検出し、修理費の見積もりをミリ秒単位で行っており、車両の耐用年数を延ばすことができています。

ゲーム用の生成 AI

Codeway では、NVIDIA GPU を搭載した Amazon EC2 G5 インスタンスを活用して、生成 AI アプリケーションである Wonder のコストパフォーマンスを最適化し、コンピューティング コストを 48% 削減しています。

AWS 上で稼働できる、 NVIDIA によって処理の高速化が実現したインフラストラクチャ — クラウドからエッジまで

Amazon Elastic Cloud Compute (EC2)

さまざまな NVIDIA GPU によって処理の高速化が実現したインスタンスにAmazon EC2 上でオンデマンドでアクセスし、AI、機械学習、データ分析、グラフィックス、クラウド ゲーミング、仮想デスクトップ、HPC アプリケーションのさまざまなコンピューティング要件を満たしましょう。1 個の GPU インスタンスから、EC2 UltraClusters で使用される数千個もの GPU にいたるまで、AWS のユーザーは適切な量の GPU をプロビジョニングして、解決までの時間を短縮し、クラウド ワークロードの実行にかかる総コストを削減できます。

Amazon EC2 G5 と NVIDIA A10G

NVIDIA A10G Tensor コア GPU を搭載し、NVIDIA RTX™ テクノロジもサポートする EC2 G5 インスタンスは、動画編集、レンダリング、3D ビジュアライゼーション、フォトリアルなシミュレーションなど、グラフィックス処理を多く必要とするアプリケーションに最適です。さらに、AI 推論の高速化や単一 GPU を使用した AI トレーニングのワークロードの高速化にも活用できます。

Amazon EC2 G5g と NVIDIA T4G

NVIDIA T4G Tensor コア GPU と AWS Graviton2 プロセッサを搭載した EC2 G5g インスタンスは、クラウド ゲーム開発と Android-in-the-cloud のゲーミング サービスに最適です。また、NVIDIA NGC™ カタログで提供されている Arm® 対応ソフトウェアをこのインスタンスで活用すると、費用対効果の高い方法で AI 推論を行うこともできます。

Amazon EC2 P4d と NVIDIA A100 40GB

8 基の NVIDIA A100 40GB Tensor コア GPU を搭載した EC2 P4d インスタンスは、AI や HPC の処理において最高レベルのパフォーマンスを発揮します。マルチノードの AI トレーニングや分散型の HPC ワークロードの処理を行う場合、EC2 UltraClusters を活用すると、数基から数千基の NVIDIA A100 GPU を使用することができます。

Amazon EC2 P5 と NVIDIA H100 80GB

Tensor コア GPU 搭載の Amazon EC2 は、ディープラーニングや HPC のアプリケーションの処理において最高レベルのパフォーマンスを発揮します。前世代の GPU ベースの EC2 インスタンスと比較して、解決までの時間を最大 6 分の 1 に短縮し、機械学習モデルのトレーニングにかかるコストを最大 40% 削減することができます。

AWS Hybrid Cloud and Edge Solutions

Leverage the power of NVIDIA-accelerated computing across a broad range of AWS hybrid cloud and edge solutions to meet the low-latency, real-time requirements of workloads like AI, machine learning, gaming, content creation, and augmented reality (AR) and virtual reality (VR) streaming. NVIDIA’s performance-optimized and cloud-native software stack ensures that you get the best performance for your applications, wherever they need to run—cloud to edge.

AWS Panorama

AWS Panorama is a collection of machine learning devices and an SDK that brings computer vision to on-premises internet protocol (IP) cameras. AWS Panorama edge devices are built on NVIDIA Jetson™ system on modules (SOMs) and use the NVIDIA JetPack™ SDK to accelerate AI at the edge for industrial inspection, traffic monitoring, and supply chain management use cases.

AWS Outposts

With NVIDIA T4 Tensor Core GPUs in AWS Outposts, you can meet security and latency requirements in a wide variety of AI and graphics applications in on-premises data centers. Combined with access to GPU-optimized software from NGC, you can derive insights from vast amounts of data orders-of-magnitude faster than CPUs alone.

AWS Wavelength

AWS Wavelength brings the AWS cloud to the edge of the 5G mobile network to develop and deploy ultra-low-latency  applications. AWS Wavelength zones offer access to NVIDIA GPU-accelerated instances to speed up applications such as game streaming, AR/VR, and AI inference at the edge.

AWS IoT Greengrass

AWS IoT Greengrass extends AWS services to edge devices, such as NVIDIA Jetson platforms, to develop AI models and deploy them at the edge to act locally on generated data. Combined with the NVIDIA DeepStream SDK, you can build and deploy high-throughput, low-latency vision AI applications at the edge.

NVIDIA 製品用に最適化されたソフトウェアでシンプルな開発とパフォーマンスの最大化を同時に実現

AWS 上で稼働できる NVIDIA 製品用に最適化されたソフトウェア

NVIDIA GPU によって処理の高速化が実現したインスタンスを AWS 上で活用して、コンピューティング能力を高めましょう。処理能力の高いアプリケーションをより少ない計算リソースで開発および展開して、解決までの時間を短縮し、総保有コスト (TCO) を削減できます。パフォーマンスと開発者の生産性を最大限に高めるため、NVIDIA ではデータ サイエンス、データ分析、AI と機械学習のトレーニング、AI と機械学習の推論、HPC、グラフィックスなど、さまざまなワークロードに対応する GPU 最適化ソフトウェアを幅広く提供しています。

NVIDIA NGC

NVIDIA NGC は AI およびデジタル ツインのエンドツーエンド ワークフローを支援するポータルで、サービスやソフトウェア、管理ツール、サポートが企業向けに用意されています。NGC ソフトウェア カタログでは、異なるレベルの専門知識を持つデータ サイエンティスト、開発者、研究者の幅広いニーズを満たすリソースが提供されています。これには、AI の最速実装を実現するための、コンテナー、学習済みモデル、専門分野別の SDK、ユース ケースに合ったコレクション、および Helm チャート等が含まれています。NGC ソフトウェアを使用した AI ワークロードを本番環境に展開する際は、NVIDIA AI Enterprise をご活用ください。エンタープライズ グレードのサポートやトレーニング、サービスを利用できます。

NVIDIA AI Enterprise on AWS

NVIDIA AI Enterprise は、安全かつエンドツーエンドの、クラウドネイティブな AI ソフトウェア スイートです。データ サイエンス パイプラインを高速化し、予測 AI モデルの開発、展開、管理を合理化するため、重要なプロセスを自動化し、データから短期間でインサイトを取り出すことができます。NVIDIA AI Enterprise には、NVIDIA AI ワークフロー、フレームワーク、学習済みモデル、インフラストラクチャ最適化など、フルスタック ソフトウェアのライブラリが充実しています。グローバルなエンタープライズ サポートと定期的なセキュリティ レビューにより、事業の継続性が保証され、AI プロジェクトが円滑に進行します。

NVIDIA RTX 仮想ワークステーション

グラフィックス NVIDIA RTX 仮想ワークステーション (RTX vWS) は、GPU によってグラフィックス処理の高速化や、プロフェッショナル向けの要求度が非常に高いデザイン/エンジニアリング アプリケーションへのクラウドからのアクセスを実現します。この仮想ワークステーションを利用すると、クリエイティブ プロフェッショナルとテクニカル プロフェッショナルは、どこにいても生産性を最大限に発揮できます。 Amazon EC2 G5 (NVIDIA A10G) インスタンスまたは G4dn (NVIDIA T4) インスタンスを RTX vWS Amazon マシンイメージ (AMI) と組み合わせると、仮想マシン上で、RTX テクノロジによる最新のリアルタイム レイ トレーシングなどの業界最先端の 3D グラフィックス プラットフォームを実現することができます。

NVIDIA によって処理の高速化が実現した AWS サービス

NVIDIA と AWS は緊密に連携し、NVIDIA アクセラレーテッド コンピューティングの力をさまざまな AWS サービスで提供しています。AWS 上で稼働できる NVIDIA GPU によって処理の高速が実現したインスタンスは、自分でプロビジョニングして管理する場合でも、Amazon SageMaker や Amazon Elastic Kubernetes Service (EKS) などのマネージド サービスで利用する場合でも、必要に応じて最適なレベルの抽象化を柔軟に選択できます。

Amazon EMR

Amazon EMR 内で Apache Spark 用の NVIDIA RAPIDS™ Accelerator を活用し、NVIDIA GPU によって処理の高速化が実現した AWS インスタンスで、コードを変更することなく Apache Spark 3.x のデータ サイエンス パイプラインを高速化しましょう。この統合によりデータ サイエンティストは、抽出、変換、読み込み (ETL)、データ処理、機械学習のパイプラインを膨大なデータ量に対して実行し、クラウドベースのインスタンスを減らして、短時間でより多くの作業を行うことで、クラウドのコストを下げることができます。

Amazon SageMaker

NVIDIA の AI ソフトウェアと GPU によって処理の高速化が実現したインスタンスを使うことで、Amazon SageMaker 内において、データの準備、モデル トレーニング、推論サービスの提供といった AI と機械学習のワークフローの各ステップを高速化できます。AI モデルを本番環境に短時間で展開し、推論コストを削減するために、Amazon SageMaker では NVIDIA Triton™ Inference Server を統合しました。これにより、マルチフレームワーク サポート、動的バッチ処理、モデルの同時実行などの機能が使えるようになるため、CPU インスタンスと GPU インスタンスの両方でパフォーマンスを最大化できます。

Amazon Titan

生成 AI サービスである Amazon BedrockAmazon Titan 基盤モデル を作成している AWS の経験豊富なサイエンティストや開発者チームは、NVIDIA NeMo™ を活用しています。NVIDIA NeMo™ はエンドツーエンドのクラウドネイティブ フレームワークで、これを活用すると、生成 AI モデルをあらゆる場所で構築、カスタマイズ、展開することができます。

また、AWS の Elastic Fabric Adapter (EFA) を利用するユーザーは、UltraCluster ネットワーク インフラストラクチャを活用することができます。このインフラストラクチャは、10,000 基を超える GPU を直接接続し、NVIDIA GPUDirect® を使用してオペレーティング システムと CPU をバイパスできます。

開発者向け関連情報とクイック スタート ガイド

MONAI Label ワークショップ

ヘルスケア向けのオープンソース AI フレームワークである MONAI を業務で活用する方法をご覧ください。ワークショップに参加して、実際に体験してみましょう。

AWS で BioNeMo が利用可能に

大手の製薬企業やテックバイオ企業に所属する研究者や開発者は 、NVIDIA BioNeMo™ などの NVIDIA Clara™ ソフトウェアやサービスを簡単に展開できるようになりました。AWS を活用して医療分野における高速化を実現させましょう。

スタートアップを加速

市場参入のための重要なサポート、技術的な専門知識、トレーニング、資金調達の機会を、世界中の最先端のスタートアップに提供しているプログラムをご覧ください。

TensorRT-LLM を活用した AI 機能

販売業者にとって、取り扱い商品の詳細なリストを作成するのは多大な労力と時間を必要とする作業でした。しかし、このシンプルになったプロセスを活用することで、販売業者は他の業務により多くの時間を割けるようになりました。NVIDIA TensorRT-LLM ソフトウェアは、現在 GitHub で入手できます。NVIDIA AI Enterprise を介してこのソフトウェアにアクセスすると、本番環境 AI に必要なエンタープライズ グレードのセキュリティ、サポート、信頼性が提供されます。

NVIDIA CloudXR

NVIDIA CloudXR™ は、NVIDIA の拡張現実 (XR) ストリーミング テクノロジであり、RTX および RTX 仮想ワークステーション ソフトウェアをベースに構築されています。CloudXR と Amazon NICE DCV ストリーミング プロトコルを併用することで、没入型アプリケーションの開発において、あらゆる側面でオンデマンドの計算リソースを利用できます。

Amazon SageMaker 上の NVIDIA Triton Inference Server

このブログでは、NVIDIA Triton Inference Server と SageMaker の概要を紹介するほか、Triton Inference Server コンテナーを使用するメリットや、独自の機械学習モデルを簡単に展開する方法を説明しています。このブログ記事には、内容を補足するサンプル ノートブックがあります。これを使用して作業を行う場合、こちらからダウンロードしてください。

Amazon EKS で NVIDIA Riva を大規模に活用

このステップバイステップのガイドでは、NVIDIA Riva のスピーチ スキルを Amazon EKS に展開し、Traefik ベースの負荷分散を使用してスピーチ スキルを拡張する方法を紹介します。

Amazon Music が NVIDIA と共同で SageMaker を使用し、機械学習のトレーニングと推論を最適化

Amazon Music が、SageMaker、NVIDIA Triton Inference Server、NVIDIA TensorRT® を使用してどのようにパフォーマンスとコストを最適化したかをご覧ください。Amazon Musicの一見シンプルに見える検索バーは、入力ミスがあっても遅延をほとんど感じさせず、関連度の高いリアルタイムの検索結果を表示する複雑な仕組みとなっており、シームレスな使用感を実現しています。

NVIDIA Clara Parabricks on AWS

世界で最もアクセス数の多い e コマース Web サイトの 1 つである Amazon.com では、検索クエリでスペルミスのある単語を自動的に修正する AI モデルを使用して、ユーザーが買い物をスムーズにできるようにしています。Amazon では、遅延 (入力ミスの修正速度) と有効なセッション数に基づいて、検索機能の高速化の成果を測定しています。

AWS と NVIDIA のパワーを活用

Amazon EC2 P5 インスタンス

NVIDIA AI Enterprise

NVIDIA RTX 仮想ワークステーション