高速機械学習

機械学習パイプラインを高度に最適化することでモデルの精度を上げ、最終結果に直接影響を与えます。

機械学習は企業が顧客を理解し、より良い製品とサービスを作り、経営を改善する上で役立ちます。データ サイエンスを高速化することで、企業は従来よりも短期間でソリューションのイテレーションを行い、生産を開始することができるようになります。また同時に、大量のデータセットを活用し、ピンポイントの精度を求めてモデルを改良できます。

より迅速な予測による意志決定力の向上

NVIDIA 機械学習の利点

企業は機械学習を利用し、製品、サービス、経営を改善しています。企業は過去の大量のデータを活用することで、顧客の行動を予測し、社内プロセスを改良するモデルを構築できます。機械学習はエンタープライズに非常に大きな価値をもたらしますが、現行の CPU ベースの手法では複雑になったりオーバーヘッドが増えたりし、企業の投資利益率が下がります。

最適化されたハードウェアとソフトウェアを結合するデータ サイエンス高速化プラットフォームを利用すれば、機械学習から従来の複雑性や非効率性がなくなります。データ サイエンティストは、迅速なフィーチャーイテレーション、大量のデータセットを使用したより精度の高い予測、価値を創出するソリューションの本稼働を簡単に行えるようになりました。人気の高い Python または Java ベースの API を介して簡単に GPU アクセラレーションを利用できます。クラウドでもオンプレミスでも簡単かつ迅速に始められます。

高速機械学習の力を活用することで、企業はデータを最大限活用するために必要なツールをデータ サイエンティストに与えることができます。

機械学習の課題

モデル イテレーションはオーバーヘッドを増やす

イテレーションには、結果が返ってくるまでの待機時間と、計算処理能力に対するコストの増加が伴います。イテレーションは結果の向上につながりますが、データ サイエンス チームはしばしば、ソリューションをより短期間で届けるためにイテレーションを制限することがあります。

ダウンサンプリングはモデルの精度を下げる

データ サイエンス チームは、計算処理能力の制限に起因して、データセットをダウンサンプリングすることがよくあります。これによって結果の精度が下がると、ビジネス上の意志決定が最適とは言えないものになります。

モデルの本稼働開始が困難

モデルを本稼働に進めることは非常に時間がかかる面倒な作業です。しばしばコードのリファクタリングが相当な量になることがあり、サイクル時間が増え、価値の創出に遅れが生じます。

高速機械学習の利点

  • データ サイエンティスト
  • IT インフラストラクチャ プロフェッショナル
CPU ベースの業界標準に比べて 19 倍速いソリューションでソリューションをテスト

待ち時間を短縮

CPU ベースの業界標準と比べて 19 倍速いソリューションを利用することで、プロセス完了までの待機時間が短くなり、ソリューションのイテレーションとテストにかける時間が増えます。

高性能処理でマルチテラバイトのデータセットを分析

結果を改善

高性能処理でマルチテラバイトのデータセットを分析することで、結果の精度が上がり、報告が早くなります。

:既存のデータ サイエンス ツールチェーンを高速化

リファクタリング不要

既存のデータ サイエンス ツールチェーンを高速化し、拡大します。新しいツールを覚える必要がないうえに、コードの変更は最小限に抑えられます。

コスト効率が 7 倍優れたソリューションによる GPU アクセラレーション

支出を削減

CPU ベースの業界標準に比べてコスト効率に 7 倍優れたソリューションによる GPU アクセラレーションで、予算を最大限まで活用できます。

あらゆるデータを活用し、ビジネスにおいて最良の意志決定を行う

意思決定を改善

あらゆるデータを活用することでビジネスにおいて最良の意志決定を行い、組織のパフォーマンスを改善し、顧客のニーズを今までより効果的に満たします。

デスクトップからマルチノード、マルチ GPU のクラスターまで簡単に拡張

シームレスなスケーリング

一貫性のある直観的なアーキテクチャでデスクトップからマルチノード、マルチ GPU クラスターまで簡単に拡張できます。

機械学習エコシステムを推進

新しいモデルを一から構築する場合でも、非常に重要なビジネスを支援するプロセスのパフォーマンスを微調整する場合でも、NVIDIA は企業の機械学習オペレーションを加速するソリューションを提供しています。NVIDIA は、高性能機械学習のために最適化されたハードウェアとソフトウェアを組み合わせ、問題を解決する分析情報をデータから簡単に生成できるソリューションを提供しています。RAPIDS と NVIDIA CUDA を利用することで、データ サイエンティストは NVIDIA GPU で機械学習パイプラインを高速化できます。データの読み込み、処理、トレーニングなどの機械学習オペレーションにかかる時間が数日から数分に短縮されます。CUDA のパワーはおなじみの Python や Java をベースとする言語で活用できます。高速機械学習を簡単に始められます。

シングル GPU cuML と Scikit-learn の比較

1x V100 と 2x 20 コア CPU の比較

RAPIDS は新しい高性能データ サイエンス エコシステムの基盤であり、相互運用性があることで導入の障壁が低くなっています。Apache Spark、cuPY、Dask、XGBoost、Numba などの最先端のデータ サイエンス フレームワークや、PyTorch、TensorFlow、Apache MxNet といった数々のディープラーニング フレームワークとの統合で、採用が広がり、他との統合が促されます。GPU アクセラレーションにより、RAPIDS ハイパーパラメーター最適化 (HPO)RAPIDS Forest Inferencing Library (FIL) などの機械学習エコシステム イノベーションは、かつて時間がかかっていた操作を数秒に短縮します。

クラウドで今日から機械学習を加速する

Amazon Web Services

Amazon Web Services で SageMaker、EC2、または EKS を利用して RAPIDS を始める

Google Cloud

Google Cloud で CloudAI または DataProc を利用して RAPIDS を始める

Microsoft Azure

Microsoft Azure で AzureML などのインスタンスを利用して RAPIDS を始める

機械学習のための アクセラレーテッド コンピューティング ソリューション

PC

PC

機械学習を開始しましょう。

ワークステーション

ワークステーション

データ サイエンス向けの新しいワークステーション。

Data Center

Data Center

大規模運用される AI システム。

クラウド

クラウド

用途の広い高速機械学習。

Unlock the Value of Big Data with the Power of AI

Download our new e-book, Accelerating Apache Spark 3.x — Leveraging NVIDIA GPUs to Power the Next Era of Analytics and AI, to learn more about the next evolution in Apache Spark.