ディープラーニングベースのレコメンダー システムは、小売、エンターテイメント、ヘルスケア、金融などの業界において、パーソナライズされたオンライン体験を支える陰の立役者であり、パワフルな意思決定を支援するツールです。

レコメンダー システムは、多くの人々の好みや過去の決断といったさまざまな特性を理解することによって機能します。たとえば、レコメンダーは、ある個人が以前に視聴した映画や理解する言語に基づき、その個人がどのような映画を楽しむかを予測することができます。この膨大なデータを汎用化して類似の個人や状況に具体的なお勧めを迅速に提供できるようニューラル ネットワークをトレーニングするには大量の計算処理が必要になりますが、これは GPU によって劇的に高速化できます。今まで以上に喜ばれるユーザー体験、お客様とのより密接な関わり、情報に基づく優れた意思決定の提供に努めている組織は、適切に設計されトレーニングされたレコメンダー システムを適用することで、その素晴らしい価値を実感できます。

このワークショップでは、効果の高いレコメンダー システムを構築するための基礎的なツールと手法のほか、GPU によって高速化されたソリューションを展開してリアルタイムでのお勧めを実現する方法についても説明します。

 

学習目標


このワークショップでは、次のことを学びます。
  • オープンソースの cuDF ライブラリと Apache Arrow を使用してコンテンツベースのレコメンダー システムを構築する方法
  • 交互最小 2 乗法 (ALS) と CuPy を使用して協調フィルタリング レコメンダー システムを構築する方法
  • 広さと深さを持つニューラル ネットワークを TensorFlow 2 を使用して設計し、ハイブリッド レコメンダー システムを作成する方法
  • 大規模なスパース データセットを使用して、トレーニングと推論の双方のパフォーマンスを最適化する方法
  • レコメンダー モデルをハイパフォーマンスの Web サービスとして展開する方法

ワークショップ データシートをダウンロードする (PDF 79.8 KB)

ワークショップの概要

序論
(15 分)
  • インストラクターの紹介。
  • courses.nvidia.com/join でアカウントを作成する
行列を基盤とするレコメンダー システム
(120 分)
特異値分解 (SVD) によるコラボレーティブ フィルタリングを実装する:
  • CuPy を使用し、スパース データを GPU に読み込む。
  • NumPy ブロードキャスト ルールで ALS を効率的に実行する。
  • cuDF でコンテンツベースのフィルターを構築する。
休憩 (60 分)
幅広くて深いレコメンダーをトレーニングする
(120 分)
TensorFlow 2 を利用し、幅広くて深いネットワークを構築する:
  • Keras を使用してディープ ネットワークを構築する。
  • TensorFlow 特徴列を使用し、幅広くて深いネットワークを構築する。
  • tf.data で効率的にトレーニング データを取り込む。
  • 事例 1: レコメンダー システム モデル アーキテクチャの実世界例を見る。
休憩 (15 分)
レコメンダー システムを本稼働に展開することの課題
(120 分)
本稼働環境でレコメンダー システムを展開する:
  • トレーニングされたモデル構成を展開のために取得する。
  • 展開のためのコンテナーを構築する。
  • NVIDIA Triton Inference Server を使用し、トレーニングされたモデルを展開する。
最終確認
(15 分)
  • 主要な学習事項をおさらいし、質問に答える。
  • DLI ベース環境コンテナーから独自のトレーニング環境を構築する方法を学習する。
  • 評価を完了し、証明書を取得する。
  • ワークショップ アンケートを受ける。
  • 事例 2: 大規模なレコメンダー システムの実世界課題を復習する。
 

ワークショップの詳細

時間: 8 時間

価格: 公開ワークショップは $500 です、企業向けワークショップについては、お問い合わせください

参加条件:

  • リスト内包表記を理解しているなど、中級レベルの Python の知識を持っていること
  • Python を使用したデータ サイエンスの経験があること
  • NumPy と行列数学に精通していること

前提条件を満たすためのおすすめリソース: Python チュートリアルKaggle 機械学習コースNumPy チュートリアル

テクノロジ: CuDFCuPyTensorFlow 2NVIDIA Triton Inference Server

評価の種類: 技能基準のコーディング評価では、本稼働品質の推奨パイプラインを受講生がデバッグし、修正する能力を評価します。

証明書: 評価が正常に完了すると、NVIDIA DLI 証明書が参加者に贈られます。これは専門分野の能力を証明するものであり、プロフェッショナルとしてのキャリアアップを支援します。

ハードウェア要件: 最新版の Chrome または Firefox を実行できるデスクトップ コンピューターまたはノート PC。参加者は全員、完全に設定が終わっている状態でクラウドに置かれている GPU 対応サーバーに専用アクセスできます。

言語: 英語

Upcoming Workshops

お客様の組織が、AI、アクセラレーテッド データ サイエンス、アクセラレーテッド コンピューティングの主要なスキルの向上と開発にご興味をお持ちの場合、NVIDIA Deep Learning Institute (DLI) にインストラクターによるワークショップをリクエストしていただけます。

NVIDIA に問い合わせる