ソリューション: AI ワークフロー
最新の情報を使用して、自然言語でドメイン固有の質問に正確に回答できるチャットボットを構築しましょう。
生成 AI によって、企業は最も貴重なデータも取り込んだ素晴らしい知能を持つ、エージェントやチャットボットを構築することができます。
このワークフローは、RAG 技術を使用して、大規模言語モデル (LLM) を企業のナレッジ ベースに接続します。生成 AI チャットボットは、リアルタイムで情報を取得し、自然な言語で正確な回答を提供することができます。
この AI ワークフローは、さまざまなユース ケースに正確な応答を生成するエンタープライズ ソリューションの構築と展開を加速します。既存の基盤モデル、NVIDIA NeMo™、NVIDIA Triton Inference Server™、および GPU で高速化されたベクトル データベースを使用して、RAG を利用したチャットボットを展開します。
TensorRT-LLM へのモデル変換と、NeMo、LangChain/LlamaIndex、および Milvus ベクトル データベースを使用した GPU アクセラレーションと RAFT ベースの統合を備えた推論パイプラインで構成される、AI ワークフローのハイレベルな一覧です。 Triton Inference Server は、NVIDIA AI Enterprise ソフトウェアのクラウドネイティブ インフラストラクチャ上で実行されます。各パイプラインの詳細は技術概要をご覧ください。
生成 AI プロジェクトの計画はございますか? 無料で厳選されたラボで RAG ワークフローを使用して、AI チャットボットにアクセスしてください。すぐに使えるソフトウェア、サンプル データ、アプリケーションを備えたステップバイステップのガイド付きラボをご利用ください。
LLM は、企業のナレッジベースからのリアルタイムな情報に基づいて回答を生成します。
本番環境の Kubernetes 上で Triton Inference Server ポッドをスケーリングするオーケストレーションを簡素化します。
ワークフロー全体を、ご希望のオンプレミスおよびクラウド プラットフォームに展開することができます。
AI ワークフローは、AI の成果を生み出すまでの道筋を加速します。この RAG ベースのワークフローは、開発者に AI チャットボットの構築を開始するのに参考となるソリューションを提供します。
最高クラスの AI ソフトウェアにより、AI ソリューションの開発と展開が合理化されます。
フレームワークとコンテナーは、NVIDIA GPU 向けにパフォーマンスがファインチューニングされ、テストされています。
ビジネス クリティカルな AI プロジェクトを、世界中で利用可能な NVIDIA エンタープライズ サポートで軌道に乗せることができます。
このワークフローは、NVIDIA AI Enterprise ソフトウェアでご利用いただけます。
すでに生成 AI プロジェクトはありますか? 無料トライアルへのアクセスすると、RAG ベースのソリューション構築を実際に体験することができます。
NVIDIA AI Enterprise ソフトウェアの 90 日間トライアルにアクセスすると、RAG ベースの AI チャットボット ワークフローを一定期間、無料で評価することができます。
NVIDIA AI Enterprise ソフトウェア サブスクリプションを使用して、NVIDIA NGC™ カタログからワークフローにアクセスしましょう。
NVIDIA の専門家による実践的なトレーニングを提供し基礎から応用までを網羅した、包括的な生成 AI/LLM ラーニング パスをご活用ください。ご自身のペースで学べるフレキシブルなコースや、インストラクターによるワークショップを受講して修了証を取得することができます。
NVIDIA プライバシー ポリシー