生成式人工智慧

RTX PC 生成式人工智慧開發人員競賽

參賽就有機會贏得 GeForce RTX 4090 顯示卡、GTC 大會現場通行證及更多豐富獎品。

在搭載 NVIDIA RTX™ 系統的 Windows PC 上,使用 NVIDIA® TensorRT™ 或 TensorRT-LLM 等軟體套件打造創新的生成式人工智慧專案,就有機會贏得 RTX 4090 顯示卡、GTC 大會通行證及更多豐富獎品。本競賽旨在擴展生成式人工智慧應用程式的影響。 現在立即申請加入NVIDIA 開發計畫社群的一員,並展示您在 RTX 上的開發成果。

競賽期間為 2024 年 1 月 8 日至 2024 年 2 月 23 日。NVIDIA 專家團隊將審閱這些專案,並在 3 月初通知得獎者。得獎者名單將於 2024 年 3 月 21 日公佈。

請參閱競賽條款與細則

探索無限可能

選擇一或多個類別,打造您的生成式人工智慧開發案。

文字應用程式

無論是 RAG 聊天機器人、現有應用程式外掛,還是程式碼產生工具,都有無窮的可能性等您探索。在支援 RTX 的 Windows PC 上採用 TensorRT-LLM 加速的主要模型,來打造輸出文字的生成式人工智慧開發專案。

開發人員可以選擇適用於 RTX 的最佳化模型 (Llama 2、Mistral 7B、Phi-2、Code Llama)、任何專為 TensorRT-LLM 最佳化的社群模型,或是您自己的 TensorRT-LLM 最佳化模型。

視覺應用程式

在支援 RTX 的 Windows PC 上使用 TensorRT 加速的主要模型,建立以視覺媒體為基礎來產生影像、影片或 3D 繪圖運算的開發專案。

開發人員可以選擇 Stable Diffusion、Stable Video Diffusion 和 Stable Diffusion XL 等模型。此類別專案的輸出內容必須以視覺媒體 (影像或影片) 為主。

一般生成式人工智慧開發專案

此開放類別可讓您選擇建立任何生成式人工智慧應用程式或專案,不受限制。範例專案包括打造多模型應用程式、最佳化社群模型、開發社群 Connectors 專案,或加速現有的生成式人工智慧流程。與其他類別規定一樣,主要模型必須使用 TensorRT 或 TensorRT-LLM 來進行加速。

競賽流程

步驟 1:立即開始

參考我們適用於 Windows PC 的生成式人工智慧開發人員指南,助您快速上手

在 GitHub 上探索 ChatWithRTX 和在本機執行的 Continue.dev VS 程式碼助理參考應用程式

透過 NVIDIA 開發人員 Discord頻道和 NVIDIA 開發人員論壇,與 RTX 開發人員社群和 NVIDIA 技術專家交流。

步驟 2:設定並建立專案

設定開發環境並建立專案。在 Windows PC 的 RTX 系統上,使用 TensorRTTensorRT-LLM 加速主要生成式人工智慧模型。

步驟 3:在社群網站上分享

使用 #GenAIonRTX#DevContest#GTC24 標籤,在 Twitter、LinkedIn 或 Instagram 上張貼 45 到 90 秒的 RTX 人工智慧專案展示影片。此外,請標記下列其中一個 NVIDIA 社群帳號:

Twitter (X): @NVIDIAAIDev
LinkedIn: @NVIDIAAI
Instagram: @NVIDIAAI

步驟 4:提交參賽表單

完成後,請在此處提交所有素材,包括原始程式碼、展示影片、社群貼文和其他補充素材的連結。

競賽

三位得獎者皆可獲得

請參閱競賽條款與細則

得獎者評選標準

符合資格的參賽作品將依以下標準進行評選:

  • 示範影片:目標受眾對示範影片的整體印象。
  • 影響力和易用性:專案的相對影響力,以及目標受眾使用專案的難易度。
  • 技術:開發人員在應用程式或專案中如何有效整合或使用 NVIDIA 技術堆疊。

立即使用搭載 RTX 系統的 Windows PC,著手進行開發

立即探索入門指南

立即取得開發人員資源,讓您使用搭載 NVIDIA RTX 系統的 Windows PC,更順暢地開發生成式人工智慧。

在本機執行的人工智慧聊天機器人,具備檢索增強生成功能 (RAG, Retrieval-Augmented Generation)

透過此開發人員參考專案,瞭解如何在 Windows 上使用 TensorRT-LLM 建立檢索增強生成功能 (RAG) 聊天機器人。

開始使用 TensorRT

此函式庫提供易於使用的 Python API,協助您定義人工智慧模型,並打造具備最先進最佳化功能的 TensorRT 引擎,在 NVIDIA GPU 上高效率地執行推論。