すべての業界
Perplexity は最先端のモデルを迅速にカスタマイズし、検索結果の精度と品質を向上させるとともに、低遅延と高スループットを最適化することで、より良いユーザー体験を実現することをを目指しています。
Perplexity
生成 AI / LLM
NVIDIA NeMo
Perplexity は、AI を活用した画期的な回答エンジンで、あらゆる質問に対して正確で信頼できる回答をリアルタイムに提供します。
インターネットでは、豊富な情報にアクセスでき、毎年無数の質問を投げかけることができます。しかし、従来の情報検索では、ユーザーが複数のソースを確認し、必要とする洞察を見つけて形成しなければなりませんでした。
この問題を是正するために、Perplexity は「回答エンジン」を構築し、より効率的な情報の取得方法を提供します。質問されると、Perplexity の回答エンジンは、簡潔な回答を直接提供します。直接的で関連性の高い情報を迅速に提供することで、時間を節約しながらユーザー体験を向上させます。
検索にはそれぞれ異なる意図が含まれます。Perplexity は大規模言語モデル (LLM) のネットワークを利用して、信頼できる結果を生成します。これを実現するために、Perplexity のチームは、高度なチューニング技術でモデルのカスタマイズ プロセスを簡便かつ効率的に拡張できるツールを必要としていました。
要点
Perplexity は NVIDIA NeMo を採用し、その信頼性、柔軟性、使いやすさを活用して、オンライン回答エンジンのカスタム モデルを作成しました。NeMo による支援を受け、以下のデータ処理および高度なモデル アライメント技術を活用しました。
新しいオープンソースのリリースから数日以内に、チームは検索での基本モデル比で 20% 改良された新しい Sonar モデルを開発しました。
Perplexity は、Llama や Mistral モデル ファミリなど、最先端のモデルにファインチューニングを適用し、検索拡張生成を活用して、検索データに基づく正確で簡潔な回答を提供しています。このレベルのカスタマイズにより、Perplexity は AI アプリケーションにおいて高い精度と関連性を達成できました。
さらに、NeMo の使いやすさ、幅広い対応モデル アーキテクチャ、高いトレーニング スループットにより、Perplexity は迅速に実験し、アプリケーションに最適なチューニング モデルを見つけることができました。
NeMo を使用することで、Perplexity は大規模な分散データとモデル並列処理を活用しながら、LLM のファインチューニングを 0.5B から 400B 以上に拡張することができました。
AI リサーチ エンジニアで Perplexity の検索機能改善の取り組みを率いる Weihua Hu 氏は、次のように述べています。「NeMo を使用することで、Perplexity はさまざまなオープンソースの埋め込みモデルを迅速にファインチューニングできます。これにより、検索スタックが大幅に強化され、回答の品質が大きく向上しました。」
Weihua 氏はまた、「いくつかの事後トレーニング技術を使用して実験し、教師ありファインチューニング (SFT) とDPO (直接的選好最適化) の適切な組み合わせを見つけることができました。」とも述べています。
情報へのアクセス方法を再定義することで、Perplexity はユーザーの Web の使用方法を変革し、より直感的で使いやすいものにすることを目指しています。
「NeMo を使用することで、Perplexity はさまざまなオープンソースの埋め込みモデルを迅速にファインチューニングできます。これにより、検索スタックが大幅に強化され、回答の品質が大きく向上しました。」
Weihua Hu 氏
AI リサーチ エンジニア