Alle Branchen
Perplexity zielt auf die schnelle Anpassung von „Frontier“-Modellen ab, um die Genauigkeit und die Qualität der Suchergebnisse zu optimieren und das Benutzererlebnis durch geringere Latenz und einen hohen Durchsatz zu verbessern.
Perplexity
Generative KI/LLMs
NVIDIA NeMo
Perplexity ist eine bahnbrechende KI-gestützte Antwortmaschine, die auf jede Frage genaue, vertrauenswürdige Antworten in Echtzeit liefert.
Das Internet bietet zwar Zugang zu einer Fülle von Informationen und ermöglicht es, Jahr für Jahr unzählige Fragen zu stellen, aber bei der herkömmlichen Suche müssen Benutzer zahlreiche Quellen durchgehen, um die benötigten Informationen zu finden und zu formulieren.
Um dieses Problem zu beheben, hat Perplexity eine „Antwortmaschine“ entwickelt, mit der Informationen auf effizientere Weise gewonnen werden können. Wenn eine Frage gestellt wird, liefert die Antwortmaschine von Perplexity direkt eine präzise Antwort. Die schnelle Bereitstellung direkter und relevanter Informationen spart Zeit und verbessert das Benutzererlebnis.
Jede Suche hat eine andere Zielsetztung, und Perplexity stützt sich auf ein Netzwerk großer Sprachmodelle (LLMs), um fundierte Ergebnisse zu generieren. Hierzu benötigte das Perplexity-Team Tools, die den Modellanpassungsprozess mit fortgeschrittenen Optimierungstechniken einfach und effizient skalieren konnten.
Das Wichtigste im Überblick
Perplexity nutzt die Zuverlässigkeit, Flexibilität und Benutzerfreundlichkeit von NVIDIA NeMo, um eigene Modelle für seine Online-Antwortmaschine zu entwickeln. Eingesetzt wurden mehrere von Nemo unterstützte Techniken der Datenverarbeitung und fortgeschrittenen Modellanpassung:
Innerhalb weniger Tage nach der Veröffentlichung einer neuen Open-Source-Version verfügte das Team über ein neues Sonar-Modell, das um 20% gegenüber dem Ausgangsmodell für die Suche verbessert wurde.
Perplexity optimierte die Frontier-Modelle mit den Modellfamilien Llama und Mistral und setzt Retrieval-Augmented Generation ein, um präzise, prägnante Antworten auf der Grundlage der abgerufenen Daten zu liefern. Mit diesem Grad der Anpassung konnte Perplexity eine hohe Genauigkeit und Relevanz für seine KI-Anwendungen erzielen.
Die Benutzerfreundlichkeit von NeMo, die Vielfalt der unterstützten Modellarchitekturen und der hohe Trainingsdurchsatz ermöglichten es Perplexity, schnell zu experimentieren und die am besten optimierten Modelle für seine Anwendungen zu finden.
Mit NeMo konnte Perplexity die Optimierung von LLMs von 0,5 Mrd. Parametern auf über 400 Mrd. Parameter skalieren und sich dabei die Vorteile seiner groß angelegten verteilten Daten- und Modellparallelität zunutze machen.
KI-Forschungsingenieur Weihua Hu war federführend bei der Verbesserung der Abruffunktionen von Perplexity und kommentierte: „Mit NeMo kann Perplexity schnell eine Vielzahl von Open-Source-Einbettungsmodellen optimieren. Dadurch konnten wir unseren Retrieval-Stack erheblich verbessern und die Antwortqualität deutlich steigern.“
Weihua stellte auch fest: „Wir konnten mit verschiedenen Nachtrainingstechniken experimentieren und die richtige Mischung aus überwachter Feinabstimmung (Supervised Fine-Tuning, SFT) und direkter Präferenzoptimierung (DPO) finden.“
Durch die Neudefinition des Zugangs zu Informationen will Perplexity die Art und Weise, wie Benutzer mit dem Web interagieren, verändern und den Umgang intuitiver und benutzerfreundlicher gestalten.
„Mit NeMo kann Perplexity schnell eine Vielzahl von Open-Source-Einbettungsmodellen optimieren. Dadurch konnten wir unseren Retrieval-Stack erheblich verbessern und die Antwortqualität deutlich steigern.“
Weihua Hu,
KI-Forschungsingenieur