Auf der AWS re:Invent hat die NVIDIA Corporation einen generativen KI-Microservice angekündigt, mit dem Unternehmen benutzerdefinierte große Sprachmodelle mit Unternehmensdaten verbinden können, um hochpräzise Antworten für ihre KI-Anwendungen zu erhalten. NVIDIA NeMo? Retriever - ein neues Angebot in der NVIDIA NeMo-Familie von Frameworks und Tools für die Erstellung, Anpassung und Bereitstellung von generativen KI-Modellen - hilft Unternehmen, ihre generativen KI-Anwendungen mit Retrieval-Augmented-Generierung (RAG) zu erweitern.

Als semantischer Retrieval-Microservice hilft NeMo Retriever generativen KI-Anwendungen, durch NVIDIA-optimierte Algorithmen genauere Antworten zu liefern. Entwickler, die den Microservice nutzen, können ihre KI-Anwendungen mit Geschäftsdaten verbinden, wo auch immer sich diese in Clouds und Rechenzentren befinden. Er erweitert die KI-Foundries um NVIDIA-optimierte RAG-Funktionen und ist Teil der NVIDIA AI Enterprise Software-Plattform, die im AWS Marketplace verfügbar ist. Cadence, Dropbox, SAP und ServiceNow gehören zu den Pionieren, die mit NVIDIA zusammenarbeiten, um produktionsreife RAG-Funktionen in ihre kundenspezifischen generativen KI-Anwendungen und -Dienste zu integrieren.

Weltweit führende Unternehmen verbessern die LLM-Genauigkeit mit NeMo Retriever: Cadence, der führende Anbieter im Bereich Elektronikdesign, beliefert Unternehmen in den Bereichen Hyperscale Computing, 5G-Kommunikation, Automotive, Mobile, Luft- und Raumfahrt, Consumer und Healthcare. Das Unternehmen arbeitet mit NVIDIA zusammen, um RAG-Funktionen für generative KI-Anwendungen im industriellen Elektronikdesign zu entwickeln. Den Code für akkurate generative KI-Anwendungen knacken: Im Gegensatz zu Open-Source-RAG-Toolkits unterstützt NeMo Retriever produktionsreife generative KI mit kommerziell brauchbaren Modellen, stabiler API, Sicherheitspatches und Unterstützung für Unternehmen.

NVIDIA-optimierte Algorithmen sorgen für die höchsten Genauigkeitsresultate in Retrievers Einbettungsmodellen. Die optimierten Einbettungsmodelle erfassen die Beziehungen zwischen Wörtern und ermöglichen es LLMs, Textdaten zu verarbeiten und zu analysieren. Mit NeMo Retriever können Unternehmen ihre LLMs mit mehreren Datenquellen und Wissensdatenbanken verbinden, so dass Benutzer problemlos mit Daten interagieren können und über einfache, dialogorientierte Eingabeaufforderungen genaue, aktuelle Antworten erhalten.

Unternehmen, die Retriever-gestützte Anwendungen einsetzen, können Benutzern einen sicheren Zugriff auf Informationen in zahlreichen Datenmodalitäten wie Text, PDFs, Bilder und Videos ermöglichen. Unternehmen können mit NeMo Retriever genauere Ergebnisse mit weniger Training erzielen, die Markteinführung beschleunigen und die Energieeffizienz bei der Entwicklung von generativen KI-Anwendungen unterstützen. Zuverlässige, einfache und sichere Bereitstellung mit NVIDIA AI Enterprise: Unternehmen können mit NeMo Retriever betriebene Anwendungen während der Inferenz auf NVIDIA beschleunigtem Computing in praktisch jedem Rechenzentrum oder in der Cloud einsetzen.

NVIDIA AI Enterprise unterstützt beschleunigte, leistungsstarke Inferenzen mit NVIDIA NeMo, NVIDIA Triton Inference Server?, NVIDIA TensorRT?, NVIDIA TensorRT-LLM und anderer NVIDIA AI Software. Verfügbarkeit: Entwickler können sich für einen frühen Zugang zu NVIDIA NeMo Retriever anmelden.