Red Hat, Inc. kündigt die Integration von NVIDIA NIM Microservices in Red Hat OpenShift AI an, um optimiertes Inferencing für Dutzende von Künstliche Intelligenz (KI)-Modellen zu ermöglichen, die von einer konsistenten, quelloffenen KI/ML-Hybrid-Cloud-Plattform unterstützt werden. Unternehmen können Red Hat OpenShift AI mit NVIDIA NIM nutzen. NVIDIA NIM ist eine Reihe von benutzerfreundlichen Inferenz-Microservices, die Teil der NVIDIA AI Enterprise Software-Plattform sind, um die Bereitstellung von generativen KI-Anwendungen (GenAI) zu beschleunigen und die Wertschöpfungszeit zu verkürzen. Die Unterstützung für NVIDIA NIM auf Red Hat OpenShift AI baut auf der bestehenden Optimierung für NVIDIA AI Enterprise auf Red Hats offenen Hybrid-Cloud-Technologien auf, einschließlich Red Hat Enterprise Linux und Red Hat OpenShift.

Im Rahmen dieser jüngsten Zusammenarbeit wird NVIDIA die Interoperabilität von NIM mit KServe ermöglichen, einem Open-Source-Projekt, das auf Kubernetes für hochskalierbare KI-Anwendungsfälle basiert und ein wichtiger Upstream-Beitrag für Red Hat OpenShift AI ist. Dies wird dazu beitragen, die kontinuierliche Interoperabilität für NVIDIA NIM Microservices in zukünftigen Versionen von Red Hat OpenShift AI zu fördern. Diese Integration ermöglicht es Unternehmen, die Produktivität mit GenAI-Funktionen zu steigern, wie z.B. die Erweiterung des Kundendienstes mit virtuellen Assistenten, die Fallzusammenfassung für IT-Tickets und die Beschleunigung von Geschäftsabläufen mit domänenspezifischen Copiloten.

Durch den Einsatz von Red Hat OpenShift AI mit NVIDIA NIM profitieren Unternehmen von folgenden Vorteilen: Optimierter Integrationspfad zur Bereitstellung von NVIDIA NIM in einem gemeinsamen Workflow mit anderen KI-Implementierungen für mehr Konsistenz und einfachere Verwaltung. Integrierte Skalierung und Überwachung für NVIDIA NIM-Implementierungen in Abstimmung mit anderen KI-Modell-Implementierungen in hybriden Cloud-Umgebungen. Sicherheit, Support und Stabilität auf Enterprise-Niveau, um einen reibungslosen Übergang vom Prototyp zur Produktion für Unternehmen zu gewährleisten, die ihr Geschäft auf KI aufbauen.

NVIDIA NIM Microservices wurden entwickelt, um den Einsatz von GenAI in Unternehmen zu beschleunigen. NIM unterstützt eine Vielzahl von KI-Modellen, darunter Open-Source-Community-Modelle, Modelle der NVIDIA AI Foundation und benutzerdefinierte Modelle, und bietet nahtloses, skalierbares KI-Inferencing vor Ort oder in der Cloud über branchenübliche Programmierschnittstellen (APIs).