Red Hat, Inc. bringt Red Hat Enterprise Linux AI (RHEL AI) auf den Markt, eine Plattform für Basismodelle, die es Anwendern ermöglicht, generative KI-Modelle (GenAI) nahtlos zu entwickeln, zu testen und einzusetzen. RHEL AI vereint die Open-Source-lizenzierte Granite Large Language Model (LLM)-Familie von IBM Research, die InstructLab-Tools für die Modellausrichtung, die auf der LAB-Methode (Large-scale Alignment for chatBots) basieren, und einen von der Community betriebenen Ansatz für die Modellentwicklung durch das InstructLab-Projekt. Die gesamte Lösung ist als optimiertes, bootfähiges RHEL-Image für individuelle Serverimplementierungen in der Hybrid-Cloud verpackt und auch als Teil von OpenShift AI, Red Hats hybrider Plattform für maschinelles Lernen (MLOps), enthalten, um Modelle und InstructLab in verteilten Cluster-Umgebungen in großem Umfang auszuführen.

Die Einführung von ChatGPT hat ein enormes Interesse an GenAI geweckt, und das Innovationstempo hat sich seither nur noch beschleunigt. Unternehmen haben begonnen, GenAI-Dienste zu evaluieren und KI-gestützte Anwendungen zu entwickeln. Ein schnell wachsendes Ökosystem offener Modelloptionen hat die KI-Innovation weiter vorangetrieben und gezeigt, dass es nicht nur ein Modell geben wird, das für alle gilt.

Die Kunden werden von einer Reihe von Möglichkeiten profitieren, um spezifische Anforderungen zu erfüllen, die alle durch einen offenen Innovationsansatz weiter beschleunigt werden können. Die Umsetzung einer KI-Strategie erfordert mehr als nur die Auswahl eines Modells. Technologieunternehmen müssen über das nötige Fachwissen verfügen, um ein bestimmtes Modell auf ihren spezifischen Anwendungsfall abzustimmen und die erheblichen Kosten der KI-Implementierung zu bewältigen. Der Mangel an datenwissenschaftlichen Kenntnissen wird durch erhebliche finanzielle Anforderungen ergänzt: Beschaffung von KI-Infrastruktur oder Inanspruchnahme von KI-Diensten Der komplexe Prozess der Abstimmung von KI-Modellen auf spezifische Geschäftsanforderungen Integration von KI in Unternehmensanwendungen Verwaltung des Lebenszyklus von Anwendungen und Modellen.

Um die Einstiegshürden für KI-Innovationen wirklich zu senken, müssen Unternehmen in der Lage sein, den Kreis derer, die an KI-Initiativen arbeiten können, zu erweitern und gleichzeitig diese Kosten in den Griff zu bekommen. Mit den Alignment-Tools von InstructLab, den Granite-Modellen und RHEL AI will Red Hat die Vorteile echter Open-Source-Projekte - frei zugänglich und wiederverwendbar, transparent und offen für Beiträge - auf GenAI anwenden, um diese Hindernisse zu beseitigen. IBM Research hat die Technik Large-scale Alignment for chatBots (LAB) entwickelt, einen Ansatz für den Modellabgleich, bei dem taxonomiegeleitete synthetische Daten und ein neuartiges mehrstufiges Tuning-Framework zum Einsatz kommen.

Dieser Ansatz macht die Entwicklung von KI-Modellen offener und für alle Nutzer zugänglicher, indem er die Abhängigkeit von teuren menschlichen Annotationen und proprietären Modellen verringert. Mit der LAB-Methode können Modelle verbessert werden, indem Fähigkeiten und Wissen, die mit einer Taxonomie verknüpft sind, spezifiziert werden, synthetische Daten aus diesen Informationen in großem Umfang generiert werden, um das Modell zu beeinflussen, und die generierten Daten für das Modelltraining verwendet werden. Nachdem IBM und Red Hat festgestellt hatten, dass die LAB-Methode zu einer erheblichen Verbesserung der Modellleistung beitragen kann, beschlossen sie, InstructLab ins Leben zu rufen, eine Open-Source-Community, die auf der LAB-Methode und den Open-Source-Granite-Modellen von IBM aufbaut.

Das InstructLab-Projekt zielt darauf ab, die LLM-Entwicklung in die Hände von Entwicklern zu legen, indem es die Erstellung und den Beitrag zu einem LLM so einfach macht wie den Beitrag zu jedem anderen Open-Source-Projekt. Im Rahmen der Einführung von InstructLab hat IBM auch eine Reihe ausgewählter englischer Sprach- und Code-Modelle von Granite veröffentlicht. Diese Modelle werden unter einer Apache-Lizenz veröffentlicht und bieten Transparenz über die Datensätze, die zum Trainieren dieser Modelle verwendet wurden.

Das englische Sprachmodell Granite 7B wurde in die InstructLab-Community integriert, in der Endbenutzer ihre Fähigkeiten und ihr Wissen einbringen können, um dieses Modell gemeinsam zu verbessern, so wie sie es bei jedem anderen Open-Source-Projekt auch tun würden. Eine ähnliche Unterstützung für Granite-Code-Modelle innerhalb von InstructLab wird bald verfügbar sein. RHEL AI baut auf diesem offenen Ansatz für KI-Innovationen auf und integriert eine unternehmenstaugliche Version des InstructLab-Projekts sowie die Granite-Sprache und -Code-Modelle zusammen mit der weltweit führenden Linux-Plattform für Unternehmen, um den Einsatz in einer hybriden Infrastrukturumgebung zu vereinfachen.

Dies schafft eine grundlegende Modellplattform, um Open-Source-lizenzierte GenAI-Modelle in das Unternehmen zu bringen. RHEL AI umfasst: Open-Source-lizenzierte Granite-Sprache und Code-Modelle, die von Red Hat unterstützt und entschädigt werden. Eine unterstützte, im Lebenszyklus befindliche Distribution von InstructLab, die eine skalierbare, kosteneffiziente Lösung für die Erweiterung der LLM-Fähigkeiten darstellt und die Beiträge zum Wissen und zu den Fähigkeiten einer viel größeren Anzahl von Benutzern zugänglich macht.

Optimierte bootfähige Modell-Laufzeitinstanzen mit Granite-Modellen und InstructLab-Tooling-Paketen als bootfähige RHEL-Images über den RHEL-Image-Modus, einschließlich optimierter Pytorch-Laufzeitbibliotheken und Beschleuniger für AMD Instinct? MI300X, Intel und NVIDIA GPUs und NeMo-Frameworks. Red Hats umfassendes Support- und Lebenszyklusversprechen für Unternehmen, das mit einer vertrauenswürdigen Produktdistribution für Unternehmen, 24x7 Produktionssupport und erweitertem Lebenszyklus-Support beginnt.

Wenn Unternehmen mit neuen KI-Modellen auf RHEL AI experimentieren und diese optimieren, können sie diese Workflows mit Red Hat OpenShift AI, das RHEL AI enthalten wird, skalieren und die Kubernetes-Engine von OpenShift nutzen, um KI-Modelle in großem Umfang zu trainieren und bereitzustellen, sowie die integrierten MLOps-Funktionen von OpenShift AI für die Verwaltung des Modelllebenszyklus. IBMs watsonx.ai enterprise studio, das heute auf Red Hat OpenShift AI aufbaut, wird bei Verfügbarkeit von RHEL AI in OpenShift AI profitieren und zusätzliche Funktionen für die KI-Entwicklung in Unternehmen, das Datenmanagement, die Modellverwaltung und eine verbesserte Preisleistung bieten.