NVIDIA kündigte zwei neue Cloud-KI-Services für große Sprachmodelle an — den NVIDIA NeMo Large Language Model Service und den NVIDIA BioNeMo LLM Service — die es Entwicklern ermöglichen, LLMs einfach anzupassen und maßgeschneiderte KI-Anwendungen für die Generierung von Inhalten, die Textzusammenfassung, Chatbots, die Code-Entwicklung sowie die Vorhersage von Proteinstrukturen und biomolekularen Eigenschaften und mehr einzusetzen. Der NeMo LLM Service ermöglicht es Entwicklern, eine Reihe von vortrainierten Basismodellen mit einer Trainingsmethode namens Prompt Learning auf einer von NVIDIA verwalteten Infrastruktur schnell anzupassen. Der NVIDIA BioNeMo Service ist eine Cloud-Programmierschnittstelle (API), die LLM-Anwendungsfälle über die Sprache hinaus auf wissenschaftliche Anwendungen ausdehnt, um die Arzneimittelentwicklung für Pharma- und Biotech-Unternehmen zu beschleunigen.

NeMo LLM Service steigert die Genauigkeit mit Prompt Learning, beschleunigt den Einsatz; Mit dem NeMo LLM Service können Entwickler ihre eigenen Trainingsdaten verwenden, um Basismodelle von 3 Milliarden Parametern bis hin zu Megatron 530B, einem der größten LLMs der Welt, anzupassen. Der Prozess dauert nur Minuten bis Stunden, verglichen mit den Wochen oder Monaten, die für das Training eines Modells von Grund auf erforderlich sind. Die Modelle werden mit Prompt Learning, einer Technik namens p-tuning, angepasst. Dies ermöglicht es Entwicklern, mit nur wenigen hundert Beispielen schnell Grundmodelle anzupassen, die ursprünglich mit Milliarden von Datenpunkten trainiert wurden.

Der Anpassungsprozess erzeugt aufgabenspezifische Prompt-Token, die dann mit den Basismodellen kombiniert werden, um eine höhere Genauigkeit und relevantere Antworten für bestimmte Anwendungsfälle zu liefern. Entwickler können das gleiche Modell für mehrere Anwendungsfälle anpassen und viele verschiedene Prompt-Token generieren. Eine Spielplatzfunktion bietet die Möglichkeit, ohne Code zu experimentieren und mit den Modellen zu interagieren, um die Effektivität und Zugänglichkeit von LLMs für branchenspezifische Anwendungsfälle weiter zu verbessern.

Sobald sie einsatzbereit sind, können die abgestimmten Modelle auf Cloud-Instanzen, lokalen Systemen oder über eine API ausgeführt werden. Der BioNeMo LLM Service ermöglicht es Forschern, die Leistungsfähigkeit massiver Modelle zu nutzen. Der BioNeMo LLM Service umfasst zwei neue BioNeMo-Sprachmodelle für Chemie- und Biologieanwendungen. Er bietet Unterstützung für Protein-, DNA- und biochemische Daten und hilft Forschern, Muster und Erkenntnisse in biologischen Sequenzen zu entdecken.

BioNeMo ermöglicht es Forschern, den Umfang ihrer Arbeit zu erweitern, indem sie Modelle nutzen, die Milliarden von Parametern enthalten. Diese größeren Modelle können mehr Informationen über die Struktur von Proteinen und evolutionäre Beziehungen zwischen Genen speichern und sogar neue Biomoleküle für therapeutische Anwendungen generieren. Cloud-API bietet Zugang zu Megatron 530B und anderen vorgefertigten Modellen; Zusätzlich zur Anpassung der Basismodelle bieten die LLM-Dienste die Möglichkeit, vorgefertigte und benutzerdefinierte Modelle über eine Cloud-API zu verwenden.

Dadurch erhalten Entwickler Zugang zu einer breiten Palette von vortrainierten LLMs, einschließlich Megatron 530B. Außerdem haben Sie Zugriff auf T5- und GPT-3-Modelle, die mit dem NVIDIA NeMo Megatron-Framework — jetzt in der offenen Beta-Version — erstellt wurden, um eine breite Palette von Anwendungen und mehrsprachigen Serviceanforderungen zu unterstützen. Führende Unternehmen in den Bereichen Automobil, Computer, Bildung, Gesundheitswesen, Telekommunikation und anderen Branchen nutzen NeMo Megatron, um Dienste für Kunden in Chinesisch, Englisch, Koreanisch, Schwedisch und anderen Sprachen zu entwickeln.