Oracle kündigte die allgemeine Verfügbarkeit von HeatWave GenAI an, das die branchenweit ersten datenbankinternen großen Sprachmodelle (LLMs), einen automatisierten datenbankinternen Vektorspeicher, eine skalierbare Vektorverarbeitung und die Fähigkeit zu kontextbezogenen Konversationen in natürlicher Sprache auf der Grundlage unstrukturierter Inhalte umfasst. Diese neuen Funktionen ermöglichen es Kunden, die Leistung generativer KI auf ihre Unternehmensdaten anzuwenden - ohne KI-Fachwissen zu benötigen oder Daten in eine separate Vektordatenbank verschieben zu müssen. HeatWave GenAI ist ab sofort in allen Oracle Cloud-Regionen, der Oracle Cloud Infrastructure (OCI) Dedicated Region und in allen Clouds ohne zusätzliche Kosten für HeatWave-Kunden verfügbar.

Mit HeatWave GenAI können Entwickler mit einem einzigen SQL-Befehl einen Vektorspeicher für unstrukturierte Unternehmensinhalte erstellen und dabei integrierte Einbettungsmodelle verwenden. Benutzer können in einem einzigen Schritt eine natürlichsprachliche Suche durchführen, indem sie entweder datenbankinterne oder externe LLMs verwenden. Die Daten verlassen die Datenbank nicht und aufgrund der extremen Skalierbarkeit und Leistung von HeatWave müssen keine GPUs bereitgestellt werden. Dadurch können Entwickler die Komplexität von Anwendungen reduzieren, die Leistung erhöhen, die Datensicherheit verbessern und die Kosten senken.

Zu den neuen automatisierten und integrierten generativen KI-Funktionen gehören: Datenbankinterne LLMs vereinfachen die Entwicklung von generativen KI-Anwendungen zu geringeren Kosten. Kunden können von generativer KI profitieren, ohne sich um die Komplexität der Auswahl und Integration externer LLMs kümmern zu müssen und ohne sich Gedanken über die Verfügbarkeit von LLMs in den Rechenzentren verschiedener Cloud-Anbieter zu machen. Die datenbankinternen LLMs ermöglichen es Kunden, Daten zu durchsuchen, Inhalte zu generieren oder zusammenzufassen und Retrieval-Augmented Generation (RAG) mit HeatWave Vector Store durchzuführen.

Darüber hinaus können sie generative KI mit anderen integrierten HeatWave-Funktionen wie AutoML kombinieren, um reichhaltigere Anwendungen zu erstellen. HeatWave GenAI ist auch mit dem OCI Generative AI Service integriert, um auf vortrainierte, grundlegende Modelle von führenden LLM-Anbietern zuzugreifen. Der automatisierte datenbankinterne Vektorspeicher ermöglicht es Kunden, generative KI mit ihren Geschäftsdokumenten zu nutzen, ohne Daten in eine separate Vektordatenbank zu verschieben und ohne KI-Kenntnisse.

Alle Schritte zur Erstellung eines Vektorspeichers und von Vektoreinbettungen werden automatisiert und innerhalb der Datenbank ausgeführt, einschließlich der Erkennung der Dokumente im Objektspeicher, ihrer Analyse, der hochparallelen und optimierten Generierung von Einbettungen und ihrer Einfügung in den Vektorspeicher, wodurch HeatWave Vector Store effizient und einfach zu bedienen ist. Die Verwendung eines Vektorspeichers für RAG hilft, das Problem der Halluzinationen bei LLMs zu lösen, da die Modelle proprietäre Daten mit entsprechendem Kontext durchsuchen können, um genauere und relevantere Antworten zu liefern. Die skalierbare Vektorverarbeitung liefert sehr schnelle semantische Suchergebnisse ohne Verlust an Genauigkeit.

HeatWave unterstützt einen neuen, nativen VECTOR-Datentyp und eine optimierte Implementierung der Distanzfunktion, so dass Kunden semantische Abfragen mit Standard-SQL durchführen können. Die hybride In-Memory-Darstellung von Spalten und die Scale-Out-Architektur von HeatWave ermöglichen die Ausführung der Vektorverarbeitung mit einer speicherähnlichen Bandbreite und die Parallelisierung über bis zu 512 HeatWave-Knoten. Das Ergebnis: Kunden erhalten schnell Antworten auf ihre Fragen.

Benutzer können die semantische Suche auch mit anderen SQL-Operatoren kombinieren, um z.B. mehrere Tabellen mit unterschiedlichen Dokumenten zu verknüpfen und Ähnlichkeitssuchen über alle Dokumente hinweg durchzuführen. HeatWave Chat ist ein Visual Code Plug-in für MySQL Shell, das eine grafische Oberfläche für HeatWave GenAI bietet und es Entwicklern ermöglicht, Fragen in natürlicher Sprache oder SQL zu stellen. Mit dem integrierten Lakehouse Navigator können Benutzer Dateien aus dem Objektspeicher auswählen und einen Vektorspeicher erstellen.

Die Benutzer können die gesamte Datenbank durchsuchen oder die Suche auf einen Ordner beschränken. HeatWave hält den Kontext mit dem Verlauf der gestellten Fragen, den Zitaten der Quelldokumente und der Aufforderung zum LLM aufrecht. Dies erleichtert eine kontextbezogene Konversation und ermöglicht es Benutzern, die Quelle der vom LLM generierten Antworten zu überprüfen.

Dieser Kontext wird in HeatWave verwaltet und steht jeder Anwendung zur Verfügung, die HeatWave verwendet.