HeatWave GenAI

Oracle HeatWave GenAI bietet integrierte und automatisierte generative KI mit datenbankinternen großen Sprachmodellen (LLMs), einem automatisierten Vektorspeicher in der Datenbank, Scale-out-Vektorverarbeitung und der Möglichkeit, kontextbezogene Konversationen in natürlicher Sprache zu führen. So können Sie die Vorteile generativer KI ohne KI-Expertise, Datenbewegung oder zusätzliche Kosten nutzen.

Demo ansehen (5:40)

Lassen Sie sich die Keynote von Edward Screven, Chief Corporate Architect von Oracle, auf der Oracle CloudWorld am 11. September um 8:30 Uhr PT nicht entgehen: „Generative KI-Anwendungen erstellen – integriert und automatisiert mit HeatWave GenAI.“

Was spricht für HeatWave GenAI?

  • Schnelle Nutzung generativer KI – überall

    Verwenden Sie datenbankinterne, optimierte LLMs über Clouds und Regionen hinweg, um Daten abzurufen und Inhalte zu generieren oder zusammenzufassen – ohne den Aufwand für die Auswahl und Integration einer externen LLM.

  • Erhalten Sie im Handumdrehen genauere und relevantere Antworten

    Lassen Sie Ihre geschützten Dokumente von LLMs durchsuchen, um genauere und kontextrelevante Antworten zu erhalten – ohne KI-Expertise oder Verschieben von Daten in eine separate Vektordatenbank. HeatWave GenAI automatisiert die Einbettungsgenerierung.

  • Konversation in natürlicher Sprache

    Erhalten Sie schnelle Einblicke aus Ihren Dokumenten über Unterhaltungen in natürlicher Sprache. Die Chatschnittstelle HeatWave behält den Kontext bei, um „menschliche“ Unterhaltungen mit Nachfassfragen zu ermöglichen.

Wesentliche Features von HeatWave GenAI

Datenbankinterne LLMs

Verwenden Sie die integrierten, optimierten LLMs in allen Oracle Cloud Infrastructure-(OCI-)Regionen, OCI Dedicated Region und Cloud-übergreifend und erzielen Sie konsistente Ergebnisse mit vorhersehbarer Leistung über alle Bereitstellungen hinweg. Reduzieren Sie die Infrastrukturkosten, indem Sie die Bereitstellung von GPUs überflüssig machen.

In OCI Generative AI integriert

Greifen Sie über den OCI Generative AI Service auf vortrainierte, grundlegende Modelle von Cohere und Meta zu.

HeatWave Chat

Führen Sie kontextbezogene Unterhaltungen in natürlicher Sprache auf der Grundlage Ihrer unstrukturierten Daten im HeatWave Vector Store. Darüber hinaus können Sie den integrierten Lakehouse Navigator nutzen, um LLMs bei der Suche nach bestimmten Datensätzen zu unterstützen. So können Sie die Kosten senken und erhalten schneller genauere Ergebnisse.

Datenbankinterner Vektorspeicher

HeatWave Vector Store speichert Ihre firmeneigenen Dokumente in verschiedenen Formaten und dient als Wissensbasis für Retrieval-Augmented Generation (RAG), damit Sie genauere und kontextbezogene Antworten erhalten – ohne Daten in eine separate Vektordatenbank verschieben zu müssen.

Automatisierte Generierung von Einbettungen

Nutzen Sie die automatisierte Pipeline, um proprietäre Dokumente im HeatWave Vector Store zu entdecken und aufzunehmen. So können Entwickler und Analysten ohne KI-Kenntnisse den Vektorspeicher einfacher verwenden.

Scale-out-Vektorverarbeitung

Die Vektorverarbeitung wird auf bis zu 512 HeatWave-Clusterknoten parallelisiert und mit der Speicherbandbreite ausgeführt. Dies trägt dazu bei, schnelle Ergebnisse mit einer geringeren Wahrscheinlichkeit eines Genauigkeitsverlusts zu liefern.

Kundenmeinungen zu HeatWave GenAI

  • „HeatWave GenAI macht es extrem einfach, generative KI zu nutzen. Die Unterstützung von datenbankinternen LLMs und datenbankinterner Vektorerstellung führt zu einer erheblichen Verringerung der Anwendungskomplexität und vorhersehbarer Inferenzlatenz. Vor allem entstehen keine zusätzlichen Kosten für uns, um die LLMs zu verwenden oder die Einbettungen zu erstellen. Dies ist wirklich die Demokratisierung der generativen KI, und wir glauben, dass dies zur Entwicklung von reichhaltigeren Anwendungen mit HeatWave GenAI und signifikanten Produktivitätssteigerungen für unsere Kunden führen wird.“

    —Vijay Sundhar, CEO, SmarterD

  • „Wir nutzen die datenbankinterne HeatWave AutoML intensiv, um unseren Kunden verschiedene Empfehlungen zu geben. Die Unterstützung von HeatWave für datenbankinterne LLMs und Vektorspeicher ist ein Alleinstellungsmerkmal. Und die Fähigkeit, generative KI mit AutoML zu integrieren, unterscheidet HeatWave weiterhin von anderen Angeboten in der Branche, wodurch wir unseren Kunden neue Arten von Fähigkeiten anbieten können. Die Synergie mit AutoML verbessert auch die Leistung und Qualität der LLM-Ergebnisse.“

    —Safarath Shafi, CEO, EatEasy

  • „Datenbankinterne LLMs und Vektorspeicher von HeatWave, skalierbare In-Memory-Vektorverarbeitung und HeatWave Chat sind sehr differenzierte Fähigkeiten von Oracle, die generative KI demokratisieren und sie sehr einfach, sicher und kostengünstig einsetzbar machen. Der Einsatz von HeatWave und AutoML für unsere Unternehmensanforderungen hat unser Geschäft bereits in mehrfacher Hinsicht verändert, und die Einführung dieser Innovation von Oracle wird wahrscheinlich das Wachstum einer neuen Klasse von Anwendungen ankurbeln, bei denen Kunden nach Möglichkeiten suchen, generative KI für ihre Unternehmensinhalte zu nutzen.“

    —Eric Aguilar, Founder, Aiwifi

Wer profitiert von HeatWave GenAI?

  • Entwickler können Anwendungen mit bereits integrierter KI liefern

    Mit integrierten LLMs und dem HeatWave Chat können Sie Apps bereitstellen, die für kontextbezogene Unterhaltungen in natürlicher Sprache vorkonfiguriert sind. Es sind keine externen LLMs und GPUs erforderlich.

  • Analysten können schnell neue Erkenntnisse gewinnen

    Mit HeatWave GenAI können Sie problemlos mit Ihren Daten kommunizieren, nach Ähnlichkeiten in Dokumenten suchen und Informationen aus Ihren eigenen Daten abrufen.

  • IT kann KI-Innovationen beschleunigen

    Geben Sie Entwicklern und Unternehmensteams integrierte Funktionen und Automatisierungen an die Hand, um die Vorteile der generativen KI zu nutzen. Ermöglichen Sie ganz einfach Gespräche in natürlicher Sprache und RAG.

Sie können die datenbankinternen LLMs verwenden, um Inhalte auf der Grundlage Ihrer unstrukturierten Dokumente zu erstellen oder zusammenzufassen. Die Nutzer können über Anwendungen Fragen in natürlicher Sprache stellen, und der LLM wird die Anfrage bearbeiten und den Inhalt liefern.


Diagramm der Inhaltsgenerierung, Beschreibung unten:

Ein Benutzer stellt eine Frage in natürlicher Sprache: „Kannst du eine Zusammenfassung dieser Lösungsbeschreibung erstellen?“. Das Large Language Model (LLM) verarbeitet diese Eingabe und erzeugt die Zusammenfassung als Ausgabe.



Sie können die Leistung der generativen KI mit anderen integrierten HeatWave-Funktionen, wie z. B. dem maschinellen Lernen, kombinieren, um Kosten zu senken und schneller genauere Ergebnisse zu erzielen. In diesem Beispiel tut ein Fertigungsunternehmen dies für die vorausschauende Wartung. Ingenieure können Oracle HeatWave AutoML verwenden, um automatisch einen Bericht über anomale Produktionsprotokolle zu erstellen, und HeatWave GenAI hilft bei der schnellen Ermittlung der Grundursache des Problems, indem einfach eine Frage in natürlicher Sprache gestellt wird, anstatt die Protokolle manuell zu analysieren.


Diagramm der Analysegenerierung, Beschreibung unten:

Ein Benutzer fragt im HeatWave Chat: „Was ist das Hauptproblem in dieser Sammlung von Protokollen? Gib mir eine Zusammenfassung in zwei Sätzen." Zunächst erstellt HeatWave AutoML eine gefilterte Liste anormaler Protokolle, die auf allen Produktionsprotokollen basiert, die es kontinuierlich aufnimmt. Dann liefert HeatWave Vector Store dem LLM zusätzlichen Kontext auf der Grundlage der Wissensbasis der Protokolle. Der LLM nimmt diese erweiterte Eingabeaufforderung, erstellt einen Bericht und gibt dem Benutzer eine ausführliche Antwort, die das Problem in natürlicher Sprache erklärt.



Chatbots können RAG nutzen, um z. B. Fragen von Mitarbeitern zu internen Unternehmensrichtlinien zu beantworten. Interne Dokumente mit Details zu Policys werden als Einbettungen im HeatWave Vector Store gespeichert. Der Vektorspeicher identifiziert bei einer Benutzerabfrage die jeweils ähnlichsten Dokumente, indem er eine Ähnlichkeitssuche in den gespeicherten Einbettungen in Bezug auf die eingebettete Abfrage durchführt. Diese Dokumente werden verwendet, um den Prompt, den das LLM erhalten hat, anzureichern, sodass es eine genaue Antwort liefert.


RAG-Diagramm, Beschreibung unten:

Ein Benutzer fragt im HeatWave Chat: „Welche Laptops kann ich bestellen und wie ist der Ablauf?“. HeatWave bearbeitet die Frage, indem es auf interne Richtliniendokumente zugreift, die im HeatWave Vector Store gespeichert sind. Anschließend wird eine erweiterte Eingabeaufforderung an das LLM gesendet, das die Antwort „Hier ist die Liste der zugelassenen Anbieter und die Schritte, die für die Bestellung erforderlich sind“ generieren kann.



Entwickler können Anwendungen erstellen, die die kombinierte Leistung von integriertem maschinellem Lernen, generativer KI und Vektorspeicher nutzen, um personalisierte Empfehlungen bereitzustellen. In diesem Beispiel verwendet die Anwendung das HeatWave AutoML-Empfehlungssystem, um Restaurants auf der Grundlage der Vorlieben des Benutzers oder seiner früheren Bestellungen zu empfehlen. Mit HeatWave Vector Store kann die Anwendung zusätzlich die Speisekarten von Restaurants im PDF-Format durchsuchen, um bestimmte Gerichte vorzuschlagen und dem Kunden einen größeren Nutzen zu bieten.


RAG verbessert mit ML-Diagramm, Beschreibung unten:

Ein Benutzer fragt im HeatWave Chat: „Welche veganen Gerichte schlägst du mir heute vor?“. Zunächst schlägt das HeatWave AutoML-Empfehlungssystem eine Liste von Restaurants vor, die auf den früheren Bestellungen des Benutzers basieren. Dann liefert HeatWave Vector Store dem LLM eine erweiterte Eingabeaufforderung, die auf den Speisekarten der Restaurants basiert, die darin gespeichert sind. Das LLM kann dann eine personalisierte Empfehlung von Gerichten in natürlicher Sprache erstellen.



26. JUNI 2024

Ankündigung der allgemeinen Verfügbarkeit von HeatWave GenAI

Nipun Agarwal, Oracle Senior Vice President, HeatWave Development

HeatWave hat es Unternehmen ermöglicht, Transaktionsverarbeitung, Analysen über Data Warehouses und Data Lakes hinweg sowie maschinelles Lernen innerhalb eines einzigen, vollständig verwalteten Cloud-Services auszuführen. Heute geben wir die allgemeine Verfügbarkeit von HeatWave GenAI bekannt – mit datenbankinternen großen Sprachmodellen (LLMs), einem automatisierten datenbankinternen Vektorspeicher, skalierbarer Vektorverarbeitung und der Möglichkeit, kontextbezogene Konversationen in natürlicher Sprache zu führen.

Vollständigen Beitrag lesen

Erfahren Sie, was renommierte Branchenanalysten über HeatWave sagen

  • NAND Research-Logo

    „Mit datenbankinternen LLMs, die sofort einsatzbereit sind, und einem vollautomatischen Vektorspeicher, der sofort für die Vektorverarbeitung bereit ist, bietet HeatWave GenAI die Einfachheit von KI – und das gute Preis-Leistungs-Verhältnis – auf einem Niveau, an das seine Konkurrenten wie Snowflake, Google BigQuery und Databricks nicht annähernd heranreichen.“

    Steve McDowell
    Principal Analyst und Founding Partner, NAND Research
  • Constellation Research-Logo

    „Die technischen Innovationen von HeatWave setzen die Vision einer universellen Cloud-Datenbank fort. Das Neueste ist die generative KI im HeatWave-Stil, die die Integration eines automatisierten, datenbankinternen Vektorspeichers und datenbankinterner LLMs direkt in den HeatWave-Kern umfasst. Dies ermöglicht es Entwicklern, neue Klassen von Anwendungen zu schaffen, indem sie HeatWave-Elemente kombinieren.“

    Holger Mueller
    Vice President and Principal Analyst bei Constellation Research
  • The Futurum Group-Logo

    „HeatWave GenAI bietet eine Performance für die Vektorverarbeitung, die 30-mal schneller als Snowflake, 18-mal schneller als Google BigQuery und 15-mal schneller als Databricks ist – bei bis zu 6-mal niedrigeren Kosten. Für jedes Unternehmen, das sich ernsthaft mit leistungsstarken generativen KI-Workloads befasst, gilt: Unternehmensressourcen für eine dieser drei oder andere Vektordatenbankangebote auszugeben, ist gleichbedeutend mit Geldverbrennung und dem Versuch, dies als gute Idee zu rechtfertigen.“

    Ron Westfall
    Senior Analyst and Research Director, The Futurum Group
  • dbInsight-Logo

    „HeatWave macht einen großen Schritt, um generative KI und Retrieval-Augmented Generation (RAG) zugänglicher zu machen, indem es die gesamte Komplexität der Erstellung von Vektoreinbettungen zentralisiert. Die Entwickler verweisen einfach auf die Quelldateien, die im Cloud-Objektspeicher liegen, und HeatWave übernimmt dann die schwere Arbeit.“

    Tony Baer
    Gründer und CEO, dbInsight

Erste Schritte mit HeatWave GenAI

Einfache Erstellung von GenAI-Anwendungen

Folgen Sie den Schritt-für-Schritt-Anleitungen und verwenden Sie den von uns bereitgestellten Code, um schnell und einfach Anwendungen mit HeatWave GenAI zu erstellen.

Für den Service registrieren

Registrieren Sie sich für eine kostenlose Testversion von HeatWave GenAI. Sie erhalten 300 US-Dollar Cloud-Guthaben, um seine Funktionen 30 Tage lang zu testen.

Vertrieb kontaktieren

Möchten Sie mehr über HeatWave GenAI erfahren? Einer unserer Experten wird Ihnen gerne helfen.