Datenbankinterne große Sprachmodelle (LLMs) vereinfachen die Entwicklung von GenAI-Anwendungen erheblich. Sie können schnell von generativer KI profitieren. Sie müssen kein externes LLM auswählen und nicht die Komplexität der Integration, die Kosten oder die Verfügbarkeit eines externen LLM in verschiedenen Data Centern berücksichtigen.
Mit HeatWave Vector Store können Sie die Leistung von LLMs mit Ihren eigenen Daten kombinieren, um genauere und kontextrelevante Antworten zu erhalten als mit Modellen, die nur auf öffentlichen Daten trainiert wurden. Der Vektorspeicher nimmt Dokumente in einer Vielzahl von Formaten auf, einschließlich PDFs, und speichert sie als Einbettungen, die über ein Einbettungsmodell generiert werden. Der Vektorspeicher identifiziert bei einer Benutzerabfrage die jeweils ähnlichsten Dokumente, indem er eine Ähnlichkeitssuche in den gespeicherten Einbettungen in Bezug auf die eingebettete Abfrage durchführt. Diese Dokumente werden verwendet, um den Prompt, den das LLM erhalten hat, anzureichern, sodass es eine kontextbezogenere Antwort für Ihr Unternehmen liefert.
Die Vektorverarbeitung wird durch die In-Memory- und Scale-Out-Architektur von HeatWave beschleunigt. HeatWave unterstützt einen neuen nativen VECTOR-Datentyp, mit dem Sie Vektordaten mit Standard-SQL erstellen, verarbeiten und verwalten können.
Mit einer neuen HeatWave-Chatschnittstelle können Sie kontextbezogene Unterhaltungen im Vektorspeicher mit natürlicher Sprache durch proprietäre Dokumente erweitern.