Duże modele językowe (LLM) w bazie danych znacznie upraszczają tworzenie aplikacji korzystających z generatywnej sztucznej inteligencji. Generatywna sztuczna inteligencja przynosi szybkie korzyści; nie trzeba wybierać zewnętrznego modelu LLM ani zastanawiać się nad złożonością integracji, kosztami lub dostępnością takiego modelu w różnych centrach przetwarzania danych.
Magazyn danych wektorowych HeatWave pozwala połączyć potencjał modeli LLM z własnymi danymi, aby uzyskać dokładniejsze i bardziej dopasowane do kontekstu odpowiedzi niż w przypadku korzystania z modeli szkolonych wyłącznie na danych publicznych. Magazyn danych wektorowych przetwarza dokumenty w różnych formatach, w tym PDF, i przechowuje je jako wektory wygenerowane za pomocą modelu osadzania. Dla danego zapytania użytkownika magazyn danych wektorowych pomaga określić najbardziej podobne dokumenty, wyszukując podobieństw względem przechowywanych danych wektorowych i osadzonego zapytania. Dokumenty te są używane do rozszerzenia promptu wysyłanego do modelu LLM, aby zapewnić bardziej kontekstową odpowiedź dla pytającego.
Przetwarzanie wektorowe jest szybsze dzięki architekturze HeatWave działającej w pamięci i skalowanej rozszerzająco. HeatWave obsługuje nowy natywny typ danych VECTOR, umożliwiając używanie standardowego kodu SQL do tworzenia i przetwarzania danych wektorowych oraz zarządzania nimi.
Nowy interfejs czatu HeatWave umożliwia prowadzenie konwersacji kontekstowych w języku naturalnym rozszerzonych o zastrzeżone dokumenty odwzorowane w magazynie danych wektorowych.