HeatWave GenAI

Oracle HeatWave GenAI zapewnia zintegrowaną i zautomatyzowaną generatywną sztuczną inteligencję z dużymi modelami językowymi (LLM) w bazie danych; zautomatyzowany magazyn danych wektorowych w bazie danych; skalowane rozszerzająco przetwarzanie wektorowe oraz możliwość prowadzenia kontekstowych konwersacji w języku naturalnym. W rezultacie można korzystać z generatywnej sztucznej inteligencji bez konieczności posiadania specjalistycznej wiedzy z zakresu sztucznej inteligencji, przenoszenia danych lub ponoszenia dodatkowych kosztów.

Obejrzyj wersję demo (5:40)

Nie przegap prezentacji na temat Oracle CloudWorld przygotowanej przez Edwarda Screvena, głównego architekta korporacyjnego Oracle, która odbędzie się 11 września o godz. 8:30 czasu pacyficznego: „Tworzenie aplikacji opartych na generatywnej sztucznej inteligencji w zintegrowany i zautomatyzowany sposób za pomocą HeatWave GenAI”.

Dlaczego warto korzystać z HeatWave GenAI?

  • Szybki dostęp do generatywnej sztucznej inteligencji w dowolnym miejscu

    Korzystaj ze zoptymalizowanych rozwiązań LLM w bazie danych w różnych chmurach i regionach, aby wyszukiwać dane i generować lub streszczać treści bez konieczności wybierania i integrowania zewnętrznych rozwiązań LLM.

  • Dokładniejsze i trafniejsze odpowiedzi

    Model LLM może przeszukiwać zastrzeżone dokumenty, aby pomóc w uzyskaniu dokładniejszych i bardziej kontekstowych odpowiedzi. Nie trzeba do tego mieć specjalistycznej wiedzy z zakresu sztucznej inteligencji ani przenosić danych do osobnej bazy danych wektorowych. Ponadto HeatWave GenAI automatyzuje generowanie wektorów.

  • Rozmowa w języku naturalnym

    Dzięki konwersacji w języku naturalnym można szybko uzyskać z dokumentów przydatne informacje. Interfejs czatu HeatWave zachowuje kontekst, aby umożliwić rozmowę w języku naturalnym z możliwością zadawania dodatkowych pytań.

Kluczowe funkcje rozwiązania HeatWave GenAI

Modele LLM w bazie danych

Wbudowanych, zoptymalizowanych modeli LLM można używać we wszystkich regionach OCI, dedykowanym regionie OCI i w różnych chmurach, uzyskując spójne wyniki i przewidywalną wydajność we wszystkich wdrożeniach. Aby obniżyć koszty infrastruktury, można wyeliminować konieczność przydzielania zasobów procesorom GPU.

Integracja z generatywną sztuczną inteligencją OCI

Dostęp do wstępnie przeszkolonych, podstawowych modeli Cohere i Meta za pośrednictwem usługi OCI Generative AI.

Czat HeatWave

Kontekstowe rozmowy w języku naturalnym oparte na nieuporządkowanych danych w magazynie danych wektorowych HeatWave. Dostęp do zintegrowanej wyszukiwarki Lakehouse Navigator ułatwia modelom LLM przeszukiwanie określonych dokumentów, przyczyniając się do obniżenia kosztów przy jednoczesnym szybszym uzyskiwaniu trafniejszych wyników.

Magazyn danych wektorowych w bazie danych

Magazyn danych wektorowych HeatWave przechowuje zastrzeżone dokumenty w różnych formatach, działając jako baza wiedzy do generowania odpowiedzi opartych na pobraniu odpowiednich danych (RAG), aby pomóc w uzyskaniu trafniejszych i kontekstowych odpowiedzi bez konieczności przenoszenia danych do oddzielnej bazy danych wektorowych.

Automatyczne generowanie wektorów

Dzięki zautomatyzowanemu kanałowi przepływu danych można znaleźć i pobrać zastrzeżone dokumenty z magazynu danych wektorowych HeatWave, co ułatwia pracę programistów i analityków nieposiadających specjalistycznej wiedzy z zakresu sztucznej inteligencji.

Skalowane rozszerzająco przetwarzanie wektorowe

Przetwarzanie wektorowe odbywa się równolegle na maksymalnie 512 węzłach klastra HeatWave i jest wykonywane z prędkością odpowiadającą przepustowości pamięci, co przyspiesza generowanie wyników przy zmniejszonym prawdopodobieństwie utraty dokładności.

Opinie klientów o rozwiązaniu HeatWave GenAI

  • „HeatWave GenAI sprawia, że korzystanie z generatywnej sztucznej inteligencji jest niezwykle proste. Obsługa modeli LLM w bazie danych i tworzenie wektorów w bazie danych znacznie ogranicza złożoność aplikacji, zapewnia przewidywalne opóźnienie wnioskowania, a przede wszystkim nie generuje dodatkowych kosztów związanych z korzystaniem z modeli LLM lub tworzeniem wektorów. To prawdziwa demokratyzacja generatywnej sztucznej inteligencji i wierzymy, że doprowadzi to do tworzenia bogatszych aplikacji za pomocą technologii HeatWave GenAI i znacznego wzrostu produktywności dla naszych klientów”.

    — Vijay Sundhar, dyrektor generalny, SmarterD

  • „Intensywnie korzystamy z oprogramowania HeatWave AutoML w bazie danych w celu przygotowywania różnych rekomendacji dla naszych klientów. Obsługa przez HeatWave modeli LLM w bazie danych i magazynu danych wektorowych w bazie danych wyróżnia tę technologię na rynku, a możliwość integracji generatywnej sztucznej inteligencji z oprogramowaniem AutoML wyróżnia HeatWave jeszcze bardziej, umożliwiając nam oferowanie klientom nowych funkcji. Synergia z AutoML poprawia również wydajność i jakość wyników otrzymywanych z modelu LLM”.

    — Safarath Shafi, dyrektor generalny, EatEasy

  • "Oferowane przez HeatWave modele LLM w bazie danych, magazyn danych wektorowych w bazie danych, skalowane rozszerzająco przetwarzanie wektorowe w pamięci oraz czat HeatWave to wyróżniające się na tle konkurencji funkcje Oracle, które demokratyzują generatywną sztuczną inteligencję i sprawiają, że jest ona bardzo prosta, bezpieczna i niedroga w użyciu. Dzięki zastosowaniu rozwiązań HeatWave i AutoML nasza działalność już zmieniła się na kilka sposobów, a wprowadzenie tej innowacji od Oracle prawdopodobnie pobudzi rozwój nowej klasy aplikacji, za pomocą których klienci poszukują sposobów na wykorzystanie generatywnej sztucznej inteligencji w odniesieniu do posiadanych przez nich danych”.

    — Eric Aguilar, założyciel, Aiwifi

Kto korzysta z rozwiązania HeatWave GenAI?

  • Programiści mogą dostarczać aplikacje z wbudowaną sztuczną inteligencją

    Wbudowane modele LLM i czat HeatWave umożliwiają programistom tworzenie aplikacji wstępnie skonfigurowanych do konwersacji kontekstowych w języku naturalnym. Nie ma tu potrzeby korzystania z zewnętrznych modeli LLM i procesorów graficznych.

  • Analitycy mogą szybko uzyskiwać nowe informacje

    HeatWave GenAI może ułatwić konwersację na podstawie posiadanych danych, wyszukiwanie podobieństw w dokumentach i pobieranie informacji z zastrzeżonych zasobów danych.

  • Dział IT może ułatwić tworzenie innowacji w zakresie sztucznej inteligencji

    Dzięki zintegrowanym funkcjom i automatyzacji, programiści i zespoły biznesowe mogą łatwiej czerpać korzyści z generatywnej sztucznej inteligencji. Można tu łatwo włączać konwersacje w języku naturalnym i funkcję RAG.

Za pomocą modeli LLM w bazie danych można generować lub streszczać dane na podstawie nieuporządkowanych dokumentów. Użytkownicy mogą za pośrednictwem aplikacji zadawać pytania w języku naturalnym, które model LLM przetworzy, aby zwrócić odpowiedź.


Diagram generowania zawartości (opis poniżej):

Użytkownik pyta w języku naturalnym „Czy możesz wygenerować streszczenie tego opisu rozwiązania?”. Duży model językowy (LLM) przetwarza te dane wejściowe i generuje streszczenie jako dane wyjściowe.



Można również połączyć generatywną sztuczną inteligencję z innymi wbudowanymi funkcjami HeatWave, takimi jak uczenie maszynowe, aby zmniejszać koszty i szybciej uzyskiwać trafniejsze wyniki. W tym przykładzie przedsiębiorstwo produkcyjne robi to w celu konserwacji prewencyjnej. Za pomocą Oracle HeatWave AutoML inżynierowie mogą automatycznie tworzyć raporty z anomalii w dziennikach produkcyjnych, a przesyłając pytanie w języku naturalnym do HeatWave GenAI mogą szybko ustalić przyczynę problemu, zamiast ręcznie analizować wspomniane dzienniki.


Schemat generowania wyników analiz (opis poniżej):

Użytkownik pyta na czacie HeatWave: „Jaki jest główny problem w tych dziennikach? Odpowiedz w dwóch zdaniach.”. Najpierw HeatWave AutoML tworzy na podstawie wszystkich dzienników produkcyjnych, które stale pobiera, filtrowaną listę dzienników zawierających anomalie. Następnie z magazynu danych wektorowych HeatWave przekazywany jest dodatkowy kontekst do modelu LLM na podstawie bazy wiedzy dzienników. Model LLM pobiera ten rozszerzony prompt, generuje raport i przekazuje użytkownikowi szczegółową odpowiedź wyjaśniającą w języku naturalnym zaistniały problem.



Czatboty mogą wykorzystywać funkcję RAG, aby na przykład pomagać w odpowiadaniu na pytania pracowników dotyczące wewnętrznych zasad przedsiębiorstwa. Dokumenty wewnętrzne określające zasady są przechowywane jako wektory w magazynie danych wektorowych HeatWave. Dla danego zapytania użytkownika magazyn danych wektorowych pomaga zidentyfikować najbardziej podobne dokumenty, wykonując wyszukiwanie podobieństw względem przechowywanych wektorów. Dokumenty te są używane do rozszerzenia promptu wysyłanego do modelu LLM, aby zapewnić dokładną odpowiedź.


Schemat procesu RAG (opis poniżej):

Użytkownik pyta na czacie HeatWave: „Jakie notebooki mogę zamówić i jak wygląda proces zamówienia?”. HeatWave przetwarza zapytanie, uzyskując dostęp do znajdujących się w magazynie danych wektorowych HeatWave wewnętrznych dokumentów opisujących stosowne zasady. Następnie wysyła rozszerzony prompt do modelu LLM, który może wygenerować następującą odpowiedź: „Oto lista zatwierdzonych dostawców i czynności, które należy wykonać, aby złożyć zamówienie”.



Programiści mogą tworzyć aplikacje wykorzystujące połączoną moc obliczeniową wbudowanych mechanizmów uczenia maszynowego, generatywnej sztucznej inteligencji i magazynu danych wektorowych w celu przekazywania spersonalizowanych rekomendacji. W tym przypadku aplikacja korzysta z systemu rekomendacji HeatWave AutoML, aby polecać restauracje na podstawie preferencji lub wcześniejszych zamówień użytkownika. Dzięki magazynowi danych wektorowych HeatWave aplikacja może ponadto przeszukiwać menu restauracji w formacie PDF, aby sugerować konkretne dania, zapewniając użytkownikowi dodatkowe korzyści.


Schemat procesu RAG wzbogaconego o uczenie maszynowe (opis poniżej):

Użytkownik pyta na czacie HeatWave „Jakie wegańskie dania możesz mi dziś zaproponować?”. Najpierw system rekomendacji HeatWave AutoML sugeruje listę restauracji na podstawie poprzednich zamówień użytkownika. Następnie magazyn danych wektorowych HeatWave wysyła do modelu LLM rozszerzony prompt na podstawie danych z menu restauracji, które są w nim przechowywane. LLM może wtedy wygenerować spersonalizowaną rekomendację dań w języku naturalnym.



26 CZERWCA 2024 r.

Zapowiedź ogólnej dostępności rozwiązania HeatWave GenAI

Nipun Agarwal, starszy wiceprezes Oracle ds. rozwoju usługi HeatWave

HeatWave umożliwia organizacjom przetwarzanie transakcji, wykonywanie analiz w hurtowniach danych i jeziorach danych oraz korzystanie z mechanizmów uczenia maszynowego w ramach jednej, w pełni zarządzanej usługi chmurowej. Niniejszym informujemy, że HeatWave GenAI jest ogólnie dostępne i obejmuje duże modele językowe (LLM) w bazie danych, zautomatyzowany magazyn danych wektorowych w bazie danych, skalowane rozszerzająco przetwarzanie wektorowe oraz możliwość prowadzenia kontekstowych konwersacji w języku naturalnym.

Przeczytaj cały wpis

Opinie najlepszych analityków na temat HeatWave GenAI

  • Logo NAND Research

    „Dzięki gotowemu do działania modelowi LLM w bazie danych i w pełni zautomatyzowanemu magazynowi danych wektorowych, który jest od razu gotowy do przetwarzania wektorowego rozwiązanie HeatWave GenAI przenosi prostotę przystępnej cenowo sztucznej inteligencji na poziom, do którego konkurenci, tacy jak Snowflake, Google BigQuery i Databricks, nie mogą się nawet zbliżyć”.

    Steve McDowell
    współzałożyciel i główny analityk NAND Research
  • Logo Constellation Research

    „Innowacje inżynieryjne HeatWave nadal realizują wizję uniwersalnej bazy danych w chmurze. Najnowszą z nich jest generatywna sztuczna inteligencja w „stylu HeatWave”, która obejmuje integrację zautomatyzowanego magazynu danych wektorowych w bazie danych i modeli LLM w bazie danych bezpośrednio z rdzeniem rozwiązania HeatWave. Pozwala to programistom na tworzenie nowych klas aplikacji poprzez łączenie różnych elementów HeatWave”.

    Holger Mueller
    wiceprezes i główny analityk, Constellation Research
  • Logo Futurum Group

    „Przetwarzanie wektorowe w HeatWave GenAI jest 30-krotnie szybsze niż w Snowflake, 18-krotnie szybsze niż w Google BigQuery i 15-krotnie szybsze niż w Databricks, przy nawet sześciokrotnie niższych kosztach. Dla każdej organizacji poważnie myślącej o wydajnym przetwarzaniu obciążeń związanych z generatywną sztuczną inteligencją wydawanie pieniędzy na którąkolwiek z tych trzech lub innych ofert baz danych wektorowych to marnotrawstwo”.

    Ron Westfall
    starszy analityk i dyrektor badań sprzedaży w Futurum Research
  • Logo dbInsight

    „HeatWave robi duży krok w kierunku zwiększenia dostępności generatywnej sztucznej inteligencji i funkcji RAG (Retrieval-Augmented Generation), ukrywając pod interfejsem całą złożoność tworzenia wektorów. Zadaniem programisty jest jedynie wskazanie plików źródłowych znajdujących się w obiektowej pamięci masowej w chmurze, a HeatWave zajmie się całą resztą”.

    Tony Baer
    założyciel i dyrektor generalny dbInsight

Pierwsze kroki z HeatWave GenAI

Uzyskaj dostęp do dokumentacji

Łatwe tworzenie aplikacji GenAI

Postępuj zgodnie z instrukcjami krok po kroku, aby na podstawie udostępnionego przez nas kodu szybko i łatwo tworzyć aplikacje oparte na HeatWave GenAI.

Zarejestruj się w usłudze

Zamów bezpłatną wersję próbną HeatWave GenAI. Otrzymasz 300 USD w postaci środków na usługi w chmurze (cloud credits), aby wypróbować jej możliwości przez 30 dni.

Skontaktuj się z działem sprzedaży

Chcesz dowiedzieć się więcej o HeatWave GenAI? Nasi eksperci chętnie pomogą.