HeatWave GenAI

Oracle HeatWave GenAI offre un'intelligenza artificiale generativa integrata e automatizzata con modelli linguistici di grandi dimensioni (LLM, large language model) nel database, una memoria di vettore automatizzata nel database, un'eleborazione della scalabità del vettore e la possibilità di avere conversazioni contestuali in linguaggio naturale, consentendoti di sfruttare l'intelligenza artificiale generativa senza avere bisogno di competenze nell'area, di spostare dati o di sostenere costi aggiuntivi.

Guarda la demo (5:40)

Non perdere l'intervento a Oracle CloudWorld di Edward Screven, Chief Corporate Architect di Oracle, l'11 settembre alle 8:30. PT: "Crea applicazioni di intelligenza artificiale generativa, integrate e automatizzate con HeatWave GenAI."

Perché usare HeatWave GenAI?

  • Utilizza rapidamente l'intelligenza artificiale generativa ovunque

    Utilizza LLM ottimizzati nel database su cloud e nelle region per recuperare i dati e generare o riepilogare i contenuti, senza la seccatura della selezione e dell'integrazione di LLM esterni.

  • Ottieni risposte più accurate e pertinenti

    Lascia che gli LLM cerchino i tuoi documenti per ottenere risposte più accurate e contestualmente pertinenti, senza esperienza nell'AI e senza spostare i dati in un database vettoriale separato. HeatWave GenAI automatizza la generazione di integrazioni.

  • Conversa in linguaggio naturale

    Ottieni suggerimenti in modo rapido dai tuoi documenti tramite conversazioni in linguaggio naturale. L'interfaccia Chat HeatWave mantiene il contesto per consentire conversazioni simili a quelle umane con domande di follow-up.

Caratteristiche principali di HeatWave GenAI

LLM nel database

Utilizza gli LLM integrati e ottimizzati in tutte le region di Oracle Cloud Infrastructure (OCI), OCI Dedicated Region e nei cloud e ottieni risultati coerenti con performance prevedibili in tutte le implementazioni. Riduci i costi dell'infrastruttura eliminando il bisogno di eseguire il provisioning delle GPU.

Integrazione con OCI Generative AI

Accedi a modelli di base pre-addestrati da Cohere e Meta tramite il servizio OCI Generative AI.

HeatWave Chat

Fai in modo di avere conversazioni contestuali in linguaggio naturale basate su dati non strutturati in HeatWave Vector Store. Utilizza il Lakehouse Navigator integrato per guidare gli LLM nella ricerca di documenti specifici, riducendo i costi e ottenendo risultati più accurati in tempi più rapidi.

Memoria di vettore in-database

HeatWave Vector Store ospita i tuoi documenti in vari formati, fungendo da base di conoscenza per Retrieval-Augmented Generation (RAG) al fine di aiutarti a ottenere risposte più accurate e contestualmente pertinenti, senza spostare i dati in un database vettoriale separato.

Generazione automatica degli incorporamenti

Sfrutta la pipeline automatizzata per scoprire e acquisire documenti proprietari in HeatWave Vector Store, semplificando l'utilizzo della memoria di vettore per sviluppatori e analisti senza competenze di intelligenza artificiale.

Elaborazione vettoriale a scalabilità orizzontale

L'elaborazione vettoriale viene parallelizzata su un massimo di 512 nodi cluster HeatWave ed eseguita a larghezza di banda della memoria, contribuendo a fornire risultati rapidi con una ridotta probabilità di perdita di accuratezza.

Il punto di vista dei clienti su HeatWave GenAI

  • "HeatWave GenAI rende estremamente semplice l'utilizzo dell'intelligenza artificiale generativa. Il supporto per gli LLM e la creazione di vettori nel database portano a una significativa riduzione della complessità delle applicazioni, della latenza di inferenza prevedibile e, soprattutto, nessun costo aggiuntivo per utilizzare gli LLM o creare le integrazioni. Questa è davvero la democratizzazione dell'IA generativa, e crediamo che si tradurrà nella creazione di applicazioni più ricche con HeatWave GenAI e significativi guadagni di produttività per i nostri clienti".

    -Vijay Sundhar, CEO, SmarterD

  • "Utilizziamo molto HeatWave AutoML nel database per fornire vari suggerimenti ai nostri clienti. Il supporto di HeatWave per LLM nel database, il database vectostore differenziato e la possibilità di integrare l'intelligenza artificiale generativa con AutoML offre un'ulteriore differenziazione per HeatWave, consentendoci di offrire nuovi tipi di funzionalità AI nostri clienti. La sinergia con AutoML migliora anche le prestazioni e la qualità dei risultati LLM".

    -Safarath Shafi, CEO, EatEasy

  • "HeatWave LLM nel database, database vector store, elaborazione della memoria di vettore scalabile e HeatWave Chat sono funzionalità molto differenziate di Oracle che democratizzano l'intelligenza artificiale generativa e la rendono molto semplice, sicura e poco costosa da usare. L'utilizzo di HeatWave e AutoML per le nostre esigenze aziendali ha già trasformato la nostra attività in diversi modi e l'introduzione di questa innovazione da parte di Oracle probabilmente stimolerà la crescita di una nuova classe di applicazioniper i clienti che sono alla ricerca di modi per sfruttare l'intelligenza artificiale generativa per loro contenuti aziendali".

    Eric Aguilar, fondatore, Aiwifi

Chi trae vantaggio da HeatWave GenAI?

  • Gli sviluppatori possono sviluppare applicazioni con l'intelligenza artificiale integrata

    Gli LLM integrati e la chat HeatWave consentono di sviluppare applicazioni preconfigurate per conversazioni contestuali in linguaggio naturale. Non sono necessari LLM e GPU esterni.

  • Gli analisti possono ottenere rapidamente nuovi insight

    HeatWave GenAI può aiutarti a conversare facilmente con i tuoi dati, eseguire ricerche di somiglianza tra i documenti e recuperare informazioni dai tuoi dati.

  • L'IT può aiutare ad accelerare l'innovazione dell'AI

    Consenti a sviluppatori e team aziendali di utilizzare funzionalità e automazione integrate allo scopo di sfruttare l'intelligenza artificiale generativa. Abilita facilmente conversazioni in linguaggio naturale e RAG.

È possibile utilizzare gli LLM nel database per generare o riepilogare i contenuti in base ai documenti non strutturati. Gli utenti possono porre domande in linguaggio naturale tramite applicazioni e l'LLM elaborerà la richiesta e consegnerà il contenuto.


Diagramma di generazione del contenuto, descrizione di seguito:

Un utente sta facendo una domanda in linguaggio naturale "Puoi generare un riepilogo di questo solution brief?". Il modello LLM (Large Language Model) elabora questo input e genera il riepilogo come output.



Puoi combinare la potenza dell'intelligenza artificiale generativa con altre funzionalità HeatWave integrate, come il machine learning, per ridurre i costi e ottenere risultati più accurati in tempi più rapidi. In questo esempio, un'azienda di produzione usa questa soluzione per la manutenzione predittiva. Gli ingegneri possono utilizzare Oracle HeatWave AutoML per produrre automaticamente un report dei log di produzione anomala e HeatWave GenAI aiuta a determinare rapidamente la causa principale del problema ponendo semplicemente una domanda in linguaggio naturale, invece di analizzare manualmente i log.


Diagramma di generazione dell'analisi, descrizione riportata di seguito:

Un utente chiede tramite HeatWave Chat "Qual è il problema principale in questa raccolta di log? Fornire un riepilogo con due frasi". In primo luogo, HeatWave AutoML produce un elenco filtrato di log anomali in base a tutti i log di produzione che include continuamente. Quindi, HeatWave Vector Store fornisce un contesto aggiuntivo all'LLM in base alla knowledge base dei log. Il LLM prende quel prompt aumentato, produce un report e fornisce all'utente una risposta dettagliata che spiega il problema in linguaggio naturale.



I chatbot possono utilizzare RAG per, ad esempio, aiutare a rispondere alle domande dei dipendenti sulle policy aziendali interne. I documenti interni che descrivono i criteri vengono memorizzati come incorporati in HeatWave Vector Store. Per una determinata query utente, la memoria di vettore contribuisce a identificare i documenti più simili eseguendo una ricerca della somiglianza rispetto alle integrazioni memorizzate. Questi documenti vengono utilizzati per aumentare il contesto dato agli LLM in modo che forniscano una risposta più contestuale.


Diagramma RAG, descrizione riportata di seguito:

Un utente chiede tramite HeatWave Chat "Quali laptop posso ordinare e qual è il processo?". HeatWave elabora la domanda accedendo ai documenti dei criteri interni ospitati in HeatWave Vector Store. Fornisce quindi un prompt aumentato all'LLM che può generare la risposta "Ecco l'elenco dei fornitori approvati e i passaggi da seguire per effettuare l'ordine".



Gli sviluppatori possono creare applicazioni sfruttando la potenza combinata del machine learning integrato, dell'intelligenza artificiale generativa e della memoria di vettore per offrire consigli personalizzati. In questo esempio, l'applicazione utilizza il sistema di raccomandazione HeatWave AutoML per consigliare i ristoranti in base alle preferenze dell'utente o a quanto ordinato in precedenza dall'utente. Con HeatWave Vector Store, l'applicazione può anche cercare tra i menu dei ristoranti in formato PDF per suggerire piatti specifici, fornendo maggiore valore ai clienti.


RAG potenziato con diagramma ML, descrizione riportata di seguito:

Un utente chiede via HeatWave Chat "Quali piatti vegani mi suggerisci oggi?". In primo luogo, il sistema di raccomandazione HeatWave AutoML suggerisce un elenco di ristoranti in base a ciò che l'utente ha ordinato in precedenza. Quindi, HeatWave Vector Store fornisce un prompt aumentato all'LLM in base ai menu dei ristoranti che ospita. Il LLM può quindi generare una raccomandazione personalizzata di piatti in linguaggio naturale.



16 giugno 2024

Annuncio della disponibilità generale di HeatWave GenAI

Nipun Agarwal, Oracle Senior Vice President, HeatWave Development

HeatWave ha permesso alle organizzazioni di eseguire elaborazione delle transazioni, analytics tra data warehouse e data lake e machine learning all'interno di un unico servizio cloud completamente gestito. Oggi annunciamo la disponibilità generale di HeatWave GenAI, con modelli linguistici di grandi dimensioni (LLM) in-database, una memoria di vettore in-database automatizzato, un'elaborazione vettoriale a scalabilità orizzontale e la possibilità di avere conversazioni contestuali in linguaggio naturale.

Leggi l'intero post

Scopri cosa dicono i migliori analisti del settore su HeatWave GenAI

  • Logo NAND Research

    "Con LLM database pronti all'uso e vectore store completamente automatizzato pronto per l'elaborazione dei vettori, HeatWave GenAI porta la semplicità dell'intelligenza artificiale, e le prestazioni dei prezzi, a un livello a cui i suoi concorrenti come Snowflake, Google BigQuery e Databricks non possono neanche pensare di avvicinarsi".

    Steve McDowell
    Principal Analyst e Founding Partner, NAND Research
  • Logo Constellation Research

    "L'innovazione ingegneristica di HeatWave continua a soddisfare la visione di un database cloud universale. L'ultima è l'intelligenza artificiale generativa "stile HeatWave", che include l'integrazione di una memoria di vettore automatizzata nel database e di LLM database direttamente nel core HeatWave. Ciò consente agli sviluppatori di creare nuove classi di applicazioni in quanto combinano elementi HeatWave."

    Holger Mueller
    Vice President e Principal Analyst, Constellation Research
  • Logo Futurum Group

    "HeatWave GenAI ha fornito prestazioni di elaborazione vettoriale 30 volte più veloci di Snowflake, 18 volte più veloci di Google BigQuery e 15 volte più veloci di Databricks, a un costo inferiore fino a 6 volte. Per qualsiasi organizzazione che vuole gestire i carichi di lavoro generativi di intelligenza artificiale ad alte prestazioni, spendere risorse aziendali su una qualsiasi di queste tre o altre offerte di database vettoriali è l'equivalente di bruciare denaro e cercare di giustificarlo come una buona idea.

    Ron Westfall
    Senior Analyst e Research Director, The Futurum Group
  • Logo dbInsight

    "HeatWave sta facendo un grande passo avanti nel rendere più accessibili l'IA generativa e la Retrieval-Augmented Generation (RAG), spingendo tutta la complessità di create vettori integrati. Gli sviluppatori puntano semplicemente ai file di origine che si trovano nell'object store cloud e HeatWave gestisce quindi il carico più pesante".

    Tony Baer
    Fondatore e CEO, dbInsight

Inizia a utilizzare HeatWave GenAI

Accedi alla documentazione

Crea facilmente applicazioni GenAI

Segui istruzioni dettagliate e utilizza il codice che forniamo per creare applicazioni basate su HeatWave GenAI in modo rapido e semplice.

Registrati al servizio

Registrati per avere una prova gratuita di HeatWave GenAI. Riceverai 300 dollari in crediti cloud per provare le sue funzionalità per 30 giorni.

Contattaci

Ti interessa saperne di più su HeatWave GenAI? I nostri esperti possono darti una mano.