Oracle HeatWave GenAI biedt geïntegreerde en geautomatiseerde generatieve AI met in-database LLM's (grote taalmodellen), een geautomatiseerde in-database vectoropslag, scale-out vectorverwerking en de mogelijkheid om contextuele gesprekken in een natuurlijke taal te voeren. Zo kunt u profiteren van generatieve AI zonder expertise op het gebied van AI, gegevensverplaatsing of extra kosten.
Mis de keynote van Oracle CloudWorld van Edward Screven, hoofd corporate architect van Oracle, niet op 11 september om 08.30 uur. PT: "Geïntegreerde en geautomatiseerde generatieve AI-applicaties bouwen met HeatWave GenAI."
Gebruik in-database geoptimaliseerde LLM's in clouds en regio's om gegevens op te halen en content te genereren of samen te vatten. U hoeft dus geen externe LLM's te selecteren en te integreren.
Laat uw eigen documenten doorzoeken door LLM's om nauwkeurigere en contextueel relevante antwoorden te krijgen, zonder AI-expertise en zonder dat u gegevens naar een afzonderlijke vectordatabase moet verplaatsen. Met HeatWave GenAI wordt het genereren van embeddingen geautomatiseerd.
Krijg snel inzicht in uw documenten via gesprekken in een natuurlijke taal. In de interface van HeatWave Chat wordt de context behouden om mensachtige gesprekken met vervolgvragen mogelijk te maken.
Gebruik de ingebouwde, geoptimaliseerde LLM's in alle OCI-regio's (Oracle Cloud Infrastructure), OCI Dedicated Region en in alle clouds en behaal consistente resultaten met voorspelbare prestaties voor alle implementaties. De kosten voor infrastructuur worden lager doordat er geen GPU's meer moeten worden ingericht.
Krijg toegang tot vooraf getrainde basismodellen van Cohere en Meta via de OCI Generative AI-service.
Voer contextuele gesprekken in een natuurlijke taal op basis van uw ongestructureerde gegevens in HeatWave Vector Store. Gebruik de geïntegreerde Lakehouse Navigator om LLM's te begeleiden bij het doorzoeken van specifieke documenten, zodat u de kosten kunt verlagen en sneller nauwkeurigere resultaten kunt behalen.
Met HeatWave Vector Store worden uw eigen documenten in verschillende indelingen opgeslagen en gebruikt als kennisbank voor RAG (retrieval-augmented generation), waardoor u nauwkeurigere en contextueel relevante antwoorden kunt krijgen zonder gegevens naar een afzonderlijke vectordatabase te verplaatsen.
Maak gebruik van de geautomatiseerde pijplijn om eigen documenten te ontdekken en op te nemen in HeatWave Vector Store, waardoor het eenvoudiger wordt voor ontwikkelaars en analisten zonder AI-expertise om de vectoropslag te gebruiken.
Vectorverwerking wordt parallel uitgevoerd over maximaal 512 HeatWave-clusternodes en uitgevoerd op geheugenbandbreedte, waardoor snelle resultaten worden verkregen met een verminderde kans op verlies van nauwkeurigheid.
"HeatWave GenAI maakt het uiterst eenvoudig om te profiteren van generatieve AI. De ondersteuning voor in-database LLM's en in-database vectorcreatie leidt tot aanzienlijk minder complexe applicaties en een voorspelbare inferentievertraging. Bovendien hoeven we geen extra kosten te maken om de LLM's te gebruiken of de embeddingen te maken. Dit is echt de democratisering van generatieve AI. We geloven dat dit zal resulteren in het bouwen van rijkere applicaties met HeatWave GenAI en een aanzienlijke productiviteitswinst voor onze klanten."
—Vijay Sundhar, CEO, SmarterD
"We maken veel gebruik van de in-database HeatWave AutoML om onze klanten verschillende aanbevelingen te geven. De ondersteuning van HeatWave voor in-database LLM's en in-database vectoropslag is gedifferentieerd. De mogelijkheid om generatieve AI te integreren met AutoML biedt een verdere differentiatie voor HeatWave in de branche, waardoor we onze klanten nieuwe soorten mogelijkheden kunnen bieden. Dankzij de synergie met AutoML worden ook de prestaties en kwaliteit van de LLM-resultaten verbeterd."
—Safarath Shafi, CEO, EatEasy
"De in-database LLM's, in-database vectoropslag en scale-out in-memory vectorverwerking van HeatWave en HeatWave Chat zijn zeer gedifferentieerde mogelijkheden van Oracle waarmee generatieve AI wordt gedemocratiseerd en zeer eenvoudig, veilig en goedkoop kan worden gebruikt. Door HeatWave en AutoML te gebruiken voor onze bedrijfsbehoeften, is ons bedrijf al op verschillende manieren getransformeerd. De introductie van deze innovatie van Oracle zal waarschijnlijk een nieuw type toepassingen stimuleren waarbij klanten op zoek gaan naar manieren om generatieve AI te gebruiken voor hun bedrijfscontent."
—Eric Aguilar, oprichter, Aiwifi
Dankzij ingebouwde LLM's en HeatWave Chat kunt u apps leveren die vooraf zijn geconfigureerd voor contextuele gesprekken in een natuurlijke taal. Er zijn geen externe LLM's en GPU's nodig.
HeatWave GenAI kan u helpen eenvoudig te communiceren met uw gegevens, zoekopdrachten op basis van overeenkomsten uit te voeren in documenten en informatie op te halen uit uw eigen gegevens.
Bied ontwikkelaars en bedrijfsteams geïntegreerde mogelijkheden en automatisering om te profiteren van generatieve AI. Maak gesprekken in een natuurlijke taal en RAG op een eenvoudige manier mogelijk.
U kunt de in-database LLM's gebruiken om content te genereren of samen te vatten op basis van uw ongestructureerde documenten. Gebruikers kunnen vragen stellen in een natuurlijke taal via applicaties, en de LLM zal de aanvraag verwerken en de content leveren.
U kunt de kracht van generatieve AI combineren met andere ingebouwde mogelijkheden van HeatWave, zoals machine learning, om de kosten te verlagen en sneller nauwkeurigere resultaten te verkrijgen. In dit voorbeeld doet een productiebedrijf dit voor predictief onderhoud. Engineers kunnen Oracle HeatWave AutoML gebruiken om automatisch een rapport te maken van afwijkende productielogboeken. Met HeatWave GenAI kan snel de hoofdoorzaak van het probleem worden bepaald door eenvoudigweg een vraag in natuurlijke taal te stellen, in plaats van de logboeken handmatig te analyseren.
Chatbots kunnen RAG gebruiken om bijvoorbeeld vragen van werknemers over het interne bedrijfsbeleid te beantwoorden. Interne documenten met gedetailleerde beleidsregels worden als embeddingen opgeslagen in HeatWave Vector Store. Voor een bepaalde gebruikersquery helpt de vectoropslag de meest vergelijkbare documenten te identificeren door een zoekopdracht naar overeenkomsten uit te voeren op basis van de opgeslagen embeddingen. Deze documenten worden gebruikt om de prompt die aan de LLM wordt gegeven, uit te breiden, zodat deze een nauwkeuriger antwoord kan geven.
Ontwikkelaars kunnen applicaties bouwen met behulp van de gecombineerde kracht van ingebouwde machine learning, generatieve AI en vectoropslag om gepersonaliseerde aanbevelingen te leveren. In dit voorbeeld maakt de applicatie gebruik van het aanbevelingssysteem HeatWave AutoML om restaurants aan te bevelen op basis van de voorkeuren van de gebruiker of wat de gebruiker eerder heeft besteld. Met HeatWave Vector Store kan de applicatie bovendien door de menukaarten van restaurants in pdf-indeling zoeken om specifieke gerechten voor te stellen, wat een meerwaarde is voor klanten.
Bij een zoekopdracht naar overeenkomsten ligt de focus op het vinden van gerelateerde content op basis van semantiek. Zoeken naar overeenkomsten is meer dan een eenvoudige zoekactie op basis van trefwoorden: in plaats van alleen naar de opgegeven trefwoorden te zoeken, wordt er ook rekening gehouden met de onderliggende betekenis. In dit voorbeeld wil een advocaat snel een mogelijk problematische clausule in contracten identificeren.
Dankzij HeatWave kunnen organisaties transactieverwerking, analyses in datawarehouses en data lakes, en machine learning uitvoeren binnen één volledig beheerde cloudservice. Vandaag kondigen we de algemene beschikbaarheid aan van HeatWave GenAI, met in-database LLM's (grote taalmodellen), een geautomatiseerde, in-database vectoropslag, scale-out vectorverwerking en de mogelijkheid om contextuele gesprekken te voeren in een natuurlijke taal.
Lees het volledige artikel"Met in-database LLM's en een volledig geautomatiseerde vectoropslag die vanaf dag één klaar zijn voor gebruik, brengt HeatWave GenAI de eenvoud en prijs-kwaliteitverhouding van AI naar een nieuw niveau waar concurrenten als Snowflake, Google BigQuery en Databricks alleen maar van kunnen dromen."
"De technische innovatie van HeatWave blijft de visie van een universele clouddatabase waarmaken. De nieuwste innovatie is generatieve AI in 'HeatWave-stijl', met de rechtstreekse integratie van een geautomatiseerde, in-database vectoropslag en in-database LLM's in de HeatWave-kern. Hiermee kunnen ontwikkelaars een nieuwe klasse van applicaties maken door HeatWave-elementen te combineren."
"HeatWave GenAI levert een prestatie op het vlak van vectorverwerking die 30x sneller is dan Snowflake, 18x sneller dan Google BigQuery en 15x sneller dan Databricks, met tot 6x lagere kosten. Organisaties die workloads op basis van generatieve AI met hoge prestaties serieus nemen, maar bedrijfsresources besteden aan een van deze drie oplossingen of zelfs nog andere vectordatabases, zijn eigenlijk bezig met geld weggooien en te proberen dit te rechtvaardigen."
"Met HeatWave wordt een grote stap gezet in het toegankelijker maken van generatieve AI en RAG (retrieval-augmented generation) door alle complexiteit van het creëren van vectorembeddingen onder de motorkap te verstoppen. Ontwikkelaars hoeven alleen maar naar de bronbestanden in de objectopslag in de cloud te wijzen en HeatWave doet vervolgens het zware werk."
Lees onze meest recente blogposts voor tips, technische uitleg en best practices.
Volg de stapsgewijze instructies en gebruik de door ons geleverde code om snel en eenvoudig applicaties te bouwen op basis van HeatWave GenAI.
Meld u aan voor een gratis proefversie van HeatWave GenAI. U krijgt 300 dollar aan cloudtegoed om 30 dagen lang alle mogelijkheden van deze oplossing uit te proberen.
Wilt u meer weten over HeatWave GenAI? Laat een van onze experts u helpen.