AI Solutions Hub

Stap in een nieuw tijdperk van productiviteit met generatieve AI-oplossingen voor uw bedrijf. Maak optimaal gebruik van AI, die in de volledige stack is ingebouwd.

AI en Machine Learning

Analyses en AI

Rekenkracht

Containers

Data lake

Developer Services

Generative AI

Identiteit en beveiliging

  • Snelle implementatie van AI-apps

    Implementeer uw AI-applicaties sneller met Oracle Cloud en Kubernetes en verbeter de schaalbaarheid en betrouwbaarheid met cloud-native strategieën.

Integratie

Marketplace

  • Schaal inferentie met NVIDIA NIM

    Implementeer NVIDIA NIM op OCI Kubernetes Engine voor schaalbare, efficiënte inferentie met behulp van OCI Object Storage en NVIDIA GPU's voor de best mogelijke prestaties.

Open-sourcedatabases

Oracle Database

Opslag

Infereren

Modellen ontwikkelen

Extraheren en samenvatten

Contextuele resultaten (met RAG)

Natuurlijke taalverwerking

Computervisie

  • Factuurverwerking automatiseren met AI

    Leer hoe u gegevens automatisch kunt extraheren uit facturen met OCI Document Understanding. Maak verwerking van documenten in ERP-systemen eenvoudiger met behulp van AI.

  • Identificeer beschadigde pakketten met AI

    Identificeer beschadigde pakketten automatisch met behulp van AI-services, waaronder OCI Vision, Oracle Digital Assistant en Oracle Analytics Cloud, voor efficiënt logistiek beheer.

  • Detectie van gebreken automatiseren met drones

    Stroomlijn processen in de bouw met de AI in OCI Vision door vroegtijdig afwijkingen te ontdekken met drones. Bespaar tijd en kosten met geautomatiseerde kwaliteitscontrole.

  • Onderzoek naar borst- en longkanker met AI

    Ontdek hoe OCI Vision en Oracle APEX kunnen helpen bij onderzoek naar borst- en longkanker door middel van geavanceerde AI- en machine learning-modellen.

  • E-mailfacturen verwerken
    met AI

    Leer hoe u de verwerking van facturen die via e-mail binnenkomen automatiseert met OCI Document Understanding en Oracle Integration Cloud en geef uw personeel tijd om belangrijke taken op te pakken.

  • Objectherkenning met OCI Vision

    Ontdek CI Vision voor objectherkenning in productie, retail en andere sectoren. Verbeter kwaliteitscontrole en -analyse met geavanceerde AI-technologie.

Spraakherkenning

Sentimentanalyse

Standaardscenario's

Bouwen met OCI Generative AI

Bekijk de voorbeeldvideo over de oplossing (1:36)

De kracht van LLM's benutten in een beheerde service

In de snel veranderende wereld van softwareontwikkeling is het cruciaal om op de hoogte te blijven. Stelt u zich eens voor dat een AI-assistent u kan helpen om een complexe webpagina snel te transformeren tot hapklare, eenvoudig te gebruiken en deelbare content. Dit is een van de vele dingen waarmee Oracle Cloud Infrastructure (OCI) Generative AI u kan helpen.

Hieronder ziet u een voorbeeld van hoe u zo'n AI-assistent kunt bouwen met behulp van OCI Generative AI.

De Summarizer op basis van AI voor trending GitHub-projecten is een engine voor het genereren van persoonlijke content waarmee automatisch de 25 meest trending GitHub-projecten worden opgehaald en samengevat. OCI Generative AI helpt bij het extraheren, lezen en compileren van het README-bestand van elk project tot een beknopt, aantrekkelijk en informatief overzicht dat met anderen kan worden gedeeld.

Probeer het uit, met gedetailleerde stappen en voorbeeldcode op GitHub.

Modellen kiezen

U kunt eenvoudig schakelen tussen meerdere LLM's die via OCI Generative AI worden aangeboden door de variabele model_id in summarize_llm.py te wijzigen.

  • cohere.command-r-16k: een veelzijdig model voor algemene taaltaken, zoals het genereren, samenvatten en vertalen van tekst met een contextlengte van 16.000 tokens. Dit is ideaal voor het bouwen van conversationele AI met een goede balans tussen prestaties en betaalbaarheid.
  • cohere.command-r-plus: een verbeterde versie met geavanceerdere inzichten en uitgebreidere taalmogelijkheden. Dit is ideaal voor complexe taken waarvoor genuanceerde reacties en een hogere verwerkingscapaciteit is vereist.
  • meta.llama-3.3-70b-instruct: een model met 70 miljard parameters met een contextlengte van 128.000 tokens en meertalige ondersteuning.
  • meta.llama-3.1-405b-instruct: het grootste openbaar beschikbare LLM (405 miljard parameters) met uitzonderlijke mogelijkheden voor redenering, het genereren van synthetische data en het gebruik van tools. Dit is ideaal voor bedrijfsapplicaties waarvoor maximale prestaties zijn vereist.

Het bovenstaande is een subset van beschikbare modellen. We maken voortdurend nieuwere modellen beschikbaar.

In het onderstaande codefragment wordt geïllustreerd hoe OCI Generative AI wordt aangeroepen:

content.text = """Generate an abstractive summary of the given Markdown contents. Here are the contents to summarize: {}""".format(summary_txt)


chat_detail.content = content.text 

chat_detail.serving_mode = oci.generative_ai_inference.models.OnDemandServingMode(model_id="meta.llama-3.1-405b-instruct") # configurable model chat_response = generative_ai_inference_client.chat(chat_detail)

OCI Generative AI Agents gebruiken met RAG

Bekijk de voorbeeldvideo over de oplossing (1:44)

De toegang tot kennisbanken verbeteren

Retrieval-Augmented Generation (RAG) is een van de belangrijkste gebruiksscenario's voor AI. Met RAG kunt u de kennis van een LLM vergroten zonder deze opnieuw te trainen. Op deze manier kan door het LLM nieuwe informatie uit een database of van elders worden geëxtraheerd en snel aan de eindgebruiker worden gepresenteerd.

Hierdoor kan door het LLM up-to-date kennis worden verkregen, ongeacht wanneer het LLM is getraind en wanneer inferentie is uitgevoerd. Als gevolg hiervan kunnen de bijgewerkte data uw LLM zonder al te veel moeite intelligenter maken.

Nadat documenten zijn geüpload naar Oracle Cloud Infrastructure (OCI) GenAI Agents, worden de data door de service verwerkt zodat deze via een chatbot kunnen worden gebruikt.

Probeer het uit, met gedetailleerde stappen en voorbeeldcode op GitHub.

In het onderstaande codefragment wordt geïllustreerd hoe de RAG-agent in OCI wordt gebruikt:

# ask a question to RAG agent question = "What steps do I take if I have a new patient under the patient admission recommendations?" # Initialize service client with default config file agent_runtime_client = GenerativeAiAgentRuntimeClient(config)


chat_response = agent_runtime_client.chat( agent_endpoint_id="ocid1.test.oc1..<id>", chat_details=ChatDetails(user_message=question)) 

# Get the data from response print(chat_response.data)

Bouwen met Oracle HeatWave GenAI

Bekijk de voorbeeldvideo over de oplossing (3:54)

Appontwikkeling versnellen met GenAI

Generatieve AI kan vooral handig zijn om een samenvatting te maken van het sentiment, zoals dit scenario laat zien. Een e-commercesite kan honderden voorraadeenheden (SKU's) hebben, met tientallen beoordelingen voor elke SKU. Voor een snelle samenvatting van productbeoordelingen kunnen ontwikkelaars profiteren van de geïntegreerde mogelijkheden van HeatWave GenAI door gebruik te maken van grote taalmodellen in de database en een geautomatiseerde, in-database vectoropslag.

Met HeatWave GenAI kan ook on demand het sentiment worden vertaald en geanalyseerd. Alle bewerkingen kunnen worden geautomatiseerd met HeatWave GenAI, zodat samenvattingen up-to-date blijven wanneer nieuwe beoordelingen worden toegevoegd.

Door de data en verwerking binnen HeatWave te houden, kunnen ontwikkelaars oplossingen schalen al naargelang hun GenAI-behoeften, waardoor AI net zo eenvoudig wordt als een databasezoekopdracht.

Probeer het uit, met gedetailleerde stappen en voorbeeldcode op GitHub.

In het onderstaande codefragment wordt geïllustreerd hoe positieve beoordelingen worden samengevat:

SELECT "################### Computing summaries for EXISTING reviews on a product ###################" AS "";

SELECT "" AS "";

CALL SUMMARIZE_TRANSLATE(1, "POSITIVE", "en", @positive_english_summary);
SELECT @positive_english_summary AS "--- English summary of positive reviews on the T-Shirt ---";

Bouwen met opensourcemodellen op OCI

Bekijk de voorbeeldvideo over de oplossing (1:30)

Gebruikmaken van opensource-GenAI-modellen op een uniform platform

Opensource-LLM's, zoals die van Hugging Face, zijn krachtige tools waarmee ontwikkelaars relatief snel GenAI-oplossingen kunnen uitproberen. Met Kubernetes in combinatie met Oracle Cloud Infrastructure (OCI) kunnen GenAI-oplossingen worden geschaald, en hiermee wordt ook flexibiliteit, portabiliteit en veerkracht geboden.

In deze demo ziet u hoe eenvoudig het is om verfijnde LLM-inferentiecontainers te implementeren op OCI Kubernetes Engine, een beheerde Kubernetes-service waarmee implementaties en bewerkingen op schaal worden vereenvoudigd voor ondernemingen. Met deze service kunnen ontwikkelaars het aangepaste model en de datasets in hun eigen tenancy behouden en zijn ze niet afhankelijk van een inferentie-API van derden.

We gaan Text Generation Inference gebruiken als het inferentieframework om de LLM's beschikbaar te maken.

Probeer het uit, met gedetailleerde stappen en voorbeeldcode op GitHub.

In het onderstaande codefragment wordt geïllustreerd hoe een opensource-LLM wordt geïmplementeerd:

# select model from HuggingFace

model=HuggingFaceH4/zephyr-7b-beta


# deploy selected model
docker run ghcr.io/huggingface/text-generation-inference:2.0 --model-id $model

# invoke the deployed model
curl IP_address:port/generate_stream \
    -X POST \
    -d '{"inputs":"What is Deep Learning?","parameters":{"max_new_tokens":50}}' \
    -H 'Content-Type: application/json'

Bouwen met Oracle Code Assist

Bekijk de voorbeeldvideo over de oplossing (3:40)

Productiviteit van ontwikkelaars verhogen en consistentie van code verbeteren

Oracle Code Assist is een AI-coderingsassistent die is ontworpen om de snelheid van ontwikkelaars te verhogen en de consistentie van code te verbeteren. Oracle Code Assist is gebaseerd op grote taalmodellen (LLM's) op Oracle Cloud Infrastructure (OCI), is afgestemd op en geoptimaliseerd voor Java, SQL en applicatieontwikkeling op OCI en het biedt ontwikkelaars contextspecifieke suggesties. U kunt het aanpassen aan de best practices en codebases van uw organisatie.

De plug-in, waarvan momenteel een bètaversie beschikbaar is voor JetBrains IntelliJ IDEA en Microsoft Visual Studio Code, kan helpen bij documentatie, het begrijpen van verouderde code en het voltooien van code.

Bezoek onze GitHub-repository als u wilt weten hoe u zich aanmeldt voor het bètaprogramma zodat u aan de slag kunt.

OCI AI Blueprints

Implementeer, schaal en bewaak GenAI-workloads in slechts enkele minuten met Oracle Cloud Infrastructure (OCI) AI Blueprints, compleet met hardware-aanbevelingen, softwarecomponenten en kant-en-klare monitoring.

    • Implementeer en schaal LLM's effectief met vLLM voor razendsnelle inferentie en naadloze integratie zonder gedoe.

    • Kies uit aangepaste modellen of een verscheidenheid aan open-sourcemodellen op Hugging Face.

    • Initialiseer GPU-nodes automatisch en sla modellen op in OCI Object Storage.

    • Maak een kant-en-klaar API-eindpunt voor directe modelinferentie.

    • Activeer automatische schaalaanpassing op basis van inferentievertraging voor bedrijfskritieke applicaties.

    • Integreer en schaal inferentieworkloads eenvoudig zonder uitgebreide technische expertise.

    • Monitor de prestaties met ingebouwde waarneembaarheidstools, zoals Prometheus en Grafana.

    • Werk nauwkeurig in plaats van harder door benchmarkprestaties te verbeteren en AI-training te optimaliseren met datagestuurde inzichten.

    • Benchmark fine-tuning prestaties met behulp van de MLCommons-methodologie.

    • Verfijn een gekwantificeerd Llama 2 70B-model met een gestandaardiseerde dataset.

    • Houd trainingsuren, resourcebezetting en prestatiemetrics bij.

    • Log resultaten automatisch in MLflow en visualiseer inzichten in Grafana.

    • Neem datagestuurde infrastructuurbeslissingen voor geoptimaliseerde verfijning.

    • Verbeter het verfijnen van LLM's met low-rank adaptatie (LoRA). Zo kunt u snel en efficiënt werken en direct implementeren.

    • Gebruik LoRA voor efficiënte verfijning van LLM's met minimale overhead van rekenkracht.

    • Gebruik uw aangepaste datasets of openbaar beschikbare datasets van Hugging Face om te trainen.

    • Volg en analyseer gedetailleerde trainingsmetrics die zijn vastgelegd in MLflow tijdens het verfijnen.

    • Sla de verfijnde model- en trainingsresultaten op in een objectopslagbucket voor naadloze implementatie.

    • Optimaliseer de prestaties met een ontwerp dat zorgt voor snelle, effectieve modelaanpassing zonder intensief gebruik van resources.

    • Schaal de oplossing naar behoefte, van kleine datasets tot grootschalige verfijning van modellen.