AI-oplossing

LLM's verfijnen met de OCI Generative AI-playground

Inleiding

Wanneer we werken met grote taalmodellen (LLM's), laten we meestal het model reageren op de trainingsgegevens die het heeft gekregen. Het trainen van deze modellen kan echter moeilijk zijn omdat ze veel resources gebruiken, zoals GPU's en stroom.

Gelukkig is modeloptimalisatie geavanceerd om een "kleinere training" versie met minder data mogelijk te maken, via een proces dat fine-tuning wordt genoemd.

De onderstaande specifieke voorbeeldoplossing biedt een methode voor het verfijnen van een LLM met behulp van de Oracle Cloud Infrastructure (OCI) Generative AI-speeltuin, een interface in de OCI-console.

-demonstratie

Demo: LLM's fijnafstemmen met OCI Generative AI Playground (1:29)

Vereisten en instellingen

  1. Aanmeldingspagina voor Oracle Cloud account
  2. Aan de slag met generatieve AI van OCI - documentatie voor generatieve AI van OCI
  3. fine-tuning van OCI Generative AI:documentatie voor verfijning van OCI Generative AI
  4. OCI Generative AI-speeltuin: documentatievoor het OCI Generative AI-speeltuin
  5. Python 3.10
  6. Open-source pakketbeheer: Conda