Solution IA

Réglage fin des LLM avec OCI Generative AI Playground

Introduction

Lorsque nous travaillons avec des grands modèles de langage (LLM), nous avons généralement le modèle qui répond aux données d'entraînement qui lui ont été fournies. Toutefois, l'entraînement de ces modèles peut s'avérer difficile car ils utilisent de nombreuses ressources, telles que des GPU et de la puissance.

Heureusement, l'optimisation des modèles a progressé pour permettre une version d'entraînement plus petite avec moins de données, grâce à un processus appelé affinage.

L'exemple de solution spécifique ci-dessous fournit une méthode pour affiner un LLM à l'aide du playground de test d'Oracle Cloud Infrastructure (OCI) Generative AI, une interface dans la console OCI.

Démonstration

Démonstration : Réglage fin des LLM dans OCI Generative AI Playground (1:32)

Prérequis et configuration

  1. Compte Oracle Cloud : page d'inscription
  2. Introduction à OCI Generative AI - documentation pour OCI Generative AI
  3. Affinage d'OCI Generative AI—documentation pour l'affinage d'OCI Generative AI
  4. Playground de test d'OCI Generative AI - documentation pour le terrain de jeu d'OCI Generative AI
  5. Python 3.10
  6. Gestionnaire de packages open source : Conda