Solution IA

Réglage fin des LLM avec OCI Generative AI Playground

Introduction

Lorsque nous travaillons avec des modèles de langage volumineux (LLM), le modèle répond généralement aux données d'entraînement qui lui ont été fournies. Cependant, l'entraînement de ces modèles peut être difficile car ils utilisent beaucoup de ressources, telles que les GPU et la puissance.

Heureusement, l'optimisation du modèle a progressé pour permettre une version de "petit entraînement" avec moins de données, grâce à un processus appelé réglage fin.

L'exemple de solution spécifique ci-dessous fournit une méthode pour affiner un LLM à l'aide du terrain de jeu d'IA générative Oracle Cloud Infrastructure (OCI), une interface de la console OCI.

Démonstration

Démonstration : Réglage fin des LLM avec le terrain de jeu OCI Generative AI (1:29)

Prérequis et configuration

  1. Compte Oracle Cloud - Page d'inscription
  2. Introduction à OCI Generative AI - documentation pour OCI Generative AI
  3. Réglage précis d'OCI Generative AI : documentation pour le réglage fin d'OCI Generative AI
  4. Terrain de jeu OCI Generative AI - documentation pour le terrain de jeu OCI Generative AI
  5. Python 3.10
  6. Gestionnaire de packages open source - Conda