Lorsque nous travaillons avec des grands modèles de langage (LLM), nous avons généralement le modèle qui répond aux données d'entraînement qui lui ont été fournies. Toutefois, l'entraînement de ces modèles peut s'avérer difficile car ils utilisent de nombreuses ressources, telles que des GPU et de la puissance.
Heureusement, l'optimisation des modèles a progressé pour permettre une version d'entraînement plus petite avec moins de données, grâce à un processus appelé affinage.
L'exemple de solution spécifique ci-dessous fournit une méthode pour affiner un LLM à l'aide du playground de test d'Oracle Cloud Infrastructure (OCI) Generative AI, une interface dans la console OCI.