Quando lavoriamo con modelli di linguaggio di grandi dimensioni (LLM), in genere abbiamo il modello che risponde ai dati di formazione che è stato dato. Tuttavia, la formazione di questi modelli può essere difficile poiché utilizzano molte risorse, come GPU e alimentazione.
Per fortuna, l'ottimizzazione dei modelli è avanzata per consentire una versione di "addestramento più piccolo" con meno dati, attraverso un processo chiamato fine-tuning.
La soluzione di esempio specifica riportata di seguito fornisce un metodo per perfezionare un LLM utilizzando l'ambiente di gioco dell'AI generativa Oracle Cloud Infrastructure (OCI), un'interfaccia nella console OCI.