Quando trabalhamos com grandes modelos de linguagem (LLMs), normalmente temos o modelo respondendo aos dados de treinamento fornecidos. No entanto, o treinamento desses modelos pode ser difícil, pois eles usam muitos recursos, como GPUs e energia.
Felizmente, a otimização de modelos avançou para permitir uma versão de "treinamento menor" com menos dados, por meio de um processo chamado ajuste fino.
A solução de amostra específica abaixo fornece um método para ajustar um LLM usando o playground de IA generativa da Oracle Cloud Infrastructure (OCI), uma interface no console da OCI.