Cuando trabajamos con modelos de lenguaje grandes (LLM), normalmente tenemos el modelo que responde a los datos de entrenamiento que se le han dado. Sin embargo, el entrenamiento de estos modelos puede ser difícil, ya que utilizan muchos recursos, como GPU y potencia.
Afortunadamente, la optimización de modelos ha avanzado para permitir una versión de "entrenamiento más pequeña" con menos datos, a través de un proceso llamado ajuste.
La solución de ejemplo específica a continuación proporciona un método para ajustar un LLM mediante Oracle Cloud Infrastructure (OCI) Generative AI playground, una interfaz en la consola de OCI.