AI 解决方案主题
当我们使用大型语言模型 (LLM) 时,我们通常会让模型对其提供的训练数据做出响应。但是,训练这些模型可能很困难,因为它们使用大量资源,例如 GPU 和功率。
值得庆幸的是,模型优化已经取得了进展,通过一个称为微调的过程,允许使用更少数据的“更小的训练”版本。
以下特定示例解决方案提供了使用 Oracle Cloud Infrastructure (OCI) Generative AI 操场(OCI 控制台中的接口)微调 LLM 的方法。
注:为免疑义,本网页所用以下术语专指以下含义: