AI 解决方案主题
查看所有 AI 解决方案
当我们使用大型语言模型 (LLM) 时,我们通常会让模型响应它给出的训练数据。但是,训练这些模型可能很困难,因为它们使用大量资源,例如 GPU 和电源。
值得庆幸的是,模型优化已经取得了进步,允许使用更少数据的“更小的训练”版本,通过一个称为微调的过程。
下面的特定示例解决方案提供了一种使用 Oracle Cloud Infrastructure (OCI) Generative AI 操场(OCI 控制台中的接口)微调 LLM 的方法。
注:为免疑义,本网页所用以下术语专指以下含义: