AI 解决方案

使用 OCI Generative AI 游乐场微调大语言模型 (LLM)

介绍

当我们使用大型语言模型 (LLM) 时,我们通常会让模型对其提供的训练数据做出响应。但是,训练这些模型可能很困难,因为它们使用大量资源,例如 GPU 和功率。

值得庆幸的是,模型优化已经取得了进展,通过一个称为微调的过程,允许使用更少数据的“更小的训练”版本。

以下特定示例解决方案提供了使用 Oracle Cloud Infrastructure (OCI) Generative AI 操场(OCI 控制台中的接口)微调 LLM 的方法。

演示

演示:在 OCI Generative AI Playground 中优化 LLM (1:32)

先决条件和设置

  1. Oracle Cloud 账户 - 注册页面
  2. 开始使用 OCI Generative AI — 文档(适用于 OCI Generative AI)
  3. OCI Generative AI 微调— 文档 —适用于 OCI Generative AI 微调
  4. OCI Generative AI 操场— 文档 —适用于 OCI Generative AI 操场
  5. Python 3.10
  6. 开源包管理器— Conda

注:为免疑义,本网页所用以下术语专指以下含义:

  1. 除Oracle隐私政策外,本网站中提及的“Oracle”专指Oracle境外公司而非甲骨文中国 。
  2. 相关Cloud或云术语均指代Oracle境外公司提供的云技术或其解决方案。