AI 解决方案

使用 OCI Generative AI 游乐场微调大语言模型 (LLM)

介绍

当我们使用大型语言模型 (LLM) 时,我们通常会让模型响应它给出的训练数据。但是,训练这些模型可能很困难,因为它们使用大量资源,例如 GPU 和电源。

值得庆幸的是,模型优化已经取得了进步,允许使用更少数据的“更小的训练”版本,通过一个称为微调的过程。

下面的特定示例解决方案提供了一种使用 Oracle Cloud Infrastructure (OCI) Generative AI 操场(OCI 控制台中的接口)微调 LLM 的方法。

演示

演示:在 OCI Generative AI 游乐场中微调 LLM (1:32)

先决条件和设置

  1. Oracle Cloud 账户 — 注册页面
  2. OCI Generative AI 入门— 文档 — OCI Generative AI
  3. OCI Generative AI 微调— 关于 OCI Generative AI 微调的文档
  4. OCI Generative AI 操场— 文档 — OCI Generative AI 操场
  5. Python 3.10
  6. 开源软件包管理器— Conda

注:为免疑义,本网页所用以下术语专指以下含义:

  1. 除Oracle隐私政策外,本网站中提及的“Oracle”专指Oracle境外公司而非甲骨文中国 。
  2. 相关Cloud或云术语均指代Oracle境外公司提供的云技术或其解决方案。