大規模言語モデル(LLM)を使用する場合、通常、与えられたトレーニング・データに応答するモデルがあります。ただし、これらのモデルのトレーニングは、GPUやパワーなどの多くのリソースを使用するため、難しい場合があります。
幸いなことに、モデルの最適化は、微調整と呼ばれるプロセスを通じて、より少ないデータで「より小さなトレーニング」バージョンを可能にするように進んでいます。
次の具体的なサンプル・ソリューションは、OCIコンソールのインタフェースであるOracle Cloud Infrastructure (OCI)生成AIプレイグラウンドを使用してLLMをファインチューニングする方法を提供します。