大規模言語モデル(LLM)を使用する場合、通常、モデルが与えられたトレーニング・データに応答します。ただし、これらのモデルのトレーニングは、GPUやパワーなどの多くのリソースを使用するため、難しい場合があります。
幸いなことに、モデルの最適化は、ファインチューニングと呼ばれるプロセスを通じて、より少ないデータで「より小さなトレーニング」バージョンを実現するように進んでいます。
次の具体的なサンプル・ソリューションは、OCIコンソールのインタフェースであるOracle Cloud Infrastructure (OCI)生成AIプレイグラウンドを使用してLLMを微調整する方法を示しています。