大型语言模型 (LLM) 在文本生成、问题解决和遵循指令方面取得了重大进展。随着企业使用 LLM 开发尖端解决方案,对可扩展、安全和高效部署平台的需求变得越来越重要。Kubernetes 已成为其可扩展性、灵活性、可移植性和弹性的首选。
在本演示中,我们将演示如何在 Oracle Cloud Infrastructure Container Engine for Kubernetes (OKE) (一种可简化企业大规模部署和操作的托管 Kubernetes 服务)上部署经过微调的 LLM 推断容器。通过该服务,客户可以在自己的租户中保留定制模型和数据集,而无需依赖第三方推断 API。
我们将使用文本生成推断 (TGI) 作为推断框架来公开 LLM。
注:为免疑义,本网页所用以下术语专指以下含义: