如何大规模地为大型语言模型提供推理请求并加速 AI 部署?在 Oracle Cloud Infrastructure (OCI) Container Engine for Kubernetes (OKE) 上部署企业级解决方案 NVIDIA NIM。在本演示中,我们将展示如何在 OKE 上部署 NVIDIA NIM,并将模型存储库托管在 OCI Object Storage 上。使用 Helm 部署,可以根据推断请求数量轻松扩展和收缩副本数量,并轻松进行监视。利用 OCI Object Storage 从任意位置部署模型,并支持各种类型的模型。由 NVIDIA GPU 提供支持,充分利用 NIM 来帮助您获得推断请求的最大吞吐量和最低延迟。
注:为免疑义,本网页所用以下术语专指以下含义: