O Oracle Cloud Infrastructure AI Blueprints é um conjunto de blueprints pré-empacotados e verificados para a OCI que fornecem implementações consistentes e repetíveis de cargas de trabalho de IA generativa em minutos com observabilidade integrada.
O Oracle Cloud Infrastructure AI Blueprints ajuda a implementar, dimensionar e monitorar cargas de trabalho de IA em produção em minutos. O AI Blueprints é um projeto de implementação no-code verificados pela OCI para cargas de trabalho de IA generativa populares. Ele inclui recomendações claras de hardware com GPUs NVIDIA, componentes de pilha de software opinativos, como NVIDIA NIM e ferramentas de observabilidade pré-empacotadas. Isso permite implementar cargas de trabalho de IA sem precisar tomar decisões sobre pilha de software ou provisionar manualmente a infraestrutura. Você também pode aproveitar os recursos avançados de infraestrutura do AI Blueprints, como GPUs de várias instâncias ou dimensionamento automático com base na latência de inferência, com algumas alterações de configuração simples. Com esses recursos, reduzimos a integração de GPU para implementações dimensionadas e de missão crítica de semanas para apenas alguns minutos.
O OCI AI Blueprints está disponível gratuitamente para qualquer usuário da OCI.
O OCI AI Blueprints pode ser encontrado no GitHub. Na página do GitHub, você seguirá instruções sobre como:
Para testar um OCI AI Blueprint, crie um compartimento separado e um cluster do OCI Kubernetes Engine. A implementação do OCI AI Blueprints no compartimento recém-criado isola qualquer impacto potencial na sua tenancy.
A seguir estão os contêineres e recursos implementados na tenancy:
Todos os projetos disponíveis estão listados aqui.
Para executar um blueprint de benchmarking de inferência, basta implementar um blueprint vLLM e usar uma ferramenta como o LLMPerf para executar o benchmarking em relação ao seu endpoint de inferência.
Use o kubectl para inspecionar logs de pod no cluster do Oracle Kubernetes Engine. Você também pode inspecionar logs no portal do AI Blueprints.
Sim, o OCI AI Blueprints utiliza o KEDA para escalonamento automático orientado a aplicações. Consulte a documentação para obter mais informações.
Quaisquer GPUs NVIDIA disponíveis na sua região da OCI, como A10, A100 ou H100.
Sim, você pode implementar o OCI AI Blueprints em um cluster existente seguindo as instruções aqui.
Para executar vários blueprints no mesmo nó, recomendamos habilitar pools de nós compartilhados. Leia mais aqui.
O Oracle Cloud Infrastructure Data Science e o Oracle Cloud Infrastructure Data Science Quick Actions são ofertas de PaaS destinadas a criar e implementar aplicações de IA em instâncias de computação gerenciadas. O AI Blueprints é um impulsionador do IaaS. O OCI AI Blueprints é ideal para clientes que implementam cargas de trabalho de IA generativa em instâncias reservadas em sua tenancy. Nos estágios iniciais da jornada do cliente, o AI Blueprints auxilia com POCs de pré-venda, benchmarking de LLM e prototipagem rápida de aplicações de IA de ponta a ponta, como geração aumentada de recuperação (RAG). Nos estágios posteriores, os clientes podem usar o AI Blueprints para cargas de trabalho de produção em clusters Kubernetes com configurações avançadas, como dimensionamento automático e inferência distribuída.
O serviço OCI Generative AI é uma oferta PaaS. O AI Blueprints é um impulsionador do IaaS. O OCI AI Blueprints é ideal para clientes que implementam cargas de trabalho de IA generativa em instâncias reservadas em sua tenancy. Nos estágios iniciais da jornada do cliente, o AI Blueprints auxilia com POCs de pré-venda, benchmarking de LLM e prototipagem rápida de aplicações de IA de ponta a ponta, como o RAG. Nos estágios posteriores, os clientes podem usar o AI Blueprints para cargas de trabalho de produção em clusters Kubernetes com configurações avançadas, como dimensionamento automático e inferência distribuída.
Você pode implementar LLMs personalizados ou a maioria dos modelos disponíveis no Hugging Face com nosso modelo vLLM, desde que os modelos sejam compatíveis com o vLLM.
Sim.
Sim. Você pode usar outras soluções, como Ollama, TensorRT e NIM.
Sim. Temos um blueprint específico para a inferência de CPU que executa o Ollama em CPUs.
Sim.
Atualmente, o AI Blueprints fornece uma API (a CLI está em desenvolvimento). Você também pode utilizar a CLI do Kueue para orquestração e agendamento de tarefas com o AI Blueprints.
Com o OCI AI Blueprints, você pode se beneficiar das seguintes maneiras: