O OKE simplifica as operações para Kubernetes de nível empresarial nativo da nuvem em qualquer escala. Implemente, gerencie e dimensione suas cargas de trabalho mais exigentes, incluindo IA e microsserviços, com atualizações automatizadas, dimensionamento inteligente e segurança integrada.
O processo de criação de modelos de IA começa com a preparação e a experimentação de dados, beneficiando-se de acesso seguro e compartilhado a GPUs e administração centralizada. O OKE permite que as equipes:
– Maximizem a utilização da GPU por meio de clusters multitenant seguros.
– Colaborem de forma eficiente em ambientes gerenciados centralmente
– Integrem-se ao Kubeflow para desenvolvimento e implementação de modelos simplificados
Saiba mais sobre como executar aplicações em nós baseados em GPU com o OKE.
Desenvolvido na infraestrutura de alto desempenho da OCI, o OKE oferece:
– Acesso às mais recentes GPUs NVIDIA (H100, A100, A10 e muito mais)
– Rede RDMA ultrarrápida para máxima taxa de transferência e baixa latência
– Controle total com nós de trabalho Kubernetes gerenciados ou autogerenciados
Saiba como criar um cluster do Kubernetes e instalar o Kubeflow.
Os cientistas de dados dependem de um agendamento otimizado para maximizar o uso de recursos em tarefas de treinamento. O OKE oferece suporte a agendadores avançados, como Volcano e Kueue, para executar cargas de trabalho paralelas e distribuídas com eficiência.
O treinamento de IA em larga escala exige redes de cluster rápidas e de baixa latência. A infraestrutura habilitada para RDMA da OCI permite que o OKE mova dados diretamente para e da memória da GPU, minimizando a latência e maximizando a taxa de transferência.
O OKE, desenvolvido sobre a infraestrutura confiável da OCI, oferece:
– Acesso às GPUs NVIDIA (H100, A100, A10 e muito mais)
– Conexões de rede ultrarrápidas com suporte a RDMA
– A flexibilidade para executar tarefas em nós Kubernetes autogerenciados
Saiba mais sobre como executar aplicações em nós baseados em GPU com o OKE.
Pronto para executar cargas de trabalho de GPU no OKE com nós bare metal NVIDIA A100? Este tutorial pode mostrar como.
O OKE aproveita ao máximo o Kubernetes para gerenciar com eficiência os pods de inferência, ajustando automaticamente os recursos para atender à demanda. Com o Kubernetes Cluster Autoscaler, o OKE pode redimensionar automaticamente os pools de nós gerenciados com base nas demandas de carga de trabalho em tempo real, permitindo alta disponibilidade e gerenciamento de custos ideal ao dimensionar os serviços de inferência.
O agendamento avançado e o gerenciamento de recursos do OKE permitem definir alocações precisas de CPU e memória para pods de inferência, oferecendo suporte a um desempenho consistente e confiável à medida que as cargas de trabalho flutuam. Saiba mais sobre como implementar e gerenciar aplicações no OKE.
O OKE oferece opções robustas para inferência de IA escalável e econômica, incluindo nós virtuais para dimensionamento rápido em nível de pod e a flexibilidade de execução em processadores baseados em GPU e Arm.
Saiba como implementar microsserviços de inferência NVIDIA NIM em escala com o OCI Kubernetes Engine.
Para obter mais informações sobre como executar inferência de IA em nós de GPU, consulte a documentação sobre executar aplicações em nós baseados em GPU.
Ao trazer suas aplicações para o OKE, você pode:
Modernizar com o OKE significa que você avança mais rápido e com mais segurança, enquanto a Oracle cuida das partes complexas nos bastidores. Essa é a migração facilitada, para que você possa se concentrar no que mais importa: seu negócio.
Siga o guia de implementação passo a passo sobre como usar OKE, OCI Bastion e GitHub Actions para uma migração segura e automatizada.
Para obter mais informações sobre recursos e gerenciamento do OKE, consulte a documentação oficial do OKE.
A criação de microsserviços OKE permite que suas equipes:
Com o OKE, você obtém as ferramentas robustas e a segurança empresarial pelas quais a Oracle é conhecida, além da flexibilidade que os microsserviços exigem. Mude a maneira como você cria, atualiza e dimensiona aplicações, com menos dores de cabeça e muito mais controle.
Para obter mais informações sobre como desenvolver e gerenciar microsserviços:
“Muitos serviços de IA da OCI são executados no OCI Kubernetes Engine (OKE), o serviço de Kubernetes gerenciado da Oracle. Na verdade, o desempenho da nossa equipe de engenharia aumentou em dez vezes com a OCI Vision apenas mudando de uma plataforma mais antiga para o OKE. É boa nesse nível.
VP de Serviços de IA da OCI, Oracle Cloud Infrastructure
Implemente microsserviços simples empacotados como contêineres do Docker e se comunique por meio de uma API comum.
Descubra as melhores práticas para implementar um pool de nós virtuais sem servidor usando a arquitetura de referência e automação do Terraform fornecida.
Descubra como a Tryg Insurance reduziu seus custos em 50% com o ajuste dinâmico.
Gregory King, Gerente Sênior de Produtos
O Oracle Cloud Infrastructure (OCI) Full Stack Disaster Recovery (Full Stack DR) anuncia suporte nativo para o OCI Kubernetes Engine (OKE). Os clusters OKE agora são um recurso da OCI selecionável no Full Stack DR, assim como máquinas virtuais, armazenamento, balanceadores de carga e bancos de dados Oracle. Isso significa que sabemos exatamente como validar, fazer um failover, executar um switchover e testar sua capacidade de recuperar OKE, infraestrutura e bancos de dados sem que sua equipe de TI escreva uma linha de código ou instruções passo a passo em uma planilha ou arquivo de texto.
Leia a publicação completaObtenha 30 dias de acesso a ferramentas de CI/CD, Terraform gerenciado, telemetria e muito mais.
Explore arquiteturas de referência implementáveis e manuais de soluções.
Capacite o desenvolvimento de aplicativos com Kubernetes, Docker, sem servidor, APIs e muito mais.
Entre em contato com nossos associados para vendas, suporte e outras perguntas.