OKE optimiza las operaciones de Kubernetes empresarial nativo en la nube a cualquier escala. Despliega, gestiona y amplía tus cargas de trabajo más exigentes, incluidas las de IA y microservicios, con actualizaciones automatizadas, escalado inteligente y seguridad incorporada.
El proceso de desarrollo de modelos de IA empieza por la preparación de los datos y la experimentación, con un acceso seguro y compartido a las GPU y una administración centralizada. OKE permite a los equipos:
– Maximizar el uso de las GPU mediante clústeres seguros y multiinquilino
– Colaborar con eficiencia en entornos gestionados de forma centralizada
– Integración con Kubeflow para un desarrollo y un despliegue optimizados de los modelos
Obtén más información sobre la ejecución de aplicaciones en nodos basados en GPU con OKE.
OKE se basa en la infraestructura de alto rendimiento de OCI para ofrecerte:
– Acceso a las más recientes GPU de NVIDIA (H100, A100, A10, etc.)
– Redes RDMA ultrarrápidas para un rendimiento máximo y una latencia baja
– Control total con nodos trabajadores de Kubernetes gestionados o autogestionados
Descubre cómo crear un clúster de Kubernetes e instalarle Kubeflow.
Los científicos de datos requieren una programación optimizada con el fin de maximizar el uso de los recursos para las tareas de entrenamiento. OKE admite programadores avanzados como Volcano y Kueue para ejecutar con eficiencia cargas de trabajo paralelas y distribuidas.
El entrenamiento de modelos de IA a gran escala requiere redes de clústeres rápidas y de baja latencia. La infraestructura habilitada para RDMA de OCI permite a OKE mover datos directamente hacia y desde la memoria de las GPU, minimizando la latencia y maximizando el rendimiento.
OKE se basa en la infraestructura confiable de OCI para brindarte:
– Acceso a GPU de NVIDIA (H100, A100, A10, etc.)
– Conexiones de red ultrarrápidas respaldadas por RDMA
– Flexibilidad para ejecutar tareas en nodos de Kubernetes autogestionados
Obtén más información sobre cómo ejecutar aplicaciones en nodos basados en GPU con OKE.
¿Listo para ejecutar cargas de trabajo de GPU en OKE con nodos dedicados NVIDIA A100? Te enseñamos cómo en este tutorial.
OKE aprovecha al máximo Kubernetes para gestionar de forma eficiente los pods de inferencia, ajustando los recursos automáticamente para satisfacer la demanda. Con Kubernetes Cluster Autoscaler, OKE cambia automáticamente el tamaño de los grupos de recursos en función de la demanda en tiempo real de las cargas de trabajo, ofreciendo alta disponibilidad y una gestión óptima de los costos cuando se amplían los servicios de inferencia.
La gestión de recursos y la programación avanzadas de OKE te permiten asignar CPU y memoria de forma precisa a los pods de inferencia. De este modo se consigue un rendimiento constante y confiable con independencia de las fluctuaciones de las cargas de trabajo. Obtén más información sobre el despliegue y la gestión de aplicaciones en OKE.
OKE ofrece opciones robustas de inferencia de IA escalable y rentable, incluidos nodos virtuales para un escalado rápido a nivel de los pods y flexibilidad para ejecutar tanto en GPU como en procesadores basados en Arm.
Descubre cómo desplegar microservicios de inferencia NVIDIA NIM a gran escala con OCI Kubernetes Engine.
Para más información sobre cómo ejecutar inferencia de IA en nodos de GPU, consulta la documentación para ejecutar aplicaciones en nodos basados en GPU.
Al traer aplicaciones a OKE, puedes:
Modernizar con OKE te permite moverte más rápido y de forma más segura, mientras Oracle gestiona los aspectos más complejos en segundo plano. Te facilitamos la migración para que puedas centrarte en lo más importante: tu negocio.
Sigue la guía de despliegue paso a paso sobre el uso de OKE, OCI Bastion y GitHub Actions para una migración segura y automatizada.
Para más información sobre las funciones y la gestión de OKE, consulta la documentación oficial de OKE.
Crear microservicios con OKE permite a tus equipos:
OKE te ofrece la seguridad empresarial y las herramientas robustas que dan fama a Oracle, además de la flexibilidad que requieren los microservicios. Cambia tu forma de crear, actualizar y ampliar aplicaciones, con menos dolores de cabeza y mucho más control.
Para más información sobre el desarrollo y la gestión de microservicios:
"Muchos servicios de IA de OCI se ejecutan en OCI Kubernetes Engine (OKE), el servicio de Kubernetes gestionado de Oracle. De hecho, nuestro equipo de ingeniería experimentó una mejora del rendimiento de 10X con OCI Vision simplemente cambiando de una plataforma anterior a OKE. Es excelente."
Vicepresidente de servicios de IA de OCI, Oracle Cloud Infrastructure
Implementa simples microservicios empaquetados como contenedores Docker y se comunican a través de una API común.
Descubre las mejores prácticas para desplegar un pool de nodos virtuales sin servidor mediante la automatización y la arquitectura de referencia de Terraform proporcionadas.
Descubre cómo Tryg Insurance redujo sus costos en un 50% a través del ajuste dinámico de derechos.
Gregory King, director principal sénior de productos
Oracle Cloud Infrastructure (OCI) Full Stack Disaster Recovery (Full Stack DR) anuncia compatibilidad nativa para OCI Kubernetes Engine (OKE). Los clústeres de OKE ahora son un recurso de Oracle Cloud Infrastructure seleccionable en Full Stack DR, al igual que las máquinas virtuales, el almacenamiento, los equilibradores de carga y las bases de datos Oracle. Esto significa que sabemos exactamente cómo realizar los procesos de validación, failover y switchover, así como comprobar tu capacidad de recuperar OKE, infraestructuras y bases de datos sin que tu personal de TI escriba una sola línea de código o instrucciones paso a paso en una hoja de cálculo o un archivo de texto.
Lee el post completoObtén 30 días de acceso a herramientas de CI/CD, Terraform gestionado, telemetría y más.
Explora los manuales desplegables de soluciones y arquitecturas de referencia.
Impulsa el desarrollo de aplicaciones con Kubernetes, Docker, sin servidor, API y más.
Ponte en contacto con nuestros agentes si tienes alguna pregunta sobre ventas, soporte y otras cuestiones.