OKE optimiza las operaciones de Kubernetes empresarial nativo en la nube a cualquier escala. Despliega, gestiona y amplía tus cargas de trabajo más exigentes, incluidas las de IA y microservicios, con actualizaciones automatizadas, escalado inteligente y seguridad incorporada.
El 11 de diciembre, aprende a acelerar el desarrollo y simplificar la gestión de las cargas de trabajo de IA en producción.
Descubre cómo acelerar el desarrollo y simplificar la gestión de cargas de trabajo de IA en producción.
Descubre cómo 8x8 mejoró su rendimiento y su costo total de propiedad con OCI.
Descubre cómo DMCC satisface los picos de demanda con un escalado elástico.
Descubre cómo Cohere mejoró la eficiencia de sus servicios en OCI.
Descubre cómo CNCF trasladó cargas de trabajo de Kubernetes a OCI con cambios mínimos.
Descubre cómo EZ Cloud optimizó sus despliegues y sus operaciones diarias.
Lee cómo B3 alcanza objetivos de disponibilidad estrictos con OCI.
Mira cómo Zimperium diseña sus sistemas para disponer de failover regional y recuperarse rápidamente.
OCI Kubernetes Engine (OKE) cuenta con la certificación de Cloud Native Computing Foundation (CNCF) tanto para Kubernetes Platform como para la conformidad de Kubernetes AI Platform.
Estas certificaciones homologan el compromiso de OKE con los estándares abiertos, garantizando que tus cargas de trabajo de IA/AA y nativas en la nube se ejecuten en una plataforma totalmente alineada con las buenas prácticas de la industria e interoperable en todo el ecosistema global de Kubernetes.
Más información sobre la nueva certificación AI Conformance de OCI.
El proceso de desarrollo de modelos de IA empieza por la preparación de los datos y la experimentación, con un acceso seguro y compartido a las GPU y una administración centralizada. OKE permite a los equipos:
– Maximizar el uso de las GPU mediante clústeres seguros y multiinquilino
– Colaborar con eficiencia en entornos gestionados de forma centralizada
– Integración con Kubeflow para un desarrollo y un despliegue optimizados de los modelos
Obtén más información sobre la ejecución de aplicaciones en nodos basados en GPU con OKE.
OKE se basa en la infraestructura de alto rendimiento de OCI para ofrecerte:
– Acceso a las más recientes GPU de NVIDIA (H100, A100, A10, etc.)
– Redes RDMA ultrarrápidas para un rendimiento máximo y una latencia baja
– Control total con nodos trabajadores de Kubernetes gestionados o autogestionados
Descubre cómo crear un clúster de Kubernetes e instalarle Kubeflow.
Los científicos de datos requieren una programación optimizada con el fin de maximizar el uso de los recursos para las tareas de entrenamiento. OKE admite programadores avanzados como Volcano y Kueue para ejecutar con eficiencia cargas de trabajo paralelas y distribuidas.
El entrenamiento de modelos de IA a gran escala requiere redes de clústeres rápidas y de baja latencia. La infraestructura habilitada para RDMA de OCI permite a OKE mover datos directamente hacia y desde la memoria de las GPU, minimizando la latencia y maximizando el rendimiento.
OKE se basa en la infraestructura confiable de OCI para brindarte:
– Acceso a GPU de NVIDIA (H100, A100, A10, etc.)
– Conexiones de red ultrarrápidas respaldadas por RDMA
– Flexibilidad para ejecutar tareas en nodos de Kubernetes autogestionados
Obtén más información sobre cómo ejecutar aplicaciones en nodos basados en GPU con OKE.
¿Listo para ejecutar cargas de trabajo de GPU en OKE con nodos dedicados NVIDIA A100? Te enseñamos cómo en este tutorial.
OKE aprovecha al máximo Kubernetes para gestionar de forma eficiente los pods de inferencia, ajustando los recursos automáticamente para satisfacer la demanda. Con Kubernetes Cluster Autoscaler, OKE cambia automáticamente el tamaño de los grupos de recursos en función de la demanda en tiempo real de las cargas de trabajo, ofreciendo alta disponibilidad y una gestión óptima de los costos cuando se amplían los servicios de inferencia.
La gestión de recursos y la programación avanzadas de OKE te permiten asignar CPU y memoria de forma precisa a los pods de inferencia. De este modo se consigue un rendimiento constante y confiable con independencia de las fluctuaciones de las cargas de trabajo. Obtén más información sobre el despliegue y la gestión de aplicaciones en OKE.
OKE ofrece opciones robustas de inferencia de IA escalable y rentable, incluidos nodos virtuales para un escalado rápido a nivel de los pods y flexibilidad para ejecutar tanto en GPU como en procesadores basados en Arm.
Descubre cómo desplegar microservicios de inferencia NVIDIA NIM a gran escala con OCI Kubernetes Engine.
Para más información sobre cómo ejecutar inferencia de IA en nodos de GPU, consulta la documentación para ejecutar aplicaciones en nodos basados en GPU.
Al traer aplicaciones a OKE, puedes:
Modernizar con OKE te permite moverte más rápido y de forma más segura, mientras Oracle gestiona los aspectos más complejos en segundo plano. Te facilitamos la migración para que puedas centrarte en lo más importante: tu negocio.
Sigue la guía de despliegue paso a paso sobre el uso de OKE, OCI Bastion y GitHub Actions para una migración segura y automatizada.
Para más información sobre las funciones y la gestión de OKE, consulta la documentación oficial de OKE.
Crear microservicios con OKE permite a tus equipos:
OKE te ofrece la seguridad empresarial y las herramientas robustas que dan fama a Oracle, además de la flexibilidad que requieren los microservicios. Cambia tu forma de crear, actualizar y ampliar aplicaciones, con menos dolores de cabeza y mucho más control.
Para más información sobre el desarrollo y la gestión de microservicios:
Los clientes eligen OKE porque les brinda los resultados y la confiabilidad que necesitan para operar y hacer crecer su negocio.