Kubernetes Engine (OKE)

OKE rationalise les opérations pour Kubernetes natif du cloud et adapté à l'entreprise à toute échelle. Déployez, gérez et adaptez vos workloads les plus exigeants, y compris l'IA et les microservices, avec des mises à niveau automatisées, une évolutivité intelligente et une sécurité intégrée.



L’IA à l’échelle : commercialisez plus vite vos innovations avec OCI Kubernetes Engine (OKE)

Le 11 décembre, découvrez comment accélérer le développement et simplifier la gestion des workloads d’IA en production.

Découvrez comment accélérer le développement et simplifier la gestion des workloads d’IA en production.

Pourquoi choisir OKE ?

  • Rapport performances-prix

    Découvrez comment 8x8 a amélioré les performances et le coût total de possession sur OCI.

  • Mise à l’échelle automatique

    Découvrez comment DMCC répond aux pics de demande grâce à l'évolutivité élastique.

  • Efficacité

    Découvrez comment Cohere a amélioré son efficacité de service sur OCI.

  • Portabilité

    Découvrez comment CNCF a déplacé les workloads Kubernetes vers OCI avec un minimum de modifications.

  • Simplicité

    Découvrez comment EZ Cloud a rationalisé le déploiement et les opérations du jour 2.

  • Fiabilité

    Découvrez comment B3 atteint des objectifs de disponibilité stricts sur OCI.

  • Résilience

    Découvrez comment Zimperium conçoit le basculement régional et la récupération rapide.

Les clients choisissent OKE car il fournit les résultats et la fiabilité dont ils ont besoin pour gérer et développer leur activité.

OCI Kubernetes Engine (OKE) est certifié par la Cloud Native Computing Foundation (CNCF) pour la plateforme Kubernetes et la conformité de la plateforme Kubernetes AI.

Ces certifications valident l'engagement d'OKE envers les normes ouvertes, ce qui garantit que vos workloads natifs du cloud et d'IA/ML s'exécutent sur une plateforme entièrement alignée sur les meilleures pratiques du secteur et interopérable dans l'écosystème Kubernetes mondial.

En savoir plus La nouvelle certification de conformité IA d'OCI.

Cas d'utilisation d'OKE

Accélérez la création de modèles d'IA

Le processus de création de modèles d'IA commence par la préparation et l'expérimentation des données, en bénéficiant d'un accès sécurisé et partagé aux GPU et d'une administration centralisée. OKE permet aux équipes de :

– Optimiser l'utilisation des GPU grâce à des clusters multi-locataires sécurisés

– Collaborer efficacement dans des environnements gérés de manière centralisée

– Intégrer Kubeflow pour le développement et le déploiement de modèles rationalisés

En savoir plus sur l'exécution d'applications sur des noeuds basés sur GPU avec OKE.

OKE : spécialement conçu pour l'IA et le machine learning

Basé sur l'infrastructure à hautes performances d'OCI, OKE vous offre les avantages suivants :

– Accès aux derniers GPU NVIDIA (H100, A100, A10, etc.)

– Mise en réseau RDMA ultra-rapide pour un débit maximal et une faible latence

– Contrôle total avec des nœuds de travail Kubernetes gérés ou autogérés

Découvrez comment créer un cluster Kubernetes et y installer Kubeflow.

Orchestrez efficacement les workloads

Les data scientists s'appuient sur une planification optimisée pour maximiser l'utilisation des ressources pour les travaux de formation. OKE prend en charge les planificateurs avancés tels que Volcano et Kueueue pour exécuter efficacement des workloads parallèles et distribués.

L'entraînement d'IA à grande échelle nécessite un réseau de cluster rapide et à faible latence. L'infrastructure compatible RDMA d'OCI permet à OKE de déplacer les données directement vers et depuis la mémoire GPU, réduisant ainsi la latence et maximisant le débit.

OKE : prêt pour l'entraînement à l'IA hautes performances

OKE, basé sur une infrastructure OCI fiable, vous apporte les avantages suivants :

– Accès aux GPU NVIDIA (H100, A100, A10, etc.)

– Connexions réseau ultra-rapides et soutenues par RDMA

– La flexibilité d'exécuter des travaux sur des nœuds Kubernetes autogérés

En savoir plus sur l'exécution d'applications sur des noeuds GPU avec OKE.

Prêt à exécuter des workloads GPU sur OKE avec les noeuds Bare Metal NVIDIA A100 ? Ce tutoriel peut vous montrer comment.

Inférence d'IA efficace et évolutive

OKE tire pleinement parti de Kubernetes pour gérer efficacement les pods d'inférence, en ajustant automatiquement les ressources pour répondre à la demande. Avec l'outil de redimensionnement automatique de cluster Kubernetes, OKE peut redimensionner automatiquement les pools de noeuds gérés en fonction des demandes de charge globale en temps réel, ce qui permet une haute disponibilité et une gestion optimale des coûts lors du redimensionnement des services d'inférence.

La planification avancée et la gestion des ressources d'OKE vous permettent de définir des allocations précises de CPU et de mémoire pour les pods d'inférence, en prenant en charge des performances cohérentes et fiables lorsque les workloads fluctuent. En savoir plus sur le déploiement et la gestion des applications sur OKE.

OKE offre des options robustes pour l'inférence d'IA évolutive et rentable, y compris des nœuds virtuels pour une évolutivité rapide au niveau du pod et la flexibilité d'exécution sur les processeurs GPU et Arm.

Découvrez comment déployer des microservices d'inférence NVIDIA NIM à grande échelle avec OCI Kubernetes Engine.

Pour plus d'informations sur l'exécution de l'inférence AI sur les noeuds GPU, consultez la documentation relative à l'exécution d'applications sur les noeuds GPU.

Facilitez la migration des applications avec OKE

Lorsque vous transférez vos applications vers OKE, vous pouvez :

  • Migrer les applications existantes telles quelles : aucune nouvelle architecture n'est nécessaire, soulevez-vous, déplacez-vous et partez.
  • Simplifier votre quotidien grâce à l'automatisation intégrée pour la mise à l'échelle, l'application de correctifs et les mises à niveau.
  • Simplifier la gestion de l'infrastructure, afin que votre équipe consacre moins de temps à la maintenance et plus à l'innovation.
  • Augmenter l'efficacité des ressources et optimiser les coûts grâce à des outils d'orchestration avancés.
  • Augmenter votre agilité, votre temps de disponibilité et votre résilience grâce aux régions cloud mondiales à haute disponibilité d'Oracle.
  • Renforcer la sécurité et faciliter la conformité à l'aide des certifications et contrôles d'entreprise d'Oracle.

La modernisation avec OKE vous permet d'avancer plus rapidement et en toute sécurité, tandis qu'Oracle gère les éléments complexes en arrière-plan. La migration est facilitée, vous pouvez donc vous concentrer sur ce qui compte le plus : votre entreprise.

Suivez le guide de déploiement étape par étape sur l'utilisation d'OKE, d'OCI Bastion et d'GitHub Actions pour une migration sécurisée et automatisée.

Pour plus d'informations sur les fonctionnalités et la gestion d'OKE, reportez-vous à la documentation officielle d'OKE.

Boostez le développement de microservices avec OKE

La création de microservices OKE permet à vos équipes de :

  • Développer et déployer des services indépendamment, afin que les bonnes idées soient expédiées plus rapidement.
  • Automatiser les builds et les déploiements avec les intégrations OCI pour l'intégration continue et le déploiement continu pour des mises à jour plus fluides (et des week-ends plus calmes).
  • Adapter chaque microservice à la demande pour répondre aux besoins de votre entreprise, sans plus d'allocation de ressources.
  • Moderniser votre architecture pour gagner en agilité et en résilience afin de préparer votre entreprise à l'avenir.

Avec OKE, vous obtenez les outils robustes et la sécurité d'entreprise pour lesquels Oracle est connu, ainsi que la flexibilité requise par les microservices. Changez votre façon de créer, mettre à jour et faire évoluer vos applications, avec moins de tracas et beaucoup plus de contrôle.

Pour plus d'informations sur le développement et la gestion des microservices :