Les nœuds virtuels offrent une expérience Kubernetes sans serveur, offrant une élasticité de pod fine avec des tarifs par pod. Faites évoluer vos déploiements sans prendre en compte la capacité d'un cluster, ce qui simplifie les opérations.
Les noeuds gérés sont des noeuds de processus actif créés dans votre location et gérés avec une responsabilité partagée entre vous et OCI. Elles conviennent à de nombreuses configurations et formes de calcul non prises en charge par les noeuds virtuels.
Les nœuds autogérés offrent le plus de personnalisation et de contrôle pour les configurations de calcul uniques et la configuration avancée non prises en charge par les nœuds gérés, tels que le HPC/GPU bare metal compatible RDMA pour les workloads d'IA.
Optimisez les coûts et les performances en choisissant les formes de calcul les plus appropriées parmi un large éventail d'options de machine virtuelle et bare metal, y compris les GPU NVIDIA haute puissance et les CPU AMD et Arm rentables. Prenez en charge des images multi-architectures avec Oracle Container Image Registry.
La mise à jour des nœuds de travail gérés à la demande rationalise cette tâche, éliminant ainsi la nécessité d'une mise à jour manuelle et chronophage des nœuds ou du développement de solutions personnalisées. Modifiez sans effort les propriétés du pool de noeuds, notamment les clés SSH, la taille du volume d'initialisation et les scripts cloud-init personnalisés.
Étendez et contrôlez facilement les fonctionnalités de vos clusters OKE avec un ensemble de logiciels d'extension configurables entièrement gérés. OKE gère les cycles de vie des modules, du déploiement et de la configuration initiaux aux opérations en cours, y compris les mises à niveau, l'application de correctifs, la mise à l'échelle et les modifications de configuration non simultanées.
Déclenchez une mise à niveau de votre version de Kubernetes en un clic. Les noeuds virtuels fournissent automatiquement, à la volée et en toute simplicité les mises à jour et les correctifs de sécurité de vos noeuds de travail et de l'infrastructure sous-jacente, tout en respectant la disponibilité de vos applications.
Augmentez la disponibilité des applications en utilisant des clusters qui couvrent plusieurs domaines (data centers) de disponibilité dans toute région commerciale ou dans Oracle Cloud Infrastructure (OCI) Dedicated Region. Redimensionnez les pods horizontalement et verticalement ainsi que les clusters.
Lorsque la défaillance d'un noeud est détectée, OKE provisionne automatiquement les nouveaux noeuds de processus actifs pour maintenir la disponibilité du cluster.
Les options de cordon et de purge automatisées vous permettent de supprimer les nœuds de travail en toute sécurité sans perturber vos applications.
Surveillez et sécurisez vos applications avec des outils d'observabilité d'OCI, de Datadog, d'Aqua Security, etc.
Déployez les clusters, Kubernetes, y compris les réseaux virtuels cloud sous-jacents, les passerelles Internet et les passerelles NAT en un seul clic.
Automatisez les opérations Kubernetes avec des API REST Web et une interface de ligne de commande (CLI) pour toutes les actions, y compris la création, le redimensionnement et les opérations de cluster.
OKE s'intègre de manière transparente aux services OCI, notamment Container Registry, DevOps CI/CD, Networking, Storage, etc. Grâce à OCI Service Operator for Kubernetes, vous pouvez gérer directement vos services OCI à partir de votre cluster OKE. Créez, gérez et établissez des connexions avec les ressources Autonomous Database et MySQL Database, à l'aide de l'API et des outils Kubernetes.
OKE s'appuie sur des normes ouvertes et est entièrement conforme à la plateforme Kubernetes open source en amont, ce qui vous permet d'exploiter les solutions de l'écosystème et de vous intégrer à vos outils de développement préférés tels que Argo CD, GitHub, Jenkins, etc.
Obtenez des solutions en conteneur préemballées finement adaptées pour des performances optimales sur OKE via OCI Container Marketplace.
OKE utilise un système Kubernetes open source non modifié qui est conforme aux normes de la CNCF (Cloud Native Computing Foundation) et de l'Open Container Initiative pour la portabilité des application.
Oracle Cloud Guard offre une gouvernance Kubernetes prête à l'emploi, assurant une sécurité automatisée et la conformité des bonnes pratiques lors du déploiement des ressources sur OKE. En identifiant automatiquement les problèmes de configuration, il vous permet de sécuriser et de maintenir la conformité sans effort sur vos clusters OKE.
OCI chiffre toujours les volume de blocs, les volumes d'initialisation et les sauvegardes d'un volume au repos à l'aide de l'algorithme AES (Advanced Encryption Standard) avec le chiffrement 256 bits. Vous pouvez également crypter les clés secrètes Kubernetes inactives à l'aide du service Key Management et/ou gérer le cycle de vie de vos propres clés de cryptage à l'aide d'OCI Vault.
OKE prend en charge la conformité à divers cadres réglementaires tels que HIPAA, PCI, SOC 2 et bien d'autres.
Avec les clusters personnels, vous pouvez restreindre l'accès à l'adresse API Kubernetes sur votre réseau sur site ou un hôte bastion, ce qui améliore votre posture de sécurité. Utilisez OCI Bastion pour accéder facilement aux clusters entièrement privés.
Les noeuds virtuels OKE fournissent une isolation fiable à chaque pod Kubernetes, qui ne partage aucune ressource de noyau, de mémoire ou de CPU sous-jacente. Cet isolation au niveau du pod vous permet d'exécuter des workloads non sécurisés, des applications colocatives et des données sensibles.
OKE prend en charge le groupe de sécurité réseau pour tous les composants de clusters. Un groupe de sécurité réseau est constitué d'un ensemble de règles de sécurité entrantes et sortantes qui s'appliquent aux cartes d'interface réseau virtuelles (VNIC) de votre réseau cloud virtuel (VCN). Avec NSG, vous pouvez séparer l'architecture de votre VCN des exigences en matière de sécurité de vos composants de cluster.
Contrôlez l'accès et les autorisations à l'aide du service natif OCI Identity and Access Management (IAM) et du contrôle d'accès basé sur les rôles de Kubernetes. Vous pouvez également configurer l'authentification à plusieurs facteurs d'OCI IAM L'identité de la charge globale OKE vous permet d'établir une authentification sécurisée au niveau du pod pour les API et les services OCI. En implémentant le principe du moindre privilège pour les charges globales, vous pouvez vérifier que seuls les utilisateurs peuvent accéder aux ressources nécessaires.
OKE prend en charge l'analyse, la signature et la vérification des images de conteneur afin que vous puissiez protéger vos images d'application contre de graves vulnérabilités de sécurité et préserver l'intégrité des images de conteneur lors du déploiement.
Tous les événements d'audit Kubernetes sont disponibles via le service OCI Audit.
OKE permet de déployer facilement les quantités massives de ressources de GPU et de CPU nécessaires à l'entraînement de modèles sophistiqués et aux workloads d'inférence hautement réactifs. Avec les nœuds autogérés OKE, vous pouvez exploiter la puissance des GPU NVIDIA H100 et de la mise en réseau RDMA à faible latence d'OCI pour des performances d'IA maximales.
Grâce à la fonctionnalité intégrée d'outil de redimensionnement automatique de pod horizontal (HPA) de Kubernetes open source, OKE permet à vos applications alimentées par l'IA de croître et de diminuer rapidement à mesure que la demande des utilisateurs fluctue. Il n'est pas nécessaire de surprovisionner et de payer les ressources inutilisées lorsque OKE peut redimensionner automatiquement les ressources selon les besoins.
Utilisez des nœuds autogérés OKE pour exploiter la puissance de l'infrastructure de supercluster OCI, conçue pour évoluer jusqu'à des dizaines de milliers de GPU NVIDIA sans compromettre les performances. Le réseau de cluster d'OCI utilise RDMA sur Ethernet convergé (RoCE) sur les cartes d'interface réseau RDMA NVIDIA ConnectX pour prendre en charge les workloads à haut débit et sensibles à la latence.