Aucun résultat trouvé

Votre recherche n'a donné aucun résultat.

Nous vous suggérons d’essayer ce qui suit pour trouver ce que vous recherchez :

  • Vérifiez l’orthographe de votre recherche par mot clé.
  • Utilisez des synonymes pour le mot clé que vous avez saisi, par exemple, essayez « application » au lieu de « logiciel ».
  • Essayez l’une des recherches les plus utilisées ci-dessous.
  • Lancez une nouvelle recherche.
Questions fréquentes

Kubernetes

Souvent décrit comme le « système d’exploitation du cloud, » Kubernetes est une plateforme open source de gestion de clusters d’applications et de services en conteneur. Développé en 2014 par Joe Beda, Brendan Burns et Craig McLuckie, ingénieurs chez Google et publié en open source peu de temps après, Kubernetes est rapidement devenu un écosystème natif cloud florissant à part entière. Aujourd’hui, Kubernetes, qui signifie « barreur » ou « pilote » en grec ancien, est géré par la Cloud Native Computing Foundation (CNCF), une branche de la Linux Foundation.

Kubernetes a été le premier projet de la CNCF à être le sujet d’une formation diplômante, et il est devenu l’un des projets open source à la croissance la plus rapide de l’histoire. Kubernetes compte désormais plus de 2 300 contributeurs et a été largement adopté par les entreprises, grandes et petites, dont la moitié figurent au classement Fortune 100.

Qu’est-ce que KubeCon ?

KubeCon est la conférence annuelle des développeurs et des utilisateurs de Kubernetes. Depuis la première édition en 2015, qui rassemblait 500 participants, la KubeCon est devenue un événement important pour la communauté native cloud. En 2019, l’édition de KubeCon à San Diego, en Californie, a attiré 12 000 développeurs et ingénieurs en fiabilité de site qui célébraient l’écosystème open source qui voyait le jour autour de la plateforme d’orchestration cloud Kubernetes.

Que sont les conteneurs ?

Alors que les développeurs déploient de plus en plus de logiciels pour un ensemble diversifié d’environnements informatiques avec différents clouds, environnements de test, ordinateurs portables, terminaux, systèmes d’exploitation et plateformes, la question de la fiabilité des logiciels revêt une importance capitale. C’est là que les conteneurs entrent en jeu : Ils regroupent une application avec l’ensemble de son environnement d’exécution. En ce sens, les conteneurs sont une forme de virtualisation, car ils fournissent une « bulle » dans laquelle l’application peut s’exécuter en incluant les bibliothèques, dépendances et systèmes d’exploitation appropriés. Mais les conteneurs sont plus petits que les machines virtuelles car ils ne contiennent que les ressources dont l’application a besoin, et rien de plus.

Kubernetes ou Docker

Si les conteneurs Linux existent depuis 2008, ils n’ont pas été célèbres avant l’émergence des conteneurs Docker en 2013. De même, l’explosion de l’intérêt pour le déploiement d’applications en conteneur (applications contenant tout ce dont elles ont besoin pour s’exécuter) a en fin de compte créé un nouveau problème : la gestion de milliers de conteneurs. Kubernetes orchestre automatiquement le cycle de vie du conteneur, en répartissant les conteneurs sur l’ensemble de l’infrastructure d’hébergement. Kubernetes augmente ou diminue les ressources, selon la demande. Il provisionne, planifie, supprime et surveille l’intégrité des conteneurs.

Quels sont les composants de Kubernetes ?

Les composants clés de Kubernetes sont les clusters, les nœuds et le plan de contrôle. Les clusters contiennent des nœuds. Chaque nœud comprend un ensemble d’au moins une machine de travail. Les nœuds hébergent des pods contenant des éléments de l’application déployée. Le plan de contrôle gère les nœuds et les pods du cluster, souvent sur de nombreux ordinateurs, pour une haute disponibilité.

Quels sont les composants de Kubernetes ?
  • Le plan de contrôle contient les éléments suivants :
  • Serveur d’API Kubernetes : fournit l’interface de programmation (API) pour contrôler Kubernetes
  • etcd : magasin de valeur-clés pour les données de cluster
  • Ordonnanceur Kubernetes : associe les nouveaux pods aux nœuds disponibles
  • Gestionnaire de contrôleurs Kubernetes : exécute divers processus pour gérer la défaillance des nœuds, contrôler la réplication, joindre les services et les pods via des points de terminaison et contrôler les comptes et les jetons d’accès
  • Gestionnaire-contrôleur cloud : aide à gérer les API de fournisseurs coud spécifiques autour d’aspects tels que les routes d’infrastructure spécifiques et l’équilibrage de charge

Les composants de nœud sont les suivants :

  • kubelet : un agent qui vérifie que les conteneurs s’exécutent dans un pod
  • Proxy réseau Kubernetes : gère les règles du réseau
  • Docker, containerd ou autre type d’exécution de conteneur

Quels sont les avantages de Kubernetes ?

Grâce aux conteneurs, vous pouvez être sûr que vos applications sont fournies avec tout ce dont elles ont besoin pour s’exécuter. Mais à mesure que vous ajoutez des conteneurs, qui contiennent souvent des microservices, vous pouvez les gérer et les distribuer automatiquement grâce à Kubernetes.

Avec Kubernetes, les organisations peuvent effectuer les opérations suivantes :

Mettre à l’échelle automatiquement Augmentez ou diminuez les déploiements, selon la demande.
Découvrir les services Trouvez des services en conteneur grâce au DNS ou à l’adresse IP.
Équilibrer les charges Stabiliser le déploiement en distribuant le trafic réseau.
Gérer le stockage Choisissez un stockage local ou cloud.
Contrôler les versions Choisissez les types de conteneurs que vous souhaitez exécuter et ceux à remplacer à l’aide d’une nouvelle image ou de nouvelles ressources de conteneur.
Gérer la sécurité Mettez à jour en toute sécurité les mots de passe, les jetons OAuth et les clés SSH associés à des images de conteneur spécifiques.

Quels sont les défis liés à l’utilisation de Kubernetes ?

Bien que Kubernetes soit hautement composable et puisse prendre en charge tout type d’application, il peut être difficile à comprendre et à utiliser. Kubernetes n’est pas toujours la bonne solution pour une charge de travail donnée, comme l’ont indiqué plusieurs membres de la CNCF. C’est pourquoi l’écosystème Kubernetes contient un certain nombre d’outils cloud natifs associés que les organisations ont créés pour résoudre des problèmes liés à des charge de travail spécifiques.

Kubernetes déploie des conteneurs, pas du code source, et ne crée pas d’applications. Pour la journalisation, le middleware, la surveillance, la configuration, la CI/CD et de nombreuses autres activités de production, vous aurez besoin d’outils supplémentaires. Cela dit, Kubernetes est extensible et s’est révélé adapté à une kyrielle de cas d’utilisation, d’avions à réaction au machine learning. En fait, les fournisseurs de cloud, notamment Oracle, Google, Amazon Web Services, et autres, ont utilisé l’extensibilité de Kubernetes pour créer des Kubernetes gérés, qui sont des services qui réduisent la complexité et augmentent la productivité des développeurs.

Qu’est-ce que Kubernetes géré ?

Oracle Cloud Infrastructure Container Engine for Kubernetes est un service géré convivial pour les développeurs que vous pouvez utiliser pour déployer vos applications en conteneur dans le cloud. Utilisez Container Engine for Kubernetes lorsque votre équipe de développement souhaite créer, déployer et gérer en toute fiabilité des applications cloud natives. Vous spécifiez les ressources de calcul dont vos applications ont besoin et Container Engine for Kubernetes les provisionne sur Oracle Cloud Infrastructure dans une location d’infrastructure cloud existante.

Bien que vous n’ayez pas besoin d’utiliser un service Kubernetes géré sur Oracle Cloud Infrastructure, Container Engine for Kubernetes constitue un moyen simple d’exécuter des clusters hautement disponibles avec le contrôle, la sécurité et les performances prévisibles d’Oracle Cloud Infrastructure. Container Engine for Kubernetes prend en charge à la fois le bare metal et les machines virtuelles en tant que nœuds, il est certifié conforme par le CNCF. Vous bénéficiez également de toutes les mises à jour Kubernetes et conservez la compatibilité avec l’écosystème CNCF sans travail supplémentaire de votre part.

AgroScout

AgroScout relève un défi informatique gigantesque et permanent : aider les agriculteurs à numériser des millions d’images capturées dans leurs champs pour décider si une feuille donnée est saine. Si elle ne l’est pas, les algorithmes d’apprentissage automatique intégrés au système de dépistage autonome de l’entreprise déterminent si le coupable est une maladie ou un ravageur connu, ou si une nouvelle menace doit être identifiée.

Le PDG d’AgroScout, Simcha Shore, s’est tourné vers Oracle Cloud pour développer et exécuter les applications et les algorithmes du système. Pour que son application puisse collecter, gérer et télécharger des images dans le cloud, AgroScout utilise les services Oracle Cloud Native, notamment Container Engine for Kubernetes et Oracle Cloud Infrastructure Registry. Les mises à jour d’application qui prenaient auparavant 24 heures avec un fournisseur cloud précédent sont désormais effectuées en quelques minutes. L’apprentissage automatique d’AgroScout s’appuie sur les instances GPU d’Oracle Cloud Infrastructure pour offrir la vitesse et les performances exigées par les charges de travail d’apprentissage automatique.

CERN

L’Organisation européenne pour la recherche nucléaire, basée à Genève, connue sous le nom de CERN, possède le plus grand laboratoire de physique des particules au monde. Open Days est l’un de ses plus grands événements et le système de réservation était hébergé intégralement sur Oracle Cloud avec les services natifs Oracle Cloud et Oracle Autonomous Transaction Processing.

L’écosystème et la communauté Kubernetes

Oracle est membre Platine de la Cloud Native Computing Foundation (CNCF), une communauté open source qui soutient plusieurs dizaines de projets de développement logiciel organisés par niveau de maturité. Les divers projet (Kubernetes, Prometheus, Envoy, CoreDNS, containerd, Fluentd, Jaeger, Vitess, TUF et Helm) sont des outils précieux pour tous les aspects du développement natif du cloud.

Comment démarrer avec Kubernetes

Kubernetes dispose d’un vaste écosystème de projets de soutien qui se sont développés autour. Cette diversité peut être intimidante et rechercher des réponses à des questions simples peut s’apparenter à rechercher une aiguille dans une botte de foin. Mais les premières étapes de ce parcours sont simples et permettent d’explorer des concepts avancés en fonction de vos besoins. Découvrez comment :

  • Configurer un environnement de développement local avec Docker et Kubernetes
  • Créer un microservice Java simple avec Helidon
  • Créer le microservice dans une image de conteneur avec Docker
  • Déployer le microservice sur un cluster Kubernetes local
  • Faire évoluer le microservice à la hausse ou à la baisse sur le cluster

 

Introduction à Kubernetes sur OCI