Le service Instances de conteneur est idéal pour exploiter des conteneurs isolés qui ne nécessitent pas de plate-forme d'orchestration de conteneurs, telle que Kubernetes. Il convient aux cas d'utilisation suivants : API, applications Web, tâches CI/CD, tâches d'automatisation, traitement des données/médias, environnements de développement/test, etc. Cependant, il ne remplace pas les plates-formes d'orchestration de conteneurs. Pour les cas d'emploi nécessitant une orchestration de conteneur, utilisez OKE.
Lorsque vous exécutez des conteneurs sur des instances de conteneur, vous n'avez pas besoin de provisionner ni de gérer vous-même des machines virtuelles ou des serveurs. Vous pouvez simplement spécifier les images de conteneurs et la configuration de lancement pour exécuter les conteneurs sur les instances de conteneur. OCI gère le calcul sous-jacent nécessaire à l'exécution de vos conteneurs. Si vous exécutez des conteneurs sur une machine virtuelle, vous êtes responsable de la gestion du serveur, ainsi que de l'installation et de la maintenance de l'exécution du conteneur sur la machine virtuelle.
Avec les instances de conteneur OCI, vous ne payez que les ressources d'infrastructure utilisées par les instances de conteneur. Le prix des ressources CPU et mémoire allouées à une instance de conteneur est le même que le prix des instances de calcul OCI pour la forme choisie. Il n'y a pas de frais supplémentaires pour l'utilisation des instances de conteneur. Les heures partielles d'OCPU et de gigaoctet (mémoire) consommées sont facturées comme des heures partielles avec un minimum d'une minute et l'utilisation est agrégée par la seconde. Chaque instance de conteneur obtient 15 Go de stockage éphémère par défaut, sans frais supplémentaires. Pour plus de détails, reportez-vous à la page de tarification des instances de conteneur.
Lorsque vous créez une instance de conteneur, vous pouvez sélectionner la forme de calcul sous-jacente et allouer jusqu'aux ressources maximales de CPU et de mémoire fournies par la forme. Par exemple, si vous sélectionnez une forme E4 ou E3 Flex, vous pouvez allouer jusqu'à 64 cœurs (128 vCPU) et 1024 Go de mémoire à votre instance de conteneur.
Oui. Lors de la création d'une instance de conteneur, vous pouvez spécifier un ou plusieurs conteneurs. Vous pouvez spécifier l'image du conteneur et, éventuellement, les variables d'environnement, les limites de ressources, les options de démarrage, etc. pour chaque conteneur.
Une instance de conteneur doit généralement exécuter une seule application. Cependant, votre conteneur d'application peut nécessiter des conteneurs de prise en charge, tels que le conteneur de journalisation ou le conteneur de base de données, à des fins de développement. Vous pouvez choisir d'exécuter plusieurs conteneurs de la même application sur une seule instance de conteneur. Les conteneurs exécutés sur la même instance de conteneur partageront les ressources d'UC/de mémoire, le réseau local et le stockage éphémère. Vous pouvez choisir d'appliquer des limites de ressources CPU/mémoire au niveau du conteneur pour restreindre la quantité de ressources consommées par chaque conteneur.
Tous les registres de conteneurs compatibles avec Open Container Initiative, y compris OCI Container Registry, sont pris en charge.
Par défaut, chaque instance de conteneur obtient 15 Go de stockage éphémère. Des options d'attachement de volumes persistants avec OCI Block Storage et OCI File Storage (FSS) seront bientôt disponibles. Les instances de conteneur peuvent également utiliser des bases de données externes pour stocker des données qui persistent après l'arrêt de l'instance de conteneur.
Une instance de conteneur sera inactive dès que tous les conteneurs de cette instance s'arrêteront si la stratégie de redémarrage automatique n'est pas activée. Cela signifie que les instances de conteneur utilisées pour les workloads éphémères, telles que les pipelines d'intégration continue et de déploiement continu, les tâches d'automatisation pour les opérations cloud, le traitement des données/médias, etc., s'arrêteront une fois le workload exécutée. Les clients ne seront facturés que pour la durée du travail.
Pour les instances de conteneur devant rester actives, telles que celles utilisées pour les applications Web, les clients peuvent configurer des stratégies de redémarrage afin de redémarrer les conteneurs au sein d'une instance de conteneur en cas de panne, en veillant à ce que l'application soit toujours active.