Oracle Cloud Infrastructure Kubernetes Engine (OKE) est un service Kubernetes géré qui simplifie le développement, le déploiement et l'exploitation de workloads en conteneur à grande échelle. OKE vous permet de créer, de gérer et d'utiliser rapidement des clusters Kubernetes qui exploitent les services de calcul, de réseau et de stockage OCI sous-jacents.
Vous devez utiliser OKE lorsque vous souhaitez tirer parti de Kubernetes pour déployer et gérer vos applications de conteneur basées sur Kubernetes. Cela vous permet de combiner l'orchestration de conteneurs de qualité production de Kubernetes standard en amont avec le contrôle, la sécurité et les performances élevées et prévisibles d'OCI.
OKE est pris en charge dans toutes les régions, comme indiqué dans les régions et domaines de disponibilité.
OKE prend en charge la conformité à de nombreuses normes et réglementations du secteur, dont FedRAMP High, ISO/IEC 27001, PCI DSS et SOC1/2/3. Pour plus d'informations, reportez-vous à la page sur la conformité de l'infrastructure.
Non, chaque fois que vous créez un cluster Kubernetes avec OKE, le service crée automatiquement un plan de contrôle Kubernetes hautement disponible. Le service gère également les tâches de gestion en cours liées au plan de contrôle, telles que les mises à niveau de version de Kubernetes, en toute transparence et sans interruption.
Oui, toutes les versions de Kubernetes publiées par OKE sont certifiées selon le programme de conformité de la Cloud Native Computing Foundation (CNCF).
Lorsque vous créez un cluster OKE, OKE crée et gère automatiquement plusieurs nœuds de plan de contrôle Kubernetes répartis sur les domaines de pannes et les domaines de disponibilité (data centers logiques). Cela permet de garantir la haute disponibilité du plan de contrôle Kubernetes géré. Les opérations de plan de contrôle, telles que la mise à niveau vers des versions plus récentes de Kubernetes, peuvent être effectuées sans interruption de service. En outre, lorsque vous provisionnez des nœuds de processus actif, vous pouvez utiliser une configuration de placement pour contrôler le domaine de pannes et le domaine de disponibilité dans lesquels ils sont créés. Les nœuds sont automatiquement mis en ligne avec des libellés, que vous pouvez utiliser pour planifier vos workloads afin qu'elles soient robustes et hautement disponibles.
Oui, les clusters OKE sont activés avec le contrôle d'accès basé sur les rôles Kubernetes. Oracle Identity and Access Management (IAM) intègre également Kubernetes géré. Les utilisateurs disposent donc de puissants contrôles sur l’accès à leurs clusters.
Oui, vous pouvez déployer un cluster Kubernetes géré dans un VCN existant, ce qui vous permet un plus grand degré de contrôle sur les listes de sécurité et l'utilisation des sous-réseaux sous-jacents.
Oui, avec OKE, vos clusters Kubernetes sont intégrés à votre VCN. Les noeuds de travail du cluster, les équilibreurs de charge et l'adresse de l'API de Kubernetes font partie d'un sous-réseau privé ou public de votre VCN. Les règles de routage et de pare-feux standard du VCN contrôlent l'accès à l'adresse de l'API de Kubernetes et la rendent accessible à partir d'un réseau d'entreprise uniquement, via un bastion ou par des services de plateformes spécifiques.
Lorsque vous créez un cluster avec Kubernetes Engine, vous devez indiquer le type de cluster comme suit :
Les clusters basiques conviennent si vous êtes prêt à prendre plus de responsabilités de gestion et ne nécessitent pas les fonctionnalités avancées des clusters OKE avancés. Si vous avez besoin de fonctionnalités de gestion plus avancées à l'avenir, vous pouvez facilement passer aux clusters OKE avancés.
OKE facture des frais horaires de 0,10 USD par cluster, avec un contrat de niveau de service. En outre, vous serez facturé en fonction des services OCI créés via OKE : calcul, stockage, mise en réseau et autres types de ressources d'infrastructure.
Lorsque vous choisissez des nœuds virtuels pour les nœuds de processus actif, des frais horaires supplémentaires de 0,015 USD par nœud sont facturés en fonction de leur utilisation lors de l'exécution.
Oui, Vous pouvez déployer un cluster Kubernetes géré avec des nœuds de processus actif Bare Metal. Vous pouvez également créer un cluster avec des machines virtuelles et Bare Metal, puis cibler vos workloads Kubernetes en conséquence.
Lors de la configuration d'un cluster OKE, vous pouvez affecter une paire de clés SSH publique/privée aux nœuds gérés et autogérés. Vous pouvez ainsi utiliser une paire de clés SSH pour accéder à vos nœuds de travail. Toutefois, notez que les nœuds virtuels OKE ne sont pas accessibles via une paire de clés SSH, car ils sont entièrement gérés par OKE.
Il est possible de combiner des nœuds gérés et autogérés au sein d'un même cluster OKE. Toutefois, les nœuds virtuels ne peuvent pas être mélangés avec d'autres types de nœud dans un cluster OKE.
Les nœuds virtuels OKE ne disposent pas encore de capacités de stockage persistant. Cependant, il est prévu d'introduire la prise en charge de l'attachement de volumes persistants gérés par OCI Block Storage et OCI File Storage. Si votre application Kubernetes nécessite un stockage persistant, il est conseillé d'utiliser les nœuds gérés OKE.
Les nœuds virtuels sont compatibles avec les formes de calcul E3, E4 et A1, et de nouvelles formes sont régulièrement ajoutées. Si vous avez besoin d'une forme que les nœuds virtuels ne proposent pas actuellement pour vos workloads, vous pouvez utiliser les nœuds gérés à la place.
Les packages logiciels suivants sont disponibles avec des modules complémentaires pour la gestion du cycle de vie. De nouveaux packages logiciels sont ajoutés régulièrement.