Kubernetes Engine (OKE)

Simplifiez les opérations d'entreprise de Kubernetes à grande échelle. Déployez et gérez facilement des workloads gourmands en ressources telles que l'IA avec une mise à l'échelle, des correctifs et des mises à niveau automatiques.

Oracle Cloud Infrastructure : un leader en matière de rapport prix-performances pour Kubernetes

Le magazine CIO reconnaît OCI pour son expertise dans la fourniture de solutions Kubernetes de pointe, prenant en charge le développement d'applications évolutif et efficace.

Pourquoi choisir OKE ?

  • Rapport performances-prix

    OKE est le service Kubernetes le moins coûteux parmi tous les hyperscalers, en particulier sans serveur.

  • Mise à l’échelle automatique

    OKE ajuste automatiquement les ressources de calcul en fonction de la demande, ce qui peut réduire vos coûts.

  • Efficacité

    Les GPU peuvent être rares, mais la planification des travaux OKE facilite l'optimisation de l'utilisation des ressources.

  • Portabilité

    OKE est cohérent entre les clouds et on-premises, ce qui permet une portabilité et évite toute dépendance vis-à-vis d'un fournisseur.

  • Simplicité

    OKE réduit le temps et les coûts nécessaires pour gérer les complexités de l'infrastructure Kubernetes.

  • Fiabilité

    Les mises à niveau automatiques et l'application de correctifs de sécurité améliorent la fiabilité du plan de contrôle et des nœuds de processus actif.

Cas d'utilisation d'OKE

OKE optimise les services d'IA d'OCI

Kubernetes est la plateforme de référence pour déployer les workloads d'IA. OKE optimise les services d'IA d'Oracle Cloud Infrastructure (OCI).

Création de modèles d'IA

– La phase de construction initiale d'un projet d'IA implique de définir le problème et de préparer les données pour créer des modèles.

– Les clusters Kubernetes peuvent améliorer considérablement l'efficacité en accordant un accès partagé à des ressources GPU coûteuses et souvent limitées, tout en fournissant des environnements sécurisés et gérés de manière centralisée.

Kubeflow, un projet open source lié à Kubernetes, fournit un cadre complet conçu pour rationaliser la création, la formation et le déploiement de modèles.

OKE pour la création de modèles d'IA

OKE s'appuie sur OCI, offrant une pile complète d'infrastructure haute performance conçue pour les workloads d'IA/ML tels que :

– La gamme complète des GPU NVIDIA, y compris H100, A100, A10, etc.

– Réseaux RDMA ultra-rapides

À l'aide de nœuds autogérés OKE, vous pouvez exécuter des workloads de création d'IA/de machine learning sur vos clusters Kubernetes.

OKE optimise les services d'IA d'OCI

Kubernetes est la plateforme de référence pour déployer les workloads d'IA. OKE optimise les services d'IA OCI.

Entraînement de modèles d'IA

– Dans l'entraînement de modèles, les data scientists sélectionnent un algorithme et lancent des travaux d'entraînement à l'aide de données préparées. Cette étape nécessite des systèmes de planification sophistiqués pour gérer efficacement les travaux.

– Les projets Kubernetes tels que Volcano et Kueue aident à gérer ces exigences et à utiliser efficacement les ressources de calcul.

– Un entraînement distribué à grande échelle nécessite des communications inter-nœuds à faible latence dans le cluster. C'est là qu'un réseau ultra-rapide spécialisé avec accès direct à la mémoire à distance (RDMA) est nécessaire. Cela permet de déplacer les données directement vers ou depuis la mémoire d'une application, en contournant la CPU pour réduire la latence.

OKE pour l'entraînement de modèles d'IA

OKE s'appuie sur OCI, offrant une pile complète d'infrastructure haute performance conçue pour les workloads d'IA/ML tels que :

– La gamme complète des GPU NVIDIA, y compris H100, A100, A10, etc.

– Réseaux RDMA à faible latence et ultra-haute performance

À l'aide de nœuds autogérés OKE, vous pouvez exécuter un entraînement IA/ML sur vos clusters Kubernetes.

OKE optimise les services d'IA d'OCI

Kubernetes est la plateforme de référence pour déployer les workloads d'IA. OKE optimise les services d'IA OCI.

Inférence de modèles IA (service)

– L'inférence de modèles d'IA est l'endroit où Kubernetes prospère vraiment. Kubernetes peut automatiquement augmenter ou réduire le nombre de pods d'inférence en fonction de la demande, garantissant ainsi une utilisation efficace des ressources.

– Kubernetes fournit une gestion sophistiquée des ressources, y compris la possibilité de spécifier des limites d'UC et de mémoire pour les conteneurs.

OKE pour l'inférence de modèles IA

OKE est conçu avec la résilience au cœur, en tirant parti du redimensionnement automatique de pod intégré de Kubernetes pour faire évoluer les nœuds de processus actif en fonction de l'utilisation. Les nœuds de processus actifs peuvent être répartis dans plusieurs domaines de pannes et/ou de disponibilité à des fins de haute disponibilité.

Les nœuds virtuels OKE offrent une expérience Kubernetes sans serveur. Ils doivent uniquement évoluer au niveau du pod, sans jamais redimensionner les nœuds de processus actif. Cela permet une mise à l'échelle plus rapide et une gestion plus économique puisque les frais de service sont basés uniquement sur les pods utilisés.

Les nœuds virtuels sont bien adaptés aux workloads d'inférence et peuvent utiliser des processeurs Arm, qui deviennent une option beaucoup plus attrayante pour l'inférence d'IA, en particulier lorsque les GPU sont insuffisants.

Les applications existantes peuvent tirer parti de la migration vers OCI et OKE

OKE offre un coût total de possession inférieur et un délai de mise sur le marché amélioré.

OKE simplifie les opérations à grande échelle de la manière suivante :

  • Ascenseur et changement ; il n'y a pas besoin de modifier l'architecture
  • Réduction de la charge opérationnelle grâce à l'automatisation
  • Économie de temps sur la gestion de l'infrastructure
  • Améliorez l'utilisation et l'efficacité des ressources
  • Améliorez l'agilité, la flexibilité, la disponibilité et la résilience
  • Réduisez le risque de conformité et renforcez votre sécurité

Les microservices offrent de nombreux avantages par rapport aux applications monolithiques

Pérennisez vos applications grâce à une architecture de microservices centrée sur OKE.

  • Modernisation de l'architecture
  • Accélération de l'innovation
  • Automatisation du déploiement
  • Développement parallèle
  • Évolutivité facilitée
  • Fiabilité supérieure
  • Plus de flexibilité
  • Agilité renforcée

« De nombreux services d'IA OCI sont exécutés sur OCI Kubernetes Engine (OKE), le service Kubernetes géré d'Oracle. En réalité, notre équipe d'ingénierie a connu une amélioration x10 des performances avec OCI Vision en passant d'une plateforme antérieure à OKE. C'est efficace à ce point. »

Jun Qian

Vice-président des services OCI AI, Oracle Cloud Infrastructure

Les clients innovent avec les services natifs du cloud sur OCI

Découvrir d’autres témoignages clients

Lancez-vous avec Kubernetes Engine

  • Déployez une application conteneurisée simple à l'aide de nœuds gérés OKE

    Déployez des microservices simples packagés en tant que conteneurs Docker et communiquez via une API commune.


  • Déployez un cluster Kubernetes avec des nœuds virtuels

    Découvrez les bonnes pratiques pour déployer un pool de nœuds virtuels sans serveur à l'aide de l'architecture de référence et d'automatisation Terraform fournie.


  • Découvrez des modèles pour optimiser vos ressources Kubernetes

    Découvrez comment Tryg Insurance a réduit ses coûts de 50 % grâce à la redistribution dynamique.


10 septembre 2024 

Simplifiez les opérations avec les modules complémentaires OCI Kubernetes Engine (OKE)

Mickey Boxell, Gestion des produits

Les modules complémentaires OKE permettent de décharger la gestion des logiciels opérationnels de clusters vers Oracle. Ils offrent également la flexibilité de personnaliser ou de désactiver complètement le logiciel opérationnel à défaut de Kubernetes pour apporter des logiciels équivalents. Nous sommes heureux d'annoncer la sortie de quatre modules supplémentaires : l'outil de redimensionnement automatique de cluster Kubernetes, le maillage de service Istio, le contrôleur d'entrée natif OCI et le serveur de mesures Kubernetes, ainsi que la prise en charge de nouveaux arguments de configuration pour fournir un meilleur contrôle sur les modules déployés vers vos clusters.

Lire la suite de l'article

Ressources sur Kubernetes

Ateliers

Qu’est-ce que Kubernetes ?

Kubernetes est une plate-forme open source pour la gestion et la mise à l’échelle de clusters d’applications et de services en conteneur.

Produits liés à Kubernetes

Registry

Un service sécurisé, basé sur des normes, pour travailler avec des images de conteneurs

Fonctions

Plate-forme sans serveur pilotée par des événements et des API

DevOps CI/CD

Automatisez la livraison des applications dans la création, les tests et les déploiements

Resource Manager

Automatisation de l’infrastructure Cloud basée sur Terraform

Lancez-vous avec OKE

Oracle Cloud Free Tier

Obtenez 30 jours d’accès aux outils CI/CD, à la gestion de Terraform, à la télémétrie, et plus encore.

Centre d'architecture

Explorez les architectures de référence déployables et les manuels stratégiques.

Services Oracle Cloud natifs

Renforcez le développement d’applications avec Kubernetes, Docker, sans serveur, API, etc.

Nous contacter

Contactez nos associés pour les ventes, le support et d’autres questions.