Simplifiez les opérations d'entreprise de Kubernetes à grande échelle. Déployez et gérez facilement des workloads gourmands en ressources telles que l'IA avec une mise à l'échelle, des correctifs et des mises à niveau automatiques.
Le magazine CIO reconnaît OCI pour son expertise dans la fourniture de solutions Kubernetes de pointe, prenant en charge le développement d'applications évolutif et efficace.
OKE est le service Kubernetes le moins coûteux parmi tous les hyperscalers, en particulier sans serveur.
OKE ajuste automatiquement les ressources de calcul en fonction de la demande, ce qui peut réduire vos coûts.
Les GPU peuvent être rares, mais la planification des travaux OKE facilite l'optimisation de l'utilisation des ressources.
OKE est cohérent entre les clouds et on-premises, ce qui permet une portabilité et évite toute dépendance vis-à-vis d'un fournisseur.
OKE réduit le temps et les coûts nécessaires pour gérer les complexités de l'infrastructure Kubernetes.
Les mises à niveau automatiques et l'application de correctifs de sécurité améliorent la fiabilité du plan de contrôle et des nœuds de processus actif.
Kubernetes est la plateforme de référence pour déployer les workloads d'IA. OKE optimise les services d'IA d'Oracle Cloud Infrastructure (OCI).
– La phase de construction initiale d'un projet d'IA implique de définir le problème et de préparer les données pour créer des modèles.
– Les clusters Kubernetes peuvent améliorer considérablement l'efficacité en accordant un accès partagé à des ressources GPU coûteuses et souvent limitées, tout en fournissant des environnements sécurisés et gérés de manière centralisée.
– Kubeflow, un projet open source lié à Kubernetes, fournit un cadre complet conçu pour rationaliser la création, la formation et le déploiement de modèles.
OKE s'appuie sur OCI, offrant une pile complète d'infrastructure haute performance conçue pour les workloads d'IA/ML tels que :
– La gamme complète des GPU NVIDIA, y compris H100, A100, A10, etc.
– Réseaux RDMA ultra-rapides
À l'aide de nœuds autogérés OKE, vous pouvez exécuter des workloads de création d'IA/de machine learning sur vos clusters Kubernetes.
Kubernetes est la plateforme de référence pour déployer les workloads d'IA. OKE optimise les services d'IA OCI.
– Dans l'entraînement de modèles, les data scientists sélectionnent un algorithme et lancent des travaux d'entraînement à l'aide de données préparées. Cette étape nécessite des systèmes de planification sophistiqués pour gérer efficacement les travaux.
– Les projets Kubernetes tels que Volcano et Kueue aident à gérer ces exigences et à utiliser efficacement les ressources de calcul.
– Un entraînement distribué à grande échelle nécessite des communications inter-nœuds à faible latence dans le cluster. C'est là qu'un réseau ultra-rapide spécialisé avec accès direct à la mémoire à distance (RDMA) est nécessaire. Cela permet de déplacer les données directement vers ou depuis la mémoire d'une application, en contournant la CPU pour réduire la latence.
OKE s'appuie sur OCI, offrant une pile complète d'infrastructure haute performance conçue pour les workloads d'IA/ML tels que :
– La gamme complète des GPU NVIDIA, y compris H100, A100, A10, etc.
– Réseaux RDMA à faible latence et ultra-haute performance
À l'aide de nœuds autogérés OKE, vous pouvez exécuter un entraînement IA/ML sur vos clusters Kubernetes.
Kubernetes est la plateforme de référence pour déployer les workloads d'IA. OKE optimise les services d'IA OCI.
– L'inférence de modèles d'IA est l'endroit où Kubernetes prospère vraiment. Kubernetes peut automatiquement augmenter ou réduire le nombre de pods d'inférence en fonction de la demande, garantissant ainsi une utilisation efficace des ressources.
– Kubernetes fournit une gestion sophistiquée des ressources, y compris la possibilité de spécifier des limites d'UC et de mémoire pour les conteneurs.
OKE est conçu avec la résilience au cœur, en tirant parti du redimensionnement automatique de pod intégré de Kubernetes pour faire évoluer les nœuds de processus actif en fonction de l'utilisation. Les nœuds de processus actifs peuvent être répartis dans plusieurs domaines de pannes et/ou de disponibilité à des fins de haute disponibilité.
Les nœuds virtuels OKE offrent une expérience Kubernetes sans serveur. Ils doivent uniquement évoluer au niveau du pod, sans jamais redimensionner les nœuds de processus actif. Cela permet une mise à l'échelle plus rapide et une gestion plus économique puisque les frais de service sont basés uniquement sur les pods utilisés.
Les nœuds virtuels sont bien adaptés aux workloads d'inférence et peuvent utiliser des processeurs Arm, qui deviennent une option beaucoup plus attrayante pour l'inférence d'IA, en particulier lorsque les GPU sont insuffisants.
OKE offre un coût total de possession inférieur et un délai de mise sur le marché amélioré.
OKE simplifie les opérations à grande échelle de la manière suivante :
Pérennisez vos applications grâce à une architecture de microservices centrée sur OKE.
« De nombreux services d'IA OCI sont exécutés sur OCI Kubernetes Engine (OKE), le service Kubernetes géré d'Oracle. En réalité, notre équipe d'ingénierie a connu une amélioration x10 des performances avec OCI Vision en passant d'une plateforme antérieure à OKE. C'est efficace à ce point. »
Vice-président des services OCI AI, Oracle Cloud Infrastructure
Déployez des microservices simples packagés en tant que conteneurs Docker et communiquez via une API commune.
Découvrez les bonnes pratiques pour déployer un pool de nœuds virtuels sans serveur à l'aide de l'architecture de référence et d'automatisation Terraform fournie.
Découvrez comment Tryg Insurance a réduit ses coûts de 50 % grâce à la redistribution dynamique.
Mickey Boxell, Gestion des produits
Les modules complémentaires OKE permettent de décharger la gestion des logiciels opérationnels de clusters vers Oracle. Ils offrent également la flexibilité de personnaliser ou de désactiver complètement le logiciel opérationnel à défaut de Kubernetes pour apporter des logiciels équivalents. Nous sommes heureux d'annoncer la sortie de quatre modules supplémentaires : l'outil de redimensionnement automatique de cluster Kubernetes, le maillage de service Istio, le contrôleur d'entrée natif OCI et le serveur de mesures Kubernetes, ainsi que la prise en charge de nouveaux arguments de configuration pour fournir un meilleur contrôle sur les modules déployés vers vos clusters.
Lire la suite de l'articleKubernetes est une plate-forme open source pour la gestion et la mise à l’échelle de clusters d’applications et de services en conteneur.
Kubernetes est une plate-forme open source pour la gestion et la mise à l’échelle de clusters d’applications et de services en conteneur.
Obtenez 30 jours d’accès aux outils CI/CD, à la gestion de Terraform, à la télémétrie, et plus encore.
Explorez les architectures de référence déployables et les manuels stratégiques.
Renforcez le développement d’applications avec Kubernetes, Docker, sans serveur, API, etc.
Contactez nos associés pour les ventes, le support et d’autres questions.