Kubernetes Engine (OKE)

Vereinfachen Sie den Betrieb von Kubernetes der Unternehmensklasse in großem Maßstab. Stellen Sie ressourcenintensive Workloads wie KI mit automatischer Skalierung, Patching und Upgrades einfach bereit und verwalten Sie sie.

Oracle Cloud Infrastructure: Ein führendes Preis-Leistungs-Verhältnis für Kubernetes

Das CIO-Magazin würdigt OCI für seine Expertise bei der Bereitstellung innovativer Kubernetes-Lösungen, die eine skalierbare und effiziente Anwendungsentwicklung unterstützen.

Warum sollten Sie sich für OKE entscheiden?

  • Preis-Leistungs-Verhältnis

    OKE ist der kostengünstigste Kubernetes-Service unter allen Hyperscalern, insbesondere für serverlose Services.

  • Automatische Skalierung

    OKE passt die Rechenressourcen automatisch an den Bedarf an, wodurch sich Ihre Kosten senken lassen.

  • Effizienz

    Grafikprozessoren können zwar knapp sein, aber die OKE-Jobplanung macht es einfach, die Ressourcennutzung zu maximieren.

  • Portabilität,

    OKE ist einheitlich über Clouds und On-Premises hinweg, ermöglicht Portabilität und vermeidet die Bindung an einen Anbieter.

  • Einfachheit

    OKE reduziert den Zeit- und Kostenaufwand für die Verwaltung der komplexen Kubernetes-Infrastruktur.

  • Zuverlässigkeit

    Automatische Upgrades und Sicherheitspatches erhöhen die Zuverlässigkeit der Control Plane und Worker-Knoten.

OKE-Anwendungsfälle

OKE unterstützt OCI-KI-Services

Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt die KI-Services von Oracle Cloud Infrastructure (OCI).

KI-Modellerstellung

– In der ersten Phase eines KI-Projekts werden das Problem definiert und Daten für die Erstellung von Modellen vorbereitet.

– Kubernetes-Cluster können die Effizienz erheblich steigern, indem sie den gemeinsamen Zugriff auf teure und oft begrenzte GPU-Ressourcen ermöglichen und gleichzeitig sichere und zentral verwaltete Umgebungen bereitstellen.

Kubeflow, ein Kubernetes-bezogenes Open-Source-Projekt, bietet ein umfassendes Framework, das die Erstellung, Schulung und Bereitstellung von Modellen optimieren soll.

OKE für die KI-Modellerstellung

OKE baut auf OCI auf und bietet einen vollständigen Stack einer Hochleistungsinfrastruktur, die für KI/ML-Workloads ausgelegt ist, wie z. B.:

– Die gesamte Palette der NVIDIA-GPUs, einschließlich H100, A100, A10 usw.

– Ultraschnelle RDMA-Netzwerke

Mit OKE-Selbstverwaltungsknoten können Sie KI/ML-Workloads auf Ihren Kubernetes-Clustern ausführen.

OKE unterstützt OCI-KI-Services

Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt OCI-KI-Services.

KI-Modelltraining

– Im Modell-Training wählen Data Scientists einen Algorithmus aus und starten Trainingsjobs mit vorbereiteten Daten. Diese Phase erfordert ausgeklügelte Planungssysteme, um die Aufträge effizient zu bearbeiten.

Kubernetes-Projekte wie Volcano und Kueue helfen bei der Bewältigung solcher Anforderungen und sorgen für eine effiziente Nutzung der Rechenressourcen.

– Ein groß angelegtes verteiltes Training erfordert eine Kommunikation zwischen den Knotenpunkten im Cluster mit geringer Latenz. Hier ist ein spezialisiertes ultraschnelles Netzwerk mit Remote Direct Memory Access (RDMA) erforderlich. Es ermöglicht die direkte Übertragung von Daten in den oder aus dem Speicher einer Anwendung unter Umgehung der CPU, um die Latenz zu reduzieren.

OKE für das Training von KI-Modellen

OKE baut auf OCI auf und bietet einen vollständigen Stack einer Hochleistungsinfrastruktur, die für KI/ML-Workloads ausgelegt ist, wie z. B.:

– Die gesamte Palette der NVIDIA-GPUs, einschließlich H100, A100, A10 usw.

– RDMA-Netzwerke mit geringer Latenz und extrem hoher Leistung

Mit OKE-Knoten, die Sie selbst verwalten, können Sie KI/ML-Training auf Ihren Kubernetes-Clustern durchführen.

OKE unterstützt OCI-KI-Services

Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt OCI-KI-Services.

KI-Modellinferenzierung (Serving)

– Bei der Inferenzierung von KI-Modellen kann Kubernetes seine Stärken voll ausspielen. Kubernetes kann die Anzahl der Inferenz-Pods je nach Bedarf automatisch erhöhen oder verringern und so eine effiziente Nutzung der Ressourcen gewährleisten.

– Kubernetes bietet ein ausgeklügeltes Ressourcenmanagement, einschließlich der Möglichkeit, CPU- und Speichergrenzen für Container festzulegen.

OKE für die KI-Modellinferenz

OKE ist auf Ausfallsicherheit ausgelegt und nutzt die integrierte Pod-Autoscaling-Funktion von Kubernetes, um Worker-Knoten je nach Nutzung zu skalieren. Worker-Knoten können für eine hohe Verfügbarkeit über mehrere Fehler- und/oder Verfügbarkeitsbereiche verteilt werden.

Virtuelle OKE-Knoten bieten eine serverlose Kubernetes-Erfahrung. Sie müssen lediglich auf Pod-Ebene skaliert werden, ohne jemals Worker-Knoten zu skalieren. So ist eine schnellere Skalierung und eine kostengünstigere Verwaltung möglich, da die Servicegebühren ausschließlich auf den verwendeten Pods basieren.

Virtuelle Knoten eignen sich gut für Inferenz-Workloads und können Arm-Prozessoren verwenden, die für die KI-Inferenz immer attraktiver werden – insbesondere, wenn GPUs knapp sind.

Bestehende Anwendungen können von einer Migration zu OCI und OKE profitieren.

OKE bietet niedrigere Gesamtbetriebskosten und eine kürzere Markteinführungszeit.

OKE vereinfacht Abläufe in großem Maßstab auf folgende Weise:

  • Lift-and-Shift; es besteht keine Notwendigkeit für eine Umstrukturierung
  • Reduzierung des Betriebsaufwands durch Automatisierung
  • Zeitersparnis beim Infrastrukturmanagement
  • Erhöhen von Ressourcenauslastung und Effizienz
  • Verbesserung von Agilität, Flexibilität, Betriebszeit und Widerstandsfähigkeit
  • Senkung des Compliance-Risikos und Verbesserung der Sicherheit

Microservices bieten viele Vorteile gegenüber monolithischen Anwendungen

Machen Sie Ihre Anwendungen mit einer OKE-zentrierten Microservices-Architektur zukunftssicher.

  • Modernisierung der Architektur
  • Schnellere Innovationen
  • Automatisierung bereitstellen
  • Parallele Entwicklung
  • Einfachere Skalierbarkeit
  • Höhere Zuverlässigkeit
  • Mehr Flexibilität
  • Mehr Flexibilität

„Viele OCI AI Services laufen auf OCI Kubernetes Engine (OKE), dem verwalteten Kubernetes-Service von Oracle. Unser Entwicklungsteam konnte mit OCI Vision eine 10-fache Leistungssteigerung erzielen, indem es einfach von einer früheren Plattform zu OKE wechselte. So gut ist es.“

Jun Qian

VP von OCI AI Services, Oracle Cloud Infrastructure

Kunden, die mit Cloud-nativen Services auf OCI innovativ sind

Weitere Kundenberichte

Erste Schritte mit Kubernetes Engine

  • Bereitstellung einer einfachen containerisierten Anwendung mit OKE-verwalteten Knoten

    Stellen Sie einfache Microservices bereit, die als Docker-Container verpackt sind, und kommunizieren Sie über eine gemeinsame API.


  • Kubernetes-Cluster mit virtuellen Knoten bereitstellen

    Entdecken Sie Best Practices für die Bereitstellung eines serverlosen virtuellen Knotenpools mithilfe der bereitgestellten Terraform-Automatisierungs- und Referenzarchitektur.


  • Muster erkennen, um Ihre Kubernetes-Ressourcen zu optimieren

    Erfahren Sie, wie Tryg Insurance seine Kosten durch dynamische Anpassung um 50 % senken konnte.


10. September 2024

Betriebsabläufe mit OCI Kubernetes Engine (OKE) Add-ons vereinfachen

Mickey Boxell, Produktmanagement

OKE-Add-ons bieten die Möglichkeit, die Verwaltung der Cluster-Betriebssoftware an Oracle auszulagern. Sie bieten außerdem die Flexibilität, die standardmäßige Kubernetes-Betriebssoftware anzupassen oder vollständig zu deaktivieren, um eine gleichwertige Software zu erhalten. Wir freuen uns, vier weitere Add-ons anzukündigen: den Kubernetes Cluster Autoscaler, das Istio Service Mesh, den OCI Native Ingress Controller und den Kubernetes Metrics Server sowie die Unterstützung neuer Konfigurationsargumente, um eine bessere Kontrolle über die in Ihren Clustern eingesetzten Add-ons zu ermöglichen.

Vollständigen Beitrag lesen

Kubernetes-Ressourcen

Workshops

Was ist Kubernetes?

Kubernetes ist eine Open-Source-Plattform für die Verwaltung und Skalierung von Clustern containerisierter Anwendungen und Dienste.

Ähnliche Kubernetes-Produkte

Registrierung

Sicherer, standardbasierter Service für die Arbeit mit Container-Images

Funktionen

Serverlose Plattform, die von Ereignissen und APIs gesteuert wird

DevOps CI/CD

Automatisierte Anwendungsbereitstellung über Build, Test und Bereitstellungen hinweg

Ressourcen-Manager

Terraform-basierte Automatisierung der Cloud-Infrastruktur

Erste Schritte mit OKE

Oracle Cloud Free Tier

Erhalten Sie 30 Tage Zugriff auf CI/CD-Tools, verwaltetes Terraform, Telemetrie und mehr.

Architecture Center

Erkunden Sie bereitstellbare Referenzarchitekturen und Lösungs-Playbooks.

Oracle Cloud Native-Dienste

Treiben Sie die Anwendungsentwicklung mit Kubernetes, Docker, Serverless, APIs und mehr voran.

Kontakt

Kontaktieren Sie unsere Mitarbeiter für Vertrieb, Support und andere Fragen.

Oracle Chatbot
Disconnected