Vereinfachen Sie den Betrieb von Kubernetes der Unternehmensklasse in großem Maßstab. Stellen Sie ressourcenintensive Workloads wie KI mit automatischer Skalierung, Patching und Upgrades einfach bereit und verwalten Sie sie.
Das CIO-Magazin würdigt OCI für seine Expertise bei der Bereitstellung innovativer Kubernetes-Lösungen, die eine skalierbare und effiziente Anwendungsentwicklung unterstützen.
OKE ist der kostengünstigste Kubernetes-Service unter allen Hyperscalern, insbesondere für serverlose Services.
OKE passt die Rechenressourcen automatisch an den Bedarf an, wodurch sich Ihre Kosten senken lassen.
Grafikprozessoren können zwar knapp sein, aber die OKE-Jobplanung macht es einfach, die Ressourcennutzung zu maximieren.
OKE ist einheitlich über Clouds und On-Premises hinweg, ermöglicht Portabilität und vermeidet die Bindung an einen Anbieter.
OKE reduziert den Zeit- und Kostenaufwand für die Verwaltung der komplexen Kubernetes-Infrastruktur.
Automatische Upgrades und Sicherheitspatches erhöhen die Zuverlässigkeit der Control Plane und Worker-Knoten.
Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt die KI-Services von Oracle Cloud Infrastructure (OCI).
– In der ersten Phase eines KI-Projekts werden das Problem definiert und Daten für die Erstellung von Modellen vorbereitet.
– Kubernetes-Cluster können die Effizienz erheblich steigern, indem sie den gemeinsamen Zugriff auf teure und oft begrenzte GPU-Ressourcen ermöglichen und gleichzeitig sichere und zentral verwaltete Umgebungen bereitstellen.
– Kubeflow, ein Kubernetes-bezogenes Open-Source-Projekt, bietet ein umfassendes Framework, das die Erstellung, Schulung und Bereitstellung von Modellen optimieren soll.
OKE baut auf OCI auf und bietet einen vollständigen Stack einer Hochleistungsinfrastruktur, die für KI/ML-Workloads ausgelegt ist, wie z. B.:
– Die gesamte Palette der NVIDIA-GPUs, einschließlich H100, A100, A10 usw.
– Ultraschnelle RDMA-Netzwerke
Mit OKE-Selbstverwaltungsknoten können Sie KI/ML-Workloads auf Ihren Kubernetes-Clustern ausführen.
Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt OCI-KI-Services.
– Im Modell-Training wählen Data Scientists einen Algorithmus aus und starten Trainingsjobs mit vorbereiteten Daten. Diese Phase erfordert ausgeklügelte Planungssysteme, um die Aufträge effizient zu bearbeiten.
Kubernetes-Projekte wie Volcano und Kueue helfen bei der Bewältigung solcher Anforderungen und sorgen für eine effiziente Nutzung der Rechenressourcen.
– Ein groß angelegtes verteiltes Training erfordert eine Kommunikation zwischen den Knotenpunkten im Cluster mit geringer Latenz. Hier ist ein spezialisiertes ultraschnelles Netzwerk mit Remote Direct Memory Access (RDMA) erforderlich. Es ermöglicht die direkte Übertragung von Daten in den oder aus dem Speicher einer Anwendung unter Umgehung der CPU, um die Latenz zu reduzieren.
OKE baut auf OCI auf und bietet einen vollständigen Stack einer Hochleistungsinfrastruktur, die für KI/ML-Workloads ausgelegt ist, wie z. B.:
– Die gesamte Palette der NVIDIA-GPUs, einschließlich H100, A100, A10 usw.
– RDMA-Netzwerke mit geringer Latenz und extrem hoher Leistung
Mit OKE-Knoten, die Sie selbst verwalten, können Sie KI/ML-Training auf Ihren Kubernetes-Clustern durchführen.
Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt OCI-KI-Services.
– Bei der Inferenzierung von KI-Modellen kann Kubernetes seine Stärken voll ausspielen. Kubernetes kann die Anzahl der Inferenz-Pods je nach Bedarf automatisch erhöhen oder verringern und so eine effiziente Nutzung der Ressourcen gewährleisten.
– Kubernetes bietet ein ausgeklügeltes Ressourcenmanagement, einschließlich der Möglichkeit, CPU- und Speichergrenzen für Container festzulegen.
OKE ist auf Ausfallsicherheit ausgelegt und nutzt die integrierte Pod-Autoscaling-Funktion von Kubernetes, um Worker-Knoten je nach Nutzung zu skalieren. Worker-Knoten können für eine hohe Verfügbarkeit über mehrere Fehler- und/oder Verfügbarkeitsbereiche verteilt werden.
Virtuelle OKE-Knoten bieten eine serverlose Kubernetes-Erfahrung. Sie müssen lediglich auf Pod-Ebene skaliert werden, ohne jemals Worker-Knoten zu skalieren. So ist eine schnellere Skalierung und eine kostengünstigere Verwaltung möglich, da die Servicegebühren ausschließlich auf den verwendeten Pods basieren.
Virtuelle Knoten eignen sich gut für Inferenz-Workloads und können Arm-Prozessoren verwenden, die für die KI-Inferenz immer attraktiver werden – insbesondere, wenn GPUs knapp sind.
OKE bietet niedrigere Gesamtbetriebskosten und eine kürzere Markteinführungszeit.
OKE vereinfacht Abläufe in großem Maßstab auf folgende Weise:
Machen Sie Ihre Anwendungen mit einer OKE-zentrierten Microservices-Architektur zukunftssicher.
„Viele OCI AI Services laufen auf OCI Kubernetes Engine (OKE), dem verwalteten Kubernetes-Service von Oracle. Unser Entwicklungsteam konnte mit OCI Vision eine 10-fache Leistungssteigerung erzielen, indem es einfach von einer früheren Plattform zu OKE wechselte. So gut ist es.“
VP von OCI AI Services, Oracle Cloud Infrastructure
Stellen Sie einfache Microservices bereit, die als Docker-Container verpackt sind, und kommunizieren Sie über eine gemeinsame API.
Entdecken Sie Best Practices für die Bereitstellung eines serverlosen virtuellen Knotenpools mithilfe der bereitgestellten Terraform-Automatisierungs- und Referenzarchitektur.
Erfahren Sie, wie Tryg Insurance seine Kosten durch dynamische Anpassung um 50 % senken konnte.
Mickey Boxell, Produktmanagement
OKE-Add-ons bieten die Möglichkeit, die Verwaltung der Cluster-Betriebssoftware an Oracle auszulagern. Sie bieten außerdem die Flexibilität, die standardmäßige Kubernetes-Betriebssoftware anzupassen oder vollständig zu deaktivieren, um eine gleichwertige Software zu erhalten. Wir freuen uns, vier weitere Add-ons anzukündigen: den Kubernetes Cluster Autoscaler, das Istio Service Mesh, den OCI Native Ingress Controller und den Kubernetes Metrics Server sowie die Unterstützung neuer Konfigurationsargumente, um eine bessere Kontrolle über die in Ihren Clustern eingesetzten Add-ons zu ermöglichen.
Vollständigen Beitrag lesenKubernetes ist eine Open-Source-Plattform für die Verwaltung und Skalierung von Clustern containerisierter Anwendungen und Dienste.
Kubernetes ist eine Open-Source-Plattform für die Verwaltung und Skalierung von Clustern containerisierter Anwendungen und Dienste.
Erhalten Sie 30 Tage Zugriff auf CI/CD-Tools, verwaltetes Terraform, Telemetrie und mehr.
Erkunden Sie bereitstellbare Referenzarchitekturen und Lösungs-Playbooks.
Treiben Sie die Anwendungsentwicklung mit Kubernetes, Docker, Serverless, APIs und mehr voran.
Kontaktieren Sie unsere Mitarbeiter für Vertrieb, Support und andere Fragen.