Führen Sie die anspruchsvollsten KI-Workloads schneller aus, einschließlich generativer KI, Computer Vision und prädiktiver Analysen, überall in unserer verteilten Cloud. Verwenden Sie den Oracle Cloud Infrastructure (OCI) Supercluster, um derzeit auf bis zu 65.536 GPUs und bald 131.072 GPUs zu skalieren.*
Verbessern Sie das KI-Training mit den einzigartigen GPU-Bare-Metal-Instanzen von OCI und dem ultraschnellen RDMA-Cluster-Netzwerk, das die Latenzzeit auf nur 2,5 Mikrosekunden reduziert. Erhalten Sie bis zu 220 % günstigere Preise für GPU-VMs als bei anderen Cloud-Providern.
Nutzen Sie Hochleistungs-Mountziele (HPMTs) für einen anhaltenden Durchsatz von bis zu 500 Gb/s. Nutzen Sie 61,44 TB lokale Speicherkapazität, die höchste in der Branche für Instanzen mit NVIDIA H100-GPUs.
Die verteilte Cloud von Oracle ermöglicht Ihnen, KI-Infrastrukturen überall bereitzustellen, um die Anforderungen an Performance, Sicherheit und KI-Souveränität zu erfüllen.
Bis zu 131.072 GPUs, 8-mal mehr Skalierbarkeit
Dank Netzwerk-Fabric-Innovationen kann OCI Supercluster auf bis zu 131.072 NVIDIA B200 GPUs und mehr als 100.000 Blackwell GPUs in NVIDIA Grace Blackwell Superchips skaliert werden. OCI Supercluster skaliert heute auf bis zu 65.536 NVIDIA H200 GPUs.
Ganz gleich, ob Sie Inferenzen oder Feinabstimmungen durchführen oder große Scale-Out-Modelle für generative KI trainieren möchten, OCI bietet branchenführende Bare Metal- und Virtual-Machine-GPU-Cluster-Optionen, die von einem Netzwerk mit extrem hoher Bandbreite und Hochleistungsspeicher unterstützt werden und Ihren KI-Anforderungen entsprechen.
Leistungsstarkes Computing
• Bare-Metal-Instanzen ohne Hypervisor-Overhead
• Beschleunigt durch NVIDIA H200-, H100-, L40S- und A100-GPUs
• Option zur Verwendung von AMD MI300X-GPUs
• Datenverarbeitungseinheit (DPU) für integrierte Hardwarebeschleunigung
Enorme Kapazität und Speicher mit hohem Durchsatz
• Lokaler Speicher: bis zu 61,44 TB NVMe SSD-Kapazität
• Dateispeicher: High Performance Mount Target (HPMT) mit bis zu 80 Gb/s Durchsatz (jetzt allgemein verfügbar) und vollständig verwaltetem Lustre-Service (demnächst verfügbar)
• Blockspeicher: ausgewogene, leistungsstärkere und extrem leistungsfähige Volumes mit einem Performance-SLA
• Objektspeicher: unterschiedliche Speicherklassenebenen, Bucket-Replikation und hohe Kapazitätsgrenzen
Ultraschnelles Networking
• Maßgeschneidertes RDMA über Converged Ethernet-Protokoll (RoCE v2)
• 2,5 bis 9,1 Mikrosekunden Latenz für Cluster-Netzwerke
• Bis zu 3.200 Gb/s Cluster-Netzwerkbandbreite
• Bis zu 200 Gb/s Frontend-Netzwerkbandbreite
Mit OCI-Bare-Metal-Instanzen auf Basis von AMD MI300X-, NVIDIA L40S-, NVIDIA H100- und NVIDIA A100-GPUs können Sie große KI-Modelle für Anwendungsfälle ausführen, darunter Deep Learning, dialogorientierte KI und generative KI. Mit OCI Supercluster können Sie auf bis zu 32.768 A100-GPUs, 16.384 H100-GPUs, 16.384 MI300X-GPUs und 3.840 L40S-GPUs pro Cluster skalieren.
Mit Hochgeschwindigkeits-RDMA-Cluster-Netzwerken, die von NVIDIA ConnectX-NICs mit RDMA über Converged Ethernet Version 2 angetrieben werden, können Sie große Cluster von GPU-Instanzen mit der gleichen extrem niedrigen Latenzzeit und Anwendungsskalierbarkeit erstellen, die Sie bei On-Premises erwarten.
Sie zahlen keinen Aufpreis für RDMA-Fähigkeit, Blockspeicher oder Netzwerkbandbreite und die ersten 10 TB Daten-Egress sind kostenlos.
Über OCI Supercluster können Kunden auf lokalen, Block-, Objekt- und Dateispeicher für Exascale-Computing zugreifen. Unter den großen Cloud-Providern bietet OCI die größte Kapazität an lokalem NVMe-Hochleistungsspeicher für häufigeres Checkpointing während der Trainingsläufe, was zu einer schnelleren Wiederherstellung nach Ausfällen führt.
HPC-Dateisysteme wie BeeGFS, GlusterFS, Lustre und WEKA können für das KI-Training in großem Maßstab ohne Leistungseinbußen verwendet werden.
Sehen Sie sich an, wie Chief Technical Architect Pradeep Vincent erklärt, wie OCI Supercluster das Training und Inferenzieren von ML-Modellen unterstützt und auf Zehntausende von NVIDIA-GPUs skaliert.
Trainieren Sie KI-Modelle auf OCI Bare Metal-Instanzen, die von GPUs, RDMA-Cluster-Netzwerken und OCI Data Science unterstützt werden.
Der Schutz der Milliarden von Finanztransaktionen, die jeden Tag stattfinden, erfordert bessere KI-Tools, die große Mengen historischer Kundendaten analysieren können. KI-Modelle, die auf OCI Compute powered by NVIDIA GPUs zusammen mit Modellmanagement-Tools wie OCI Data Science und anderen Open-Source-Modellen laufen, helfen Finanzinstituten bei der Betrugsbekämpfung.
KI wird häufig zur Analyse verschiedener medizinischer Bilder (z. B. Röntgenbilder und MRTs) in Krankenhäusern eingesetzt. Trainierte Modelle können dabei helfen, Fälle zu priorisieren, die eine sofortige Überprüfung durch einen Radiologen erfordern, und aussagekräftige Ergebnisse für andere melden.
Die Entdeckung von Arzneimitteln ist ein zeitaufwendiger und teurer Prozess, der viele Jahre dauern und Millionen von Dollar kosten kann. Durch den Einsatz von KI-Infrastrukturen und -Analysen können Forscher die Arzneimittelentdeckung beschleunigen. Darüber hinaus ermöglicht OCI Compute powered by NVIDIA GPUs zusammen mit KI-Workflow-Management-Tools wie BioNeMo den Kunden, ihre Daten zu kuratieren und vorzuverarbeiten.
Oracle bietet Ihnen eine kostenlose Preisstufe für die meisten KI-Services sowie einen Testaccount mit einem Guthaben in Höhe von 300 US-Dollar, um zusätzliche Cloud-Services zu testen. KI-Services sind eine Sammlung von Services mit vordefinierten Machine Learning-(ML-)Modellen, die es Entwicklern erleichtern, KI auf Anwendungen und Geschäftsabläufe anzuwenden.
Sie müssen dabei nur die Compute- und Speichergebühren für OCI Data Science bezahlen.
Erfahren Sie mehr über RDMA-Cluster-Networking, GPU-Instanzen, Bare Metal-Server und vieles mehr.
Die Tarife für Oracle Cloud sind unkompliziert, mit weltweit konsequent niedrigen Tarifen und zahlreichen unterstützten Anwendungsfällen. Um den für Sie zutreffenden, niedrigen Tarif zu berechnen, gehen Sie zum Kostenrechner und konfigurieren Sie die Services entsprechend Ihrer Anforderungen.
Holen Sie sich Hilfe beim Aufbau Ihrer nächsten KI-Lösung oder bei der Bereitstellung Ihrer Workloads auf der KI-Infrastruktur von OCI.