Führen Sie die anspruchsvollsten KI-Workloads schneller aus, einschließlich generativer KI, Computer Vision und prädiktiver Analysen, überall in unserer verteilten Cloud. Verwenden Sie den Oracle Cloud Infrastructure (OCI) Supercluster, um derzeit auf bis zu 32.768 GPUs und bald 131.072 GPUs zu skalieren.*
Erfahren Sie, wie Sie das KI-Training und die Inferenz beschleunigen können
Die KI-Infrastruktur von OCI bietet die höchste Performance und den besten Wert für alle KI-Workloads, einschließlich Inferenzierung, Training und KI-Assistenten.
Nutzen Sie Hochleistungs-Mountziele (HPMTs) für einen anhaltenden Durchsatz von bis zu 500 Gb/s. Nutzen Sie 61,44 TB lokale Speicherkapazität, die höchste in der Branche für Instanzen mit NVIDIA H100-GPUs.
Die verteilte Cloud von Oracle ermöglicht Ihnen, KI-Infrastrukturen überall bereitzustellen, um die Anforderungen an Performance, Sicherheit und KI-Souveränität zu erfüllen.
Bis zu 131.072 GPUs und 8-mal mehr Skalierbarkeit
Netzwerk-Fabric-Innovationen ermöglichen es OCI-Supercluster, bis zu 131.072 NVIDIA B200-GPUs, mehr als 100.000 Blackwell-GPUs in NVIDIA Grace Blackwell Superchips und 65.536 NVIDIA H200-GPUs zu skalieren. Mit NVIDIA A100- und H100-GPUs erhalten Sie eine bis zu 8-mal höhere Skalierbarkeit als die aktuellen Grenzwerte für OCI-Supercluster.
Ganz gleich, ob Sie Inferenzen oder Feinabstimmungen durchführen oder große Scale-Out-Modelle für generative KI trainieren möchten, OCI bietet branchenführende Bare Metal- und Virtual-Machine-GPU-Cluster-Optionen, die von einem Netzwerk mit extrem hoher Bandbreite und Hochleistungsspeicher unterstützt werden und Ihren KI-Anforderungen entsprechen.
Compute
• 8x NVIDIA H100-GPUs; 61,44 TB NVMe SSDs pro Knoten
• 8x NVIDIA A100-GPUs; 27,2 TB NVMe-SSDs pro Knoten
• 4x NVIDIA L40S-GPUs; 7,38 TB NVMe-SSDs pro Knoten
Speicher
• Blockspeicher: Bis zu 32 TB pro Volume
• Objektspeicher: Bis zu 10 TiB pro Objekt
• Dateispeicher: Bis zu 8 EB pro Dateisystem
• Speichercluster mit Dense I/O-Ausprägungen
Netzwerke
• RDMA over Converged Ethernet (RoCE v2)
• Wenige Mikrosekunden Latenz zwischen Knoten
• OCI Superclusterbandbreite zwischen Knoten:
o NVIDIA H100: 3200 Gbit/s
o NVIDIA A100: 1600 Gbit/s
o NVIDIA L40S: 800 Gbit/s
OCI-Bare-Metal-Instanzen, die von NVIDIA L40S-, H100- und A100-GPUs angetrieben werden, ermöglichen es Kunden, große KI-Modelle für Anwendungsfälle wie Deep Learning, dialogorientierte KI und generative KI auszuführen. Mit OCI Supercluster können Kunden auf bis zu 32.768 A100-GPUs, 16.384 H100-GPUs und 3.840 L40S-GPUs pro Cluster skalieren.
Mit Hochgeschwindigkeits-RDMA-Cluster-Netzwerken, die von NVIDIA ConnectX-NICs mit RDMA über Converged Ethernet Version 2 angetrieben werden, können Sie große Cluster von GPU-Instanzen mit der gleichen extrem niedrigen Latenzzeit und Anwendungsskalierbarkeit erstellen, die Sie bei On-Premises erwarten.
Sie zahlen keinen Aufpreis für RDMA-Fähigkeit, Blockspeicher oder Netzwerkbandbreite und die ersten 10 TB Daten-Egress sind kostenlos.
Über OCI Supercluster können Kunden auf lokalen, Block-, Objekt- und Dateispeicher für Exascale-Computing zugreifen. Unter den großen Cloud-Providern bietet OCI die größte Kapazität an lokalem NVMe-Hochleistungsspeicher für häufigeres Checkpointing während der Trainingsläufe, was zu einer schnelleren Wiederherstellung nach Ausfällen führt.
HPC-Dateisysteme wie BeeGFS, GlusterFS, Lustre und WEKA können für das KI-Training in großem Maßstab ohne Leistungseinbußen verwendet werden.
Sehen Sie sich an, wie Chief Technical Architect Pradeep Vincent erklärt, wie OCI Supercluster das Training und Inferenzieren von ML-Modellen unterstützt und auf Zehntausende von NVIDIA-GPUs skaliert.
Trainieren Sie KI-Modelle auf OCI Bare Metal-Instanzen, die von GPUs, RDMA-Cluster-Netzwerken und OCI Data Science unterstützt werden.
Der Schutz der Milliarden von Finanztransaktionen, die jeden Tag stattfinden, erfordert bessere KI-Tools, die große Mengen historischer Kundendaten analysieren können. KI-Modelle, die auf OCI Compute powered by NVIDIA GPUs zusammen mit Modellmanagement-Tools wie OCI Data Science und anderen Open-Source-Modellen laufen, helfen Finanzinstituten bei der Betrugsbekämpfung.
KI wird häufig zur Analyse verschiedener medizinischer Bilder (z. B. Röntgenbilder und MRTs) in Krankenhäusern eingesetzt. Trainierte Modelle können dabei helfen, Fälle zu priorisieren, die eine sofortige Überprüfung durch einen Radiologen erfordern, und aussagekräftige Ergebnisse für andere melden.
Die Entdeckung von Arzneimitteln ist ein zeitaufwendiger und teurer Prozess, der viele Jahre dauern und Millionen von Dollar kosten kann. Durch den Einsatz von KI-Infrastrukturen und -Analysen können Forscher die Arzneimittelentdeckung beschleunigen. Darüber hinaus ermöglicht OCI Compute powered by NVIDIA GPUs zusammen mit KI-Workflow-Management-Tools wie BioNeMo den Kunden, ihre Daten zu kuratieren und vorzuverarbeiten.
Oracle bietet Ihnen eine kostenlose Preisstufe für die meisten KI-Services sowie einen Testaccount mit einem Guthaben in Höhe von 300 US-Dollar, um zusätzliche Cloud-Services zu testen. KI-Services sind eine Sammlung von Services mit vordefinierten Machine Learning-(ML-)Modellen, die es Entwicklern erleichtern, KI auf Anwendungen und Geschäftsabläufe anzuwenden.
Sie müssen dabei nur die Compute- und Speichergebühren für OCI Data Science bezahlen.
Erfahren Sie mehr über RDMA-Cluster-Networking, GPU-Instanzen, Bare Metal-Server und vieles mehr.
Die Tarife für Oracle Cloud sind unkompliziert, mit weltweit konsequent niedrigen Tarifen und zahlreichen unterstützten Anwendungsfällen. Um den für Sie zutreffenden, niedrigen Tarif zu berechnen, gehen Sie zum Kostenrechner und konfigurieren Sie die Services entsprechend Ihrer Anforderungen.
Holen Sie sich Hilfe beim Aufbau Ihrer nächsten KI-Lösung oder bei der Bereitstellung Ihrer Workloads auf der KI-Infrastruktur von OCI.