KI-Infrastruktur

Führen Sie die anspruchsvollsten KI-Workloads schneller aus, einschließlich generativer KI, Computer Vision und prädiktiver Analysen, überall in unserer verteilten Cloud. Verwenden Sie den Oracle Cloud Infrastructure (OCI) Supercluster, um derzeit auf bis zu 32.768 GPUs und bald 131.072 GPUs zu skalieren.*

OCI Supercluster: Die Infrastruktur, die generative KI in großem Maßstab fördert (0:55)

Erfahren Sie, wie Sie das KI-Training und die Inferenz beschleunigen können

Warum auf der OCI AI-Infrastruktur?

Führende KI-Performance und -Mehrwert

Die KI-Infrastruktur von OCI bietet die höchste Performance und den besten Wert für alle KI-Workloads, einschließlich Inferenzierung, Training und KI-Assistenten.

HPC-Speicher

Nutzen Sie Hochleistungs-Mountziele (HPMTs) für einen anhaltenden Durchsatz von bis zu 500 Gb/s. Nutzen Sie 61,44 TB lokale Speicherkapazität, die höchste in der Branche für Instanzen mit NVIDIA H100-GPUs.

Souveräne KI freischalten

Die verteilte Cloud von Oracle ermöglicht Ihnen, KI-Infrastrukturen überall bereitzustellen, um die Anforderungen an Performance, Sicherheit und KI-Souveränität zu erfüllen.

Bild: Skalierbarkeit des OCI-Supercluster, Beschreibung unten Das Bild zeigt Boxen, die für Rechenleistung und Speicherplatz stehen und durch Linien für Cluster-Netzwerke verbunden sind. Ganz links befinden sich vier Rechner- und zwei Speicherboxen für den kleinsten Cluster mit 16.000 NVIDIA H100-GPUs. Rechts davon befinden sich 8 Rechner- und 4 Lagerboxen für 32.000 NVIDIA A100-GPUs in einem Cluster. Als Nächstes folgen 16 Boxen mit Rechenleistung und 8 Boxen mit Speicherplatz für 64.000 NVIDIA H200-GPUs. Ganz rechts befinden sich schließlich 32 Rechner- und 16 Speicherboxen für 128.000 NVIDIA Blackwell- und Grace Blackwell-GPUs. Die Grafik verdeutlicht die Skalierbarkeit des OCI-Superclusters, die sich von der kleinsten Konfiguration mit 16.000 GPUs ganz links bis zur größten Konfiguration mit 128.000 GPUs ganz rechts um das Achtfache erhöht.

OCI-Supercluster mit NVIDIA Blackwell- und Hopper-GPUs

Bis zu 131.072 GPUs und 8-mal mehr Skalierbarkeit
Netzwerk-Fabric-Innovationen ermöglichen es OCI-Supercluster, bis zu 131.072 NVIDIA B200-GPUs, mehr als 100.000 Blackwell-GPUs in NVIDIA Grace Blackwell Superchips und 65.536 NVIDIA H200-GPUs zu skalieren. Mit NVIDIA A100- und H100-GPUs erhalten Sie eine bis zu 8-mal höhere Skalierbarkeit als die aktuellen Grenzwerte für OCI-Supercluster.

OCI AI-Infrastruktur für alle Ihre Anforderungen

Ganz gleich, ob Sie Inferenzen oder Feinabstimmungen durchführen oder große Scale-Out-Modelle für generative KI trainieren möchten, OCI bietet branchenführende Bare Metal- und Virtual-Machine-GPU-Cluster-Optionen, die von einem Netzwerk mit extrem hoher Bandbreite und Hochleistungsspeicher unterstützt werden und Ihren KI-Anforderungen entsprechen.

Diagramm zu KI-Infrastrukturprodukten, Beschreibung unten
OCI bietet auch NVIDIA P100- und V100-GPUs der älteren Generation an
Das Bild zeigt mehrere Produkte für die KI-Infrastruktur, beginnend unten links mit den kleinsten Konfigurationen, die dann schrittweise zu Konfigurationen mittlerer und großer Größe ansteigen. Die kleinsten Konfigurationen bestehen aus nur 1 GPU in einer virtuellen Maschine und die größten Konfigurationen aus mehr als 100.000 GPUs in RDMA-Clustern.

KI-Innovatoren nutzen OCI zum Hosten, Trainieren und Inferenzieren von KI-Modellen der nächsten Generation.

OCI Supercluster für KI-Training in großem Maßstab kennenlernen

Ab sofort verfügbar: Massive Scale-Out-Cluster mit NVIDIA H100-, A100- und L40S-GPUs


Compute
• 8x NVIDIA H100-GPUs; 61,44 TB NVMe SSDs pro Knoten
• 8x NVIDIA A100-GPUs; 27,2 TB NVMe-SSDs pro Knoten
• 4x NVIDIA L40S-GPUs; 7,38 TB NVMe-SSDs pro Knoten

Speicher
• Blockspeicher: Bis zu 32 TB pro Volume
• Objektspeicher: Bis zu 10 TiB pro Objekt
• Dateispeicher: Bis zu 8 EB pro Dateisystem
• Speichercluster mit Dense I/O-Ausprägungen

Netzwerke
• RDMA over Converged Ethernet (RoCE v2)
• Wenige Mikrosekunden Latenz zwischen Knoten
• OCI Superclusterbandbreite zwischen Knoten:
o NVIDIA H100: 3200 Gbit/s
o NVIDIA A100: 1600 Gbit/s
o NVIDIA L40S: 800 Gbit/s

Compute für Supercluster

OCI-Bare-Metal-Instanzen, die von NVIDIA L40S-, H100- und A100-GPUs angetrieben werden, ermöglichen es Kunden, große KI-Modelle für Anwendungsfälle wie Deep Learning, dialogorientierte KI und generative KI auszuführen. Mit OCI Supercluster können Kunden auf bis zu 32.768 A100-GPUs, 16.384 H100-GPUs und 3.840 L40S-GPUs pro Cluster skalieren.

Bild: Computer für Supercluster
Erweitern+
Das Diagramm zeigt GPU-Cluster-Knoten, die von NVIDIA A100-GPUs angetrieben werden, und Netzwerke mit einer Latenzzeit von weniger als zwei Mikrosekunden.

Networking für Supercluster

Mit Hochgeschwindigkeits-RDMA-Cluster-Netzwerken, die von NVIDIA ConnectX-NICs mit RDMA über Converged Ethernet Version 2 angetrieben werden, können Sie große Cluster von GPU-Instanzen mit der gleichen extrem niedrigen Latenzzeit und Anwendungsskalierbarkeit erstellen, die Sie bei On-Premises erwarten.

Sie zahlen keinen Aufpreis für RDMA-Fähigkeit, Blockspeicher oder Netzwerkbandbreite und die ersten 10 TB Daten-Egress sind kostenlos.

Networking für Supercluster
Erweitern+
Das Diagramm zeigt ein Supercluster-RDMA-Netzwerk mit acht NVIDIA A100-GPUs pro Knoten, die über eine Vollduplex-Netzwerkstruktur mit einer knotenübergreifenden Bandbreite von insgesamt 1,6 Tbit/s verbunden sind.

Speicher für OCI Supercluster

Über OCI Supercluster können Kunden auf lokalen, Block-, Objekt- und Dateispeicher für Exascale-Computing zugreifen. Unter den großen Cloud-Providern bietet OCI die größte Kapazität an lokalem NVMe-Hochleistungsspeicher für häufigeres Checkpointing während der Trainingsläufe, was zu einer schnelleren Wiederherstellung nach Ausfällen führt.

HPC-Dateisysteme wie BeeGFS, GlusterFS, Lustre und WEKA können für das KI-Training in großem Maßstab ohne Leistungseinbußen verwendet werden.

Funktionsweise von OCI Supercluster

Sehen Sie sich an, wie Chief Technical Architect Pradeep Vincent erklärt, wie OCI Supercluster das Training und Inferenzieren von ML-Modellen unterstützt und auf Zehntausende von NVIDIA-GPUs skaliert.

Typische Anwendungsfälle für KI-Infrastrukturen

Trainieren Sie KI-Modelle auf OCI Bare Metal-Instanzen, die von GPUs, RDMA-Cluster-Netzwerken und OCI Data Science unterstützt werden.


Diagramm für Deep Learning-Training und Inferenzierung, Beschreibung unten
Trainieren Sie KI-Modelle auf OCI Bare Metal-Instanzen, die von GPUs, RDMA-Cluster-Netzwerken und OCI Data Science unterstützt werden.

Der Schutz der Milliarden von Finanztransaktionen, die jeden Tag stattfinden, erfordert bessere KI-Tools, die große Mengen historischer Kundendaten analysieren können. KI-Modelle, die auf OCI Compute powered by NVIDIA GPUs zusammen mit Modellmanagement-Tools wie OCI Data Science und anderen Open-Source-Modellen laufen, helfen Finanzinstituten bei der Betrugsbekämpfung.


Diagramm zur Betrugserkennung durch KI, Beschreibung unten
KI-Modelle, die auf OCI Compute powered by NVIDIA GPUs zusammen mit Modellmanagement-Tools wie OCI Data Science und anderen Open-Source-Modellen laufen, helfen Finanzinstituten bei der Betrugsbekämpfung.

KI wird häufig zur Analyse verschiedener medizinischer Bilder (z. B. Röntgenbilder und MRTs) in Krankenhäusern eingesetzt. Trainierte Modelle können dabei helfen, Fälle zu priorisieren, die eine sofortige Überprüfung durch einen Radiologen erfordern, und aussagekräftige Ergebnisse für andere melden.


Diagramm zur KI-gestützten medizinischen Bildanalyse, Beschreibung unten
Trainierte Modelle, die auf OCI Compute powered by GPUs laufen, können bei der Analyse medizinischer Bilder helfen und sofort schlüssige Ergebnisse liefern bzw. Bilder für die weitere Überprüfung priorisieren.

Die Entdeckung von Arzneimitteln ist ein zeitaufwendiger und teurer Prozess, der viele Jahre dauern und Millionen von Dollar kosten kann. Durch den Einsatz von KI-Infrastrukturen und -Analysen können Forscher die Arzneimittelentdeckung beschleunigen. Darüber hinaus ermöglicht OCI Compute powered by NVIDIA GPUs zusammen mit KI-Workflow-Management-Tools wie BioNeMo den Kunden, ihre Daten zu kuratieren und vorzuverarbeiten.


Einsatz von KI zur Beschleunigung der Arzneimittelforschung, Beschreibung unten
Durch den Einsatz von KI-Infrastrukturen und -Analysen können Forscher die Arzneimittelentdeckung beschleunigen und ihre Daten kuratieren bzw. vorverarbeiten.

Kundenerfolge mit KI-Infrastrukturen

Weitere Kundenberichte

Erste Schritte mit der OCI KI-Infrastruktur

Testen Sie Oracle AI, und erhalten Sie eine 30-tägige Testversion

Oracle bietet Ihnen eine kostenlose Preisstufe für die meisten KI-Services sowie einen Testaccount mit einem Guthaben in Höhe von 300 US-Dollar, um zusätzliche Cloud-Services zu testen. KI-Services sind eine Sammlung von Services mit vordefinierten Machine Learning-(ML-)Modellen, die es Entwicklern erleichtern, KI auf Anwendungen und Geschäftsabläufe anzuwenden.

  • Welche KI- und ML-Services von Oracle bieten eine kostenlose Preisstufen?

    • OCI Speech
    • OCI Language
    • OCI Vision
    • OCI Document Understanding
    • Maschinelles Lernen in Oracle Database
    • OCI-Datenbeschriftung

    Sie müssen dabei nur die Compute- und Speichergebühren für OCI Data Science bezahlen.

Weitere Ressourcen

Erfahren Sie mehr über RDMA-Cluster-Networking, GPU-Instanzen, Bare Metal-Server und vieles mehr.

Erfahren Sie, welche Einsparungen mit OCI möglich sind.

Die Tarife für Oracle Cloud sind unkompliziert, mit weltweit konsequent niedrigen Tarifen und zahlreichen unterstützten Anwendungsfällen. Um den für Sie zutreffenden, niedrigen Tarif zu berechnen, gehen Sie zum Kostenrechner und konfigurieren Sie die Services entsprechend Ihrer Anforderungen.

Zugriff auf KI-Subject Matter Experts (SMEs)

Holen Sie sich Hilfe beim Aufbau Ihrer nächsten KI-Lösung oder bei der Bereitstellung Ihrer Workloads auf der KI-Infrastruktur von OCI.

  • Sie können Fragen beantworten, z. B.

    • Wie sehen die ersten Schritte in Oracle Cloud Infrastructure WAF aus?
    • Welche Arten von KI-Workloads kann ich auf OCI ausführen?
    • Welche Arten von KI-Services bietet OCI an?