Ejecute más rápidamente las cargas de trabajo de IA más exigentes, incluidas la IA generativa, la visión informática y el análisis predictivo, en cualquier lugar de nuestra nube distribuida. Utiliza Oracle Cloud Infrastructure (OCI) Supercluster escalable hasta 32 768 GPU en la actualidad y 65 536 GPU en el futuro.*
Aprende a acelerar el entrenamiento y la inferencia de IA
La infraestructura de IA de OCI ofrece desempeño y valor de nivel más alto para todas las cargas de trabajo de IA, incluidas las inferencias, el entrenamiento y los asistentes de IA.
Aprovecha los destinos de montaje de alto rendimiento (HPMT) para obtener un rendimiento sostenido hasta de 500 Gb/s. Utiliza 61,44 TB de capacidad de almacenamiento local, la más alta del sector para instancias con GPU NVIDIA H100.
La nube distribuida de Oracle te permite implementar infraestructura de IA en cualquier lugar para cumplir con los requisitos de desempeño, seguridad y soberanía de IA.
Hasta 131 072 GPU, 8 veces más de escalabilidad
Las innovaciones del tejido de red permitirán a OCI Supercluster escalar hasta 131 072 GPU NVIDIA B200, más de 100 000 GPU Blackwell en NVIDIA Grace Blackwell Superchips y 65 536 GPU NVIDIA H200. Multiplica por ocho la escalabilidad de los límites actuales para OCI Supercluster con GPU NVIDIA A100 y H100.
Tanto si buscas realizar inferencias, ajustar o entrenar modelos de gran escala para IA generativa, OCI ofrece opciones de clústeres de GPU de máquina virtual y hardware dedicado líderes del sector con tecnología de una red de ancho de banda ultraalto y almacenamiento de alto rendimiento para satisfacer tus necesidades de IA.
Recursos informáticos
• GPU 8x NVIDIA H100; SSD NVMe de 61,44 TB por nodo
• GPU 8x NVIDIA A100; SSD NVMe de 27,2 TB por nodo
• GPU 4x NVIDIA L40S; SSD 7,38 TB NVMe por nodo
Almacenamiento
• Almacenamiento de bloques: hasta 32 TB por volumen
• Almacenamiento de objetos: hasta 10 TiB por objeto
• Almacenamiento de archivos: hasta 8 EB por sistema de archivos
• Clústeres de almacenamiento con unidades de E/S densa
Redes
• RDMA sobre Ethernet convergente (RoCE v2)
• Pocos microsegundos de latencia entre nodos
• Ancho de banda entre nodos de OCI Supercluster:
o NVIDIA H100: 3200 Gb/s
o NVIDIA A100: 1600 Gb/s
o NVIDIA L40S: 800 Gb/s
Las instancias con hardware bare metal de OCI con tecnología de GPU NVIDIA L40S, H100 y A100 permiten a los clientes ejecutar grandes modelos de IA para casos de uso que incluyen aprendizaje profundo, IA conversacional e IA generativa. Con OCI Supercluster, los clientes pueden escalar hasta 32 768 GPU A100, 16 384 GPU H100 y 3 840 GPU L40S por cluster.
La red de clústeres RDMA de alta velocidad impulsada por tarjetas de interfaz de red NVIDIA ConnectX con RDMA sobre Ethernet convergente versión 2 le permite crear grandes clústeres de instancias de GPU con la misma red de latencia ultrabaja y escalabilidad de aplicaciones que espera en el entorno local.
No pagas más por la capacidad de RDMA, el almacenamiento de bloques o el ancho de banda de red, y los primeros 10 TB de salida son gratuitos.
A través de OCI Supercluster, los clientes pueden acceder al almacenamiento local, de bloques, de objetos y de archivos para la computación a exascala. Entre los principales proveedores de nube, OCI ofrece la mayor capacidad de almacenamiento NVMe local de alto rendimiento para establecer puntos de control más frecuentes durante las ejecuciones de entrenamiento, lo que resulta en una recuperación más rápida de las fallas.
Los sistemas de archivos de HPC, incluidos BeeGFS, GlusterFS, Lustre y WEKA, se pueden utilizar para el entrenamiento de IA a escala sin comprometer el desempeño.
Mira al arquitecto técnico jefe Pradeep Vincent explicar cómo OCI Supercluster impulsa el entrenamiento y la inferencia de modelos de aprendizaje automático, escalando a decenas de miles de GPU NVIDIA.
Entrena modelos de IA en instancias específicas de OCI basadas en GPU, redes de clústeres de RDMA y OCI Data Science.
Proteger los miles de millones de transacciones financieras que se producen todos los días requiere herramientas de IA que puedan analizar grandes cantidades de datos históricos de clientes. Los modelos de IA que se ejecutan en OCI Compute con tecnología de GPU NVIDIA junto con herramientas de gestión de modelos como OCI Data Science y otros modelos de código abierto ayudan a las instituciones financieras a mitigar el fraude.
La IA se utiliza a menudo para analizar diversos tipos de imágenes médicas (como rayos X y resonancias magnéticas) en un hospital. Los modelos entrenados ayudan a priorizar los casos que necesitan revisión inmediata por parte de un radiólogo e informan resultados concluyentes sobre otros.
El descubrimiento de medicamentos es un proceso lento y costoso que puede tardar muchos años y costar millones de dólares. Al aprovechar la infraestructura y el análisis de IA, los investigadores aceleran dicho proceso. Además, OCI Compute con tecnología de GPU NVIDIA junto con herramientas de gestión de flujos de trabajo de IA como BioNeMo permite a los clientes curar y preprocesar sus datos.
Oracle ofrece un nivel de precios gratuito para la mayoría de los servicios de IA, así como una cuenta de prueba gratuita con 300 dólares estadounidenses en créditos para probar servicios adicionales en la nube. Los servicios de IA son una recopilación de ofertas, como la IA generativa, con modelos de aprendizaje automático predefinidos que facilitan a los desarrolladores aplicar la IA a las aplicaciones y operaciones empresariales.
También tienes que pagar solo los costos de computación y almacenamiento para OCI Data Science.
Obtén más información sobre redes de clúster RDMA, instancias de GPU, servidores con hardware dedicado y mucho más.
Los precios de Oracle Cloud son sencillos, con tarifas consistentemente bajas en todo el mundo, y con apoyo a una amplia gama de casos de uso. Para hacer una estimación de tu tarifa reducida, da un vistazo a la calculadora de costos y configura los servicios que se adapten mejor a tus necesidades.
Obtén ayuda para crear tu próxima solución de IA o implementar tu carga de trabajo en la infraestructura de IA de OCI.