Simplifica las operaciones de Kubernetes empresarial a escala. Implementa y gestiona fácilmente cargas de trabajo que hacen un uso intensivo de los recursos, como la IA, con escalado automático, aplicación de parches y actualizaciones.
OKE es el servicio de Kubernetes de menor costo entre todos los hiperescaladores, especialmente para entornos sin servidor.
OKE ajusta automáticamente los recursos informáticos según la demanda, lo que puede reducir tus costos.
Las GPU pueden ser escasas, pero la programación de trabajos de OKE facilita la maximización del uso de recursos.
OKE es coherente en las nubes y en las instalaciones, lo que permite la portabilidad y evita la dependencia de proveedores.
OKE reduce el tiempo y el costo necesarios para gestionar las complejidades de la infraestructura de Kubernetes.
Las actualizaciones automáticas y la aplicación de parches de seguridad aumentan la fiabilidad del plano de control y los nodos de trabajador.
Kubernetes es la plataforma para implementar cargas de trabajo de IA. OKE potencia los servicios de IA de Oracle Cloud Infrastructure (OCI).
La etapa inicial de desarrollo de un proyecto de IA implica definir el problema y preparar datos para crear modelos.
– Los clústeres de Kubernetes pueden mejorar significativamente la eficiencia al otorgar acceso compartido a recursos de GPU costosos y a menudo limitados, al tiempo que proporcionan entornos seguros y gestionados de forma centralizada.
– Kubeflow, un proyecto de código abierto relacionado con Kubernetes, proporciona un marco completo diseñado para optimizar la creación, el entrenamiento y la implementación de modelos.
OKE se basa en OCI y ofrece una pila completa de infraestructura de alto rendimiento diseñada para cargas de trabajo de IA/AA, como:
– La gama completa de GPU NVIDIA incluyendo H100, A100, A10, etc.
– Redes RDMA ultrarrápidas
Con los nodos autogestionados de OKE, puede ejecutar cargas de trabajo de creación de IA/AA en los clusters de Kubernetes.
Kubernetes es la plataforma para implementar cargas de trabajo de IA. OKE potencia los servicios de OCI AI.
– En el entrenamiento de modelos, los científicos de datos seleccionan un algoritmo e inician trabajos de entrenamiento utilizando datos preparados. Esta etapa requiere sistemas de programación sofisticados para manejar los trabajos de manera eficiente.
– Los proyectos de Kubernetes como Volcano y Kueueue ayudan a manejar dichos requisitos y hacer un uso eficiente de los recursos informáticos.
– El entrenamiento distribuido a gran escala requiere comunicaciones internode de baja latencia en el clúster. Aquí es donde se necesita una red ultra rápida especializada con acceso directo a memoria remota (RDMA). Permite mover los datos directamente a la memoria de una aplicación o desde ella, omitiendo la CPU para reducir la latencia.
OKE se basa en OCI y ofrece una pila completa de infraestructura de alto rendimiento diseñada para cargas de trabajo de IA/AA, como:
– La gama completa de GPU NVIDIA incluyendo H100, A100, A10, etc.
– Redes RDMA de baja latencia y ultra alto rendimiento
Con los nodos autogestionados de OKE, puede ejecutar entrenamiento de IA/AA en los clusters de Kubernetes.
Kubernetes es la plataforma para implementar cargas de trabajo de IA. OKE potencia los servicios de OCI AI.
– La inferencia de modelos de IA es donde realmente brilla Kubernetes. Kubernetes puede ampliar o reducir automáticamente el número de pods de inferencia en función de la demanda, lo que garantiza un uso eficiente de los recursos.
– Kubernetes proporciona una gestión de recursos sofisticada, incluida la capacidad de especificar límites de CPU y memoria para contenedores.
OKE está diseñado con resiliencia en su núcleo, aprovechando la escala automática de pod incorporada de Kubernetes para escalar nodos de trabajador en función del uso. Los nodos de trabajador se pueden distribuir en varios dominios de errores o de disponibilidad para ofrecer una alta disponibilidad.
Los nodos virtuales de OKE ofrecen una experiencia de Kubernetes sin servidor. Solo necesitan escalar a nivel de pod, sin escalar nunca los nodos de trabajador. Esto permite una ampliación más rápida y una gestión más económica, ya que las tarifas de servicio se basan únicamente en los pods en uso.
Los nodos virtuales son adecuados para las cargas de trabajo de inferencia y pueden utilizar procesadores Arm, que se están convirtiendo en una opción mucho más atractiva para la inferencia de IA, especialmente cuando las GPU son escasas.
OKE ofrece un menor costo total de propiedad y un mejor tiempo de comercialización.
OKE simplifica las operaciones a escala de las siguientes maneras:
Prepara tus aplicaciones para el futuro con una arquitectura de microservicios centrada en OKE.
"Muchos servicios de IA de OCI se ejecutan en OCI Kubernetes Engine (OKE), el servicio de Kubernetes gestionado de Oracle. De hecho, nuestro equipo de ingeniería experimentó una mejora del rendimiento de 10X con OCI Vision simplemente cambiando de una plataforma anterior a OKE. Es excelente."
Vicepresidente de servicios de IA de OCI, Oracle Cloud Infrastructure
Implementa simples microservicios empaquetados como contenedores Docker y se comunican a través de una API común.
Descubre las mejores prácticas para desplegar un pool de nodos virtuales sin servidor mediante la automatización y la arquitectura de referencia de Terraform proporcionadas.
Descubre cómo Tryg Insurance redujo sus costos en un 50% a través del ajuste dinámico de derechos.
Mickey Boxell, Gestión de productos
Los complementos de OKE ofrecen la oportunidad de descargar la gestión del software operativo del cluster a Oracle. También ofrecen la flexibilidad de personalizar o excluir completamente el software operativo de Kubernetes por defecto para traer software equivalente. Nos complace compartir la versión de cuatro complementos adicionales: la escala automática del cluster de Kubernetes, la malla de servicios Istio, el controlador de entrada nativo de OCI y el servidor de métricas de Kubernetes, así como soporte para nuevos argumentos de configuración para proporcionar un mayor control sobre los complementos desplegados en sus clusters.
Lee el post completoKubernetes es una plataforma de código abierto para la gestión y el escalado de clústeres de aplicaciones y servicios en contenedores.
Kubernetes es una plataforma de código abierto para la gestión y el escalado de clústeres de aplicaciones y servicios en contenedores.
Obtén 30 días de acceso a herramientas de CI/CD, Terraform gestionado, telemetría y más.
Explora los manuales desplegables de soluciones y arquitecturas de referencia.
Impulsa el desarrollo de aplicaciones con Kubernetes, Docker, sin servidor, API y más.
Ponte en contacto con nuestros agentes si tienes alguna pregunta sobre ventas, soporte y otras cuestiones.