¿Qué es la inferencia de IA?

Jeffrey Erickson | Estratega de contenido | 2 abril de 2024

En términos sencillos, la inferencia es una conclusión basada en evidencias y razonamiento. En el campo de la inteligencia artificial, la inferencia es la capacidad de la IA, después de mucho entrenamiento con conjuntos de datos seleccionados, para razonar y sacar conclusiones de datos que no haya visto antes.

Comprender la inferencia de IA es un paso importante para entender cómo funciona la inteligencia artificial. Abordaremos los pasos en que se divide el proceso, los desafíos que presenta, algunos casos de uso y las perspectivas a futuro de cómo los sistemas de IA llegan a sus conclusiones.

¿Qué es la inferencia de IA?

La inferencia de IA se produce cuando un modelo de IA entrenado para ver patrones en conjuntos de datos seleccionados comienza a reconocer esos patrones en datos que nunca antes había visto. Como resultado, el modelo de IA puede razonar y hacer predicciones de una manera que imite las habilidades humanas.

Un modelo de IA está formado por algoritmos de toma de decisiones entrenados en una red neuronal, es decir, un modelo de lenguaje estructurado como el cerebro humano, para realizar una tarea específica. En un ejemplo sencillo, los científicos de datos podrían mostrar al modelo de IA un conjunto de datos con imágenes de miles o millones de automóviles con las marcas y los modelos anotados. Después de un tiempo, el algoritmo comienza a identificar con precisión los vehículos en el conjunto de datos de entrenamiento. La inferencia de IA se produce cuando se muestra al modelo un conjunto de datos aleatorios y determina, o infiere, la marca y el modelo de un automóvil con una precisión aceptable. Un modelo de IA entrenado de esta manera podría usarse en un paso fronterizo o en el peaje de un puente para cotejar las matrículas con el automóvil en una evaluación casi instantánea. Otros procesos similares pueden generar la inferencia de IA con razonamientos y predicciones más sutiles para adaptarse mejor a sectores como salud, banca, retail, etc.

Conclusiones clave

  • La inferencia de IA es la capacidad de un modelo de IA para inferir o extrapolar conclusiones a partir de datos nuevos.
  • Los modelos de IA dependen de la inferencia por su extraña capacidad para imitar el razonamiento y el lenguaje humanos.
  • La inferencia de IA es el objetivo final de un proceso que utiliza una combinación de tecnologías y técnicas para entrenar un modelo de IA utilizando conjuntos de datos seleccionados.
  • Para tener éxito, es preciso contar con una arquitectura de datos sólida, datos depurados y múltiples ciclos de GPU para entrenar y ejecutar la IA en entornos de producción.

Explicación de la inferencia de IA

La inferencia es la fase del ciclo de vida del modelo de IA inmediatamente posterior a la del entrenamiento de la IA. Piensa en el entrenamiento de modelos de IA como algoritmos de aprendizaje automático (ML) que realizan sus tareas y la inferencia de IA como prueba.

El entrenamiento de IA implica presentar grandes conjuntos de datos seleccionados al modelo para que pueda aprender sobre el tema en cuestión. El trabajo de los datos de entrenamiento consiste en enseñar al modelo a realizar una tarea determinada, por lo que los conjuntos de datos varían. Pueden incluir imágenes de gatos o puentes, llamadas de servicio al cliente grabadas o imágenes médicas. El modelo de IA puede analizar datos en vivo, reconocer patrones y realizar predicciones necesarias de qué será lo próximo en el conjunto de datos.

Con los modelos grandes de lenguaje (LLM), por ejemplo, estos pueden inferir qué palabra viene después y producir oraciones y párrafos con una precisión y fluidez asombrosas.

¿Por qué es importante la inferencia de IA?

La inferencia de IA es importante porque ese reconocimiento es la forma en que un modelo de IA entrenado analiza y genera insights sobre datos nuevos. Sin la capacidad de hacer predicciones o resolver tareas en tiempo real, la IA tendrá dificultades para expandirse a nuevos ámbitos, como la enseñanza, la ingeniería, los descubrimientos médicos y la exploración espacial, y abordar una lista cada vez más extensa de casos de uso en todos y cada uno de los sectores.

De hecho, la inferencia es la parte esencial de cualquier programa de IA. La capacidad de un modelo para reconocer patrones en un conjunto de datos e inferir conclusiones y predicciones necesarias es el núcleo del valor de la IA. Es decir, vale la pena invertir en un modelo de IA que pueda leer con precisión una radiografía en segundos o detectar fraudes en medio de miles o millones de transacciones con tarjetas de crédito.

Tipos de inferencia

¿Necesitas un sistema de IA que pueda tomar decisiones de elevada precisión casi en tiempo real, como indicar si una gran transacción concreta pudiera ser un caso de fraude? ¿O es más importante que pueda utilizar los datos que ya ha visto para predecir el futuro, como con un sensor que se ajusta para transmitir que se necesita mantenimiento antes de que algo se averíe? Comprender los enfoques de la inferencia de IA te ayudará a establecer el mejor modelo para tu proyecto.

  • Inferencia por lotes
    La inferencia por lotes se produce cuando las predicciones de IA se generan fuera de línea mediante lotes de datos. En este enfoque, los datos se recopilan con el tiempo y se ejecutan a través de algoritmos de aprendizaje automático a intervalos regulares. La inferencia por lotes es una buena opción cuando las salidas de IA no son necesarias de inmediato. Funciona bien para llevar las predicciones de IA a un panel de control de análisis empresarial que se actualiza cada hora o día.
  • Inferencia en línea
    La inferencia en línea, a veces denominada "inferencia dinámica", es una forma de proporcionar predicciones de IA en el momento en que se solicitan. La inferencia en línea puede ser más difícil que la inferencia por lotes debido a sus requisitos de baja latencia.

    Para crear un sistema para la inferencia en línea se necesitan tomar diferentes decisiones iniciales. Por ejemplo, es posible que los datos utilizados habitualmente deban almacenarse en caché para garantizar un acceso rápido o que sea necesario encontrar un modelo de IA más sencillo que requiera menos operaciones para obtener las predicciones. Debido a que no hay tiempo para revisar los resultados generados por la IA antes de que los usuarios finales las vean, las inferencias en línea también pueden precisar otra capa de supervisión en tiempo real para asegurarnos de que las predicciones ofrezcan unos estándares aceptables. Los modelos grandes de lenguaje más populares (LLM), como ChatGPT de OpenAI y Bard de Google, son ejemplos de inferencia en línea.
  • Inferencia de streaming
    La inferencia de streaming se suele utilizar en sistemas del Internet de las cosas. No está configurado para interactuar con las personas de la manera en que lo hace un LLM. En su lugar, un pipeline de datos, como las mediciones habituales de los sensores de las máquinas, va a parar a un algoritmo de aprendizaje automático que posteriormente realiza predicciones continuas. Los patrones en las lecturas de los sensores pueden indicar que la máquina supervisada está funcionando de manera óptima, o indicar problemas ante de que sucedan, de modo que se emita una alerta o una solicitud de mantenimiento o reparación.

¿Cuál es la diferencia entre el entrenamiento del aprendizaje profundo y la inferencia de IA?

El entrenamiento de aprendizaje profundo y la inferencia de IA son dos elementos del mismo proceso y sirven para obtener resultados útiles a partir de un modelo de IA. El aprendizaje profundo se produce antes. Se refiere a la forma en que se entrena un modelo de IA para procesar datos de una manera inspirada en el cerebro humano. A medida que se entrena un modelo, adquiere la capacidad de reconocer niveles más profundos de información de los datos. Por ejemplo, puede pasar de reconocer formas en una imagen a reconocer posibles temas o actividades en la imagen. La inferencia de IA ocurre después del entrenamiento, cuando se le pide al modelo de IA que reconozca estos elementos en nuevos datos.

¿Cómo funciona la inferencia de IA?

Para que la inferencia de IA proporcione valor en un caso de uso específico, se deben seguir múltiples procesos y se deben tomar muchas decisiones en torno a la arquitectura tecnológica, la complejidad del modelo y los datos.

  • Preparación de datos
    Reúne material de entrenamiento a partir de datos de tu organización o identificando conjuntos de datos externos, posiblemente incluyendo un conjunto de datos de código abierto. A menudo, se combinan conjuntos de datos internos y externos. Una vez decididos los conjuntos de datos, se deben depurar para eliminar duplicados, elementos innecesarios y problemas de formato.
  • Selección de modelos
    Identifica un modelo especializado, empresarial general o de código abierto diseñado para proporcionar el tipo de resultados de IA que necesitas. Ten en cuenta que los modelos presentan diferentes niveles de complejidad. Los algoritmos más complejos pueden asumir un conjunto más amplio de entradas y hacer inferencias más sutiles, pero necesitan un mayor número de operaciones para llegar al resultado deseado. Encuentra un modelo que se adapte a tus necesidades en términos de complejidad y consumo de recursos informáticos.
  • Optimización de modelos
    Optimiza el modelo iterando en tu régimen de entrenamiento de IA. El objetivo de cada ronda de entrenamiento es acercarse a la precisión deseada en los resultados, al tiempo que se reduce la cantidad de memoria y capacidad de procesamiento necesaria para obtenerlos. La optimización de modelos consiste en mejorar la utilidad de la inferencia de IA al tiempo que se reducen los costos y se minimiza la latencia.
  • Inferencia de modelos
    Se refiere a cuando el modelo de IA pasa de la fase de entrenamiento a la fase operativa, donde se extrapola de nuevos datos. Revisa las inferencias y predicciones de los resultados de tu modelo a medida que se acerque a la fase de producción. Es en este punto donde puedes comprobar la precisión, el sesgo y cualquier asunto relativo a la privacidad de datos.
  • Posprocesamiento
    En IA, el posprocesamiento se refiere a un conjunto de métodos destinados a comprobar los resultados del modelo. La fase de posprocesamiento puede incluir rutinas para filtrar, combinar e integrar datos de a cara a contribuir a reducir resultados negativos o poco útiles.
  • Despliegue
    El despliegue se produce cuando la arquitectura y los sistemas de datos que respaldan el modelo de IA se formalizan, escalan y protegen para ser utilizados un proceso de negocio normal. Este es también el momento de la formación y la gestión del cambio, donde a las personas de la organización en general se les enseña a aceptar y utilizar los resultados de la IA en su trabajo.

Requisitos de hardware para la inferencia de AI

La inferencia de IA es el resultado de un proceso exigente en cuanto al uso de recursos informáticos, mediante el cual se ejecuta un modelo de IA a través de programas sucesivos de entrenamiento, utilizando para ello vastos conjuntos de datos. Requiere la integración de múltiples fuentes de datos y una arquitectura que permita que el modelo de IA se ejecute de manera eficiente. A continuación, incluimos las principales tecnologías que hacen posible el proceso.

  • Unidad de procesamiento central (CPU)
    Una CPU es el cerebro central de un PC. Es un chip con circuitos complejos que reside en la placa base del PC y ejecuta el sistema operativo y las aplicaciones. Una CPU ayuda a gestionar los recursos informáticos necesarios para el entrenamiento y la inferencia de IA, como el almacenamiento de datos y las tarjetas gráficas.
  • Unidad de procesamiento gráfico (GPU)
    Las GPU son un componente de hardware clave para la inferencia de IA. Como sucede con las CPU, una GPU es un chip con circuitos complejos. Sin embargo, a diferencia de las CPU, las GPU están especialmente diseñadas para realizar cálculos matemáticos muy rápidamente y admitir procesamiento de gráficos e imágenes. Este poder de cálculo es lo que hace posible el entrenamiento y la inferencia de IA que consume grandes recursos informáticos.
  • Matriz de puerta programable de campo (FPGA)
    Una FPGA es un circuito integrado que el usuario final puede programar para que funcione de una manera específica. En la inferencia de IA, se puede configurar un FPGA para proporcionar la combinación correcta de velocidad de hardware o paralelismo, de modo que divide el trabajo de procesamiento de datos para que pueda ejecutarse en diferentes dispositivos de hardware en paralelo. Esto permite que el modelo de IA realice predicciones sobre un determinado tipo de datos, ya sea texto, gráficos o video.
  • Circuito integrado específico de la aplicación (ASIC)
    Los ASIC son otra herramienta que los equipos de TI y los científicos de datos utilizan para derivar inferencias de IA a la velocidad, el costo y la precisión que necesitan. Un ASIC es un chip de PC que combina varios circuitos en uno solo. El chip se puede optimizar para una carga de trabajo en particular, ya sea reconocimiento de voz, manipulación de imágenes, detección de anomalías o cualquier otro proceso basado en IA.

Desafíos del despliegue de inferencia de IA

Diseñar o elegir un modelo de IA y luego entrenarlo es solo el comienzo. El despliegue del modelo de IA para llevar a cabo la inferencia en el mundo real conlleva su propio conjunto de desafíos, como proporcionar al modelo datos de calidad y, posteriormente, explicar sus resultados. A continuación se incluye una lista de los desafíos que se deben tener en cuenta.

  • Calidad de los datos
    El proverbio "lo que mal empieza, mal acaba" es tan aplicable a la inferencia de IA como a cualquier otro ámbito. Debe examinarse la aplicabilidad y el formato de los datos que se utilizan para entrenar modelos de IA e, igualmente, deben depurarse los datos duplicados o superfluos que ralentizan el proceso de entrenamiento.
  • Complejidad del modelo
    Los modelos de IA presentan diferentes niveles de complejidad, lo que les permite inferir o realizar predicciones en múltiples situaciones, desde sencillas, como identificar una marca y modelo de automóvil, hasta complejos y fundamentales, como en el caso de los sistemas de IA que comprueban dos veces la lectura de una tomografía computarizada o una resonancia magnética por parte de un radiólogo. Un desafío clave del entrenamiento de IA en general y la inferencia en particular es crear o elegir el modelo adecuado para sus necesidades.
  • Requisitos de hardware
    El entrenamiento de inferencia de IA es una tarea que realiza un uso intensivo de datos. Requiere servidores para el almacenamiento y analítica de datos, procesadores gráficos, redes rápidas y posiblemente matrices de puerta programable de campo (FPGA) o circuitos integrados específicos de la aplicación (ASIC), que se pueden adaptar a tu caso de uso específico de inferencia de IA.
  • Interpretabilidad
    Cuando la inferencia de IA es interpretable o explicable, significa que los entrenadores humanos entienden cómo la IA llegó a sus conclusiones. Pueden seguir el razonamiento que la IA usó para llegar a su respuesta o predicción. La interpretabilidad es un requisito creciente en la gobernanza de la IA y es importante para detectar sesgos en los resultados producidos por la IA. Sin embargo, a medida que los sistemas de IA se vuelven más complejos, los algoritmos y los procesos de datos subyacentes pueden volverse demasiado complejos para que los humanos los comprendan completamente.
  • Regulación y cumplimiento
    La regulación de la IA es un objetivo que va cambiando. Es importante desarrollar la seguridad de los datos, la explicabilidad y una sólida estructura de información para detallar tus inferencias de IA. Esto te ayudará a cumplir los requisitos de cumplimiento más fácilmente a medida que evolucionan las normativas en materia de privacidad, seguridad de datos y sesgo de IA.
  • Escasez de personal calificado
    Para desarrollar los conocimientos necesarios para diseñar, entrenar y optimizar sistemas para la inferencia de IA, es preciso dedicar tiempo y contar con la formación y la experiencia necesarias. Por ello, estos profesionales calificados son complicados de encontrar y caros de contratar.

Aplicaciones de la inferencia de IA

Con su capacidad para inferir conclusiones o predicciones a partir de los datos disponibles, los modelos de IA no dejan de asumir cada vez más tareas. Los modelos grandes de lenguaje más populares, como ChatGPT, utilizan la inferencia para elegir palabras y oraciones con una precisión lingüística extraordinaria. La inferencia es también lo que permite a la IA entender qué arte gráfico o video debe crear en función de una serie de prompts verbales.

La inferencia de IA también se está convirtiendo en una parte importante de la formación de sistemas industriales. Por ejemplo, la inteligencia artificial se puede utilizar para realizar inspecciones visuales rápidas en una línea de fabricación, para que, de esta forma, los inspectores humanos puedan centrarse en los fallos o las anomalías identificadas por la IA, al tiempo que se reducen los costos y se mejora el control de calidad. En los sistemas industriales donde robots y humanos trabajan juntos en las líneas de producción, la inferencia de IA permite la percepción, la predicción y la planificación necesarias para detectar objetos y tomar decisiones de cambios sutiles.

Otro uso común de la inferencia de IA es el aprendizaje robótico, popularizado por los innumerables intentos de perfeccionar los automóviles sin conductor. Como demuestran los años de formación en empresas como Waymo, Tesla y Cruz, el aprendizaje robótico requiere mucho ensayo y error a medida que las redes neuronales aprenden a reconocer y reaccionar adecuadamente a las excepciones a las reglas del juego.

La inferencia de IA también está ayudando a investigadores y médicos. Los modelos de IA están siendo entrenados para encontrar curas examinando masas de datos químicos o epidemiológicos, y están contribuyendo a diagnosticar enfermedades mediante la lectura de signos sutiles en imágenes médicas.

El futuro de la inferencia de IA

El siguiente paso para la inferencia de IA será salir de grandes entornos de nube o centros de datos y poder realizarse en equipos y dispositivos locales. Si bien el entrenamiento inicial de sistemas de IA que utilizan arquitecturas de aprendizaje profundo continuará ejecutándose en grandes centros de datos, una nueva generación de técnicas y hardware está llevando la inferencia de IA de "última milla" a dispositivos más pequeños, más cerca de donde se generan los datos.

Esto contribuirá a incrementar la personalización y el control. Los dispositivos y robots disfrutarán de una mejor detección de objetos, reconocimiento facial y comportamiento y toma de decisiones predictivas. Si esto te suena como a los fundamentos teóricos de los robots de uso general, no estás solo. En los próximos años, los innovadores buscarán implementar esta tecnología de "inferencia perimetral" en una amplia gama de dispositivos en nuevos mercados e industrias.

Acelera tu inferencia de IA en tiempo real con Oracle

Oracle brinda los conocimientos y la capacidad de procesamiento para entrenar e implementar modelos de IA a escala. En concreto, Oracle Cloud Infrastructure (OCI) es una plataforma en la que empresarios, equipos de TI y científicos de datos pueden colaborar y aplicar la inferencia de IA a cualquier sector.

La plataforma de IA totalmente gestionada de Oracle permite a los equipos crear, entrenar, desplegar y supervisar modelos de aprendizaje automático mediante Python y sus herramientas de código abierto favoritas. Con un entorno basado en JupyterLab de última generación, las empresas pueden experimentar, desarrollar modelos y escalar la formación con GPU NVIDIA y entrenamiento distribuido. Oracle también facilita el acceso a modelos de IA generativa basados en los LLM de última generación de Cohere.

Con Oracle Cloud Infrastructure, puedes incorporar modelos a la fase de producción y mantenlos en condiciones adecuadas con capacidades de operaciones de aprendizaje automático (MLOps), como pipelines automatizados e implementación y control de modelos. Además del entrenamiento y despliegue de modelos, Oracle Cloud Infrastructure proporciona una gama de aplicaciones SaaS con modelos de aprendizaje automático integrados y servicios de inteligencia artificial disponibles.

Al interactuar con la inteligencia artificial, estás viendo en primera persona como se aplica la inferencia de IA en el trabajo. Eso es así tanto si utilizas la detección de anomalías, el reconocimiento de imágenes, texto generado por IA o casi cualquier otro resultado producto de la IA. Los resultados son la culminación de un proceso largo, técnicamente complejo y que utiliza grandes cantidades de recursos de creación de modelos, entrenamiento, optimización e implementación, y sientan las bases para que interactúes con la IA eficazmente.

Establecer un centro de excelencia de IA antes de que comience el entrenamiento específico de la organización aumenta las probabilidades de éxito. Nuestro ebook explica por qué y ofrece consejos para crear un centro de excelencia eficaz.

Preguntas frecuentes sobre inferencia de IA

Cuál sería un ejemplo de inferencia en IA?

Un buen ejemplo de inferencia en la IA sería cuando un modelo de IA detecta una anomalía en las transacciones financieras y, a partir del contexto, puede comprender qué tipo de fraude podría representar. A partir de ahí, el modelo de IA puede generar y enviar una alerta a la empresa de la tarjeta y al titular de la cuenta.

¿Qué es el entrenamiento y la inferencia en IA?

El entrenamiento se realiza cuando se muestran conjuntos de datos seleccionados a un modelo de IA para que pueda comenzar a identificar y comprender patrones. La inferencia se produce cuando ese modelo de IA muestra datos no incluidos en los conjuntos de datos seleccionados, localiza esos mismos patrones y realiza predicciones basadas en ellos.

¿Qué significa la inferencia en el aprendizaje automático?

La inferencia significa que un algoritmo o conjunto de algoritmos de aprendizaje automático ha aprendido a reconocer patrones en conjuntos de datos seleccionados y luego puede identificar esos mismos patrones en nuevos datos.

¿Qué significa la inferencia en el aprendizaje profundo?

El aprendizaje profundo entrena algoritmos de aprendizaje automático utilizando una red neuronal que imita al cerebro humano. Esto permite el reconocimiento y extrapolación de conceptos sutiles y abstracciones vistas, por ejemplo, en la generación del lenguaje natural.

¿Se puede utilizar la inferencia de IA en dispositivos perimetrales?

El entrenamiento de inferencia de IA ha sido tradicionalmente un proceso que presenta un intenso consumo de datos y elevada capacidad de procesamiento. Sin embargo, a medida que la inferencia de IA se entiende mejor, se puede lograr con dispositivos menos potentes ubicados en el perímetro, lejos de los grandes centros de datos. Estos dispositivos perimetrales para la inferencia de IA pueden incorporar reconocimiento de imágenes, voz y otras capacidades a las operaciones de campo.

¿En qué se diferencia la inferencia de IA de los modelos estadísticos tradicionales?

Los modelos estadísticos tradicionales están diseñados simplemente para inferir la relación entre variables en un conjunto de datos. La inferencia de IA está diseñada para llevar a la propia inferencia un paso más allá y hacer la predicción más precisa posible basada en esos datos.

¿Cómo afectan los hiperparámetros al rendimiento de inferencia de IA?

Al crear un modelo de IA, los científicos de datos en ocasiones asignan parámetros manualmente. A diferencia de los parámetros estándar del modelo de IA, estos hiperparámetros no están determinados por lo que el modelo infiere del conjunto de datos. Los hiperparámetros se pueden considerar como guías ajustables según sea necesario para ayudar a generar inferencias de IA e impulsar el rendimiento predictivo.

¿Cómo pueden las organizaciones ayudar a garantizar la precisión y fiabilidad de los modelos de inferencia de IA?

Una clave es saber explícitamente a quién va dirigido el producto generado y qué problema se está tratando de resolver. Logra que los resultados deseados sean específicos y medibles. De esta forma, puedes establecer puntos de referencia y evaluar continuamente el rendimiento del sistema con respecto a ellos.