Qu'est-ce que l'inférence en IA ?

Jeffrey Erickson | Responsable de la stratégie de contenu | 2 avril 2024

Pour un non-initié, l'inférence est une conclusion basée sur des données probantes et un raisonnement. En intelligence artificielle, l'inférence est la capacité de l'IA, après de nombreux entraînements sur des ensembles de données sélectionnés, à raisonner et à tirer des conclusions à partir de données qu'elle n'a pas vues auparavant.

Comprendre l'inférence en IA est une étape importante dans la compréhension du fonctionnement de l'intelligence artificielle. Nous aborderons les étapes impliquées, les défis, les cas d'usage et les perspectives d'avenir pour la façon dont les systèmes d'IA tirent leurs conclusions.

Qu'est-ce que l'inférence en IA ?

L'inférence en IA se produit lorsqu'un modèle d'IA entraîné à voir des modèles dans des ensembles de données sélectionnés commence à reconnaître ces modèles dans des données qu'il n'a jamais vues auparavant. En conséquence, le modèle d'IA peut raisonner et faire des prédictions d'une manière qui imite les capacités humaines.

Un modèle d'IA est composé d'algorithmes de prise de décision entraînés sur un réseau neuronal, c'est-à-dire un modèle de langage structuré comme le cerveau humain, pour effectuer une tâche spécifique. Dans un exemple simple, les data scientists peuvent montrer au modèle d'IA un ensemble de données avec des images contenant des images de milliers ou de millions de voitures dont les marques et les modèles sont notés. Après un certain temps, l'algorithme commence à identifier avec précision les voitures dans le jeu de données d'entraînement. L'inférence IA est lorsque le modèle est représenté par un ensemble de données aléatoires et détermine, ou infère, la marque et le modèle d'une voiture avec une précision acceptable. Un modèle d'IA formé de cette façon pourrait être utilisé à un poste frontière ou à une barrière de péage pour faire correspondre les plaques d'immatriculation aux marques de voiture en un clin d'œil. Des processus similaires peuvent entraîner une inférence en IA avec un raisonnement et des prévisions plus subtils pour travailler dans les secteurs de la santé, de la banque, de la vente au détail et dans de nombreux autres secteurs.

Points à retenir

  • L'inférence en IA est la capacité d'un modèle d'IA à inférer, ou extrapoler, des conclusions à partir de données qui lui sont nouvelles.
  • Les modèles d'IA dépendent de l'inférence pour leur étonnante capacité à imiter le raisonnement humain et le langage.
  • L'inférence en IA est l'objectif final d'un processus qui utilise un mélange de technologies et de techniques pour entraîner un modèle d'IA à l'aide d'ensembles de données sélectionnés.
  • Pour réussir, il faut une architecture de données robuste, des données propres et de nombreux cycles de GPU pour entraîner et exécuter l'IA dans les environnements de production.

L'inférence en IA expliquée

L'inférence en IA est une phase du cycle de vie du modèle d'IA qui suit la phase d'entraînement de l'IA. Considérez l'entraînement des modèles d'IA comme des algorithmes de machine learning (ML) faisant leurs devoirs et l'inférence de l'IA comme un test.

L'entraînement à l'IA consiste à présenter de grands ensembles de données organisés au modèle afin qu'il puisse en apprendre davantage sur le sujet à traiter. Le travail des données d'entraînement consiste à apprendre au modèle à effectuer une certaine tâche, de sorte que les ensembles de données varient. Ils peuvent inclure des images de chats ou de ponts, des appels enregistrés au service client ou des images médicales. Le modèle d'IA peut analyser les données en direct, reconnaître les modèles et faire des prédictions précises sur ce qui se passe ensuite dans l'ensemble de données.

Avec les grands modèles de langage (LLM), par exemple, le modèle peut inférer quel mot vient ensuite et produire des phrases et des paragraphes avec une précision et une fluidité étonnantes.

Pourquoi l'inférence en IA est-elle importante ?

L'inférence de l'IA est importante car cette reconnaissance est la façon dont un modèle d'IA entraîné analyse et génère des informations sur les nouvelles données. Sans la capacité de faire des prédictions ou de résoudre des tâches en temps réel, l'IA aura du mal à s'étendre à de nouveaux rôles, y compris dans l'enseignement, l'ingénierie, les découvertes médicales et l'exploration spatiale, et à prendre en charge une liste croissante de cas d'usage dans chaque secteur.

En fait, l'inférence est la base de tout programme d'IA. La capacité d'un modèle à reconnaître des schémas dans un ensemble de données et à inférer des conclusions et des prédictions précises est au cœur de la valeur de l'IA. C'est-à-dire qu'un modèle d'IA capable de lire avec précision une radiographie en quelques secondes ou de détecter une fraude au milieu de milliers ou de millions de transactions par carte de crédit vaut la peine d'investir dedans.

Types d'inférence

Avez-vous besoin d'un système d'IA capable de prendre des décisions très précises en temps quasi réel, par exemple si une transaction importante peut être une fraude ? Ou est-il plus important qu'il puisse utiliser les données qu'il a déjà vues pour prédire l'avenir, comme dans le cas d'un capteur réglé pour demander une intervention de maintenance avant que quelque chose ne se brise ? Comprendre les approches de l'inférence de l'IA vous aidera à choisir le meilleur modèle pour votre projet.

  • Inférence par lots
    L'inférence par lots se produit lorsque des prédictions AI sont générées hors ligne à l'aide de lots de données. Dans cette approche, les données sont collectées au fil du temps et exécutées via des algorithmes de machine learning à intervalles réguliers. L'inférence par lots est un bon choix lorsque les sorties d'IA ne sont pas nécessaires immédiatement. Il fonctionne bien pour intégrer les prévisions d'IA à un tableau de bord d'analyse commerciale qui se met à jour toutes les heures ou tous les jours.
  • Inférence en ligne
    L'inférence en ligne, parfois appelée inférence dynamique, est un moyen de fournir des prédictions d'IA à l'instant où elles sont demandées. L'inférence en ligne peut être plus difficile que l'inférence par lot en raison de ses exigences de faible latence.

    La création d'un système d'inférence en ligne nécessite différentes décisions initiales. Par exemple, les données couramment utilisées peuvent avoir besoin d'être mises en cache pour un accès rapide, ou un modèle d'IA plus simple qui nécessite moins d'opérations pour arriver à des prédictions. Comme les utilisateurs finaux n'ont pas le temps d'examiner les résultats de l'IA avant de les voir, les inférences en ligne peuvent également nécessiter une autre couche de contrôle en temps réel pour s'assurer que les prédictions se situent dans des normes acceptables. Les grands modèles de langage populaires (LLM), tels que ChatGPT d'OpenAI et Bard de Google, sont des exemples d'inférence en ligne.
  • Inférence de flux
    L'inférence de flux est souvent utilisée dans les systèmes Internet des objets. Il n'est pas configuré pour interagir avec les personnes comme un LLM. Au lieu de cela, un pipeline de données, telles que des mesures régulières à partir de capteurs de machine, s'écoule dans un algorithme de machine learning qui effectue ensuite des prédictions en continu. Les modèles dans les relevés du capteur peuvent indiquer que la machine surveillée fonctionne de manière optimale, ou le modèle peut indiquer des problèmes à venir, déclenchant une alerte ou une demande de maintenance ou de réparation.

Quelle est la différence entre le deep learning et l'inférence ?

Le deep learning et l'inférence de l'IA sont deux parties du même processus permettant obtenir des résultats utiles à partir d'un modèle d'IA. Le deep learning passe en premier. C'est ainsi qu'un modèle d'IA est entraîné pour traiter les données d'une manière inspirée par le cerveau humain. Lorsqu'un modèle est entraîné, il acquiert la capacité de reconnaître des niveaux plus profonds d'informations à partir de données. Par exemple, il peut passer de la reconnaissance de formes dans une image à la reconnaissance de thèmes ou d'activités possibles dans l'image. L'inférence en IA a lieu après l'entraînement, lorsque le modèle d'IA est invité à reconnaître ces éléments dans de nouvelles données.

Comment fonctionne l'inférence en IA ?

Pour que l'inférence en IA apporte de la valeur dans un cas d'usage spécifique, de nombreux processus doivent être suivis et de nombreuses décisions doivent être prises concernant l'architecture technologique, la complexité des modèles et les données.

  • Préparation des données
    Assemblez du matériel d'entraînement à partir de données au sein de votre entreprise ou en identifiant des jeux de données externes, y compris éventuellement un ensemble de données open source. Souvent, les jeux de données internes et externes sont combinés. Une fois les ensembles de données définis, les données doivent être nettoyées pour supprimer les doublons, les données inutiles et les problèmes de formatage.
  • Sélection de modèle
    Identifiez un modèle open source d'une entreprise générale ou un modèle spécialisé, conçu pour fournir le type de sortie d'IA dont vous avez besoin. Gardez à l'esprit que les modèles présentent différents niveaux de complexité. Des algorithmes plus complexes peuvent prendre un ensemble plus large d'entrées et faire des inférences plus subtiles, mais ils ont besoin d'un plus grand nombre d'opérations pour arriver à une sortie souhaitée. Trouvez un modèle qui répond à vos besoins en termes de complexité et de besoin de ressources informatiques.
  • Optimisation des modèles
    Optimisez le modèle en itérant votre régime d'entraînement en IA. L'objectif de chaque cycle d'entraînement est de se rapprocher de la précision de sortie souhaitée tout en réduisant la quantité de mémoire et la puissance de calcul nécessaires pour y arriver. L'optimisation des modèles consiste à améliorer l'utilité de l'inférence en IA tout en réduisant les coûts et en minimisant la latence.
  • Inférence de modèle
    C'est à ce moment-là que votre modèle d'IA passe de la phase d'entraînement à la phase opérationnelle, où il est extrapolé à partir de nouvelles données. Au fur et à mesure que votre modèle approche de la production, examinez les inférences et les prédictions de sa sortie. C'est à ce moment que vous pouvez vérifier l'exactitude, le biais et tout problème de confidentialité des données.
  • Post-traitement
    Dans l'IA, le post-traitement est un ensemble de méthodes permettant de vérifier la sortie du modèle. La phase de post-traitement peut inclure des routines de filtrage, de combinaison et d'intégration de données pour aider à élaguer les sorties peu conviviales ou inutiles.
  • Déploiement
    Le déploiement se produit lorsque l'architecture et les systèmes de données qui prennent en charge le modèle d'IA sont formalisés, mis à l'échelle et sécurisés pour une utilisation dans un processus métier standard. C'est aussi le moment de sensibiliser au changement les collaborateurs de l'entreprise au sens large, pour qu'ils apprennent à accepter et à utiliser les résultats de l'IA dans leur travail.

Configuration matérielle requise pour l'inférence en IA

L'inférence en IA est le résultat d'un processus intensif de calcul consistant à exécuter un modèle d'IA via des régimes d'entraînement successifs utilisant des ensembles de données volumineux. Il nécessite l'intégration de nombreuses sources de données et une architecture qui permet au modèle d'IA de s'exécuter efficacement. Voici les technologies clés qui permettent le processus.

  • Unité centrale de traitement (CPU)
    Une CPU est le cerveau central d'un ordinateur. C'est une puce avec des circuits complexes qui réside sur la carte mère de l'ordinateur et exécute le système d'exploitation et les applications. Un processeur permet de gérer les ressources informatiques nécessaires à l'entraînement et à l'inférence en IA, telles que le stockage de données et les cartes graphiques.
  • GPU (Graphics Processing Unit, unité de traitement graphique)
    Les GPU sont un composant matériel clé pour l'inférence en IA. Comme une CPU, un GPU est une puce avec des circuits complexes. Contrairement au processeur, elle est spécialement conçue pour effectuer des calculs mathématiques très rapidement pour prendre en charge le traitement des graphiques et des images. Cette puissance de calcul rend possible l'entraînement et l'inférence de l'IA gourmande en calcul.
  • FPGA (Field-Programmable Gate Array)
    Un FPGA est un circuit intégré qui peut être programmé par un utilisateur final pour fonctionner de manière spécifique. Dans l'inférence en IA, un FPGA peut être configuré pour fournir la bonne combinaison de vitesse matérielle ou de parallélisme, ce qui divise le travail de traitement de données pour s'exécuter sur différents hardwares en parallèle. Cela permet au modèle d'IA de faire des prédictions sur un certain type de données, qu'il s'agisse de texte, de graphiques ou de vidéo.
  • Circuit intégré spécifique aux applications (ASIC)
    Les ASIC sont un autre outil que les équipes informatiques et les data scientists utilisent pour tirer des inférences en IA à la vitesse, au coût et à la précision dont ils ont besoin. Un ASIC est une puce informatique qui combine plusieurs circuits sur une seule puce. La puce peut ensuite être optimisée pour un workload particulier, qu'il s'agisse de la reconnaissance vocale, de la manipulation d'images, de la détection d'anomalies ou de tout autre processus piloté par l'IA.

Défis liés au déploiement de l'inférence en IA

Concevoir ou choisir un modèle d'IA puis l'entraîner ne sont que le début. Le déploiement du modèle d'IA pour effectuer l'inférence dans le monde réel comporte son propre lot de défis. Il peut s'agir de fournir au modèle des données de qualité et d'expliquer ultérieurement ses résultats. Voici une liste de défis à garder à l'esprit.

  • Qualité des données
    On ne peut pas faire de miracles avec des mauvaises données. C'est aussi vrai dans l'inférence en IA que partout ailleurs. Les données qui entraînent des modèles d'IA doivent être vérifiées pour leur applicabilité et leur formatage, et débarrassées des données en double ou étrangères qui ralentissent le processus d'entraînement.
  • Complexité du modèle
    Les modèles d'IA présentent des niveaux de complexité différents, ce qui leur permet d'inférer ou de prédire dans une gamme de situations, qu'il s'agisse de simples, comme l'identification d'une marque et d'un modèle de voiture, ou de complexes et critiques, comme dans le cas de systèmes d'IA qui revérifient la lecture d'un scanner ou d'une IRM par un radiologue. L'un des principaux défis de l'entraînement d'IA en général et de l'inférence en particulier est de construire ou de choisir le bon modèle pour vos besoins.
  • Exigences matérielles
    L'entraînement à l'inférence en IA consomme beaucoup de données. Il nécessite des serveurs pour le stockage de données et l'analyse de données, des processeurs graphiques, des réseaux rapides et peut-être des réseaux de portes programmables par l'utilisateur (FPGA) ou des circuits intégrés spécifiques aux applications (ASIC), qui peuvent être adaptés à votre cas d'usage de l'inférence en IA.
  • Interprétabilité
    Lorsque l'inférence en IA est interprétable ou explicable, cela signifie que les entraîneurs humains comprennent comment l'IA est parvenue à ses conclusions. Ils peuvent suivre le raisonnement utilisé par l'IA pour arriver à sa réponse ou à sa prédiction. L'interprétation est une exigence croissante dans la gouvernance de l'IA et est importante pour repérer les biais dans les résultats de l'IA, mais à mesure que les systèmes d'IA deviennent plus complexes, les algorithmes et les processus de données sous-jacents peuvent devenir trop complexes pour que les humains puissent les comprendre pleinement.
  • Règlement et conformité
    La réglementation de l'IA est une cible mobile. Il est important de renforcer la sécurité des données, l'explicabilité et une structure de reporting robuste pour vos inférences en IA. Cela vous aidera à répondre plus facilement aux exigences de conformité avec les réglementations en matière de confidentialité, de sécurité des données et de biais de l'IA à mesure qu'elles évoluent.
  • Manque de personnel qualifié
    L'expertise nécessaire pour concevoir, entraîner et optimiser les systèmes pour l'inférence en IA nécessite du temps, de la formation et de l'expérience. En conséquence, les personnes ayant cette expertise sont difficiles à trouver et coûteuses à embaucher.

Applications de l'inférence en IA

Grâce à leur capacité à déduire des conclusions ou des prédictions à partir des données disponibles, les modèles d'IA prennent en charge plus de tâches tout le temps. Les grands modèles de langage populaires, tels que ChatGPT, utilisent l'inférence pour choisir des mots et des phrases avec une précision linguistique étrange. L'inférence est également ce qui permet à l'IA d'inférer l'art graphique ou la vidéo qu'elle devrait construire sur la base d'invites verbales.

L'inférence en IA devient également une partie importante de la conception des systèmes industriels. Par exemple, l'IA peut être utilisée pour des inspections visuelles rapides sur une chaîne de fabrication, ce qui permet aux inspecteurs humains de se concentrer sur les défauts ou les anomalies identifiés par l'IA tout en réduisant les coûts et en améliorant le contrôle qualité. Dans les systèmes industriels où les robots travaillent aux côtés des humains sur les chaînes de production, l'inférence en IA apporte la perception, la prédiction et la planification nécessaires pour détecter les objets et prendre des décisions subtiles en matière de mouvement.

Une autre utilisation courante de l'inférence en IA est l'apprentissage robotique, popularisé par les nombreuses tentatives de perfectionnement des voitures sans conducteur. Comme en témoignent les années d'entraînement par des entreprises telles que Waymo, Tesla et Cruz, l'apprentissage robotique demande beaucoup d'essais et d'erreurs alors que les réseaux neuronaux apprennent à reconnaître et à réagir correctement aux exceptions des règles écrites du code de la route.

L'inférence en IA aide également les chercheurs et les médecins. Les modèles d'IA sont entraînés à trouver des remèdes en examinant des masses de données chimiques ou épidémiologiques, et ils aident à diagnostiquer les maladies en lisant des indices subtils dans l'imagerie médicale.

L'avenir de l'inférence en IA

L'étape suivante pour l'inférence en IA sera de sortir des grands environnements de cloud ou de data center et d'être exploitables sur les ordinateurs et les appareils locaux. Alors que l'entraînement initial des systèmes d'IA à l'aide d'architectures de deep learning continuera à fonctionner dans de grands data centers, une nouvelle génération de techniques et de hardware apporte le « dernier kilomètre » de l'inférence en IA dans des appareils plus petits, plus proches de l'endroit où les données sont générées.

Cela permettra plus de personnalisation et de contrôle. Les appareils et les robots bénéficieront d'une meilleure détection d'objets, d'une meilleure reconnaissance du visage et du comportement, ainsi que d'une prise de décision en matière de prédiction. Si vous avez l'impression qu'il s'agit là de la base d'un robot polyvalent, vous n'êtes pas le seul. Dans les années à venir, les innovateurs cherchent à déployer cette technologie d'« inférence à la pointe » dans un large éventail d'appareils dans de nouveaux marchés et secteurs d'activité.

Accélérez votre inférence en IA en temps réel avec Oracle

Oracle fournit l'expertise et la puissance de calcul nécessaires pour entraîner et déployer des modèles d'IA à grande échelle. Plus précisément, Oracle Cloud Infrastructure (OCI) est une plateforme où les professionnels, les équipes informatiques et les data scientists peuvent collaborer et mettre l'inférence de l'IA au service de n'importe quel secteur d'activité.

La plateforme d'IA entièrement gérée d'Oracle permet aux équipes de créer, d'entraîner, de déployer et de surveiller des modèles de machine learning e à l'aide de Python et de leurs outils open source préférés. Avec un environnement JupyterLab nouvelle génération, les entreprises peuvent expérimenter, développer des modèles et intensifier l'entraînement avec des GPU NVIDIA et des entraînements distribuées. Oracle facilite également l'accès aux modèles d'IA générative basés sur les LLM de pointe de Cohere.

Avec OCI, vous pouvez mettre les modèles en production et les maintenir en bonne santé grâce aux fonctionnalités d'opérations de machine learning, telles que les pipelines automatisés, les déploiements de modèles et la surveillance des modèles. En plus de l'entraînement et du déploiement de modèles, OCI fournit une gamme d'applications SaaS avec des modèles de machine learning intégrés et des services d'IA disponibles.

Lorsque vous interagissez avec l'IA, vous constatez une inférence en IA au travail. Cela est vrai que vous utilisiez la détection d'anomalies, la reconnaissance d'images, le texte généré par l'IA ou presque n'importe quelle autre sortie d'IA. Les résultats sont l'aboutissement d'un processus long, techniquement complexe et gourmand en ressources de création, d'entraînement, d'optimisation et de déploiement de modèles qui préparent le terrain pour votre interaction avec l'IA.

La création d'un centre d'excellence en matière d'IA avant le début de l'entraînement spécifique à l'organisation augmente les chances de réussite. Notre e-book explique pourquoi et propose des conseils pour créer un centre d'excellence (CDE) efficace.

FAQ sur l'inférence en IA

Qu'est-ce qu'un exemple d'inférence en IA ?

Un bon exemple d'inférence en IA est lorsqu'un modèle d'IA détecte une anomalie dans les transactions financières et peut comprendre à partir du contexte quel type de fraude il pourrait représenter. A partir de là, le modèle d'IA peut générer une alerte pour la société émettrice de la carte et le titulaire du compte.

Qu'est-ce que l'entraînement et l'inférence en IA ?

L'entraînement consiste à afficher des ensembles de données organisés dans un modèle d'IA afin qu'il puisse commencer à voir et à comprendre des modèles. L'inférence est lorsque ce modèle d'IA affiche des données en dehors des ensembles de données sélectionnés, localise ces mêmes modèles et effectue des prédictions en fonction d'eux.

Que signifie l'inférence dans le machine learning ?

L'inférence signifie qu'un algorithme de machine learning ou un ensemble d'algorithmes a appris à reconnaître des modèles dans des ensembles de données sélectionnés et peut ensuite voir ces modèles dans de nouvelles données.

Qu'est-ce que l'inférence signifie dans le deep learning ?

Le deep learning consiste à entraîner des algorithmes de machine learning à l'aide d'un réseau neuronal qui imite le cerveau humain. Cela permet la reconnaissance et l'extrapolation de concepts subtils et d'abstractions vus, par exemple, dans la génération du langage naturel.

L'inférence en IA peut-elle être utilisée sur les appareils en périphérie ?

L'entraînement à l'inférence en IA a traditionnellement été un processus gourmand en données et en informatique. Cependant, à mesure que l'inférence de l'IA est mieux comprise, elle est accomplie par des appareils moins puissants qui résident en périphérie, loin des grands data centers. Ces périphériques en périphérie pour l'inférence en IA peuvent apporter la reconnaissance d'image, la voix et d'autres capacités dans les opérations sur le terrain.

En quoi l'inférence en IA diffère-t-elle des modèles statistiques traditionnels ?

Les modèles statistiques traditionnels sont simplement conçus pour inférer la relation entre les variables d'un ensemble de données. L'inférence en IA est conçue pour aller plus loin et faire la prédiction la plus précise basée sur ces données.

Quel est l'impact des hyperparamètres sur les performances d'inférence en IA ?

Lors de la création d'un modèle d'IA, les data scientists affectent parfois des paramètres manuellement. Contrairement aux paramètres standard du modèle d'IA, ces hyperparamètres ne sont pas déterminés par ce que le modèle tire de l'ensemble de données. Les hyperparamètres peuvent être considérés comme des guides qui peuvent être ajustés au besoin pour faciliter les inférences en IA et les performances prédictives.

Comment les entreprises peuvent-elles garantir la précision et la fiabilité des modèles d'inférence en IA ?

L'une des clés est de savoir explicitement à l'avance à qui correspond votre sortie et quel problème elle tente de résoudre. Rendez les résultats souhaités spécifiques et mesurables. De cette façon, vous pouvez établir des repères et mesurer continuellement les performances de votre système par rapport à eux.