Jeffrey Erickson | Responsable de la stratégie de contenu | 2 avril 2024
Pour un non-initié, l'inférence est une conclusion basée sur des données probantes et un raisonnement. En intelligence artificielle, l'inférence est la capacité de l'IA, après de nombreux entraînements sur des ensembles de données sélectionnés, à raisonner et à tirer des conclusions à partir de données qu'elle n'a pas vues auparavant.
Comprendre l'inférence en IA est une étape importante dans la compréhension du fonctionnement de l'intelligence artificielle. Nous aborderons les étapes impliquées, les défis, les cas d'usage et les perspectives d'avenir pour la façon dont les systèmes d'IA tirent leurs conclusions.
L'inférence en IA se produit lorsqu'un modèle d'IA entraîné à voir des modèles dans des ensembles de données sélectionnés commence à reconnaître ces modèles dans des données qu'il n'a jamais vues auparavant. En conséquence, le modèle d'IA peut raisonner et faire des prédictions d'une manière qui imite les capacités humaines.
Un modèle d'IA est composé d'algorithmes de prise de décision entraînés sur un réseau neuronal, c'est-à-dire un modèle de langage structuré comme le cerveau humain, pour effectuer une tâche spécifique. Dans un exemple simple, les data scientists peuvent montrer au modèle d'IA un ensemble de données avec des images contenant des images de milliers ou de millions de voitures dont les marques et les modèles sont notés. Après un certain temps, l'algorithme commence à identifier avec précision les voitures dans le jeu de données d'entraînement. L'inférence IA est lorsque le modèle est représenté par un ensemble de données aléatoires et détermine, ou infère, la marque et le modèle d'une voiture avec une précision acceptable. Un modèle d'IA formé de cette façon pourrait être utilisé à un poste frontière ou à une barrière de péage pour faire correspondre les plaques d'immatriculation aux marques de voiture en un clin d'œil. Des processus similaires peuvent entraîner une inférence en IA avec un raisonnement et des prévisions plus subtils pour travailler dans les secteurs de la santé, de la banque, de la vente au détail et dans de nombreux autres secteurs.
Points à retenir
L'inférence en IA est une phase du cycle de vie du modèle d'IA qui suit la phase d'entraînement de l'IA. Considérez l'entraînement des modèles d'IA comme des algorithmes de machine learning (ML) faisant leurs devoirs et l'inférence de l'IA comme un test.
L'entraînement à l'IA consiste à présenter de grands ensembles de données organisés au modèle afin qu'il puisse en apprendre davantage sur le sujet à traiter. Le travail des données d'entraînement consiste à apprendre au modèle à effectuer une certaine tâche, de sorte que les ensembles de données varient. Ils peuvent inclure des images de chats ou de ponts, des appels enregistrés au service client ou des images médicales. Le modèle d'IA peut analyser les données en direct, reconnaître les modèles et faire des prédictions précises sur ce qui se passe ensuite dans l'ensemble de données.
Avec les grands modèles de langage (LLM), par exemple, le modèle peut inférer quel mot vient ensuite et produire des phrases et des paragraphes avec une précision et une fluidité étonnantes.
L'inférence de l'IA est importante car cette reconnaissance est la façon dont un modèle d'IA entraîné analyse et génère des informations sur les nouvelles données. Sans la capacité de faire des prédictions ou de résoudre des tâches en temps réel, l'IA aura du mal à s'étendre à de nouveaux rôles, y compris dans l'enseignement, l'ingénierie, les découvertes médicales et l'exploration spatiale, et à prendre en charge une liste croissante de cas d'usage dans chaque secteur.
En fait, l'inférence est la base de tout programme d'IA. La capacité d'un modèle à reconnaître des schémas dans un ensemble de données et à inférer des conclusions et des prédictions précises est au cœur de la valeur de l'IA. C'est-à-dire qu'un modèle d'IA capable de lire avec précision une radiographie en quelques secondes ou de détecter une fraude au milieu de milliers ou de millions de transactions par carte de crédit vaut la peine d'investir dedans.
Avez-vous besoin d'un système d'IA capable de prendre des décisions très précises en temps quasi réel, par exemple si une transaction importante peut être une fraude ? Ou est-il plus important qu'il puisse utiliser les données qu'il a déjà vues pour prédire l'avenir, comme dans le cas d'un capteur réglé pour demander une intervention de maintenance avant que quelque chose ne se brise ? Comprendre les approches de l'inférence de l'IA vous aidera à choisir le meilleur modèle pour votre projet.
Le deep learning et l'inférence de l'IA sont deux parties du même processus permettant obtenir des résultats utiles à partir d'un modèle d'IA. Le deep learning passe en premier. C'est ainsi qu'un modèle d'IA est entraîné pour traiter les données d'une manière inspirée par le cerveau humain. Lorsqu'un modèle est entraîné, il acquiert la capacité de reconnaître des niveaux plus profonds d'informations à partir de données. Par exemple, il peut passer de la reconnaissance de formes dans une image à la reconnaissance de thèmes ou d'activités possibles dans l'image. L'inférence en IA a lieu après l'entraînement, lorsque le modèle d'IA est invité à reconnaître ces éléments dans de nouvelles données.
Pour que l'inférence en IA apporte de la valeur dans un cas d'usage spécifique, de nombreux processus doivent être suivis et de nombreuses décisions doivent être prises concernant l'architecture technologique, la complexité des modèles et les données.
L'inférence en IA est le résultat d'un processus intensif de calcul consistant à exécuter un modèle d'IA via des régimes d'entraînement successifs utilisant des ensembles de données volumineux. Il nécessite l'intégration de nombreuses sources de données et une architecture qui permet au modèle d'IA de s'exécuter efficacement. Voici les technologies clés qui permettent le processus.
Concevoir ou choisir un modèle d'IA puis l'entraîner ne sont que le début. Le déploiement du modèle d'IA pour effectuer l'inférence dans le monde réel comporte son propre lot de défis. Il peut s'agir de fournir au modèle des données de qualité et d'expliquer ultérieurement ses résultats. Voici une liste de défis à garder à l'esprit.
Grâce à leur capacité à déduire des conclusions ou des prédictions à partir des données disponibles, les modèles d'IA prennent en charge plus de tâches tout le temps. Les grands modèles de langage populaires, tels que ChatGPT, utilisent l'inférence pour choisir des mots et des phrases avec une précision linguistique étrange. L'inférence est également ce qui permet à l'IA d'inférer l'art graphique ou la vidéo qu'elle devrait construire sur la base d'invites verbales.
L'inférence en IA devient également une partie importante de la conception des systèmes industriels. Par exemple, l'IA peut être utilisée pour des inspections visuelles rapides sur une chaîne de fabrication, ce qui permet aux inspecteurs humains de se concentrer sur les défauts ou les anomalies identifiés par l'IA tout en réduisant les coûts et en améliorant le contrôle qualité. Dans les systèmes industriels où les robots travaillent aux côtés des humains sur les chaînes de production, l'inférence en IA apporte la perception, la prédiction et la planification nécessaires pour détecter les objets et prendre des décisions subtiles en matière de mouvement.
Une autre utilisation courante de l'inférence en IA est l'apprentissage robotique, popularisé par les nombreuses tentatives de perfectionnement des voitures sans conducteur. Comme en témoignent les années d'entraînement par des entreprises telles que Waymo, Tesla et Cruz, l'apprentissage robotique demande beaucoup d'essais et d'erreurs alors que les réseaux neuronaux apprennent à reconnaître et à réagir correctement aux exceptions des règles écrites du code de la route.
L'inférence en IA aide également les chercheurs et les médecins. Les modèles d'IA sont entraînés à trouver des remèdes en examinant des masses de données chimiques ou épidémiologiques, et ils aident à diagnostiquer les maladies en lisant des indices subtils dans l'imagerie médicale.
L'étape suivante pour l'inférence en IA sera de sortir des grands environnements de cloud ou de data center et d'être exploitables sur les ordinateurs et les appareils locaux. Alors que l'entraînement initial des systèmes d'IA à l'aide d'architectures de deep learning continuera à fonctionner dans de grands data centers, une nouvelle génération de techniques et de hardware apporte le « dernier kilomètre » de l'inférence en IA dans des appareils plus petits, plus proches de l'endroit où les données sont générées.
Cela permettra plus de personnalisation et de contrôle. Les appareils et les robots bénéficieront d'une meilleure détection d'objets, d'une meilleure reconnaissance du visage et du comportement, ainsi que d'une prise de décision en matière de prédiction. Si vous avez l'impression qu'il s'agit là de la base d'un robot polyvalent, vous n'êtes pas le seul. Dans les années à venir, les innovateurs cherchent à déployer cette technologie d'« inférence à la pointe » dans un large éventail d'appareils dans de nouveaux marchés et secteurs d'activité.
Oracle fournit l'expertise et la puissance de calcul nécessaires pour entraîner et déployer des modèles d'IA à grande échelle. Plus précisément, Oracle Cloud Infrastructure (OCI) est une plateforme où les professionnels, les équipes informatiques et les data scientists peuvent collaborer et mettre l'inférence de l'IA au service de n'importe quel secteur d'activité.
La plateforme d'IA entièrement gérée d'Oracle permet aux équipes de créer, d'entraîner, de déployer et de surveiller des modèles de machine learning e à l'aide de Python et de leurs outils open source préférés. Avec un environnement JupyterLab nouvelle génération, les entreprises peuvent expérimenter, développer des modèles et intensifier l'entraînement avec des GPU NVIDIA et des entraînements distribuées. Oracle facilite également l'accès aux modèles d'IA générative basés sur les LLM de pointe de Cohere.
Avec OCI, vous pouvez mettre les modèles en production et les maintenir en bonne santé grâce aux fonctionnalités d'opérations de machine learning, telles que les pipelines automatisés, les déploiements de modèles et la surveillance des modèles. En plus de l'entraînement et du déploiement de modèles, OCI fournit une gamme d'applications SaaS avec des modèles de machine learning intégrés et des services d'IA disponibles.
Lorsque vous interagissez avec l'IA, vous constatez une inférence en IA au travail. Cela est vrai que vous utilisiez la détection d'anomalies, la reconnaissance d'images, le texte généré par l'IA ou presque n'importe quelle autre sortie d'IA. Les résultats sont l'aboutissement d'un processus long, techniquement complexe et gourmand en ressources de création, d'entraînement, d'optimisation et de déploiement de modèles qui préparent le terrain pour votre interaction avec l'IA.
La création d'un centre d'excellence en matière d'IA avant le début de l'entraînement spécifique à l'organisation augmente les chances de réussite. Notre e-book explique pourquoi et propose des conseils pour créer un centre d'excellence (CDE) efficace.
Qu'est-ce qu'un exemple d'inférence en IA ?
Un bon exemple d'inférence en IA est lorsqu'un modèle d'IA détecte une anomalie dans les transactions financières et peut comprendre à partir du contexte quel type de fraude il pourrait représenter. A partir de là, le modèle d'IA peut générer une alerte pour la société émettrice de la carte et le titulaire du compte.
Qu'est-ce que l'entraînement et l'inférence en IA ?
L'entraînement consiste à afficher des ensembles de données organisés dans un modèle d'IA afin qu'il puisse commencer à voir et à comprendre des modèles. L'inférence est lorsque ce modèle d'IA affiche des données en dehors des ensembles de données sélectionnés, localise ces mêmes modèles et effectue des prédictions en fonction d'eux.
Que signifie l'inférence dans le machine learning ?
L'inférence signifie qu'un algorithme de machine learning ou un ensemble d'algorithmes a appris à reconnaître des modèles dans des ensembles de données sélectionnés et peut ensuite voir ces modèles dans de nouvelles données.
Qu'est-ce que l'inférence signifie dans le deep learning ?
Le deep learning consiste à entraîner des algorithmes de machine learning à l'aide d'un réseau neuronal qui imite le cerveau humain. Cela permet la reconnaissance et l'extrapolation de concepts subtils et d'abstractions vus, par exemple, dans la génération du langage naturel.
L'inférence en IA peut-elle être utilisée sur les appareils en périphérie ?
L'entraînement à l'inférence en IA a traditionnellement été un processus gourmand en données et en informatique. Cependant, à mesure que l'inférence de l'IA est mieux comprise, elle est accomplie par des appareils moins puissants qui résident en périphérie, loin des grands data centers. Ces périphériques en périphérie pour l'inférence en IA peuvent apporter la reconnaissance d'image, la voix et d'autres capacités dans les opérations sur le terrain.
En quoi l'inférence en IA diffère-t-elle des modèles statistiques traditionnels ?
Les modèles statistiques traditionnels sont simplement conçus pour inférer la relation entre les variables d'un ensemble de données. L'inférence en IA est conçue pour aller plus loin et faire la prédiction la plus précise basée sur ces données.
Quel est l'impact des hyperparamètres sur les performances d'inférence en IA ?
Lors de la création d'un modèle d'IA, les data scientists affectent parfois des paramètres manuellement. Contrairement aux paramètres standard du modèle d'IA, ces hyperparamètres ne sont pas déterminés par ce que le modèle tire de l'ensemble de données. Les hyperparamètres peuvent être considérés comme des guides qui peuvent être ajustés au besoin pour faciliter les inférences en IA et les performances prédictives.
Comment les entreprises peuvent-elles garantir la précision et la fiabilité des modèles d'inférence en IA ?
L'une des clés est de savoir explicitement à l'avance à qui correspond votre sortie et quel problème elle tente de résoudre. Rendez les résultats souhaités spécifiques et mesurables. De cette façon, vous pouvez établir des repères et mesurer continuellement les performances de votre système par rapport à eux.