Jeffrey Erickson | Senior Writer | 25 février 2025
À mesure que l'IA se rend plus utile aux entreprises et que les agents prennent en charge des workflows plus complexes, le finetuning devient un levier essentiel. Ces agents répondent aux questions sur les données et agissent pour nous, écriture de code, gestion d'agendas, restitution d'insights analytiques, et bien plus encore. Pour y parvenir, les modèles doivent collaborer, explorer les données et les documents, collecter l'information, en vérifier l'exactitude, déclencher les bonnes actions, les communiquer. Aguerris aux schémas linguistiques généraux, ces modèles doivent aussi être optimisés pour des domaines précis, avec leur jargon, leur base de connaissances, leurs spécificités. Comment le finetuning aide‑t‑il un modèle d'IA, et les futurs agents, à maîtriser les nuances et les détails ? Voyons ci‑après les principaux aspects du finetuning des modèles d'IA.
Le finetuning consiste pour les data scientists et ingénieurs ML à adapter un modèle déjà entraîné afin d'optimiser ses performances sur une tâche ciblée. On peut, par exemple, finetuner un LLM généraliste, comme Cohere Command ou Llama 2 de Meta, pour le rendre plus pertinent en santé ou en service client.
Ces modèles dits « foundation models » sont entraînés sur de vastes corpus généraux, parfois issus d'une large partie du web ouvert. Ils y apprennent un large éventail de caractéristiques et de motifs. Certains excellent en langage, d'autres gèrent la multimodalité, images, vidéo, audio, en plus du texte.
Le finetuning reprend ce modèle avancé et poursuit l'entraînement sur un jeu de données plus restreint, issu d'une tâche ou d'un domaine métier. Le modèle assimile ainsi la taxonomie, le contexte, voire les connaissances expertes du domaine.
L'objectif est de conserver tous les acquis initiaux, tout en affinant la compréhension des nuances et des détails du domaine ciblé. Par exemple, on peut affiner un modèle généraliste pour interpréter et commenter des imageries médicales, ou un chatbot LLM pour maîtriser des dialectes locaux et mieux servir le support client. La course aux agents d'IA très performants dans de multiples domaines s'appuiera largement sur des modèles finetunés. Découvrez une analyse approfondie des méthodes et mécanismes du finetuning.
Points à retenir
Le premier défi du finetuning tient à la disponibilité de données étiquetées, pertinentes et de qualité, leur acquisition ou leur création pouvant être coûteuses et chronophages. L'étiquetage de données peut exiger des heures d'annotation, zones à reconnaître dans des images, passages de texte à marquer pour faire ressortir l'information clé. Malgré cela, le finetuning offre des avantages déterminants qui en font une technique clé du développement IA moderne. Voyons les atouts et les limites.
Le finetuning s'appuie sur des modèles existants comme points de départ. Ces modèles de base, comme Llama 2 de Meta ou Command de Cohere, sont couramment disponibles chez les fournisseurs cloud. Beaucoup d'entreprises importent aussi d'autres modèles sur leurs plateformes de data science depuis des dépôts centralisés, Hugging Face, TensorFlow Hub, PyTorch Hub, qui hébergent des modèles préentraînés.
Commencer avec un modèle préentraîné
Choisissez un modèle adapté à votre tâche, classification de texte, analyse de sentiment, questions‑réponses, rédaction, génération de code, détection d'objets, ou tout autre cas relevant de l'IA ou du ML.
Le finetuning requiert trois ingrédients : un jeu de données correctement formaté, le foundation model idoine, et une infrastructure offrant réseaux neuronaux pour le deep learning et GPU pour soutenir l'entraînement. Ces ressources sont réunies dans une plateforme de data science ou, plus récemment, un service cloud d'IA générative.
Comme souvent, le finetuning s'est simplifié avec le temps grâce aux nouveaux outils et services d'infrastructure issus de l'open source et des équipes des clouds. Ces outils automatisent une partie du finetuning, y compris des tâches complexes comme l'optimisation des hyperparamètres, la sélection de modèles, le pré‑traitement des données. Le processus devient ainsi plus accessible aux non‑experts.
D'ailleurs, beaucoup notent que les outils abstraient tellement la minutie data science que la partie la plus difficile est désormais de constituer et formater le meilleur jeu de données possible. Là encore, des bibliothèques de données prêtes à l'emploi existent par domaine, santé, finance, et par capacité, vision par ordinateur, analyse de sentiment, détection d'anomalies. Tendance croissante : partir d'un modèle déjà finetuné pour votre cas d'usage à partir de ces bibliothèques. Ensuite, l'entreprise peut l'affiner encore avec un plus petit jeu de données et, le cas échéant, recourir à une architecture de génération augmentée par recherche, la RAG, pour améliorer les sorties.
Les entreprises complètent aussi les approches classiques par une technique appelée apprentissage par renforcement. Elle permet aux modèles d'apprendre par essais et erreurs et auto‑amélioration, plutôt que de dépendre uniquement du labellisation et du finetuning supervisé.
Comment affiner un modèle d'IA en quatre étapes
1. Utiliser un modèle préentraîné : commencez par choisir un foundation model adapté à la tâche. Des modèles populaires existent pour le NLP, la vision par ordinateur, la génération de texte, et d'autres domaines.
2. Ajouter de nouvelles données : réunissez et préparez un jeu de données spécifique à la tâche. Il peut s'agir d'avis clients labellisés ou d'ensembles de questions‑réponses propres au domaine visé.
3. Ajuster : la troisième étape consiste à ajuster le modèle selon les besoins. Vous pouvez geler certaines couches pour préserver les acquis, ajuster le taux d'apprentissage pour conserver les connaissances existantes, ajouter des couches pour des tâches nouvelles, couche de classification pour du texte, couche de régression pour des prédictions.
4. Entraîner le modèle : alimentez le modèle avec les nouvelles données et mettez à jour ses paramètres. L'objectif est d'améliorer les performances sur votre tâche, tout en conservant les connaissances générales issues de l'entraînement initial.
Différentes techniques de finetuning sont disponibles. Première décision, opter pour un finetuning complet ou sélectif.
Le finetuning complet met à jour toutes les couches et tous les paramètres d'un foundation model pendant l'entraînement. Cette option convient si vous disposez d'un grand jeu de données varié, suffisant pour mettre à jour les paramètres sans risque de surapprentissage.
Le finetuning sélectif met à jour un sous‑ensemble de couches ou de paramètres à partir d'un plus petit jeu de données. Cette méthode préserve les connaissances générales du modèle et réduit le temps et le coût de calcul. Voici des techniques illustrant le finetuning sélectif.
Dans certains cas d'usage, concevoir et entraîner un modèle d'IA à partir de zéro a du sens. Le plus souvent, on obtient le résultat souhaité en affinant un foundation model.
L'entraînement à partir de zéro peut s'avérer préférable dans quelques situations. Par exemple, pour un domaine très exigeant, tel qu'une application médicale de niche avec des images très spécifiques. Former à partir de zéro impose de réunir un grand jeu de données et d'exécuter de longs cycles d'entraînement sur une infrastructure dédiée à l'IA. C'est coûteux, potentiellement des milliers de GPU et des millions de dollars. Des data scientists et des ingénieurs en ML sont indispensables.
Le finetuning consiste à partir d'un foundation model et à l'adapter à une tâche via un jeu de données plus petit et ciblé. Le processus est souvent plus rapide et efficace, le modèle disposant déjà d'une base solide en langage et en connaissances générales, à affiner sur les nuances de la nouvelle tâche. Vous améliorez ainsi les performances pour votre besoin avec moins de travail de collecte et préparation des données et bien moins de cycles d'entraînement que à partir de zéro. Retrouvez ci‑dessous d'autres bénéfices du finetuning.
De nombreuses entreprises, des startups aux multinationales, finetunent des modèles préentraînés. C'est même devenu une pratique standard pour déployer des systèmes adaptés à ses besoins, sans l'investissement massif d'un entraînement complet. Voici quelques exemples de cas d'usage.
Des entreprises de la finance, logistique, santé, et bien d'autres domaines, intègrent une IA générative finetunée à leurs opérations quotidiennes. Ces retours de terrain vous aideront à explorer un large éventail de cas d'usage réels. Voici trois exemples précis :
Le finetuning en IA évolue rapidement, d'autant que de plus en plus d'agents d'IA s'appuient sur des modèles finetunés. À l'avenir, attendez‑vous à plus d'automatisation, de nouvelles techniques, un éventail plus large de modèles pour aider les entreprises à adapter l'IA à leurs besoins.
Parmi ces innovations, des services ML améliorés qui automatisent le finetuning, optimisation des hyperparamètres, sélection des modèles, prétraitement des données. Les techniques d'augmentation de données contextualisées devraient accélérer l'apprentissage des caractéristiques pertinentes, et l'apprentissage dynamique permettra d'ajuster le taux d'apprentissage à la volée. Les éditeurs de modèles ML et de modèles de base publieront des modèles toujours plus polyvalents et puissants, capables de transférer des connaissances entre modalités et de se prêter au finetuning pour des tâches multimodales. L'enjeu sera de disposer d'une infrastructure data suffisamment flexible pour tirer parti de ces innovations dès leur arrivée.
Saviez‑vous qu'Oracle Cloud Infrastructure (OCI) vous donne accès à tout le nécessaire pour finetuner des modèles de machine learning et des modèles de base ? Oracle fournit l'infrastructure matérielle, l'infrastructure de traitement des données, la plateforme de data science et des services d'IA générative, le tout en services entièrement managés. Le service d'IA générative d'OCI offre par exemple une intégration simple et fluide avec des LLM polyvalents, dans un service facile à utiliser. Utilisez‑le pour finetuner des modèles sur de nombreux cas d'usage, assistance à la rédaction, synthèse, analyse, chat.
En parallèle, vos data scientists et ingénieurs ML s'appuient sur la plateforme de data science d'Oracle pour collaborer à la création, l'entraînement et le déploiement de modèles ML avec Python et des outils open source. Un environnement basé sur JupyterLab fournit toutes les ressources pour expérimenter, développer des modèles, et passer à l'échelle avec des GPU NVIDIA et de l'entraînement distribué. Mettez les modèles en production et maintenez‑les en condition avec des capacités MLOps, pipelines automatisés, déploiements de modèles, supervision des modèles.
Le finetuning n'est qu'un des leviers pour exploiter l'IA et prendre une longueur d'avance. Découvrez d'autres façons d'en faire bénéficier votre entreprise.
En quoi le finetuning diffère‑t‑il des autres types d'entraînement ?
Le finetuning diffère d'un entraînement à partir de zéro. Il s'agit d'ajouter des cycles d'entraînement à un modèle de base avancé pour produire des résultats plus contextualisés sur une tâche cible. Le finetuning nécessite souvent moins de données, il est moins long et moins coûteux que de bâtir et entraîner un modèle à partir de zéro.
Peut‑on appliquer le finetuning à tout type de modèle ?
Oui, on peut finetuner des modèles de base pour de nombreux cas d'usage, reconnaissance d'images, classification de texte, génération de langage, sorties audio, et au‑delà.