Joseph Tsidulko | Senior Writer | 29 juillet 2025
Les grands modèles de langage (LLM) sont un type d'intelligence artificielle de plus en plus populaire, principalement conçue pour générer des réponses proches de celles d'un humain aux entrées des utilisateurs, qu'elles soient fournies par texte, voix ou d'autres moyens. À mesure que les LLM s'entraînent sur de grandes quantités de textes, ils apprennent à prédire le mot suivant, ou une séquence de mots, en fonction du contexte fourni par un prompt. Ils peuvent même imiter le style d'écriture d'un auteur ou d'un genre particulier.
Au début des années 2020, les LLM ont quitté les laboratoires pour s'imposer dans l'opinion publique. Depuis, grâce à leur capacité impressionnante à interpréter les demandes et à produire des réponses pertinentes, ils sont devenus à la fois des produits autonomes et des fonctionnalités à valeur ajoutée intégrées dans des logiciels métiers, offrant traitement du langage naturel, traduction automatique, génération de contenu, chatbots, résumé de documents et bien plus encore.
Cette technologie continue d'évoluer rapidement, en intégrant des jeux de données plus vastes et en ajoutant des couches d'entraînement et d'ajustement afin d'améliorer les performances des modèles. Un entraînement plus large et plus approfondi, rendu possible par des infrastructures de calcul toujours plus puissantes, fait émerger des capacités de raisonnement de plus en plus sophistiquées, capables de générer des plans pour atteindre les objectifs de l'organisation. Ces capacités de raisonnement sous-tendent également le fonctionnement des agents d'IA, qui utilisent des LLM avancés pour accomplir des tâches définies par des opérateurs humains.
Un grand modèle de langage (LLM) est un système d'intelligence artificielle qui a été entraîné sur un vaste jeu de données, souvent composé de milliards de mots extraits de livres, du Web et d'autres sources, pour générer des réponses humaines pertinentes sur le plan contextuel aux requêtes. Comme les LLM sont conçus pour comprendre les questions, ou « prompts » dans la terminologie des LLM, et générer des réponses en langage naturel, ils peuvent accomplir des tâches telles que répondre aux questions des clients, résumer des informations dans des rapports, traduire entre les langues et composer de la poésie, du code informatique et des premiers jets d'e-mails. Les LLM ont généralement une compréhension sophistiquée de la grammaire et de la sémantique des langues sur lesquelles ils sont entraînés. Ils peuvent être configurés pour utiliser les données propres à une organisation afin de fournir des réponses spécifiques à celle-ci.
Malgré ces capacités impressionnantes, les utilisateurs doivent garder à l'esprit les limites des LLM. Des données obsolètes et des prompts mal formulés peuvent entraîner des erreurs, comme un chatbot qui donne une mauvaise réponse sur les produits d'une entreprise. Un manque de données suffisantes peut amener les LLM à inventer des réponses, ou « halluciner". Et si les LLM excellent dans la prédiction, ils sont notoirement mauvais pour expliquer comment ils sont parvenus à leur conclusion. Ce sont quelques-uns des domaines que les LLM plus récents cherchent à améliorer.
Pour autant, les LLM marquent une avancée majeure dans le domaine du traitement du langage naturel. Les cas d'usage en entreprise ne manquent pas, et de nouvelles applications sont rapidement développées et adoptées.
Points à retenir
Le traitement du langage naturel est un domaine actif de la recherche en intelligence artificielle depuis les années 1960, et les premiers modèles de langage remontent à plusieurs décennies. Les grands modèles de langage ont fait avancer le domaine en utilisant le deep learning, qui superpose le machine learning à des réseaux neuronaux pour produire des modèles plus sophistiqués. Une autre caractéristique des LLM est que l'entraînement du modèle de fondation est réalisé sans intervention humaine sous forme d'étiquetage des données, un processus appelé « apprentissage autosupervisé ».
La conception moderne d'un LLM est apparue en 2017 avec un article fondateur de Google décrivant une nouvelle architecture puissante appelée réseaux de transformeurs. Les transformeurs ont introduit un mécanisme d'auto-attention qui a permis le traitement en parallèle, accélérant et réduisant le coût de l'entraînement comme du déploiement des modèles. OpenAI a appliqué cette architecture pour créer GPT-1, que beaucoup considèrent comme le premier LLM moderne.
Cette technologie a attiré les entreprises, qui découvrent rapidement que les LLM peuvent servir à une multitude de cas d'usage et offrir un énorme potentiel pour rendre leur activité plus productive, plus efficace et plus réactive face aux clients.
Les LLM sont l'un des nombreux types d'IA développés grâce au machine learning. Cependant, quelques éléments permettent de définir et de distinguer ces modèles. Le premier est leur taille. Le terme « grand » dans LLM renvoie au nombre de paramètres qui calculent une sortie finale, ainsi qu'au volume de données utilisé pour entraîner le modèle en ajustant ces paramètres.
Les LLM constituent le moteur de nombreuses applications de pointe. Le grand public a surtout découvert leurs capacités impressionnantes avec l'arrivée de ChatGPT, la version Web du modèle GPT-3.5 d'OpenAI, ainsi que de versions plus récentes, dont GPT-4o et GPT-4. Mais les bénéfices s'étendent aussi à l'entreprise, où les LLM démontrent leurs capacités dans des secteurs et des fonctions tels que les services financiers, les RH, le commerce de détail, le marketing et les ventes, le développement logiciel, le support client et les soins de santé.
Parmi les applications métier courantes des LLM figurent les chatbots de service client, l'analyse du sentiment client et des services de traduction contextuels, idiomatiques et au rendu naturel. Les LLM accomplissent également des tâches plus spécialisées en arrière-plan, comme la prédiction de structures de protéines dans le cadre de la recherche pharmaceutique, l'écriture de code logiciel et l'alimentation d'agents que les entreprises déploient de plus en plus pour automatiser les processus métier.
Les LLM sont appliqués à un nombre toujours plus vaste de cas d'usage métier. Par exemple, de nombreuses entreprises utilisent désormais des chatbots dans leur stratégie de service client. Mais grâce à la polyvalence de ces modèles, des développeurs de logiciels d'entreprise innovants appliquent la technologie sous-jacente à un large éventail de tâches, bien au-delà de la simple génération de réponses linguistiques.
1. Automatisation du support client
Le support client est l'application la plus évidente des LLM en entreprise, et c'est celle que les clients voient le plus. Les interfaces utilisateur conversationnelles, ou chatbots, alimentées par des modèles de langage peuvent traiter un nombre quasi illimité de demandes, 24 h/24. Cela peut réduire considérablement les délais de réponse dus à des équipes de centres d'appels surchargées, une source majeure de frustration pour les clients.
L'intégration des chatbots avec d'autres applications alimentées par des LLM peut automatiser les actions de suivi après un appel au support, par exemple l'envoi d'une pièce de rechange, d'un document ou d'une enquête. Les LLM peuvent aussi assister directement les agents humains, en leur fournissant des informations en temps opportun, une analyse des sentiments, des traductions et des synthèses d'interactions.
Un gestionnaire de fonds présent dans plus de 50 pays et 80 langues a tiré parti de ces fonctionnalités pour aider ses clients à découvrir et à choisir plus facilement les produits financiers les mieux adaptés à leurs besoins. Le spécialiste de la gestion de comptes de retraite a modernisé son support client avec un chatbot sur mesure, qui a permis une hausse de 150 % des niveaux de service et une réduction de 30 % des coûts opérationnels. Les clients peuvent désormais se rendre sur la page Web de l'entreprise et poser des questions au chatbot sur leurs comptes, à tout moment de la journée et dans de nombreuses langues.
2. Génération et synthèse de contenu
Les LLM peuvent créer du contenu original ou synthétiser du contenu existant. Ces deux cas d'usage sont extrêmement utiles aux entreprises, grandes comme petites, qui exploitent l'IA générative pour rédiger des rapports, des e-mails, des blogs, des supports marketing et des posts sur les réseaux sociaux, tout en tirant parti de la capacité des LLM à adapter ce contenu généré à des groupes spécifiques ou à des clients individuels.
La synthèse condense de grandes quantités d'informations, en tenant compte du domaine, dans un format plus facile à consulter et à assimiler rapidement pour les humains. Les LLM y parviennent soit en évaluant l'importance de différentes idées dans un texte, puis en extrayant les passages clés, soit en générant des synthèses concises de ce qu'ils estiment être les informations les plus pertinentes et les plus critiques du texte d'origine.
Les LLM font parfois l'objet de critiques pour leur tendance à générer des synthèses trop génériques ne contenant pas des éléments clés du contenu d'origine. Il est aussi difficile d'évaluer la fiabilité des synthèses et de classer en conséquence les performances des différents modèles. Malgré tout, les entreprises adoptent cette fonctionnalité avec enthousiasme.
Un grand acteur des communications cloud a déployé des LLM pour synthétiser automatiquement les transcriptions de centaines de tickets de support, ainsi que les transcriptions de conversations par chat ayant lieu chaque jour dans près de deux douzaines de langues. Ces synthèses aident désormais les ingénieurs support à résoudre plus rapidement les problèmes des clients et à améliorer l'expérience globale.
3. Traduction
L'objectif initial de Google en développant les tansformeurs était de rendre la traduction automatique plus performante ; ce n'est que plus tard que le modèle a impressionné les développeurs par l'étendue de ses capacités. Les premières implémentations de cette architecture par ces développeurs ont atteint cet objectif, offrant des performances inégalées en traduction anglais-allemand avec un modèle dont l'entraînement a nécessité nettement moins de temps et de ressources de calcul que ses prédécesseurs.
Les LLM modernes vont bien au-delà de ce cas d'usage limité. Même si la plupart des LLM ne sont pas spécifiquement entraînés pour la traduction, ils excellent néanmoins à interpréter un texte dans une langue et à le reformuler clairement dans une autre lorsqu'ils ont été entraînés de manière approfondie sur des jeux de données dans les deux langues. Cette avancée, qui permet de lever les barrières linguistiques, est extrêmement précieuse pour les entreprises qui opèrent au-delà des frontières. Les multinationales utilisent des services linguistiques avancés pour, par exemple, développer un support multilingue pour leurs produits et services, traduire des guides, des tutoriels et des contenus marketing, et utiliser des ressources pédagogiques existantes pour former les collaborateurs lorsqu'elles s'étendent à de nouveaux pays.
Avancées des modèles multimodaux
Un domaine de recherche très actif consiste à utiliser les LLM comme modèles de fondation pour une IA qui génère des résultats dans des modalités autres que le langage. La polyvalence remarquable des LLM rend possible, via un processus de fine-tuning s'appuyant sur des données étiquetées, l'interprétation et la création d'audio, d'images et même de vidéo. Ces modèles qui reçoivent des prompts ou génèrent des résultats dans des modalités autres que le langage sont parfois appelés grands modèles multimodaux, ou LMM.
Considérations environnementales
Le développement et l'exploitation à grande échelle des LLM nécessitent généralement une puissance de calcul massive. L'entraînement d'un seul modèle sur un cluster de centaines, voire de milliers de GPU, pendant plusieurs semaines, peut consommer d'énormes quantités d'énergie. Une fois un modèle performant déployé, l'infrastructure qui exécute l'inférence continue d'exiger une quantité importante d'électricité pour traiter un flux constant de requêtes utilisateurs.
L'entraînement de GPT-4 a nécessité, selon les estimations, 50 gigawattheures d'énergie. À titre de comparaison, 50 gigawattheures d'énergie pourraient, en théorie, alimenter 4 500 à 5 000 foyers moyens aux États-Unis pendant un an. Aujourd'hui, ChatGPT consommerait, selon les estimations, des centaines de mégawattheures chaque jour pour répondre à des millions de requêtes. À mesure que les modèles de langage grandissent, les préoccupations liées à la consommation d'énergie et à la durabilité pourraient devenir plus pressantes. C'est pourquoi les entreprises d'intelligence artificielle sont à la recherche de sources d'énergie permettant de réduire leur empreinte carbone.
Oracle met la puissance des LLM à la disposition des entreprises, sans qu'elles aient à se heurter aux aspects pratiques, ni aux besoins énergétiques, de cette technologie passionnante. Oracle Cloud Infrastructure (OCI) Generative AI est un service entièrement géré qui simplifie le déploiement des derniers LLM, de manière personnalisée, très efficace et rentable, tout en évitant d'avoir à gérer une infrastructure complexe. Les entreprises peuvent choisir parmi plusieurs modèles de fondation, puis les fine-tuner sur des clusters de GPU dédiés avec leurs propres données, afin d'obtenir des modèles personnalisés qui répondent au mieux à leurs besoins métier.
Les entreprises qui souhaitent aller plus loin dans l'expérimentation de la technologie sous-jacente se tournent vers le machine learning dans Oracle Database. La plateforme permet aux data scientists de créer rapidement des modèles en simplifiant et en automatisant les éléments clés du cycle de vie du machine learning, sans devoir migrer des données sensibles depuis leurs bases de données Oracle. Les fonctionnalités incluent des frameworks de machine learning populaires, des API, l'automatisation du machine learning (AutoML) et des interfaces no-code, ainsi que plus de 30 algorithmes hautes performances en base de données pour produire des modèles à utiliser dans des applications.
De nombreuses organisations de premier plan tirent également parti de l'infrastructure d'IA d'Oracle pour créer leurs propres LLM. L'infrastructure d'IA sous-tend les services d'IA de niveau supérieur, tels que OCI Generative AI, et peut être utilisée pour les LLM les plus exigeants grâce à des capacités accélérées de calcul, de mise en réseau et de stockage.
Le potentiel des LLM à transformer le fonctionnement des entreprises et leurs interactions avec leurs clients est tel que de nouvelles avancées et des investissements dans cette technologie peuvent influencer les marchés mondiaux et bouleverser les stratégies des entreprises. Mais il est important pour les dirigeants métier et IT d'aller au-delà de l'effet d'annonce, de comprendre les bases du fonctionnement des LLM, ainsi que leurs limites et les défis liés à leur adoption, tout en s'efforçant d'identifier les nombreux bénéfices concrets que cette technologie peut leur apporter.
Les LLM sont à l'origine de nombreuses technologies transformatrices qui changent notre façon de travailler.
Comment fine-tune-t-on les grands modèles de langage pour des applications spécifiques ?
Les LLM font l'objet d'un fine-tuning pour des applications spécifiques en enchaînant la phase initiale de préentraînement, qui s'appuie sur l'auto-apprentissage pour développer un modèle de fondation, avec une phase d'apprentissage supervisé sur un volume plus restreint de données étiquetées, plus spécifiques à un domaine.
Quels secteurs tirent le plus grand bénéfice de l'utilisation des grands modèles de langage ?
Presque tous les secteurs découvrent les avantages des LLM. Les soins de santé, les services financiers et le commerce de détail font partie de ceux qui explorent de nombreux cas d'usage visant à améliorer le support client et à automatiser des processus métier.
Les grands modèles de langage peuvent-ils être intégrés aux systèmes d'entreprise ?
Les grands modèles de langage sont souvent intégrés aux systèmes d'entreprise en fine-tunant des modèles de fondation avec des données d'entreprise, puis en augmentant ces modèles avec des données propriétaires via la génération augmentée de récupération (RAG).