Mike Chen | Senior Writer | 5 novembre 2025
Tout le monde, parle des grands modèles de langage, les LLM. Rien d'étonnant, car des chatbots basés sur des LLM et accessibles au public, comme ChatGPT et Microsoft Copilot, ont, disons-le, tout révolutionné. Cependant, pour les entreprises qui veulent intégrer l'IA dans leurs applications, les LLM ne sont pas toujours nécessaires, ils peuvent même être excessifs. Place au petit modèle de langage. Les SLM sont des modèles d'IA ciblés et légers, bien adaptés à de nombreux cas d'usage, notamment des applications qui s'exécutent entièrement sur les appareils, des systèmes nécessitant l'accès à des données internes sensibles ou un entraînement approfondi pour réduire les hallucinations. Les petits modèles de langage sont également populaires auprès d'équipes de recherche et de groupes académiques qui ont besoin de modèles sur mesure sans disposer de l'infrastructure ou du budget pour créer un LLM.
Les SLM sont des modèles de langage qui fonctionnent comme les LLM mais à une échelle bien moindre, ils sont en général de 100 à 1 000 fois plus petits que la plupart des LLM. Les entraîneurs peuvent utiliser des jeux de données plus modestes, nécessitant moins de temps d'entraînement, et le modèle final reste relativement économique et facile à gérer. Un SLM pouvant fonctionner hors ligne, il peut être configuré pour être plus sécurisé qu'un LLM, et en production, les temps d'inférence sont généralement plus rapides. De nombreux SLM s'exécutent localement sur des smartphones, des tablettes ou des appareils à la périphérie.
Les SLM sont généralement entraînés pour un ensemble restreint de tâches, souvent dans un domaine précis, par exemple résumer des transcriptions, traduire de simples demandes utilisateurs en extraits de code, ou traiter des informations sensibles entièrement en local pour éviter les transferts vers le cloud et améliorer la conformité. Comme les SLM peuvent être ajustés ou entraînés sur des données propriétaires sans sortir de l'environnement sécurisé de l'organisation, ils sont potentiellement moins sujets aux erreurs ou hallucinations que les LLM.
SLM et LLM : efficacité et passage à l'échelle
Les SLM et les LLM partagent des étapes de développement et des besoins techniques fondamentaux. La différence tient à l'échelle, ce qui impacte tout, de l'entraînement aux opérations courantes, y compris l'usage des ressources et les coûts.
La plupart des grands modèles de langage contiennent des centaines de milliards de paramètres et ont été entraînés sur des jeux massifs pour des tâches exigeantes, comme les chatbots destinés au public. Déployer un LLM en interne exige d'importantes ressources de calcul, de l'énergie, du stockage de données et une infrastructure matérielle. C'est pourquoi les architectes IT se tournent vers les SLM pour fournir des fonctions d'IA spécialisées lorsque le recours à un LLM sur site ou dans le cloud n'est ni nécessaire ni pratique. Comme les SLM sont conçus pour des objectifs précis, leur entraînement peut se limiter à un nombre de paramètres bien plus faible, généralement quelques milliards voire des centaines de millions. Comparé à des centaines de milliards, on voit bien qu'un SLM est plus facile à gérer en matière d'entraînement, de test, de déploiement et d'exploitation.
SLM et LLM : principales différences
| Élément | SLM | LLM |
|---|---|---|
| Formation | Jeux de données spécifiques à un domaine avec une expertise ciblée | Jeux de données volumineux avec une connaissance étendue |
| Taille du modèle | Nombre de paramètres généralement entre 100 millions et 10 milliards | Paramètres allant jusqu'à des centaines de milliards, voire des milliers de milliards |
| Infrastructure | Assez petit pour résider sur un appareil en périphérie ou un terminal mobile | Nécessite un traitement évolutif, généralement dans le cloud, pour prendre en charge des transferts de données massifs |
| Performances d'entraînement | Entraînement plus rapide et moins coûteux grâce à un nombre limité d'éléments | Entraînement coûteux et long, nécessitant de nombreux processeurs spécialisés |
| Performances à l'exécution | Inférence rapide sans GPU et exécution sur du matériel utilisateur courant | Serveurs avancés, souvent avec GPU pour accélérer le traitement parallèle, requis pour l'inférence à grande échelle |
| Sécurité et conformité | Peut conserver les données sensibles au sein de l'organisation et traiter sur les appareils | Risques de fuites de données, défis de conformité et menaces liées aux sources et transmissions de données externes parmi les risques de sécurité à grande échelle |
Points à retenir
Les SLM sont entraînés, affinés et déployés selon les mêmes étapes que les LLM, mais à une échelle bien moindre. Les principaux axes d'attention incluent
Les SLM sont un choix pertinent lorsque des limitations techniques, réglementaires ou opérationnelles empêchent l'usage de LLM, ou quand l'ampleur des capacités d'un LLM n'est pas nécessaire. Les SLM offrent aussi des avantages intrinsèques : inférence plus rapide, latence réduite, flexibilité de déploiement accrue et potentiellement moins d'hallucinations. Comme les LLM, les SLM peuvent s'exécuter dans le cloud.
Les SLM peuvent déployer l'IA en local malgré des contraintes de matériel, d'énergie et de budget. Voici quelques-uns des avantages les plus courants des SLM :
Les SLM sont souvent conçus pour être intégrés dans des appareils IoT/edge ou dans des processus logiciels. Voici quelques exemples courants de SLM en action :
À l'instar de leurs grands homologues, les LLM, les SLM continuent d'évoluer. Voici ce qui se profile à l'horizon :
Oracle Cloud Infrastructure (OCI) propose des options de calcul dimensionnées selon le besoin et une gamme complète de services d'IA managés, idéal pour développer, entraîner et déployer des SLM. OCI offre une infrastructure économique et évolutive qui permet aux équipes de ne payer que ce dont elles ont besoin. Les nombreuses régions et options de résidence des données assurent une portée mondiale tout en répondant aux exigences réglementaires et de conformité, y compris la souveraineté de l'IA. Des offres OCI spécialisées sont disponibles pour les organisations qui ne peuvent pas migrer leurs données vers des modèles de cloud public ou les utiliser. Des fonctionnalités de sécurité avancées apportent une tranquillité d'esprit supplémentaire.
Si les LLM attirent souvent davantage l'attention, les SLM sont une technologie clé de l'IA générative pour des tâches spécialisées, comme l'intégration de fonctions linguistiques dans les applications d'entreprise et l'IA embarquée sur smartphones et tablettes. Avec OCI, les équipes peuvent entraîner, ajuster et tester des SLM, puis les intégrer à des environnements d'exécution conçus pour une expertise métier spécifique, tout en respectant les contraintes matérielles et budgétaires, afin d'apporter les bénéfices de l'IA là où les LLM ne sont pas pratiques.
Les dirigeants savent que l'IA apporte des gains opérationnels significatifs grâce à de meilleurs processus, des coûts réduits et une productivité accrue. Les petits modèles de langage peuvent étendre ces avantages à davantage d'entreprises.
Comment fine-tune-t-on les petits modèles de langage pour des applications spécifiques ?
Le fine-tuning d'un SLM consiste à l'adapter à une tâche ou à un domaine précis avec un jeu de données ciblé, par exemple des scripts de support client ou des documents médicaux. Les SLM peuvent être entraînés et ajustés sur une infrastructure cloud à partir de données métier, en adaptant les paramètres aux priorités de l'application. Par exemple, le runtime d'une application de santé n'a pas besoin de citer Shakespeare, et un générateur de résumés d'e-mails n'a pas besoin de connaître les derniers résultats sportifs. L'objectif est d'aider le modèle à assimiler un vocabulaire, des schémas et un contexte spécialisés. Le fine-tuning est particulièrement efficace pour les SLM, car il compense leur capacité plus réduite en se concentrant sur des fonctions spécialisées. Les équipes doivent toutefois se prémunir contre le surapprentissage, lorsque le modèle réussit sur les données d'entraînement mais échoue sur de nouvelles données faute de généralisation.
Quelles sont les implications de sécurité liées à l'usage des petits modèles de langage ?
L'entraînement, l'ajustement et les tests des SLM peuvent être réalisés efficacement dans un environnement cloud sécurisé. Déployés sur les appareils, les SLM peuvent offrir des avantages de sécurité supérieurs aux LLM puisqu'ils n'exigent pas de ressources externes pour l'inférence. De plus, comme les runtimes des SLM ont un périmètre plus ciblé, les organisations peuvent plus facilement répondre aux exigences réglementaires et de confidentialité.