Le sujet IA est naturellement une thématique brûlante, dont nos clients veulent se saisir. Rationnellement, nous commençons la discussion autour des usages communs des LLM**.
Ainsi, dans le cadre de projets co définis entre nos clients et nos experts éliona conseil, nous développons des "solutions agentiques". Loin des chimères et autres légendes urbaines entretenues sur leur toute puissance, aussi bien que sur le risque dystopique d'une IA toute puissante, symbole d’extermination du travail ou encore d’«exploration de nouveaux mondes étranges, cherchant de nouvelles formes de vie et de nouvelles civilisations» (pour ceux qui auront "la réf")
Pour un néophyte, converser (oui « converser » car pour beaucoup c’est « s’élever ») avec une IA donne l'impression de solliciter une entité consciente et branchée sur le monde. Pourtant, en architecture agentique, on apprend vite que le LLM n'est qu'une brique de calcul statistique, brillante, mais totalement isolée du réel.
Voici quatre réalités "étranges" qui rappellent qu'un LLM n'est rien, sans une structure logicielle classique pour l'épauler :
1. L'amnésie systématique ou absence de mémoire du LLM
Contrairement à ce que l'on croit, un LLM ne "se souvient" pas de vous, d'une session à l'autre.
- Le Mythe : Il apprend de nos conversations passées.
- La Réalité : Chaque requête repart de zéro. Si vous avez l'impression qu'il se souvient du début de la discussion, c'est uniquement parce que l'application (l'interface) renvoie discrètement tout l'historique à chaque nouveau message.
Sans cette gestion de contexte externe, le LLM est un éternel amnésique.
2. La déconnexion temporelle car non, le LLM ne porte pas de montre
- L'exemple : Demandez-lui "Quel jour sommes-nous ?".
- Le problème : Un LLM isolé répondra la date de la fin de son entraînement (souvent il y a plusieurs mois). Pour qu'il vous réponde "Mercredi 5 mars 2026", il faut qu'un programme classique (non-IA) récupère l'heure du système et l'injecte explicitement dans le prompt : « Tu es un assistant, nous sommes le [Date_Actuelle]... ».
Sans cette injection de contexte, l'IA est incapable de se situer dans le temps.
3. L'absence de "Monde Physique" ou le syndrome du passager
- L'exemple : "Je pars à Paris demain, dois-je prendre des précautions ?"
- Le risque : Un LLM sans accès aux outils répondra par des généralités ("Prenez votre passeport"). Mais il ignore si nous sommes en pleine période de grève, si la météo annonce une tempête ou si les JO saturent la ville.
- La solution agentique : Il faut lui donner des "bras" (des API) pour qu'il puisse, de lui-même, décider d'aller lire la météo ou les actualités avant de vous répondre.
4. Le "Thermostat" de l'imagination ou comment faire monter la Température
Le LLM est extrêmement sensible à un paramètre de configuration appelé la Température. Ce curseur définit son degré de liberté "créative".
- Le Concept : C’est un réglage de probabilité (souvent de 0 à 1). À 0, le modèle est "froid" et déterministe : il choisit toujours le mot le plus probable. À 1 ou plus, il devient "chaud" et s'autorise des choix audacieux.
- L'aspect étrange : Si ce paramètre est mal réglé par le développeur (trop élevé), le LLM s'éloigne de la logique pure. Il commence à halluciner des faits, voire à dériver totalement dans sa structure linguistique, allant jusqu'à vous répondre en thaïlandais simplement parce que ces jetons de langue sont devenus statistiquement "accessibles" dans son délire créatif. Il peut alors avoir une indigestion de « Babel fish » (42!).
Ce qu'il faut retenir : Mythe vs Réalité
Le LLM est un moteur de prédiction linguistique ultra-puissant, mais il est "aveugle, sourd, sans mémoire" et parfois un peu perché. C'est l'architecture logicielle (le code traditionnel) qui lui fournit ses yeux (données), ses oreilles (contexte) et sa mémoire (bases de données), transformant ainsi un simple prédicateur ? prédicteur ? de mots en un véritable agent intelligent.
Indéniablement : les LLM sont particulièrement utiles dès lors que l’on comprend leur fonctionnement et qu'on leur donne une direction précise. Par exemple, ils savent dessiner ce que je leur décrit alors que personnellement j’en serais bien incapable !
D’ailleurs à ce sujet, avez-vous remarqué que nous demandons souvent aux IA de corriger nos fautes d’orthographe et qu’ils le font plutôt bien. Mais lorsqu’ils génèrent des images, des illustrations, bien souvent c’est nous, qui leur demandons de corriger leurs fautes…
**LLM = Large Language Modèle