Chaque IA conversationnelle fonctionne avec une fenêtre de contexte — une mémoire de travail mesurée en tokens. Un token représente environ 3-4 caractères en français. Quand la fenêtre se remplit, le système compresse silencieusement les anciens messages : vos instructions précises deviennent des résumés vagues. ChatGPT (128K tokens) commence à dégrader après ~80 messages. Claude Opus (1M tokens) tient 500+ messages mais finit par compresser aussi. Personne ne vous prévient quand ça arrive — l'IA continue de répondre avec assurance tout en ayant perdu le début de votre conversation. C'est le plus grand angle mort de l'IA conversationnelle en 2026.
« Il faut agir en homme de pensée et penser en homme d'action. »
A retenir : La fenêtre de contexte est une jauge invisible. Quand elle est pleine, l'IA oublie le début sans prévenir. Connaître sa taille et sa consommation est le premier pas vers une utilisation professionnelle.
Questions & Réponses
Une question sur cette leçon ? L'IA répond automatiquement.
Vos questions et les réponses IA sont publiques et enrichissent le cours pour tous. Votre email est utilisé uniquement pour l'authentification (base légale : intérêt légitime, durée : 3 ans). Politique de confidentialité.