🧠 Module 24
1

Pourquoi votre IA oublie — tokens, fenêtre et compression

Leçon 1 / 4 — 35 min

« Il faut agir en homme de pensée et penser en homme d'action. »

H

Henri Bergson

L'Intuitif · 1859-1941

Chaque IA conversationnelle fonctionne avec une fenêtre de contexte — une mémoire de travail mesurée en tokens. Un token représente environ 3-4 caractères en français. Quand la fenêtre se remplit, le système compresse silencieusement les anciens messages : vos instructions précises deviennent des résumés vagues. ChatGPT (128K tokens) commence à dégrader après ~80 messages. Claude Opus (1M tokens) tient 500+ messages mais finit par compresser aussi. Personne ne vous prévient quand ça arrive — l'IA continue de répondre avec assurance tout en ayant perdu le début de votre conversation. C'est le plus grand angle mort de l'IA conversationnelle en 2026.

A retenir : La fenêtre de contexte est une jauge invisible. Quand elle est pleine, l'IA oublie le début sans prévenir. Connaître sa taille et sa consommation est le premier pas vers une utilisation professionnelle.

Questions & Réponses

Une question sur cette leçon ? L'IA répond automatiquement.

Vos questions et les réponses IA sont publiques et enrichissent le cours pour tous. Votre email est utilisé uniquement pour l'authentification (base légale : intérêt légitime, durée : 3 ans). Politique de confidentialité.