Les modèles génératifs sont entraînés sur des millions d'images. Dans ces images, les yeux sont nets, les corps sont droits, les visages sont symétriques. Le modèle apprend que 'normal' = yeux clairs, posture de voyant, corps sans marque. Quand on lui demande un aveugle, il produit un voyant qui regarde au loin. Ce n'est pas de la malveillance — c'est de la statistique. Le biais n'est pas dans l'algorithme, il est dans les données. Et les données reflètent un monde qui préfère ne pas voir le handicap.
« Des pieds, pourquoi en ai-je besoin, si j'ai des ailes pour voler ? »
A retenir : Le biais de normalisation n'est pas un bug. C'est le reflet d'une société qui préfère l'embellissement à la vérité. L'IA ne corrige pas ce biais — elle l'amplifie.
Questions & Réponses
Une question sur cette leçon ? L'IA répond automatiquement.
Vos questions et les réponses IA sont publiques et enrichissent le cours pour tous. Votre email est utilisé uniquement pour l'authentification (base légale : intérêt légitime, durée : 3 ans). Politique de confidentialité.