← Retour au blog
biaisapprentissagereprésentationsans-écran

Les règles qu'on n'a pas écrites : quand l'IA apprend nos préjugés

On a joué à associer des images à des métiers. Puis on a retourné le jeu pour voir nos propres automatismes. L'IA apprend à partir de ce que les humains ont produit, y compris leurs biais.

Date1 février 2026
Âge cible6-10 ans
Durée35 minutes
MatérielDes images découpées dans des magazines (personnes, métiers, situations), Des feuilles de papier, Des feutres

Romane a posé l'image de la femme en blouse blanche dans la zone "infirmière" sans hésiter.

Puis elle a posé l'image de l'homme en costume dans la zone "directeur". Aussi sans hésiter.

Je n'avais rien dit. Je n'avais pas encore posé de question. Elle faisait juste le jeu.

Ce que l'IA reproduit sans le savoir

Une IA apprend à partir de données produites par des humains (des textes, des images, des descriptions, des associations). Ce que les humains ont écrit, photographié, classé, étiqueté.

Le problème : les humains ont des automatismes. Des associations qui se sont installées à force de répétition, pas parce qu'elles sont vraies, mais parce qu'elles sont fréquentes. "Médecin" est plus souvent associé à un homme dans les données historiques. "Infirmière" à une femme. "Directeur" à quelqu'un en costume.

L'IA ne juge pas ces associations. Elle les apprend, exactement comme elle apprend que "chaperon" est suivi de "rouge". Elle ne sait pas que certaines associations sont des préjugés. Elle sait juste qu'elles reviennent souvent.

C'est ce qu'on appelle un biais. Et le biais de l'IA, c'est presque toujours le reflet d'un biais humain qu'elle a ingéré sans filtre.

L'activité

On découpe à l'avance une vingtaine d'images dans des magazines : des gens dans des situations variées, des visages, des tenues, des contextes. Pas de légendes.

On délimite sur la table des zones avec des feuilles de papier. Sur chaque feuille, on dessine un symbole simple qui représente un métier (une casserole pour cuisinier, une voiture rouge pour pompier, une trousse pour médecin, des outils pour plombier). Pas de mots : des dessins, lisibles par tout le monde.

On explique à voix haute ce que représente chaque zone avant de commencer.

Premier temps : on pose les images sur la table. On demande à l'enfant d'associer chaque image à un métier, par intuition, sans réfléchir trop longtemps. On ne commente pas.

Deuxième temps : on reprend les associations une par une. "Pourquoi tu as mis cette image avec ce métier ?" On laisse l'enfant chercher ses propres raisons. Souvent : la tenue, l'expression, le contexte. Parfois, rien, juste une impression.

Troisième temps : on retourne certaines images. "Si c'était une femme au lieu d'un homme, est-ce que tu aurais mis le même métier ?" Ou l'inverse.

Puis la question centrale : "Est-ce que tu crois qu'une IA ferait les mêmes associations que toi ?"

Ce qui s'est vraiment passé

Romane a fait ses associations vite, avec assurance. Femme en blouse : médecin. Homme en costume : directeur. Homme avec des outils : plombier.

Quand je lui ai fait remarquer les patterns, elle a été silencieuse un moment. Puis très en colère (contre elle-même, pas contre moi). "Mais pourquoi j'ai fait ça ?"

J'ai dit que c'était normal. Que ce n'était pas une erreur de sa part, c'était le résultat de tout ce qu'elle avait vu depuis qu'elle est petite. Les livres, les dessins animés, les affiches. Les associations s'installent sans qu'on s'en rende compte.

"Et l'IA elle a vu les mêmes choses ?"

Encore plus. Parce qu'elle a lu Internet. Et Internet contient tout, y compris toutes les associations bancales que les humains ont produites depuis des décennies.

"Donc l'IA est aussi bête que les gens ?"

Pas tout à fait. Mais elle est aussi humaine que ce qu'on lui a donné à apprendre. C'est différent.

Meryl participait à sa façon. Il ne jouait pas au même jeu que Romane, il traitait les images comme des objets à collectionner. Il avait mis de côté toutes celles où il y avait un animal en arrière-plan. Un chien dans le fond d'une photo de cuisine, un chat sur un rebord de fenêtre derrière un homme en costume. Sa pile à lui ne disait rien sur les métiers. Elle disait quelque chose sur ce qui retient l'attention d'un enfant de trois ans.

Pour finir

En rangeant les images, Romane en a retourné une (un homme âgé en tablier de cuisine) et l'a replacée dans la zone cuisinier avec une satisfaction visible.

"Voilà. Lui il peut être cuisinier sans que ce soit bizarre."

Ce que l'IA voit dépend de ce qu'on lui a montré. Ce qu'elle reproduit dépend de ce qu'on a produit.

Qui est responsable du biais : celui qui a créé les données, ou celui qui les a appris ? �����������������������������������

Ce qu'en ont dit les enfants

Romane a associé spontanément une image d'homme en costume à «directeur» et une femme en blouse à «infirmière». Quand je le lui ai fait remarquer, elle a été très en colère contre elle-même. Meryl gardait les images avec des chiens dessus.