« Deepfake » , « deepnude » : les femmes en première ligne face aux dangers de l’intelligence artificielle

« Deepfake » , « deepnude » : les femmes en première ligne face aux dangers de l’intelligence artificielle

De plus en plus présente dans nos vies, l’IA comporte des biais de genre encore trop peu connus. Selon l’Institut belge pour l’égalité des femmes et les hommes, elle agit comme un « accélérateur des violences numériques faites aux femmes » . Etat des lieux en Belgique avec nos partenaires Les Grenades.

Par

Les Grenades

Image

Les femmes sont les premières victimes de fausses images générées par l’intelligence artificielle.

DR

3 minutes de lecture

L’utilisation de l’intelligence artificielle se généralise et fait désormais partie de notre vie quotidienne, parfois même sans que l’on s’en rende compte. En 2025, six Belges sur dix ont utilisé un robot conversationnel (ou chatbot) doté d’IA. De leur côté, 95% des jeunes en Belgique utilisent des outils d’IA, même si 70% d’entre elles et eux expliquent ne pas faire confiance à l’IA pour prendre des décisions importantes.

Une entreprise belge sur trois utilise déjà au moins une technologie d’IA, une augmentation de 40% par rapport à l’année dernière et de 150% par rapport à il y a deux ans, ce qui place la Belgique en quatrième position du classement européen de l’utilisation de l’intelligence artificielle sur le lieu de travail.

Ces utilisations posent de nouvelles questions. Les chiffres montrent par exemple que les hommes belges utilisent plus souvent l’IA au travail que les femmes (42% contre 24%). Les hommes sont également plus nombreux à y voir une aide à la productivité et à constater un impact positif sur leur propre bien-être mental. Et ce ne sont pas les seuls écarts genrés que comporte l’usage de l’IA.

Retrouvez l’article original de nos partenaires Les Grenades Intelligence artificielle et biais de genre : des dangers accrus pour les femmes

Lancer l’alerte

L’Institut pour l’égalité des femmes et les hommes (IEFH) dénonce dans un communiqué le fait que l’IA agit comme un « accélérateur » des violences numériques à l’égard des femmes. En ligne de mire: les deepfakes et les deepnudes, c’est-à-dire la création de fausses images sexualisées hyperréalistes, qui visent majoritairement les femmes, et en particulier celles qui sont actives dans la sphère publique, comme les responsables politiques, les journalistes ou les expertes.

Ces hypertrucages ont fait la une de l’actualité début 2026, lorsque Grok, l’outil d’intelligence artificielle du milliardaire américain Elon Musk développé sur le réseau social X, a permis la génération de millions de deepfakes illégaux de femmes et d’enfants dénudé·es, selon le Center for Countering Digital Hate. Cette affaire a incité la Commission européenne à ouvrir une enquête et a mené à un amendement signé par les 27 dans le but d’interdire les services d’IAqui génèrent des images sexuelles et intimes non consenties, ou pédopornographiques.Le Parlement européen travaille parallèlement sur un amendement similaire. « Nous vivons dans une société misogyne, dans laquelle l’image des femmes est utilisée sans leur consentement pour les humilier depuis bien longtemps. On a connu les montages photos faits à partir de magazines pornographiques. On a aussi vu apparaitre le revenge porn, et l’upskirting, qui consiste à prendre des photos ou des vidés volées sous les jupes des femmes et, parfois, à les partager en ligne. Ce qui est nouveau avec l’IA aujourd’hui, c’est la facilité et la rapidité dans la génération de ces images, à un rythme presque industriel. Cela sert d’outil de sociabilisation pour les hommes, pour bien se faire voir auprès d’autres hommes, et il s’agit aussi d’instrument de contrôle des femmes. On sait bien ce qui risque d’arriver à celles qui prennent leur place dans le débat démocratique ou dans l’espace public » , explique aux Grenades Mathilde Saliou, journaliste française spécialisée dans le numérique, autrice de l’ouvrage Technoféminisme (2023) et de L’envers de la tech (2025).

Plus récemment, des inquiétudes ont émergé autour de l’utilisation détournée des lunettes Meta par des hommes pour filmer les femmes sans leur consentement.

Des signalements en hausse

L’IEFH pointe également l’émergence de nouvelles formes de violence conjugales facilitées par l’IA, notamment la traque numérique. Les signalements reçus par l’IEFH en matière de violences sexuelles en ligne ont d’ailleurs augmenté de 25% en 2024 et de 75% en 2025, même si l’ampleur réelle du phénomène reste difficile à mesurer. « Les plaintes restent en effet extrêmement rares » , note Véronique De Baets. Aux freins déjà connus (honte, peur de ne pas être crue, sidération) s’ajoutent d’autres types de difficulté : réussir à prouver qu’une image générée par IA est fausse, l’anonymat des auteurs, leur présence possible à l’étranger et l’hébergement des contenus sur des serveurs hors de Belgique. Des obligations de retrait sont pourtant prévues par la réglementation européenne, notamment le Digital Services Act (DSA) qui demande aux plateformes qui hébergent des contenus de les modérer quand ils incitent à la haine ou sont discriminatoires. « On a tendance à considérer les outils technologiques comme étant des outils neutres. C’est complètement faux » , réagit Mathilde Saliou. « L’industrie de la tech est l’une des plus inégalitaires. Elle s’est construite sur un déséquilibre genré, avec des effectifs majoritairement masculins, surtout chez les développeurs. Cela signifie que la manière de concevoir les outils d’IA est peu représentative de la diversité de notre société. Je pense par exemple à Apple qui, lors du lancement de son application de suivi de la santé, Health Kit, en 2014, avait omis la possibilité de suivre le cycle menstruel. Pourtant, la moitié de l’humanité a ses règles ! » Autre exemple avancé par la journaliste : « Si on demande à un outil d’IA générative de créer une image d’un CEO ou d’un PDG, il s’agira d’hommes blancs en costume, comme si cela était nécessaire pour diriger une entreprise. Si on demande une image de personnel de ménage, on aura des femmes non blanches. Cela renforce les représentations stéréotypées présentes dans la société. » L’Institut pour l’égalité des femmes et les hommes (IEFH) dénonce dans un communiqué le fait que l’IA agit comme un « accélérateur » des violences numériques à l’égard des femmes.

DR

IA et recrutement : un biais de genre « sous-estimé » Selon une étude commandée par l’IEFH et sortie en février, 74% des recruteur·euses utilisent l’intelligence artificielle dans au moins une étape du processus de sélection en Belgique. Les professionnel·les sont cependant peu conscient·es des risques de biais de genre et de discrimination des outils d’IA, et l’IA continue d’être considérée comme plus objective que les êtres humains. L’étude montre que la majorité des personnes en charge du recrutement ont une perception positive de l’IA, considérant les gains d’efficacité et de temps apportés. « L’efficacité est un discours marketing développé par l’industrie de la tech. En réalité, c’est questionnable. Si une IA évacue automatiquement tous les CV de candidates féminines, ou une partie d’entre eux, j’ose espérer que cela n’arrangera pas tous les chef·fes d’entreprises. Ces IA ne sont pas neutres, elles sont biaisées, est-ce qu’il faudra vérifier chaque résultat ? Est-ce une manière efficace de fonctionner ? J’ajoute que ce sont des outils qui peuvent donner des résultats complètement illégaux, car il existe des lois anti-discriminations. Ce n’est pas encore assez discuté en ces termes » , précise Mathilde Saliou. Il existe d’ailleurs des précédents : une intelligence artificielle développée par Amazon, et qui permettait de trier les CV des candidat·es, a par exemple dû être arrêtée par l’entreprise en 2017 après avoir discriminé les femmes. L’IA avait été entraînée avec des profils d’hommes et avait conclu qu’il fallait sélectionner d’abord des candidats de sexe masculin.

Tweet URL

Un outil de discrimination

L’Unia, l’institution interfédérale qui lutte contre la discrimination et promeut l’égalité en Belgique, a aussi exprimé ses inquiétudes concernant l’utilisation de l’IA et les discriminations possibles à l’embauche, lors de demandes de prêts sur base de modèles prédictifs, ou encore à propos des systèmes d’IA de reconnaissance faciale, qui sont moins précis dans l’identification des personnes racisées ou des femmes. « On sait depuis au moins 10 ans que les systèmes de reconnaissance faciale sont biaisés et ils sont pourtant utilisés. Aux États-Unis, des personnes ont été arrêtées par erreur, parce qu’elles étaient noires et que la reconnaissance faciale s’est trompée. Le problème, c’est que l’IA renforce les inégalités existantes, tout en diluant les responsabilités. Vers qui se tourner dans ces cas-là pour demander des comptes ? Vers les concepteurs de l’IA ? Vers les policiers qui l’utilise ? C’est pareil pour la discrimination à l’embauche à cause de l’utilisation d’une IA : comment prouver que votre CV n‘a pas été retenu par l’IA parce que vous êtes une femme et/ou une personne minorisée ? » , souligne Mathilde Saliou.

Source de l’article : tv5monde

Laisser un commentaire