L’Unicef observe une explosion du nombre d’images d’enfants détournées en deepfakes sexuels

L’Unicef observe une explosion du nombre d’images d’enfants détournées en deepfakes sexuels

L’Unicef met en garde contre la multiplication d’images d’enfants détournées par l’intelligence artificielle pour réaliser des deepfakes à caractère sexuel. Cela passe notamment par le biais de la « nudification » , consistant à modifier ou enlever les vêtements d’une victime, selon cette enquête menée avec Interpol, publiée mercredi 4 février. « Dans 11 pays au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée » , soit dans certains « l’équivalent d’un enfant par classe » .

Les pays retenus dans l’étude sont l’Arménie, le Brésil, la Colombie, la République dominicaine, le Maroc, le Monténégro, la Macédoine du Nord, le Mexique, le Pakistan, la Serbie et la Tunisie. « Il convient de le rappeler clairement : les images d’enfants à caractère sexuel générées ou manipulées à l’aide d’outils d’IA ne sont autres que des contenus montrant des abus sexuels sur enfant. Les abus commis au moyen d’images hypertruquées restent des abus, et les préjudices qu’ils entraînent sont tout sauf fictifs » , écrit l’organisation dans un communiqué.

Des mécanismes de protection insuffisants

L’Unicef déplore notamment qu’ « un trop grand nombre de modèles d’IA sont encore conçus sans mécanismes de protection appropriés » et que « les risques tendent à se multiplier lorsque les outils d’IA générative sont directement intégrés aux plateformes de médias sociaux, où les images ainsi manipulées se propagent rapidement » . Le réseau social X, propriété du milliardaire Elon Musk, est sous le coup de plusieurs procédures dans différents pays en raison de la diffusion par son chatbot Grok de contenus pornographiques à partir d’images réelles.

Le Fonds des Nations Unies chargé de la protection de l’enfance à travers le monde réclame que les développeurs d’IA mettent en place « des garde-fous robustes » pour empêcher la création de ces deepfakes et que les entreprises du numérique « préviennent leur circulation » plutôt que se limitent à leur retrait après coup. L’Unicef demande aussi aux gouvernements d’ « élargir la définition des contenus montrant des abus sexuels sur enfant pour y inclure les contenus générés par l’IA, et criminaliser leur création, leur acquisition, leur détention et leur diffusion » .

Source de l’article : Franceinfo

Laisser un commentaire