
Nations Unies, 6 février - L’UNICEF a pressé ce mercredi les gouvernements du monde entier d’agir face à l’augmentation rapide du contenu sexuel infantile généré par l’intelligence artificielle (IA), une pratique qui, selon une étude de l’agence, a déjà touché plus d’un million d’enfants.
Le Fonds des Nations Unies pour l’enfance a présenté une étude en collaboration avec l’ONG ECPAT et INTERPOL, réalisée dans onze pays, révélant qu’au moins 1,2 million d’enfants ont été affectés au cours de la dernière année par la manipulation de leurs images à l’aide de ‘deepfakes’ contenant du contenu sexuel explicite.
Les ‘deepfakes’ ou ultra-faux désignent des contenus générés par l’IA qui imitent de manière très réaliste l’apparence, la voix ou les gestes d’une personne.
« Soyons clairs : les images sexualisées de mineurs créées ou manipulées par des outils d’IA constituent des images d’abus sexuels d’enfants », a déclaré l’UNICEF dans un communiqué.
L’agence de l’ONU a affirmé que ces abus demeurent réels car « même si les images sont fausses », elles causent des dommages qui sont « réels ».
L’UNICEF a lancé un appel « urgent » aux gouvernements pour freiner cette menace « croissante ».
Parmi d’autres recommandations, elle a demandé d’élargir les définitions des images d’abus sexuels sur les enfants afin d’inclure le contenu généré par l’IA et de punir sa création, son acquisition, sa possession et sa distribution.
Le préjudice causé par les abus via ‘deepfake’ est réel et nécessite une action immédiate. Les enfants ne peuvent se permettre d’attendre que la législation soit mise à jour.
Le Congrès des États-Unis a encouragé des initiatives liées aux ‘deepfakes’.
Récemment, Grok, l’intelligence artificielle intégrée dans X, l’ancien Twitter, a suscité une controverse en générant des images à caractère sexuel sur la plateforme sans aucun type de permission et/ou de restriction. (Texte et photo : Cubasí)