FAKE Au cours des quatre premiers mois, 68 lots de ces contenus ont été repérés contre 25 sur l’ensemble de l’année 2022
La start-up de modération ActiveFence a annoncé que plusieurs internautes se servaient des outils reposant sur l’intelligence artificielle (IA) pour créer des images à caractère pédopornographique. Selon Avi Jager, un responsable de la start-up cité par Bloomberg, 68 lots d’images de ce type générées par des algorithmes auraient été publiés sur des forums dédiés aux contenus pédopornographiques.
Crainte d’une multiplication de ces contenus en ligne
Cette observation ne concerne que les quatre premiers mois de l’année 2023. L’an dernier, 25 séries de ces fausses photos avaient été publiées sur ces mêmes plateformes. Ces contenus sont tout aussi dangereux que les images authentiques. Elles interpellent également les spécialistes et les autorités par leur réalisme toujours plus important et leur accessibilité grandissante.
Aux Etats-Unis, le Centre national pour les enfants disparus et exploités a fait savoir qu’il n’avait détecté aucune recrudescence massive des images pédopornographiques générées par intelligence artificielle. L’organisme craint malgré tout une multiplication de ces contenus en ligne et a expliqué être en discussion avec les législateurs américains et des plateformes afin d’éviter que les capacités de l’IA ne soient détournées à ces fins.
De nombreuses entreprises spécialisées en IA ont mis en place des mesures de sécurité en bloquant certaines requêtes. Ces protections ne sont cependant pas infaillibles et certains internautes partagent des astuces pour les contourner. Des acteurs américains du secteur ont par ailleurs expliqué ne pas fixer de limite concernant les demandes des utilisateurs car ces images artificielles ne sont pas interdites aux Etats-Unis, contrairement à la France.
20minutes