Dans un contexte où la technologie progresse à pas de géant, l'intelligence artificielle (IA) se trouve au centre d'une problématique grave : l'explosion des contenus pédopornographiques en ligne. En effet, au cours des six premiers mois de 2025, OpenAI, créateur du célèbre chatbot ChatGPT, a enregistré un nombre de signalements particulièrement inquiétant : 75 027 cas liés à 74 559 images et vidéos, marquant une hausse vertigineuse de 80 fois par rapport à l'année précédente. Cette révélation, relayée par le magazine américain Wired, souligne les défis croissants auxquels sont confrontés les géants de la tech en matière de sécurité des enfants.
OpenAI, à l'instar d'autres entreprises du secteur telles que Meta et TikTok, est légalement contraint de signaler tout contenu d'abus sexuel sur mineurs au National Center for Missing and Exploited Children (NCMEC). En tout, 75 027 rapports ont été transmis entre janvier et juin 2025, alors que 947 signalements avaient été recensés durant la même période l'année précédente. Ce changement brutal dans les chiffres soulève des questions sur la manière dont l'IA pourrait faciliter la création de tels contenus.
Les experts mettent en lumière une tendance alarmante où les contenus générés par IA deviennent de plus en plus réalistes, rendant difficile la distinction entre des images synthétiques et de véritables photographies d'enfants. En octobre 2024, l'Internet Watch Foundation avait déjà tiré la sonnette d'alarme sur ce phénomène glaçant, mentionnant que certaines images étaient « si réalistes qu'il était presque impossible de les distinguer des images de vrais enfants ».
Ce constat préoccupant est corroboré par une étude de BFMTV, indiquant que depuis 2024, les incidents de pédopornographie, qu'ils soient réels ou générés par IA, sont en forte augmentation. De plus, des images d'abus sexuels sur mineurs ont été découvertes sur des plateformes initialement conçues pour faciliter des interactions inoffensives avec des personnages virtuels.
Dans son dernier rapport, OpenAI a reconnu que certains utilisateurs tentent d'utiliser ses modèles pour créer ou faire des descriptions de contenus inappropriés. La société insiste sur le fait que cela constitue une violation de ses politiques de protection de l'enfance, entraînant des sanctions sévères pour les contrevenants, y compris le bannissement des utilisateurs et le signalement au NCMEC.
Il est essentiel que l'industrie technologique prenne conscience des dangers liées aux contenus d'abus sexuels sur mineurs générés par l'IA. Alors que la technologie continue d'évoluer, les experts s'accordent à dire qu'il est de la responsabilité des entreprises de renforcer leur rôle dans la sécurité en ligne, garantissant un environnement sûr pour tous les utilisateurs, surtout pour les plus vulnérables.







