7 octobre Un compte TikTok nommé @fujitiva48 a posé une question provocatrice à côté de sa dernière vidéo. « Que pensez-vous de ce nouveau jouet pour les tout-petits ? » Ils ont interrogé plus de 2 000 téléspectateurs, qui sont tombés par hasard sur ce qui semblait être une parodie de publicité télévisée. La réponse a été claire. “Hé, ce n’est pas drôle”, a écrit une personne. Celui qui a fait cela devrait faire l’objet d’une enquête.
Il est facile de comprendre pourquoi la vidéo a suscité une telle réaction. La fausse publicité s’ouvre sur une jeune fille photoréaliste tenant un jouet : un bourdon rose scintillant et orné d’un manche. C’est un stylo, nous dit-on, tandis qu’un homme adulte raconte la voix off tandis que la jeune fille et deux autres griffonnent sur du papier. Mais il est clair que le design floral de l’objet, sa capacité à bourdonner et son nom – Vibro Rose – ressemblent beaucoup à un jouet sexuel. Un bouton « Ajouter le vôtre » – la fonctionnalité de TikTok qui encourage les gens à partager des vidéos sur leur flux – avec les mots « J’utilise mon jouet rose » dissipe le moindre doute. (WIRED a contacté le compte @fujitiva48 pour commenter, mais n’a pas reçu de réponse.)
Le clip inquiétant a été créé à l’aide de Sora 2, le dernier générateur vidéo d’OpenAI, initialement publié sur invitation uniquement aux États-Unis. 30 septembre. En un peu plus d’une semaine, des vidéos comme le clip Vibro Rose ont migré de Sora et ont atterri sur la page For You de TikTok. Alors que certaines des autres fausses publicités étaient plus évidentes, WIRED a découvert plusieurs comptes publiant des vidéos similaires générées par Sora 2, montrant des jouets aquatiques en forme de roses ou de champignons et des décorateurs de gâteaux qui projetaient du « lait collant », de la « mousse blanche » ou de la « glu » sur des images vives d’enfants.
Dans de nombreux pays, ce qui précède constituera la base d’une enquête visant à déterminer si l’enfant est réel plutôt que l’intégration numérique. Mais les lois sur les contenus fétichistes générés par l’IA et impliquant des mineurs restent floues. Nouvelles données 2025 de Fondation de surveillance Internet Le Royaume-Uni note que le matériel pédophile généré par l’IA, ou CSAM, a doublé en un an, passant de 199 à 426 au cours de la même période allant de janvier à octobre 2024 et 2025. Cinquante-six pour cent de ce contenu entre dans la catégorie A – l’activité sexuelle la plus grave du Royaume-Uni avec activité sexuelle ou l’animal le plus sérieux du Royaume-Uni avec activité sexuelle. 94 % des images illégales d’IA suivies par l’IWF sont celles de filles. (Sora ne semble produire aucun contenu de catégorie A.)
Kerry Smith, directrice générale de l’IWF, a déclaré à WIRED : « Trop souvent, nous voyons de véritables portraits d’enfants créés pour créer des images nues ou sexuelles, et le plus souvent, nous voyons l’IA être utilisée pour créer des images de filles. C’est une autre façon de cibler les filles en ligne. »
Cet afflux de matériel nuisible généré par l’IA a incité le Royaume-Uni à introduire un Nouveaux amendements à son projet de loi sur la criminalité et la policequi permettra aux « testeurs agréés » de tester que les outils d’intelligence artificielle ne sont pas capables de générer du CSAM. Comme le rapporte la BBC, l’amendement garantira que les modèles protègent certaines images, notamment la pornographie extrême et les images intimes non consensuelles. Aux États-Unis, 45 États ont mis en œuvre la loi Criminaliser le CSAM généré par l’IASurtout au cours des deux dernières années, alors que le générateur d’IA continue d’évoluer.






