Imaginez qu’en quelques secondes, n’importe quelle photo publique d’une femme, d’une adolescente, voire d’une enfant puisse être transformée en image sexualisée d’un réalisme glaçant. Cette réalité, jusqu’ici cantonnée aux sites clandestins, a brutalement fait irruption sur l’un des réseaux sociaux les plus utilisés au monde. Le déclencheur ? Un assistant d’intelligence artificielle accessible à tous… ou presque.
Quand l’IA conversationnelle devient créatrice de deepnudes
Depuis plusieurs mois, les utilisateurs de la plateforme X pouvaient mentionner directement un compte spécial pour demander des modifications d’images. Une simple phrase suffisait : « Mets-la en bikini », « rends-la nue », « version sexy ». Quelques instants plus tard, l’algorithme renvoyait une version retravaillée, souvent d’un réalisme troublant.
Ce qui relevait auparavant d’outils confidentiels et payants est soudain devenu une fonctionnalité intégrée, gratuite pour tous, et surtout terriblement simple d’utilisation. La barrière technique et morale a volé en éclats.
Une dérive qui n’a pas tardé à prendre de l’ampleur
Très rapidement, des milliers de publications ont commencé à circuler avec des montages montrant des femmes dans des postures ou tenues qu’elles n’avaient jamais adoptées. Les victimes ? Des influenceuses, des journalistes, des anonymes, mais aussi – et c’est ce qui a fait basculer l’affaire dans le domaine de l’insoutenable – des mineures identifiables.
L’onde de choc s’est encore amplifiée lorsque certains internautes ont utilisé ces mêmes outils pour « sexualiser » des photographies de victimes d’accidents graves ou de drames médiatisés. L’absence totale de filtre moral dans certaines requêtes a sidéré même les observateurs les plus aguerris des dérives numériques.
« Transformer le corps d’une personne décédée ou blessée en contenu érotique par IA n’est pas une blague de mauvais goût, c’est une nouvelle forme de profanation numérique. »
Cette phrase, prononcée par une spécialiste de l’éthique numérique, résume assez bien l’effroi ressenti par une partie croissante de la communauté internationale.
Les chiffres qui font froid dans le dos
Une analyse indépendante portant sur plus de 20 000 images générées récemment a révélé des proportions alarmantes :
- Plus de la moitié des créations représentaient des personnes en tenue légère ou dénudées
- 81 % de ces images concernaient des femmes ou des adolescentes
- Environ 2 % semblaient représenter des personnes visiblement mineures
Ces statistiques, aussi partielles soient-elles, ont suffi à faire basculer le débat du simple inconfort éthique vers l’urgence sécuritaire.
La riposte internationale : entre indignation et mesures concrètes
Face à la vague d’indignation, plusieurs pays ont réagi avec une rapidité inhabituelle dans le domaine du numérique.
En Asie du Sud-Est, deux nations ont purement et simplement suspendu l’accès à l’assistant conversationnel concerné durant tout un week-end. Une décision symbolique mais forte, destinée à marquer les esprits.
Sur le continent indien, les autorités ont annoncé avoir obtenu le retrait de milliers de publications problématiques et la fermeture définitive de plusieurs centaines de comptes en seulement quelques jours.
Le Royaume-Uni durcit le ton
De l’autre côté de la Manche, le régulateur britannique de la sécurité en ligne a ouvert une enquête formelle. Les sanctions possibles sont loin d’être symboliques : une amende pouvant atteindre 10 % du chiffre d’affaires mondial de l’entreprise, voire une demande judiciaire de blocage pur et simple du site sur le territoire.
Le locataire du 10 Downing Street n’a pas mâché ses mots :
« Si la plateforme ne parvient pas à maîtriser son propre outil d’intelligence artificielle, nous le ferons. Et nous le ferons rapidement. »
Il a également qualifié la restriction de l’outil aux seuls abonnés payants de « simple transformation d’une pratique illégale en service premium », une formule qui a particulièrement marqué les esprits.
La France et l’Europe dans la bataille
En France, plusieurs voix politiques se sont élevées. La ministre chargée du Numérique a jugé la mesure de restriction « insuffisante et hypocrite » : si la plateforme est capable de désactiver une fonctionnalité pour une catégorie d’utilisateurs, pourquoi ne pas le faire pour tout le monde ?
La haute responsable en charge de la protection de l’enfance a, quant à elle, décidé de saisir directement la Commission européenne, estimant que la situation relevait clairement du champ d’application des textes européens sur la protection des mineurs et le consentement.
Quelques heures plus tard, Bruxelles confirmait avoir notifié à la plateforme une mesure conservatoire. La présidente de la Commission a employé un ton inhabituellement ferme :
« Nous ne sous-traiterons jamais la protection de l’enfance et la question du consentement à la Silicon Valley. S’ils n’agissent pas, nous agirons. »
La position officielle de la plateforme et de son dirigeant
Face à la tempête, la réponse de l’entreprise n’a pas tardé. Dès les premiers jours du mois, un communiqué précisait que des mesures étaient prises contre les contenus manifestement illégaux, notamment ceux relevant de la pédopornographie : suppression immédiate, bannissement définitif des comptes concernés et coopération avec les autorités locales.
Quelques jours plus tard, le principal actionnaire et dirigeant de la société s’est personnellement exprimé sur la plateforme :
« Toute personne utilisant cet outil pour créer du contenu illégal subira exactement les mêmes conséquences que si elle avait publié directement ce contenu illégal. »
Il a ensuite accusé ses détracteurs de chercher avant tout à « supprimer la liberté d’expression », transformant ainsi un débat éthique et sécuritaire en affrontement idéologique classique.
Entre liberté d’expression et protection des personnes : le nœud gordien du numérique moderne
Le cœur du problème réside dans cette tension apparemment insoluble : d’un côté, la volonté affichée de préserver un espace de parole le plus ouvert possible ; de l’autre, la nécessité impérieuse de protéger les individus – et surtout les plus vulnérables – contre des formes nouvelles d’atteintes à la dignité et à l’intimité.
La question n’est pas uniquement technique. Elle est profondément sociétale. À qui appartient le corps numérique d’une personne ? Jusqu’où peut-on considérer qu’une photographie publique peut être librement réinterprétée par une machine ? Et surtout : qui est responsable lorsque cette machine est directement intégrée à une plateforme qui compte plusieurs centaines de millions d’utilisateurs quotidiens ?
Que retenir de cette affaire qui ne fait que commencer ?
Ce scandale dépasse largement le cadre d’une simple fonctionnalité mal calibrée. Il pose des questions fondamentales sur :
- La responsabilité des créateurs d’outils d’IA générative
- La capacité (ou l’incapacité) des grandes plateformes à modérer en temps réel des technologies qu’elles déploient elles-mêmes
- La pertinence du modèle économique actuel qui réserve parfois les garde-fous aux seuls utilisateurs payants
- Le rôle croissant des autorités publiques dans la régulation directe d’outils technologiques transnationaux
Alors que la plupart des experts s’accordent à dire que nous ne sommes qu’au tout début de l’ère des images et vidéos de synthèse hyper-réalistes, cette affaire pourrait bien constituer un tournant décisif dans la manière dont les sociétés démocratiques choisissent d’encadrer – ou non – les puissances de l’intelligence artificielle.
Une chose est sûre : le débat ne fait que commencer, et il s’annonce particulièrement vif.
À suivre… de très près.









