La Commission européenne a lancé lundi une enquête officielle pour déterminer si X a violé les règles numériques de l’UE en ne parvenant pas à empêcher son chatbot IA Grok de générer et de diffuser du contenu illégal, y compris des images sexuellement explicites d’enfants. L’enquête évaluera si l’entreprise a correctement évalué et atténué les risques avant de déployer les fonctionnalités de génération d’images de Grok, a indiqué la Commission dans un communiqué lundi. La Commission a également déclaré que ces risques s’étaient matérialisés par la génération et la diffusion réelles de contenus sexuels illégaux, exposant ainsi les citoyens de l’UE à de graves dangers.
Cela intervient dans un contexte de surveillance internationale croissante du rôle de Grok dans la création de deepfakes non consensuels. Il y a deux semaines, X a mis en place des restrictions, limitant la génération d’images aux abonnés payants, et a ajouté des barrières techniques pour empêcher les utilisateurs de manipuler numériquement des personnes afin de leur faire révéler leurs vêtements. La société a également géobloqué cette fonctionnalité dans les juridictions où un tel contenu est illégal. Malgré ces mesures, des chercheurs ont constaté qu’environ un tiers des images sexualisées d’enfants identifiées dans l’échantillon CCDH restaient accessibles sur la plateforme X. « Avec cette enquête, nous déterminerons si X a respecté ses obligations légales en vertu du DSA, ou s’il a traité les droits des citoyens européens — y compris ceux des femmes et des enfants — comme des dommages collatéraux de son service », a déclaré Henna Virkkunen, vice-présidente exécutive pour la souveraineté technologique, la sécurité et la démocratie, dans le communiqué.
Plus tôt ce mois-ci, le porte-parole de la Commission européenne, Thomas Regnier, a condamné la fonctionnalité « Spicy Mode » de X lors d’une conférence de presse à Bruxelles. « Ce n’est pas épicé. C’est illégal. C’est choquant. C’est dégoûtant. Cela n’a pas sa place en Europe », a déclaré Regnier. Fraser Edwards, co-fondateur et CEO de cheqd, a déclaré à Decrypt que « chaque créateur devrait pouvoir contrôler l’utilisation de leur image dans les médias générés par IA ». Il affirme que « la réaction contre l’abus de deepfake souligne un échec fondamental d’Internet lui-même ». « Il n’existe toujours pas de moyen natif de vérifier qui a créé un contenu synthétique ou si son utilisation a été autorisée », a ajouté Edwards, laissant la responsabilité continuer à « revenir aux intermédiaires comme X plutôt qu’aux personnes responsables de la génération de ces abus ». Si cela est prouvé, les défaillances en cours d’enquête constitueraient des infractions aux articles 34(1) et (2), 35(1) et 42(2) du Digital Services Act, qui obligent les plateformes à évaluer et atténuer les risques systémiques, y compris la diffusion de contenu illégal et les effets négatifs liés à la violence basée sur le genre. L’enquête de l’UE prolonge une affaire DSA de fin 2023 qui a abouti à une amende de 140 millions de dollars (120 millions d’euros) contre X en décembre pour conception trompeuse, manquements à la transparence des publicités et accès limité aux chercheurs. La Commission a depuis élargi sa surveillance à Grok, y compris des préoccupations antérieures concernant du contenu antisémite généré par le chatbot.
Decrypt a contacté xAI pour un commentaire supplémentaire.