Les implications du Take It Down act pour la lutte contre la prolifération des contenus pédopornographiques en ligne : entre protection renforcée et risques de dérives

Le Take It Down Act,[1] devenu loi le 19 Mai 2025, criminalise la diffusion des représentations visuelles à caractère intimes sans le consentement des personnes représentées. Il prévoit l'obligation pour les plateformes de mettre en place un mécanisme permettant aux victimes de pouvoir notifier la plateforme de l’existence du contenu, qui doivent ensuite le retirer dans les 48h. Il protège personnes mineures et majeures, et inclut images et vidéos réelles, mais s’étend également à celles créées par des intelligences artificielles ou “Deep Fakes”. Ces crimes sont passibles d’amendes et d'un maximum 3 ans d'emprisonnement lorsque le contenu concerne une victime mineure, et de 2 ans lorsqu’elle est majeure.

L’acte répond à une problématique grandissante de diffusion des contenus à caractère sexuel sur internet sans le consentement des personnes représentées, notamment pédopornographiques, définis par le Département de Justice américain comme toute image ou vidéo à caractère sexuel d’un mineur de moins de 18 ans[2]. Une enquête du New York Times de 2019[3] révèle que la propagation de ces images a pris un nouvel essor avec l’utilisation croissante du téléphone portable et des réseaux sociaux : le million d’images et vidéos à contenu pédopornographiques reportées par les plateformes en ligne en 2008 se sont transformées en 45 millions 10 ans plus tard. En 2024, le Centre National des Enfants Disparus et Exploités déclarait avoir reçu 20,5 millions de signalements.

Malgré cette constante augmentation, les gouvernements ont tardé à s'adapter. Aux Etats-Unis, la difficulté principale rencontrée par les victimes est la large protection accordée aux plateformes par la “section 230” de la Loi sur les Communications, sous laquelle le contenu illégal publié par les utilisateurs, notamment pédopornographiques, n’engage pas la responsabilité des plateformes.

Plusieurs victimes de faits similaires sont représentées au procès contre Twitter : le cas traité en détails est celui de John Doe 1[4], victime à l'âge de 13 ans de traite sexuelle qui a été contrainte à produire des vidéos à caractère pédopornographique pour ses agresseurs. Trois ans plus tard, elle découvre que ses vidéos sont diffusées sur la plateforme Twitter, qu’elle tente en vain d’alerter. Twitter refuse de prendre la moindre action, arguant que les vidéos ne violaient pas ses règles internes. C’est seulement 10 jours après leur découverte que Twitter accepte de retirer ces images sous la pression du département de sécurité intérieure des Etats-Unis lui-même. Ce délai permet aux images d’être vues 167 000 fois et “retweetées” (republiées par un utilisateur sur son compte) 2 223 fois, sans compter le nombre de téléchargements, impossible à estimer.

Les demandeurs font valoir 13 moyens, dont les seules violations retenues sont celles concernant le droit pénal étudiées ici. Ils arguent des violations du Chapitre 110 “Exploitation sexuelle et autres abus sur mineurs” du titre 18 du code pénal américain, dont l’article 2252(a), pour avoir distribué en connaissance de leur nature des contenus à caractère pédopornographique et §§2258(a) et (b) pour avoir manqué à son obligation de le signaler. Ils arguent également des violations du TVPA articles §§1591 (a)(1) et (2) et 1595 (a) par Twitter qui, en maintenant sur sa plateforme du contenu pédopornographique, aurait, à travers son système de monétisation, “bénéfici(é) sciemment (...) financièrement, ou en recevant quelque chose de valeur d'une participation à une entreprise dont (elle) savait ou aurait dû savoir qu'elle s'était engagée dans un acte de traite”. Le TVPA peut s’appliquer sous la “loi permettant aux États et aux victimes de Lutter contre le Trafic Sexuel en Ligne” (FOSTA) de 2018, qui barre l’immunité de la section 230 dans les cas de traite sexuelle en ligne.

Le  11 décembre 2023, le Tribunal de première instance des Etats-Unis pour le district nord de la Californie, accorde la motion de rejet de Twitter, annulant de ce fait l’audience prévue quelques jours plus tard. Elle fonde sa décision sur l’affaire Doe contre Reddit, rendue pendant l’instruction, où la loi FOSTA est interprétée de manière restrictive : l'immunité de la Section 230 ne peut être levée que lorsque la plateforme a participé à la traite sexuelle ou bénéficié financièrement de cette dernière en pleine connaissance des faits, et le fait que la plateforme ait produit des revenus publicitaires autour de contenus illicites ne suffit pas. Plus problématique, la décision Twitter reprend la formule de la décision Reddit : “Considérées comme vraies, ces allégations suggèrent seulement que Reddit a ‘fermé les yeux’ sur les contenus illicites publiés sur sa plateforme, et non qu'il a participé activement au trafic sexuel.” (p.8 de la décision). Cette interprétation, qui ouvre la voie pour un droit des plateformes à fermer les yeux sans risquer d’engager leur responsabilité, est cependant aujourd'hui remise en cause par le Take It Down Act, qui impose de nouvelles obligations strictes de modérations.

Le Take It Down Act consacre-t-il un tournant dans l’interprétation de la Section 230, en rompant avec la jurisprudence protectrice illustrée par Doe v. Twitter et en réorientant la loi vers son objectif initial de responsabilité des plateformes de protéger les mineurs dans leurs espaces ? Afin de comprendre les besoins qu’espère combler le Take It Down Act, il faut tout d’abord revenir sur le contexte de la loi sur les communications et sa section 230, ainsi que sur son interprétation. Le Take It Down Act est protecteur et a pour ambition de pallier les vides juridiques existants. Mais atteint il ce but sans remettre en jeu la capacité de fonctionnement des plateformes et les droits des utilisateurs ?

L'évolution de l’interprétation de la section 230 vers un “droit de fermer les yeux”

Comme précisé dans l’amicus brief en support des victimes, la loi sur les communications dont est issue la section 230 avait à l’origine pour but la protection des mineurs en empêchant que ces derniers n’aient accès à certains contenus, dont des images à caractère sexuelle et violent. Ainsi, l’acte visait à opérer un équilibre entre la nécessaire protection des mineurs en ligne et la continuité de l’expansion libre d’internet. Or, il n’en subsiste que la section 230, qui protège à travers une immunité large les services numériques en ligne. Elle protège les plateformes numériques (sites webs, réseaux sociaux, applications) en assurant qu’elles ne soient pas considérées comme les auteurs des contenus illicites (c)(1), leur permettant ainsi d’exister sans crouler sous les poursuites, et protégeant par la même occasion les utilisateurs des risques de censure. La Section 230(c) prévoit également que les plateformes ne peuvent être poursuivies pour avoir bloqué ou supprimé des contenus violents, obscènes, ou autrement répréhensibles - permettant ainsi la suppression des contenus visés par le Take It Down act. Or, certaines plateformes continuent d’abriter ces contenus et rendent difficiles pour les victimes d'obtenir leur suppression en se protégeant derrière la large immunité de la section 230 (1) qui barre d'emblée les demandes des victimes avant tout examen de fond. À la suite de scandales comme la traite sexuelle extensive permise par le site Backpage, l’acte FOSTA est adopté afin de limiter cette immunité pour permettre aux victimes de poursuivre les entreprises bénéficiant financièrement de ces crimes.

Malgré le passage de la loi FOSTA, la décision Doe contre Reddit, cristallisée par Doe contre Twitter, empêchent toujours les victimes représentées dans des contenus pédopornographiques diffusés en ligne d’obtenir réparation. Au contraire, leur interprétation semble créer un droit pour les plateformes de “fermer les yeux” sur ces diffusions tant qu’elles ne participent pas activement au crime. La Cour mentionne comme exemple des personnes ayant facilité les actes de traite sexuelle commis par Harvey Weinstein, par le recrutement de victimes, le fait d’avoir fourni les médicaments nécessaires à l’agression des victimes, et le nettoyage des scènes de crimes. En outre, il faudrait qu’un lien de causalité clair puisse être établi entre les revenus de la plateforme et le contenu litigieux, ce qui, selon ces décisions, ne peut être prouvé par le seul fait que la plateforme ait généré des revenus publicitaires autour de contenus illégaux.

Le problème n’est pas seulement l’application jurisprudentielle très stricte de la loi, mais aussi une inadaptation de la loi FOSTA pour traiter la modération de contenus pédopornographiques. En effet, FOSTA vise le champ plus restreint des victimes actuelles ou potentielles de traite sexuelle en ligne, et n’a pas été pensée pour le problème plus large des contenus pédopornographiques. Cela laisse un vide juridique important ; les faits adressés sont ceux de traite sexuelle potentiel ou actuel, mais qu’en est il des images qui apparaissent sur internet après les faits, issus de la traite ou non ?

Le Take It Down Act: entre protection renforcée et risques de dérives

Le Take It Down Act vient remettre en cause la protection de la Section 230 tout en complétant les lois existantes fragmentées, dont le TVPA et le chapitre 110 du code pénal américain. L’acte contient des prévisions larges et des définitions inclusives. Les personnes majeures concernées sont celles n’ayant pas consenti à la collection ou à la diffusion de ces images, ainsi que celles dont les images sont collectées avec leur consentement puis diffusées dans un but de revanche, contre leur consentement - phénomène aussi appelé “revenge porn”, la victime devant cependant être reconnaissable. Le consentement est défini comme l’autorisation consciente et volontaire donnée par une personne sans usage de la force, fraude, contrainte, représentation frauduleuse ou coercition. Les contenus à caractère sexuels publiés par des personnes consentantes sont intégrés dans les exceptions de l’acte, devant ainsi en théorie permettre la protection des travailleuses du sexe. Les personnes mineures sont protégées dès lors que le contenu est à caractère sexuel ou peut être utilisé à des fins sexuelles, ainsi que lorsque les images et vidéos sont diffusées afin de harceler ou d’exercer des violences contre elles. Une définition aussi large amène cependant des risques de censure d’images qui ne sont pas, par nature, sexuelles : quelles images seront considérées comme pouvant servir à des fins sexuelles ? La possibilité qu’une image soit détournée en deep fake implique-t-elle une censure automatique de toute image de mineurs ? Ces questions restent en suspens en l’attente d’application de l’acte, qui prendra effet dans un an. En outre, la menace de diffuser de tels contenus est également prohibée, sous peine de dommages et intérêts, amendes ainsi que peines de prisons. L’acte devrait ainsi permettre de lutter non seulement contre l’abus de mineurs en ligne, mais aussi d'adresser le problème de la re-victimisation des victimes, subi à chaque visionnage et partage de leurs images.

Afin de s’appliquer largement, l’acte reprend directement la définition donnée par la Section 230 des plateformes en ligne. Le respect des mesures sera assuré par la Commission Fédérale du Commerce (Federal Trade Commission), l’agence gouvernementale américaine chargée de la protection du public des fraudes et escroqueries. L’on peut cependant questionner la capacité de la Commission à traiter ces contenus en raison de ressources limitées et de ses autres missions. De plus, à défaut d’une disposition dans l’acte prévoyant comme FOSTA un barrage à l'immunité de la Section 230, les Cours pourraient faire le choix de continuer d’appliquer cette dernière afin de protéger les plateformes. Tout défaut d’application de l’acte par les plateformes sera considéré comme un acte ou une pratique déloyale ou trompeuse tel que défini sous la section 18(a)(1)(B) de la loi sur la commission fédérale du commerce (Federal Trade Commission Act) - une qualification dont la pertinence et l’efficacité dans le contexte de la propagation d’images intimes non consenties restent discutables.

Comme avancé dans un article par l’Electronic Frontier Foundation[5], les risques de détournement de l’acte sont nombreux. Principalement, le risque repose sur son utilisation à des fins de censures politiques, le président Donald Trump ayant assuré devant le Congrès vouloir s’en servir pour supprimer les contenus s’opposant à lui.[6] Même dans le cas où cette utilisation ne serait pas possible, l’acte pourrait être instrumentalisé d’autres manières à ces fins. En effet, les plateformes auront 48h pour supprimer les contenus ciblés, un temps particulièrement restreint face à la réalité des moyens nécessaires pour modérer. Elles ne pourront pas vérifier l’illégalité des contenus dénoncés en un temps si limité et préféreront probablement supprimer un contenu, même non vérifié, plutôt que de risquer des poursuites - un phénomène renforcé par le recours à l’IA pour opérer ce filtrage, outil susceptible de censurer des contenus légaux.

Cette situation ne va pas sans rappeler le régime actuel des droits d’auteurs de Youtube qui, à travers ses conditions d'utilisation, utilise un système similaire de dénonciation et démonétisation voire de suppression des vidéos présumées violer les droits d’auteurs d’un utilisateur. Pour cela, il suffit à un utilisateur de déclarer un contenu comme étant le sien et de choisir entre recevoir les profits lors des utilisations de son contenu par un autre utilisateur, ou sa suppression. Or, ce système est instrumentalisé - par exemple par des célébrités souhaitant voir certaines images disparaître d’internet. Tout comme ce système, l’acte ne prévoit pas les cas d’instrumentalisation des provisions à des fins d’abus de droit et de censure - ce qui pourrait, comme c’est le cas actuellement avec Youtube, mener à des cas d’instrumentalisation de ses règles. Il est cependant important de rappeler que l’acte met en place un système de preuve afin d’effectuer une demande, et que les IA ont de plutôt bonnes capacités de reconnaissance de contenus visés. Une manière de renforcer l’acte serait de prévoir un mécanisme similaire à celui permettant aux utilisateurs de Youtube de prouver leurs droits d’utiliser les contenus afin d’éviter la censure, en permettant à l’auteur de l’image visée par l’acte de demander une réévaluation de sa légalité ainsi que sa remise en ligne en cas d’erreur.

Le Take It Down Act interroge sur les risques d’instrumentalisation et sur la faisabilité de sa mise en œuvre pour les plateformes. Cependant, il a l'avantage de ramener à l’avant de la scène le problème d’ampleur de la propagation en ligne des images pédopornographiques, de violences sexuelles, ou dont la diffusion n’a pas été consenties, ainsi que la nécessaire responsabilisation des plateformes, qui ne peuvent plus fermer les yeux sur ce phénomène.

 

 

BIBLIOGRAPHIE

Acte "Retirez Le", Take it Down Act, (Tools to Address Known Exploitation by Immobilizing Technological Deep Fakes on Websites and Networks Act or Take It Down Act), 2025.

Loi sur la Protection des Victimes de Traite (Trafficking Victims Protection Act ou TVPA), 18 U.S. Code §1591(a)(1) et (2) et §1595(a), 28 octobre 2000.

Chapitre 110 « Exploitation sexuelle et autres abus sur mineurs », titre 18 du code pénal américain, §2252(a), §2258(a) et (b).

Loi permettant aux États et aux victimes de Lutter contre le Trafic Sexuel en Ligne (FOSTA) 11 Avril 2018.

« Child Sexual Abuse Material », Département de Justice Américain, 2025, [En ligne : https://www.justice.gov/d9/2023-06/child_sexual_abuse_material_2.pdf.] Consulté le 29 Mai 2025.

Michael H. Keller et Gabriel J.X. Dance, « The Internet Is Overrun With Images of Child Sexual Abuse. What Went Wrong? », New York Times, 29 Septembre 2019, [En ligne : ​​https://www.nytimes.com/interactive/2019/09/28/us/child-sex-abuse.html] Consulté le 27 Mai 2025.

« Doe contre Twitter », Tribunal de première instance des Etats-Unis pour le district nord de la Californie, 11 décembre 2023.

« Doe contre Reddit », Cour d'appel des États-Unis, neuvième circuit, 24 Octobre 2022.

Loi sur les Communications (Communications Act) de 1934, amendée par la loi de 1996 sur la décence des communications (Communications Decency Act), article 47 U.S.C §230 (1).

James Grimmelmann « Droit d’Internet: Affaires et Exercices d’application », Chapitre 8: modération de contenu, C) Section 230, p 588, 14e édition, 2024.

Jason Kelley « Congress Passes TAKE IT DOWN Act Despite Major Flaws », Electronic Frontier Foundation, 28 Avril 2025, [En ligne : https://www.eff.org/deeplinks/2025/04/congress-passes-take-it-down-act-despite-major-flaw.] Consulté le 29 Mai 2025.


[1] Tools to Address Known Exploitation by Immobilizing Technological Deep Fakes on Websites and Networks Act or Take It Down Act,  Pub. L. No. 119-12, 119th Cong. (2025).

[2] Voir le guide sur le sujet “Child Sexual Abuse Material” par le Département de Justice américain à https://www.justice.gov/d9/2023-06/child_sexual_abuse_material_2.pdf.

[3] New York Times, “The Internet Is Overrun With Images of Child Sexual Abuse. What Went Wrong?”, Michael H. Keller et Gabriel J.X. Dance, 29 Septembre 2019.

[4] Nom donné aux victimes anonymisées.

[5] Electronic Frontier Foundation “Congress Passes TAKE IT DOWN Act Despite Major Flaws”, 28 Avril 2025.

[6] Citation complète: “The Senate just passed the Take It Down Act…. Once it passes the House, I look forward to signing that bill into law. And I’m going to use that bill for myself too if you don’t mind, because nobody gets treated worse than I do online, nobody.” Issue de la vidéo https://www.c-span.org/program/joint-session-of-congress/president-trump-addresses-joint-session-of-congress/656056.