Pourquoi les grandes plateformes comme X réussissent-elles à se soustraire si longtemps à leurs responsabilités face à la diffusion de contenus illégaux, notamment les contenus pédopornographiques ? C’est une question pressante alors que la justice américaine ordonne à la société X (anciennement Twitter) de répondre à nouveau à des accusations particulièrement graves.
Le vendredi 8 juin, la Cour d’appel des États-Unis a signifié à X Corp. qu’elle devait faire face à des allégations de négligence dans la suppression de contenus pédopornographiques et d’inefficacité manifeste de son système de signalement. Ce jugement, émis par la juge Danielle Forrest, marque une nouvelle étape dans une affaire entamée en 2021, lorsque deux adolescents ont attaqué Twitter en justice. Pourquoi le réseau social, pourtant alerté à plusieurs reprises, aurait-il tant tardé à agir ?
L’affaire révèle des failles préoccupantes. Selon la plainte, Twitter aurait mis neuf jours à retirer une vidéo pédopornographique signalée par un adolescent de 13 ans et sa mère. Pendant ce laps de temps, le contenu prohibé est resté accessible à tous. Les familles concernées ont-elles seulement été écoutées ? La première réponse du réseau social – une réponse automatisée, sans action immédiate – laisse planer le doute.
Ce procès pourrait bien bouleverser la façon dont les plateformes gèrent les signalements de contenus illicites.
En jeu, la sacro-sainte Section 230 du Communications Decency Act, qui protège les plateformes contre toute responsabilité liée à ce que publient leurs utilisateurs. La justice avait initialement décidé que X bénéficiait de cette immunité. Mais la décision récente semble amorcer un tournant : la juge Forrest affirme que le comportement du réseau social dans ce dossier particulier relève de la négligence. X sera donc obligé de s’expliquer devant la justice fédérale – et devra peut-être affronter la Cour suprême si l’affaire prend plus d’ampleur.
Peut-on encore tolérer que des entreprises aussi puissantes disposent d’autant de marges de manœuvre alors que des vies d’enfants sont en jeu ? La gestion des signalements par X, défavorable aux victimes, met en lumière une question fondamentale : les outils de signalement des plateformes sont-ils conçus pour protéger les victimes ou avant tout les intérêts économiques des géants du web ?
Si la justice américaine venait à conclure à une responsabilité directe de X, ce serait un séisme pour l’industrie. Les autres réseaux sociaux, à l’instar de Facebook ou Instagram, pourraient-ils encore invoquer la Section 230 à chaque fois que leur inaction est pointée du doigt ?
Mais la question centrale reste : combien d’affaires dramatiques faudra-t-il pour que la législation, la modération des plateformes et la protection des victimes évoluent enfin de façon significative ?
Source : Engadget




