Dans un délai de deux mois à partir de ce mardi, le réseau social devra détailler ses moyens de lutte contre la haine en ligne. En mai 2020, six associations françaises avaient assigné Twitter en justice, pointés du doigt pour sa politique de modération peu claire depuis des années.
Twitter doit prouver qu’il agit contre la haine en ligne. En mai 2020, six associations françaises, entre autres SOS Racisme, la Ligue internationale contre le racisme et l’antisémitisme et SOS Homophobies, avaient assigné le réseau social américain devant la justice française, en estimant qu’il manquait à ses devoirs de modération, de manière « ancienne et persistante« .
Le tribunal a tranché ce mardi 6 juillet : dans un délai de deux mois, Twitter devra communiquer « tout document administratif, contractuel, technique ou commercial relatif aux moyens matériels et humains mis en œuvre pour lutter contre la diffusion des infractions d’apologie de crimes contre l’humanité, d’incitation à la haine raciale, à la haine à l’égard de personnes en raison de leur sexe« . Une décision qui fait forcément écho à la décision qui devra être rendue ce mercredi concernant l’affaire Mila, du nom de cette lycéenne Iséroise menacée de mort et de viol sur les réseaux sociaux après avoir affirmé dans une vidéo que l’Islam était « une religion de haine ».
La modération sur Twitter, un sujet épineux depuis des années
Le flou concernant la politique de modération et de suppression des tweets problématiques est une question brulante depuis des années. On compte 187 millions d’utilisateurs dans le monde. Chaque seconde, 5 900 tweets sont envoyés sur la plateforme. Et le réseau social semble peiner à tous les modérer.
« Twitter est accusé d’avoir une politique particulièrement laxiste et de ne pas supprimer systématiquement des contenus qui, pour certaines personnes, peuvent paraitre manifestement illicites, explique Guillaume Champeau, juriste spécialiste dans le droit du numérique. On leur reproche de ne pas aller assez vite pour retirer ces contenus là, et même de prendre la décision de conserver certains de ces contenus alors que, visiblement, ils auraient dû être supprimés. » Ou même de supprimer des contenus sans expliquer les raisons de cette suppression.
Une obligation légale à retirer les contenus contraires à la loi
Normalement, la loi oblige à twitter de retirer « promptement » les contenus qui sont manifestement contraires à la loi. Sur leur site internet, ils détaillent donc une liste de commentaires interdits : en vrac et entres autres sont interdites les « menaces de terrorismes ou d’extrémisme violent« , la promotion du suicide ou encore la publication de vidéos à caractères sexuel sans le consentement des personnes qui y apparaissent. Et les utilisateurs du réseau social peuvent signaler à Twitter quand un tweet leur parait répondre à ces critères.
Mais là où une question se pose, c’est quand, dans un autre article, le réseau social assure aussi que « Twitter est le reflet des conversations réelles ayant lieu dans le monde, qui comprennent parfois des points de vue susceptibles d’être choquants, controversés et/ou intolérants pour d’autres personnes. Même si nous invitons tout le monde à s’exprimer sur notre service, nous ne tolérons pas les comportements inappropriés, notamment le harcèlement, les intimidations ou le recours à la peur pour réduire d’autres personnes au silence. » Les utilisateurs et associations de lutte contre le harcèlement demandent donc régulièrement des éclaircissements concernant ce qui est interdit ou non. « Tantôt, vous allez avoir un tweet qui est supprimé, tantôt, on ne sait pas trop pourquoi, il ne l’est pas. Il y a un manque de cohérence dans les décision qui sont prises« , explique Guillaume Champeau.
Un « manque de transparence et un manque de moyen »
Surtout que, depuis des années, le réseau social est flou sur les moyens qu’il met en place pour modérer les contenus qui se trouvent sur sa plateforme. « Il y a un manque de transparence et potentiellement un manque de moyens. (…) La difficulté, c’est qu’il y a au moins des centaines de milliers de signalement par semaines à traiter, continue Guillaume Champeau. Ils peuvent les traiter en partie avec des humains qui regardent les messages. Mais une partie est gérée par des intelligences artificielles, qui vont essayer de repérer automatiquement des mots, des images qui pourraient poser problèmes … Et la difficulté, c’est de réussir à placer le curseur entre ce qui va faire l’objet d’un contrôle humain et ce qui peut faire l’objet d’une automatisation. »
Les six associations françaises se félicitent donc de cette décision de la justice. « On se réjouit que Twitter soit enfin condamné à rendre des comptes. C’est un grand pas vers la fin de l’impunité et la fin du chaos numérique« , a salué Maître Ilana Soskin, avocate de l’association J’accuse. Les plaignants appuyaient leur demande sur la loi pour la cofinance dans l’économie numérique (LCEN) de 2004, qui impose aux plateformes de concourir à la lutte en ligne, et notamment de « rendre publics les moyens qu’elles consacrent à la lutte contre les activités illicites ».
Source: francebleu
1 Commentaire