Contenus haineux : les géants du Net signent un code de bonne conduite avec l’UE

Contenus haineux : les géants du Net signent un code de bonne conduite avec l’UE
aaf7a1876d.jpeg

Facebook, Twitter, YouTube et Microsoft ont signé mardi un accord avec l’Union européenne pour mettre en place des mesures de lutte contre la multiplication des contenus haineux sur leurs plateformes.

Promis juré, dorénavant ils feront plus et plus vite pour lutter contre la propagation des discours haineux sur leurs plateformes en Europe. Twitter, Facebook, YouTube (Google) et Microsoft ont signé un premier “code de bonne conduite” de la modération soumis par Bruxelles, a annoncé la Commission européenne, mardi 31 mai.

Ces géants américains du Net, régulièrement accusés sur le Vieux continent de laxisme à l’égard des commentaires haineux ou de la propagande terroriste, se sont ainsi engagés à examiner la “majorité des signalements valides” en “moins de 24 heures” après leur réception et à supprimer des contenus si nécessaire.

“24 heures chrono”

Cette modération en “24 heures chrono” est la principale mesure de ce “code de conduite”. Facebook & Co. vont aussi “identifier” et “promouvoir” davantage les contre-discours, notamment concernant la propagande jihadiste. Cette méthode est devenue en France l’un des piliers de la lutte contre la radicalisation en ligne, comme le rappelle Le Monde. Le Premier ministre Manuel Valls en avait ainsi fait l’un des axes de son plan de lutte contre le terrorisme en mai.

Cet accord vise aussi à renforcer les liens entre ces multinationales américaines et les autorités nationales des pays membres de l’UE pour rendre la riposte à la propagation de contenus haineux plus rapide et efficace. Le texte fait ainsi référence à des personnes “contacts” spécifiques et des “relais de confiance” dans chaque pays.

Pour les principaux réseaux sociaux, ce “code de conduite” résulte de plusieurs mois de relations tumultueuses avec les États européens sur la question de la lutte contre les contenus haineux sur Internet.

“Testing” en France

En France, Facebook, Twitter et YouTube avaient été sévèrement critiqués le 11 mai par plusieurs associations de lutte contre le racisme et l’antisémitisme. Ces dernières avaient effectué un “testing” des pratiques de modération de ces plateformes pendant une semaine en signalant de concert des contenus condamnables. Conclusion : les réseaux sociaux n’avaient pas la main très lourde concernant la modération. Ainsi, en une semaine, YouTube n’avait supprimé que 7 % des vidéos qui lui avaient été signalées et Facebook n’avait fait disparaître qu’un tiers des messages jugés haineux.

En Allemagne, Facebook a été accusé par Angela Merkel en personne d’être trop laxiste à l’égard de la multiplication des messages racistes à l’encontre des réfugiés. Le ministre allemand de la Justice Heiko Maas avait même qualifié la politique de modération du roi des réseaux sociaux de “farce”.

Reste à savoir si ce code de bonne conduite aboutira à autre chose qu’à se donner bonne conscience. Modérer le flot continu de contenus qui se déversent sur ces plateformes demande un investissement humain conséquent.

Risque insidieux

Il existe un risque plus insidieux. Celui de voir les propagandistes jihadistes utiliser ces plateformes pour entrer en contact avec des proies potentielles grâce à des messages anodins pour ensuite les inviter à poursuivre le dialogue dans des recoins moins exposés et plus anonymes du Web où leur matraquage pourrait être déversé sans crainte.

C’est déjà ce qui a valu à l’application de messagerie sécurisée Telegram une partie de sa notoriété : elle a les faveurs des partisans du groupe terroriste État islamique (EI) qui apprécient de pouvoir y discuter à l’abri des oreilles des services de lutte contre le terrorisme.

La Commission européenne a conscience des limites de ce type d’accord. Elle a prévu une première évaluation de l’efficacité de ce texte avant la fin de l’année.

Première publication : 31/05/2016

Facebook Twitter Email