Un nouveau rapport affirme que la plateforme Facebook n'a pas supprimé certaines publications terroristes qu'elle qualifiait de "perspicaces" et "engageantes"

Facebook ne parvient pas à lutter contre les contenus extrémistes sur ses réseaux

photo_camera REUTERS/JOHANNA GERON - Logo Facebook affiché sur un téléphone portable

L'Institute for Strategic Dialogue a produit un rapport de recherche dans lequel il démontre au monde entier que Facebook n'a pas supprimé les contenus terroristes circulant sur le réseau social. Les extrémistes utilisent depuis longtemps diverses plateformes en ligne pour s'en servir comme armes, mais aussi pour promouvoir la haine et intéresser les utilisateurs, qu'ils recrutent ensuite dans leurs rangs. Il semble que Facebook, au lieu de supprimer toute preuve, ait décidé de laisser ce contenu sur le réseau. Concrètement, il s'agit de photos de décapitations, de discours de haine émis par Daesh ou les Talibans, dont la célèbre plateforme qualifie les publications de "perspicaces" et "attractives".

Moustafa Ayad, directeur exécutif de l'Institut pour le dialogue stratégique, a été à la tête de la production de ce document. Il fait valoir que de telles publications sont faciles à trouver en ligne pour n'importe qui, que ce type de contenu incite bien plus à la violence et que Facebook devrait prendre des mesures pour empêcher que cela ne se produise. "Il s'agit essentiellement de trolling : cela agace le membre du groupe et, de la même manière, fait que quelqu'un de la modération en prend note, mais les groupes ne sont souvent pas supprimés. C'est ce qui se passe lorsqu'il y a un manque de modération du contenu", a ajouté le directeur de l'Institut. Ayad a également ajouté que ces groupes sont apparus au cours des 18 derniers mois et a accusé la plateforme de ne rien faire pour les éradiquer. 

mark-zuckerberg-facebook

D'autre part, Facebook, ou maintenant avec un nouveau changement de nom connu sous le nom de "Meta", a eu accès au rapport, et a donc agi rapidement pour recevoir moins de critiques. Lorsqu'ils ont vu ces groupes sur le réseau promouvoir des contenus extrémistes islamiques, ils les ont complètement supprimés. "Nous avons supprimé les groupes qui ont été portés à notre attention. Nous n'autorisons pas les terroristes sur notre plateforme et nous supprimons les contenus qui les louent, les dépeignent ou les soutiennent dès que nous les trouvons", a déclaré un porte-parole du réseau social.

Mais en plus de prendre des mesures pour éviter que de tels problèmes ne se reproduisent, Facebook s'est défendu contre les accusations en ajoutant que ces publications hors de contrôle sont des erreurs humaines commises par les réviseurs de contenu et que n'importe qui pourrait en faire, car les personnes chargées de ces révisions voient de nombreuses photos tout au long de la journée. "Nous savons que notre application n'est pas toujours parfaite, c'est pourquoi nous continuons à investir dans les personnes et la technologie pour éliminer plus rapidement ce type d'activité, et à travailler avec des experts en terrorisme, en extrémisme violent et en cyberespionnage pour perturber l'utilisation abusive de notre plateforme", conclut le communiqué dans lequel le réseau social présente ses excuses pour ce qui s'est passé.

facebook-red-social

Frances Haugen, une ancienne employée du géant américain qui a quitté la marque à cause de son mode de fonctionnement, a révélé plusieurs rapports de l'entreprise qui ont révélé des problèmes sur les secrets du réseau social et son mode de fonctionnement. Elle confirme qu'en plus du problème des réviseurs de contenu, il y en a un autre : selon elle, les systèmes automatisés de Facebook pour identifier les discours de haine et les contenus pro-terroristes n'ont pas de personnes qui parlent autre chose que l'anglais, il est donc facile pour un texte en arabe, sans savoir ce qu'il dit, de se glisser dans les posts.

L'entreprise manque totalement d'experts en arabe et, surtout, de personnes parlant les dialectes les plus difficiles parlés dans les zones violentes où le terrorisme a lieu, de sorte qu'ils ne peuvent pas comprendre les contextes culturels qu'une publication peut avoir. Pour elle, la marque créée par Mark Zuckerberg ne dispose pas de travailleurs capables de parler et de comprendre l'arabe, ce qui représente un défi lorsqu'il s'agit de réviser le contenu publié. 

facebook-red-social

Il ne fait aucun doute que Facebook continue d'être confronté à des problèmes de plusieurs côtés. Dans les documents qu'il a révélés au monde, Haugen affirme également que Meta était en possession de rapports controversés mettant en garde contre les dangers d'Instagram pour les jeunes, en particulier les adolescentes, car ce qui est mis en ligne peut les faire souffrir de troubles, de problèmes mentaux ou même de suicide. Haugen affirme que l'entreprise n'en a tenu aucun compte. Elle a également affirmé que Facebook a incité les groupes qui ont pris d'assaut le Capitole à Washington D.C., et qu'il encourage l'extrémisme politique.

Plus dans Nouvelles technologies - innovation