Le réseau social a annoncé qu’il testait un nouvel outil pour permettre à ses utilisateurs de signaler des contenus relevant potentiellement de la désinformation.
«Nous testons une fonctionnalité pour vous permettre de rapporter les tweets qui semblent trompeurs, au moment même où vous les voyez», a indiqué mardi le réseau social Twitter via son compte dédié à la sécurité.
Une poignée d’utilisateurs aux États-Unis, en Corée du Sud et en Australie peuvent désormais sélectionner l’option «c’est trompeur» après avoir cliqué sur «signaler le tweet». Ils auront ensuite le choix entre plusieurs catégories: «santé», «politique» et «autre».
«Nous évaluons si c’est une approche efficace donc nous commençons à petite échelle», a précisé l’entreprise basée à San Francisco. «Nous ne réagirons pas et ne pourrons pas répondre à chaque signalement pendant cette expérience, mais vos contributions nous aideront à identifier des tendances afin d’améliorer la vitesse et la portée de notre travail sur la désinformation».
Twitter, comme Facebook et YouTube, se voit régulièrement reprocher de ne pas lutter suffisamment contre la désinformation. Mais la plateforme n’a pas les mêmes ressources que ses voisins de la Silicon Valley, et explore donc des techniques moins coûteuses que de recruter des armées de modérateurs.
Au fil des années, et surtout pendant la campagne électorale américaine et la pandémie, le réseau social a durci ses règles. Depuis mars, par exemple, les utilisateurs peuvent être bannis au bout de cinq rappels à l’ordre concernant la désinformation sur les vaccins.
Un système à la fois humain et automatisé
Un système inspiré de celui mis en place au sujet des élections, qui a notamment conduit Twitter à bannir l’ancien président américain Donald Trump pour des infractions répétées comme l’incitation à la violence et ses messages jetant le discrédit sur le scrutin présidentiel.
Des modérateurs sont chargés de déterminer quels contenus enfreignent les règlements, mais la plateforme avait alors indiqué espérer mettre au point un système à la fois humain et automatisé pour détecter les messages problématiques.
La question de la désinformation autour du Covid-19 et des vaccins a pris de telles proportions qu’en juillet le président américain Joe Biden a même estimé que Facebook et d’autres plateformes «tuaient» des gens en laissant circuler de fausses informations sur la vaccination contre le Covid. Il était revenu sur ses propos pour préciser que les fausses infos diffusées par les utilisateurs pouvaient «faire du mal à ceux qui les écoutent» et «tuer des gens».