Facebook alerte les utilisateurs lorsqu'ils cliquent, commentent ou partagent des infox sur le Covid-19 dans leur fil d'actu. Ce serait efficace à 95%.


au sommaire


    FacebookFacebook va désormais avertir directement ses usagers qui consultent des fausses informations en lien avec le nouveau coronaviruscoronavirus, a annoncé jeudi son PDG Mark ZuckerbergMark Zuckerberg. Au cours du mois de mars, Facebook a supprimé « des centaines de milliers » de contenus liés au Covid-19 qui « pourraient représenter un danger imminent pour la santé », comme par exemple des affirmations selon lesquelles l'eau de Javel permettrait de guérir du virus.

    Les utilisateurs qui cliquent sur ce type d'infox, les commentent ou les partagent, recevront désormais un message dans leur fil d'actualité, les incitant à consulter des sources sûres comme le site de l'Organisation mondiale de la SantéOrganisation mondiale de la Santé, a indiqué Mark Zuckerberg sur un blog de Facebook. Le PDG de Facebook y met en avant les efforts du réseau social pour « limiter la diffusiondiffusion de la désinformation sur le Covid-19Covid-19 ».

    Alors que les rumeurs pullulent, le réseau social indique avoir déjà redirigé « près de 2 milliards d'utilisateurs », soit la quasi-totalité de ses membres, vers des informations émanant des autorités de santé publique, à travers son « centre d'information Covid-19 », disponible sur chaque fil d'actualité. Résultat : « plus de 350 millions d'utilisateurs ont cliqué sur nos messages pédagogiques » pour en savoir plus, sur Facebook et InstagramInstagram, souligne Mark Zuckerberg.

    Une étiquette de mise en garde  sur 40 millions de publications Facebook

    Les contributions des 60 organisations de fact-checking partenaires de Facebook à travers le monde, comme l'AFP, vont aussi être mises en avant sur le centre d'information. Si une information se révèle fausse ou imprécise, mais qu'elle ne représente pas un « danger imminent », le réseau social lui accole une « étiquette de mise en garde ». 40 millions de publications Facebook ont reçu cette étiquette au cours du mois de mars, poussant les utilisateurs à ne pas consulter ces contenus dans 95% des cas, selon Facebook.

    De nombreux observateurs dont l'ONG Avaaz ont dénoncé l'incapacité de Facebook à freiner la diffusion d'infox, avec de graves conséquences. « Facebook est à l'épicentreépicentre de cette crise de la désinformation », a commenté Fadi Quran, un responsable d'Avaaz, dans un communiqué de presse. « Mais l'entreprise passe un cap aujourd'hui pour nettoyer cet écosystèmeécosystème toxique, en devenant le premier réseau social qui alerte ses utilisateurs exposés à des infox sur le coronavirus et les redirige vers des informations qui peuvent sauver des vies ».

    Des mesures pour limiter la désinformation via WhatsApp

    Une des messageriesmessageries de Facebook, WhatsApp, avait déjà mis en place début avril de nouvelles mesures pour lutter contre la désinformation. Les utilisateurs de WhatsApp ne peuvent plus transférer des messages viraux qu'à un seul contact à la fois, pour limiter la circulation des infox.

    L'Agence France-Presse participe dans plus de 30 pays et 12 langues au « Third party fact-checking », un programme de vérification par des médias développé par Facebook. Avec ce programme, qui a démarré en décembre 2016, Facebook rémunère une soixantaine de médias pour l'utilisation de leurs « fact-checks » sur sa plateforme et sur Instagram. Si une information est diagnostiquée comme fausse ou trompeuse par un média, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l'article de vérification. Les médias participants sont totalement libres dans le choix et le traitement de leurs sujets.