Un simple coup de pouce ne suffit pas pour lutter contre les fausses nouvelles, mais ces tactiques pourraient aider

Les fausses nouvelles se répandent rapidement. Crédit : FGC/Shutterstock

Une théorie très médiatisée expliquant pourquoi les gens partagent de fausses nouvelles dit qu’ils n’y prêtent pas suffisamment d’attention. La solution proposée est donc de pousser les gens dans la bonne direction. Par exemple, des « primes d’exactitude » (courts rappels destinés à attirer l’attention des gens sur l’exactitude du contenu d’actualités qu’ils rencontrent en ligne) peuvent être intégrés aux sites de médias sociaux.

Mais est-ce que ça marche ? Les primes de précision n’enseignent aux gens aucune nouvelle compétence pour les aider à déterminer si un message est réel ou faux. Et il pourrait y avoir d’autres raisons, au-delà d’un simple manque d’attention, qui poussent les gens à partager de fausses nouvelles, telles que des motivations politiques. Notre nouvelle recherche, publiée dans Sciences psychologiques, suggère que les nombres premiers ne réduiront probablement pas beaucoup la désinformation, isolément. Nos résultats offrent des informations importantes sur la meilleure façon de lutter contre les fausses nouvelles et la désinformation en ligne.

Le concept d’amorçage est un processus plus ou moins inconscient qui fonctionne en exposant les gens à un stimulus (comme demander aux gens de penser à l’argent), qui a ensuite un impact sur leurs réponses aux stimuli ultérieurs (comme leur volonté de soutenir le capitalisme de marché libre) . Au fil des ans, l’incapacité à reproduire de nombreux types d’effets d’amorçage a conduit le lauréat du prix Nobel Daniel Kahneman à conclure que « l’amorçage est maintenant l’illustration des doutes sur l’intégrité de la recherche psychologique ».

L’idée de l’utiliser pour contrer le partage de désinformation sur les réseaux sociaux est donc un bon cas test pour en savoir plus sur la robustesse de la recherche d’amorçage.

Le Center for Open Science nous a demandé de reproduire les résultats d’une étude récente pour contrer la désinformation sur le COVID-19. Dans cette étude, on a montré à deux groupes de participants 15 vrais et 15 faux titres sur le coronavirus et on leur a demandé d’évaluer leur probabilité de partager chaque titre sur les réseaux sociaux sur une échelle de un à six.

Avant cette tâche, on a montré à la moitié des participants (le groupe de traitement) un titre sans rapport et on leur a demandé d’indiquer s’ils pensaient que ce titre était exact (le premier). Par rapport au groupe de contrôle (qui n’a pas été montré comme un tel premier), le groupe de traitement avait un « discernement de la vérité » significativement plus élevé, défini comme la volonté de partager de vrais titres plutôt que de faux. Cela indiquait que le premier fonctionnait.

Pour maximiser les chances d’une réplication réussie, nous avons collaboré avec les auteurs sur l’étude originale. Nous avons d’abord collecté un échantillon suffisamment grand pour reproduire les résultats de l’étude originale. Si nous ne trouvions pas d’effet significatif dans ce premier tour de collecte de données, nous devions collecter un autre tour de données et le mettre en commun avec le premier tour.

Notre premier test de réplication a échoué, sans aucun effet de la précision sur les intentions de partage de nouvelles ultérieures. Ceci est conforme aux résultats de réplication d’autres recherches sur l’amorçage.

Pour l’ensemble de données regroupées, qui comprenait près de 1 600 participants, nous avons trouvé un effet significatif de la précision sur les intentions de partage de nouvelles ultérieures. Mais c’était à environ 50% de l’effet d’intervention de l’étude originale. Cela signifie que si nous choisissons une personne au hasard dans le groupe de traitement, la probabilité qu’elle ait amélioré ses décisions de partage d’informations par rapport à une personne du groupe témoin est d’environ 54 % – à peine au-dessus du hasard. Cela indique que l’effet global des coups de pouce de précision peut être faible, cohérent avec les résultats précédents sur l’amorçage. Bien sûr, s’il était appliqué à des millions de personnes sur les réseaux sociaux, cet effet pourrait toujours être significatif.

Nous avons également trouvé des indications selon lesquelles le prime pourrait mieux fonctionner pour les démocrates américains que pour les républicains, ces derniers semblant à peine bénéficier de l’intervention. Il peut y avoir diverses raisons à cela. Étant donné la nature hautement politisée de COVID-19, les motivations politiques peuvent avoir un effet important. Le conservatisme est associé à une confiance moindre dans les médias grand public, ce qui peut conduire certains républicains à évaluer les médias crédibles comme « biaisés ».

Les effets d’amorçage sont également connus pour disparaître rapidement, généralement après quelques secondes. Nous avons cherché à savoir si c’était également le cas pour les nombres premiers de précision en examinant si l’effet du traitement se produisait de manière disproportionnée dans les premiers titres présentés aux participants à l’étude. Il semble que l’effet du traitement n’était plus présent après que les participants ont évalué une poignée de titres, ce qui ne prendrait pas plus de quelques secondes à la plupart des gens.

Voies à suivre

Alors, quelle est la meilleure façon d’avancer ? Notre propre travail s’est concentré sur l’exploitation d’une branche différente de la psychologie, connue sous le nom de “théorie de l’inoculation”. Cela implique d’avertir préventivement les gens d’une attaque imminente contre leurs croyances et de réfuter l’argument persuasif (ou d’exposer les techniques de manipulation) avant que ils rencontrent la désinformation. Ce processus aide spécifiquement à conférer une résistance psychologique aux futures tentatives d’induire les gens en erreur avec de fausses nouvelles, une approche également connue sous le nom de « prebunking ».

Dans nos recherches, nous montrons que le fait de vacciner les gens contre les techniques de manipulation couramment utilisées par les producteurs de fausses informations rend en effet les gens moins sensibles à la désinformation sur les réseaux sociaux, et moins enclins à signaler pour la partager. Ces inoculations peuvent prendre la forme de jeux en ligne gratuits, dont nous avons jusqu’à présent conçu trois : Bad News, Harmony Square et Go Viral !. En collaboration avec Google Jigsaw, nous avons également conçu une série de courtes vidéos sur les techniques de manipulation courantes, qui peuvent être diffusées sous forme d’annonces sur les plateformes de médias sociaux.

D’autres chercheurs ont reproduit ces idées avec une approche connexe connue sous le nom de « stimulation ». Cela implique de renforcer la résilience des gens au micro-ciblage – des publicités qui ciblent les gens en fonction d’aspects de leur personnalité – en les amenant à réfléchir d’abord sur leur propre personnalité.

Des outils supplémentaires incluent la vérification et la démystification des faits, des solutions algorithmiques qui déprécient le contenu peu fiable et des mesures plus politiques telles que les efforts visant à réduire la polarisation dans la société. En fin de compte, ces outils et interventions peuvent créer un système de défense à plusieurs niveaux contre la désinformation. En bref : la lutte contre la désinformation va nécessiter plus qu’un coup de pouce.


Endiguer la propagation de la désinformation sur les réseaux sociaux


Fourni par La Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.La conversation

Citation: Un simple coup de coude ne suffit pas pour lutter contre les fausses nouvelles, mais ces tactiques pourraient aider (2021, 14 juin) récupéré le 14 juin 2021 sur https://phys.org/news/2021-06-simple-nudge-isnt-tackle -faux.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.

Lire aussi  Mega dit qu'il ne peut pas déchiffrer vos fichiers. Un nouvel exploit POC montre le contraire

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick