La désinformation est devenue un enjeu majeur pour les chercheurs, décideurs politiques et la société civile depuis près d’une décennie. Un article publié dans la Harvard Kennedy School Misinformation Review en octobre 2024 propose une analyse critique de l’état de la recherche dans ce domaine et plaide pour une approche renouvelée, plus nuancée et contextualisée.
Les limites d’un champ de recherche polarisé
Les auteures, Irene V. Pasquetto, Gabrielle Lim et Samantha Bradshaw, soulignent que le débat sur la désinformation souffre d’une polarisation excessive. D’un côté, certains voient la désinformation comme la source de tous les maux, de l’autre comme un concept rhétorique instrumentalisé politiquement. Cette dichotomie nuit à une compréhension fine des phénomènes. Les chercheurs font également face à des obstacles croissants : lois restrictives dans certains pays, fermetures de centres de recherche aux États-Unis, difficultés d’accès aux données des plateformes.
Pour une approche localisée et réflexive
Les auteures plaident pour un renouvellement méthodologique articulé autour de trois axes. Premièrement, clarifier précisément le type de désinformation étudié dans chaque projet de recherche, ses manifestations et son périmètre d’application. Deuxièmement, analyser les mécanismes sociotechniques locaux qui favorisent ou limitent la désinformation dans un contexte donné, en évitant le déterminisme technologique. Troisièmement, expliciter les présupposés épistémologiques qui conduisent à qualifier certains contenus de trompeurs.
« Les recherches sur la diffusion de fausses informations sur les plateformes de médias sociaux attribuent souvent ce phénomène uniquement aux systèmes de recommandation algorithmiques de ces plateformes. Cette vision déterministe de la technologie ne tient pas compte du fait que les utilisateurs jouent également un rôle actif dans la recherche, l’interaction et le partage de fausses informations en fonction de leurs propres préférences et prédispositions ».
Vers une recherche interdisciplinaire et contextualisée
L’article propose de dépasser les questions trop générales comme « les réseaux sociaux sont-ils néfastes pour la démocratie ? » pour privilégier une approche plus ciblée : quelles communautés sont vulnérables à la désinformation ? Pourquoi ? Quelles sont leurs pratiques numériques ? Quels récits guident leur interprétation de l’information ? Cette démarche implique une compréhension fine des contextes locaux et des dynamiques communautaires.
La théorie des affordances est mobilisée pour analyser plus finement l’interaction entre technologies et comportements des utilisateurs. L’impact d’une technologie dépend de sa conception mais aussi des prédispositions des utilisateurs et du contexte d’utilisation. Les auteurs soulignent que les utilisateurs ne sont pas passifs face aux algorithmes mais développent aussi — parfois — des tactiques de manipulation des plateformes.
« L’autre aspect à prendre en compte lorsque l’on considère la façon dont les gens sont mal informés en ligne est que l’Internet peut souvent être un environnement hautement participatif, en particulier lorsqu’il s’agit de donner un sens collectif au monde. Au sein des communautés organisées autour de la validation d’une certaine forme de connaissance (par exemple, les théories du complot, mais aussi, pour rester proche du monde universitaire, les discussions sur la métascience concernant le piratage informatique), ce qui constitue une « vérité valide » n’est pas imposé d’en haut aux utilisateurs qui se contentent de croire passivement et de repartager des éléments de contenu spécifiques, mais elle est négociée et construite via des efforts collectifs (Tripodi, 2018). Les gens croient des choses ensemble parce qu’ils font des choses ensemble (voir ci-dessous également)».
Les auteures concluent en appelant à investir dans des recherches interdisciplinaires approfondies, ancrées dans des terrains spécifiques. Seule cette approche permettra de comprendre comment et quand la désinformation influence l’opinion publique, plutôt que de chercher à démontrer si elle l’influence de manière générale. Un changement de paradigme nécessaire pour des politiques publiques mieux informées et plus efficaces.
Searching for Alternative Facts est un récit ethnographique tiré directement des recherches du Dr Francesca Tripodi au sein des communautés chrétiennes conservatrices* de la classe moyenne supérieure en Virginie en 2017. Le Dr Tripodi utilise les pratiques chrétiennes d’interprétation biblique comme une lentille pour comprendre la relation entre les sources dites « alternatives » ou « fake news » et la pensée politique conservatrice contemporaine.
« En appliquant les pratiques d’inférence scripturale aux recherches Google, ce rapport implique également que Google réaffirme les croyances existantes des gens. »
Les principales conclusions sont les suivantes :
Sur la consommation et l’interprétation des médias :
- L’auteur constate que les personnes qui s’identifient comme conservatrices dans cette étude consomment une grande variété de sources d’information – mais qu’elles comparent ensuite ce qu’elles lisent, voient et entendent avec d’autres documents, notamment les discours présidentiels et la Constitution.
- L’auteur appelle cette approche comparative et contrastée de « la Parole » l’inférence scripturale ; une pratique enracinée dans l’étude biblique qui donne la priorité à l’analyse directe des sources primaires .
- Étant donné que ces communautés s’appuient sur des moteurs de recherche non neutres comme Google pour « vérifier les faits » de l’actualité, les algorithmes utilisés pour fournir ces informations peuvent contribuer à créer ou à renforcer des préjugés idéologiques dans la collecte d’informations.
À propos des « fake news » et des préjugés idéologiques :
- Des services comme Google et YouTube peuvent exposer involontairement des individus qui se considèrent comme des « conservateurs traditionnels » à des contenus plus radicaux, car l’auteur constate que « de simples différences de syntaxe » dans les termes de recherche donnent lieu à des recommandations algorithmiques différentes .