Une étude publiée dans Nature en février 2026 apporte enfin une preuve expérimentale de ce que beaucoup soupçonnaient : le fil algorithmique de X (ex-Twitter) déplace les opinions politiques vers des positions conservatrices. Et l’effet persiste même quand on coupe l’algorithme.
Sept semaines sous algorithme
Il y a un geste que des milliards de personnes posent chaque jour sans y penser : faire défiler leur fil d’actualité. Ce geste paraît anodin. Il ne l’est pas.
Une équipe de chercheur·euse·s des universités de Bocconi, Saint-Gall et de la Paris School of Economics a conduit en 2023 une expérience de terrain impliquant près de 5 000 utilisateur·rice·s américain·e·s actif·ve·s de X, réparti·e·s aléatoirement entre deux conditions : un fil chronologique classique ou le fil algorithmique « Pour vous ». Pendant sept semaines, les participant·e·s ont navigué dans leur environnement assigné pendant que les chercheur·euse·s mesuraient l’évolution de leurs attitudes politiques et de leurs comportements en ligne.
Les résultats, publiés dans Nature le 18 février 2026, sont sans ambiguïté. L’exposition au fil algorithmique de X déplace les opinions vers des positions conservatrices — sur les priorités politiques, sur les enquêtes judiciaires visant Donald Trump, sur la guerre en Ukraine. Des effets mesurables, statistiquement solides, obtenus indépendamment de la plateforme elle-même.
Ce que l’algorithme fait vraiment
Force est de reconnaître que la mécanique révélée par cette étude est d’une redoutable efficacité. L’algorithme de X ne se contente pas de réorganiser les contenus : il en sélectionne activement certains au détriment d’autres. Les posts conservateurs apparaissent près de 20 % plus souvent dans le fil algorithmique que dans un fil chronologique. Les médias d’information traditionnels y sont relégués de 58 %. À leur place, les comptes d’activistes politiques — en majorité conservateurs — voient leur visibilité bondir de 27 %.
Ce n’est pas le fruit du hasard. Ce sont des choix d’ingénierie. Des paramètres. Des décisions prises par des êtres humains dans des salles de réunion, concernant ce que des centaines de millions d’autres êtres humains verront ou ne verront pas.
L’effet le plus préoccupant tient dans son asymétrie. Les utilisateur·rice·s exposé·e·s à l’algorithme commencent à suivre des comptes d’activistes conservateurs. Et lorsqu’on leur retire ensuite l’algorithme — lorsqu’on revient au fil chronologique —, ils et elles continuent de suivre ces comptes. Les opinions façonnées ne se dissolvent pas. Le ver est dans le fruit. L’exposition passée structure l’exposition future.
Comment croire encore qu’une plateforme est un simple espace neutre d’échange, lorsque ses paramètres techniques orientent les attitudes politiques de ses utilisateur·rice·s sans que ceux et celles-ci en soient conscient·e·s ?
Un enjeu de droits humains
Cette recherche n’est pas qu’une curiosité académique. Elle touche au cœur de ce que la Déclaration universelle des droits de l’homme nomme la liberté d’opinion et d’expression — des droits qui présupposent que les individus forment leurs convictions dans un environnement pluraliste et non manipulé.
Or les plateformes algorithmiques constituent aujourd’hui l’environnement informationnel de premier recours pour une fraction croissante de la population mondiale. Un quart des adultes américain·e·s déclarent les réseaux sociaux comme leur source principale d’information. En Europe, les chiffres sont comparables. Ce n’est pas anodin quand on sait que l’algorithme étudié ici rétrograde de 58 % les médias d’information au profit de contenus militants.
Nos gouvernements — dont nombre d’entre eux se déclarent défenseurs de la liberté de la presse et du pluralisme démocratique dans les enceintes de Bruxelles ou de Strasbourg — ont-ils mesuré ce que signifie confier l’architecture de l’espace public à des entreprises privées dont les objectifs sont l’engagement et la monétisation ? Comment croire encore dans l’engagement institutionnel pour la liberté d’expression lorsque les règlements sur la gouvernance des données restent si timides face à la puissance de ces mécanismes ?
L’étude rappelle en outre que des travaux antérieurs sur Twitter — avant même le rachat par Elon Musk — avaient déjà identifié un biais de l’algorithme vers les contenus de droite. La propriété de la plateforme change ; l’orientation algorithmique, elle, persiste.
Réguler ou subir
Des citoyen·ne·s, des chercheur·euse·s, des militant·e·s se mobilisent pour rendre visibles ces mécanismes. En Europe, le règlement sur les services numériques (DSA) impose aux très grandes plateformes une transparence accrue sur leurs systèmes de recommandation et le droit pour les utilisateur·rice·s d’accéder à un fil non personnalisé. C’est une avancée. Insuffisante.
Car la question n’est pas seulement technique. Elle est politique. Qui décide de ce que des milliards de personnes voient chaque jour ? Au nom de quels intérêts ? Avec quels contrôles démocratiques ? Les auteur·rice·s de l’étude soulignent eux-mêmes que les plateformes peuvent modifier leurs algorithmes à tout moment, sans que les chercheur·euse·s — ni les régulateur·rice·s — en soient informé·e·s.
À nous non pas de nous résigner à subir des environnements informationnels façonnés par des logiques commerciales opaques, mais d’exiger des mécanismes d’audit indépendants, une transparence algorithmique effective et le renforcement des médias d’information pluralistes capables de contrebalancer la puissance des plateformes.
L’étude complète est accessible sur Nature.
Nos démocraties méritent mieux qu’un fil.
#AlgorithmeX #LibertéDExpression #DroitsNumeriques #DémocratieMédiatique #DSA #Désinformation #PluralismeInformatif #RéseauxSociaux #IA #GovernanceNumerique #TwitterX #ElonMusk #DroitsHumains #RegulationNumerique #MédiasIndépendants #droitsnumeriques #libertedinformation