De l’économie de l’attention à l’économie de l’intention : comment l’IA redessine notre curiosité

Illustration allégorique en noir et blanc de style gravure sur bois. Un homme est aux commandes d'une console futuriste sous un cerveau cyborg géant. L'image est divisée en deux : à gauche, un paysage en ruine étiqueté "ATTENTION ECONOMY" avec des gens distraits ; à droite, une structure lumineuse et connectée étiquetée "INTENTION ECONOMY" et "CURIOSITY GRAPH". Une bannière en bas indique le titre : "DE L'ÉCONOMIE DE L'ATTENTION À L'ÉCONOMIE DE L'INTENTION : COMMENT L'IA REDESSINE NOTRE CURIOSITÉ".

Nous allons vers une « économie de l’intention », souligne Shuwei Fang, où les systèmes d’IA collectent, monétisent et, potentiellement, manipulent les intentions des utilisateurs. Mais ce n’est que la partie émergée de l’iceberg. Ce à quoi ils assistent s’accompagne d’une restructuration fondamentale de la circulation de l’information dans la société. Dans cette économie de l’intention qui émerge, les systèmes d’IA pourraient rivaliser pour anticiper et façonner les contenus que les utilisateurs recherchent avant même qu’ils n’en aient conscience. L’infrastructure en cours de construction, largement invisible pour la plupart d’entre nous, ne déterminera pas seulement ce que nous voyons ; elle déterminera ce que nous voulons voir avant même que nous le sachions.

« Je n’ai rien à cacher » : anatomie d’un renoncement aux droits

Une série de quatre gravures sur bois noir et blanc illustrant la surveillance urbaine mondiale et l'omniprésence des bases de données.

Face aux dispositifs de surveillance généralisée, un argument revient sans cesse pour justifier l’expansion du contrôle étatique ou corporatif : « Si vous n’avez rien à cacher, vous n’avez rien à craindre ». Promu par les gouvernements eux-mêmes, ce raisonnement présente la vie privée comme un luxe superflu, réservé à ceux qui auraient quelque chose à se reprocher. Cette rhétorique constitue pourtant une erreur logique qui déplace le débat de la légitimité de la surveillance vers la culpabilité supposée des citoyens. Décryptage d’un mythe qui sert trop souvent à légitimer la surveillance de masse.

QUAND LA TECHNOLOGIE DEVIENT L’OUTIL D’UN AUTORITARISME LIBÉRAL

Illustration en noir et blanc montrant du code binaire se transformant progressivement en fil barbelé et grillage, symbolisant la transformation de la technologie en outil de contrôle et d'enfermement ``` ## Légende ``` Du code aux barreaux : la métamorphose algorithmique de l'exclusion ``` ## Description (pour accompagner l'image dans l'article) ``` Cette illustration représente la transformation du code informatique en dispositif de confinement. Le flux de données binaires (0 et 1) se mue progressivement en barbelés et grillage, métaphore visuelle de la façon dont les infrastructures technologiques deviennent des instruments de surveillance, de tri et d'exclusion. Le style graphique sobre, inspiré de la gravure, évoque à la fois la violence de cette mutation et son caractère systémique : le technofascisme ne se présente pas comme une menace spectaculaire, mais comme une architecture discrète qui redéfinit silencieusement les frontières entre liberté et contrôle.

Recension : « Dans le sillage du paléolibertarianisme, les Apocalypse Nerds » par Olivier Tesquet Dans une analyse percutante1, le journaliste Olivier Tesquet met en lumière les racines idéologiques du technofascisme contemporain. De Gaza transformée en zone économique spéciale aux algorithmes de Palantir traquant les migrants, il dévoile comment la pensée de Hans-Hermann Hoppe irrigue aujourd’hui la …

Lire plus

L’INTELLIGENCE ARTIFICIELLE NOUS FAIT RÉFLÉCHIR : POURQUOI LES PHILOSOPHES S’Y INTÉRESSENT

Philosophe examinant un écran, mais avec un tête de mort à la place du crâne

L’intelligence artificielle ne se contente pas de transformer notre quotidien, elle ravive aussi des questions philosophiques fondamentales. De la nature de la connaissance à la valeur de l’art généré par machine, en passant par la responsabilité et la conscience, les IA nous invitent à repenser notre humanité et ce qui la distingue des machines.

La recherche sur la désinformation en quête d’une nouvelle approche

La désinformation façonne notre monde comme jamais auparavant. Face à ce défi, les chercheurs appellent à repenser nos approches. Une nouvelle étude de la Harvard Kennedy School propose une vision plus nuancée, locale et interdisciplinaire. Fini les débats stériles sur l’influence des réseaux sociaux, place à une analyse fine des contextes et des communautés.

L’IA générative va bouleverser le monde du travail : une analyse approfondie

Écran d'ordinateur montrant un piquet de grève devant une entreprise

L’IA générative va bouleverser massivement le monde du travail, avec plus de 30% des travailleurs qui pourraient voir au moins la moitié de leurs tâches perturbées, touchant particulièrement les professions intellectuelles et qualifiées ainsi que les femmes, surreprésentées dans les métiers administratifs les plus exposés. Face à ce défi majeur, une étude de la Brookings Institution souligne l’urgence de mettre en place des réponses coordonnées entre employeurs, travailleurs et décideurs politiques, notamment pour renforcer la représentation des travailleurs dans les secteurs menacés et établir des garde-fous réglementaires permettant un déploiement éthique et équitable de ces technologies.

L’IA dans les commissariats américains : révolution ou menace pour la justice ?

Commissariat de police à New-York

L’IA s’invite dans les commissariats américains : révolution ou menace pour la justice ?
Le professeur Andrew Guthrie Ferguson soulève des questions cruciales sur l’utilisation de l’IA dans la rédaction des rapports de police aux États-Unis. Entre gain d’efficacité et risques pour l’intégrité du système judiciaire, les enjeux sont majeurs.
Points clés :
— Axon lance « Draft One », un assistant IA pour les rapports de police
— Risques technologiques : erreurs de transcription, « hallucinations » de l’IA
— Implications sur les décisions judiciaires, les plaidoyers et les condamnations
— Questionnement sur la responsabilité et l’autorité des forces de l’ordre
— L’innovation technologique doit-elle primer sur la rigueur judiciaire ? Comment garantir l’équité du système face à cette révolution silencieuse ?
L’IA a-t-elle sa place dans la rédaction des rapports de police ?