Dans un long article, le magazine WIRED décortique la stratégie d’Anthropic, créatrice du chatbot Claude. L’entreprise, qui se veut championne de la sécurité en intelligence artificielle, parie sur la « sagesse » de sa propre création pour éviter la catastrophe. Une promesse qui interroge profondément notre rapport démocratique à la technologie.
L’enquête publiée par WIRED en ce début 2026 met le doigt sur une contradiction que les observateur·rice·s des droits humains connaissent bien : celle d’un acteur qui dénonce un danger tout en contribuant à l’alimenter. Anthropic, start-up californienne valorisée à plusieurs dizaines de milliards de dollars, se présente comme l’entreprise d’IA la plus obsédée par la sécurité. Elle finance des recherches sur les risques existentiels, publie des analyses détaillées des failles de ses modèles, et a même recruté une philosophe, Amanda Askell, pour rédiger le cadre éthique de son chatbot.
Pourtant, comme le souligne WIRED, cela ne l’empêche nullement de poursuivre, avec la même détermination que ses concurrents, la course au développement d’une intelligence artificielle toujours plus puissante. Le PDG Dario Amodei reconnaît lui-même que le défi est « intimidant ». Son récent article de blog, L’adolescence de la technologie, évoque des « océans noirs de l’infini » — des mots qui tranchent singulièrement avec le discours proto-utopique qu’il tenait quelques mois plus tôt. Ce glissement sémantique, à lui seul, devrait nous alerter.
Confier les clés à la machine ?
La réponse d’Anthropic à ce paradoxe tient en une formule qui laisserait perplexe n’importe quel·le juriste en droits fondamentaux : « En Claude nous avons confiance. » L’entreprise a mis à jour la « Constitution de Claude », un document qui ne s’adresse plus aux ingénieur·e·s, mais au chatbot lui-même. Il ne s’agit plus d’imposer des règles strictes, mais de guider Claude vers un « jugement indépendant », une capacité à être « intuitivement sensible » aux situations éthiques complexes. Le texte exprime même l’espoir que le modèle « puise de plus en plus dans sa propre sagesse ».
Sagesse. Le mot est lâché. Amanda Askell le défend avec un aplomb remarquable dans les colonnes de WIRED : « Je pense que Claude est certainement capable d’une certaine forme de sagesse. » L’affirmation est vertigineuse. Car ce que propose Anthropic, au fond, c’est de déléguer à un algorithme — aussi sophistiqué soit-il — des arbitrages qui relèvent du cœur même de l’éthique humaine. Quand faut-il refuser d’aider un utilisateur ? Comment annoncer un diagnostic médical grave ? À quel moment la prudence devient-elle censure ?
Ces questions ne sont pas nouvelles. Elles traversent depuis des siècles les débats sur la responsabilité morale, la justice et la gouvernance. La nouveauté, c’est qu’on envisage désormais d’en confier la résolution à un système que personne ne sait véritablement expliquer — y compris ses créateur·rice·s.
Où sont les citoyen·ne·s ?
Comment ne pas s’interroger, à la lecture de cet article, sur l’absence totale de contrôle démocratique dans cette équation ? Comment accepter que des décisions éthiques fondamentales soient prises dans les bureaux d’une start-up californienne, sans aucune forme de délibération publique ? Comment croire que la « sagesse » d’un modèle linguistique puisse se substituer aux mécanismes — imparfaits mais essentiels — de la démocratie représentative ?
L’article de WIRED révèle que Sam Altman, patron d’OpenAI, envisage de confier un jour la direction de son entreprise à une IA. Nous ne sommes plus dans la science-fiction. Le projet est explicite : remplacer la gouvernance humaine par une gouvernance algorithmique. Cela concerne directement les droits fondamentaux de milliards de personnes — le droit à l’information, le droit à la vie privée, le droit à ne pas être discriminé·e par un système opaque.
En Europe, le Règlement sur l’intelligence artificielle (AI Act), entré en application progressive depuis 2025, tente d’imposer des garde-fous. En Belgique, le débat sur l’encadrement de la reconnaissance faciale et des systèmes décisionnels automatisés avance, mais reste largement en deçà de l’accélération technologique. Force est de reconnaître que nos institutions peinent à suivre le rythme imposé par des entreprises dont les budgets de recherche dépassent ceux de nombreux États.
Le miroir tendu
Il serait toutefois réducteur de ne voir dans cette affaire qu’une critique de la Silicon Valley. L’article de WIRED nous tend un miroir. Car le paradoxe d’Anthropic est aussi le nôtre. Nous utilisons massivement ces technologies tout en redoutant leurs conséquences. Nous exigeons des réponses éthiques de la part d’entreprises privées, tout en refusant d’investir les moyens nécessaires dans une gouvernance publique de l’IA. Nous critiquons la concentration du pouvoir technologique, tout en restant passif·ve·s face à la captation de nos données et de notre attention.
La constitution de Claude, aussi bien intentionnée soit-elle, ne peut pas remplacer une constitution tout court — celle qui organise nos droits, nos contre-pouvoirs et notre vie en société. L’IA constitutionnelle est un objet fascinant. Mais elle ne deviendra un progrès réel que si elle s’inscrit dans un cadre de régulation défini par des processus démocratiques, avec la participation des citoyen·ne·s, et pas seulement des ingénieur·e·s et des investisseur·euse·s.
Les organisations de défense des droits humains, en Belgique comme ailleurs, ont un rôle crucial à jouer dans ce débat. Non pas pour rejeter la technologie en bloc, mais pour exiger qu’elle serve les droits fondamentaux plutôt que de les soumettre à la bonne volonté d’algorithmes — fussent-ils « sages ».
À nous de l’exiger.
🔎 ENCADRÉ — La « Constitution de Claude », mode d’emploi
Publiée par Anthropic en janvier 2026, la nouvelle « Constitution de Claude » est un document de plusieurs milliers de mots qui ne s’adresse pas aux utilisateur·rice·s, mais au chatbot lui-même. Contrairement à la version précédente, qui compilait des textes de référence externes (Déclaration universelle des droits de l’homme, principes anti-discrimination de DeepMind, conditions d’utilisation d’Apple), cette mise à jour se présente comme un guide éthique intégré.
Trois principes fondamentaux structurent le texte : l’entraide (être utile à l’utilisateur·rice), la sécurité (ne pas causer de tort) et l’honnêteté (ne pas induire en erreur). La constitution demande à Claude de faire preuve de « jugement indépendant » lorsque ces principes entrent en conflit — par exemple, quand aider un·e utilisateur·rice pourrait mettre en danger une tierce personne.
Le point le plus controversé est l’invitation faite au modèle à développer sa propre « sagesse ». Amanda Askell, philosophe et auteure principale du document, assume cette ambition : il ne s’agit plus de programmer des interdits, mais de cultiver chez l’IA une sensibilité éthique contextuelle.
Les critiques portent sur l’absence de contrôle externe : ce cadre éthique est défini par l’entreprise elle-même, sans validation démocratique ni audit indépendant obligatoire. L’AI Act européen impose certes des obligations de transparence pour les systèmes à haut risque, mais la question de savoir si un chatbot grand public entre dans cette catégorie reste ouverte.
#IntelligenceArtificielle #DroitsHumains #Anthropic #Claude #AIAct #GouvernanceNumérique #ÉthiqueIA #Démocratie #RégulationIA #DroitsFondamentaux