L’ONU prône une gouvernance mondiale éthique de l’intelligence artificielle. Elle déploie simultanément ces mêmes technologies dans ses opérations de maintien de la paix — parfois sans cadre, parfois au détriment des populations qu’elle est censée protéger. Cette tension, documentée dans une note de l’Observatoire Boutros-Ghali de mars 2026, interpelle quiconque croit en la capacité du multilatéralisme à réguler le numérique.
Arbitre et joueur
En décembre 2024, le Secrétaire général António Guterres avertissait : le sort de l’humanité ne doit « jamais être laissé à la boîte noire d’un algorithme ». Quelques semaines plus tard, l’ONU perfectionnait ses plateformes de surveillance géospatiale dans ses propres missions. Ce n’est pas de la mauvaise foi — c’est une tension structurelle qu’Antoine Younsi, chercheur au GRIP, met en lumière avec précision.
D’un côté, l’organisation accumule les initiatives normatives : Pacte numérique mondial adopté à l’unanimité en 2024, principes éthiques pour l’usage interne des algorithmes, organe consultatif de haut niveau sur l’IA. De l’autre, elle intègre ces technologies dans ses opérations de paix de manière souvent expérimentale — avec des pratiques qui précèdent les règles censées les encadrer.
Une gouvernance mondiale en éclats
Le paysage normatif international est morcelé. Les États-Unis, la Chine et l’Union européenne se disputent le rôle de puissance régulatrice. Les standards s’accumulent, souvent incompatibles. On parle de gouvernance en « patchwork », de pratiques de « forum shopping » par lesquelles États et entreprises sélectionnent les enceintes les moins contraignantes.
L’Europe, avec son AI Act contraignant, offre un contre-modèle partiel. Mais sans mécanismes contraignants à l’échelle onusienne, les normes restent inopposables : moins d’un quart des États signataires de la Recommandation de l’UNESCO sur l’éthique de l’IA ont réellement engagé des outils de mise en œuvre.
SAGE, Unite Aware : la promesse prédictive
La note examine deux outils concrets. SAGE permet aux Casques bleus de visualiser des données géolocalisées sur les violences et les tensions. Unite Aware, opérationnelle depuis 2023 à Chypre, croise des données multisources pour anticiper les crises. Un partenariat ONU–École polytechnique fédérale de Zurich a montré que des algorithmes d’apprentissage profond pouvaient générer des prévisions à court terme de l’intensité des conflits. En janvier 2026, la plateforme entre dans une deuxième phase, notamment au sein de la MONUSCO en République démocratique du Congo.
C’est prometteur. Et vertigineux.
Les données ne sont jamais neutres
C’est ici que la note devient la plus précieuse pour les défenseur·e·s des droits humains. Les données collectées en zone de conflit reflètent les biais de ceux qui les collectent, les omissions des formulaires, les angles morts culturels et de genre. En RDC, la simplification des catégories dans SAGE a conduit à regrouper des dizaines de groupes armés sous une même étiquette, faussant les analyses.
Les algorithmes entraînés sur ces données imparfaites peuvent amplifier ces biais. Une confiance excessive crée une distance entre personnels onusiens et populations — ce que des chercheur·e·s appellent la « bunkerisation » des missions. Certain·e·s évoquent même un « colonialisme des données » : technologies développées par des acteurs occidentaux, déployées sur des populations du Sud global, anciennement colonisées, sans garanties sur la propriété des données ni sur la participation des communautés.
Comment garantir la protection des civils si les algorithmes ignorent les dynamiques de genre ? Comment préserver la légitimité des missions si les populations deviennent des données à extraire plutôt que des citoyen·ne·s à associer aux processus de paix ?
L’exemplarité ou rien
Si l’ONU veut rester crédible dans la gouvernance mondiale de l’IA, elle doit l’être dans l’usage qu’elle en fait. Ses opérations de paix sont un laboratoire — et une vitrine. Un décalage durable entre ambitions normatives et pratiques éroderait sa légitimité, au moment précis où le monde en a le plus besoin.
Ces enjeux nous concernent. Nos gouvernements contribuent aux missions onusiennes et siègent aux instances de régulation. Les entreprises de nos pays participent au développement de ces technologies. Personne n’est spectateur·rice de cette transformation.
L’IA ne sera ni solution magique ni gouffre inéluctable. Ses effets dépendent des choix que nous faisons — maintenant.
À nous d’exiger la cohérence.
GouvernanceIA #MaintiendeLaPaix #DroitsHumains #NationsUnies #IntelligenceArtificielle