IA: quelle réglementation internationale ?

L’année 2023 a marqué un tournant dans le domaine de l’intelligence artificielle (IA). Du lancement de ChatGPT à l’accord historique de l’Union européenne sur la Loi sur l’Intelligence artificielle, les discussions sur la gouvernance de l’IA n’ont jamais été aussi intenses. Pourtant, les efforts actuels restent largement insuffisants face aux enjeux colossaux que pose cette technologie en matière de droits humains.


Derrière les promesses d’innovation, l’IA cache des dangers bien réels. « Nous ne devons pas fermer les yeux sur les risques attestés que représentent les outils d’IA lorsqu’ils sont utilisés comme moyen de contrôle social, de surveillance de masse et de discrimination », avertit notamment Amnesty International. L’organisation pointe du doigt de nombreux exemples inquiétants : police prédictive, systèmes décisionnels automatisés dans le secteur public, surveillance des migrants, ou encore technologies de reconnaissance faciale renforçant des systèmes d’oppression.
Le problème est souvent à la source : les données d’entraînement de ces systèmes. « Ces données reflètent les injustices sociales et conduisent souvent à des résultats biaisés qui exacerbent les inégalités », explique l’ONG. Un cercle vicieux qui touche particulièrement les populations les plus marginalisées.


Une réglementation complexe mais nécessaire


Face à ces enjeux, la nécessité d’une réglementation fait consensus. Mais la tâche s’avère ardue. « Il n’existe aucun consensus général sur la définition de l’intelligence artificielle », rappelle Amnesty. La diversité des applications et des acteurs impliqués complique encore l’équation.
Malgré ces difficultés, l’organisation plaide pour une action rapide et déterminée. Elle formule plusieurs recommandations clés :

  • Une réglementation juridiquement contraignante, allant au-delà des simples engagements volontaires.
  • La prise en compte des préjudices déjà constatés sur le terrain.
  • Des mécanismes renforcés d’obligation de rendre des comptes.
  • La possibilité d’interdire certains systèmes jugés incompatibles avec les droits humains.
  • L’élimination des failles permettant de contourner les règles, notamment dans les domaines de la sécurité nationale.
  • La prévention de l’exportation de systèmes interdits vers d’autres pays.

Les premiers pas dans l’élaboration de législations transnationales

Des initiatives ont été prises cependant, tout d’abord au niveau des Nations unies, où l’on cherche à avancer sur le sujet, et surtout du côté de l’Union européenne, qui a adopté une législation bien plus avancée que toutes celles (et elles sont peu nombreuses) existantes.

NU: combler le fossé numérique

Les Nations Unies ont tenté de poser un cadre éthique global pour l’IA. En 2021, l’UNESCO a adopté une recommandation sur l’éthique de l’IA, premier instrument normatif mondial en la matière.


Michelle Bachelet, alors Haute-Commissaire aux droits de l’homme, a appelé en 2021 à un moratoire sur la vente et l’utilisation de systèmes d’IA présentant un risque sérieux pour les droits humains. « L’IA peut être une force au service du bien, mais elle peut aussi causer des dégâts catastrophiques si elle est utilisée sans tenir compte de ses implications en matière de droits humains », a-t-elle déclaré.


L’Assemblée générale des Nations unies a adopté en mars 2024 un texte visant à établir des règles internationales encadrant les usages de l’intelligence artificielle. Objectifs affichés : « combler le fossé numérique » entre les Etats et limiter les risques, sans freiner l’innovation.
La résolution, qui exclut l’IA relevant du domaine militaire (qui est en fait un de ses géniteurs), explique « qu’il faut établir des normes permettant de garantir que les systèmes d’intelligence artificielle soient sûrs, sécurisés et dignes de confiance ». Et ce, dans le but de « favoriser plutôt que d’entraver la transformation numérique et l’accès équitable aux avantages que procurent ces systèmes », pour atteindre les objectifs de développement durable de l’ONU, « qui visent à assurer un avenir meilleur pour l’humanité tout entière d’ici à 2030».
La résolution demande aux états membres de «s’abstenir ou de cesser de se servir des systèmes d’intelligence artificielle qu’il est impossible d’utiliser dans le respect des droits humains ou qui présentent des risques excessifs pour l’exercice des droits humains ».

Union Européenne, l’interdiction d’usages les plus dangereux de l’IA représente une avancée

Le Parlement européen a adopté en mars 2024 une législation historique visant à encadrer l’utilisation de l’intelligence artificielle (IA), marquant la première loi contraignante de ce type au monde. Votée par 523 voix pour et 46 contre, cette loi vise à protéger les droits et la sécurité des citoyens tout en soutenant l’innovation technologique.

Mher Hakobyan, conseiller en matière de plaidoyer à Amnesty International, a déclaré que le Parlement européen avait pris une position ferme en interdisant plusieurs pratiques basées sur l’IA jugées incompatibles avec les droits humains. Parmi ces interdictions figure celle des systèmes d’identification biométrique à distance en temps réel, une mesure considérée comme une avancée majeure. Cependant, la législation ne va pas jusqu’à interdire la surveillance de masse a posteriori, mais en restreint l’usage au domaine de l’application des lois avec des limites strictes.
Pour HRW, « Ces nouvelles réglementations doivent être considérées comme des « planchers » avec un minimum de protections, et non des « plafonds » avec un maximum de mesures. Elles devraient être renforcées pour mieux endiguer le risque d’abus».


Des restrictions et des interdictions ciblées
Le texte interdit également plusieurs utilisations nuisibles des systèmes d’IA, notamment celles qui discriminent les communautés marginalisées. Cela inclut les technologies prétendant « prédire » des infractions, les systèmes de notation sociale qui limitent l’accès à des services essentiels, et les technologies de reconnaissance des émotions utilisées par les forces de l’ordre et la surveillance des frontières pour identifier des personnes suspectes.


Des lacunes à combler
Il y a de quoi être préoccupé concernant les éventuelles failles de cette législation. Le projet de texte permettrait aux fournisseurs de systèmes d’IA développés uniquement pour l’exportation de contourner les restrictions, ce qui pourrait rendre l’UE complice de violations des droits humains hors de ses frontières. De plus, le texte n’interdit pas les systèmes de profilage discriminatoire et de prédiction utilisés pour empêcher la migration, malgré les appels à leur interdiction par la société civile.
Pour garantir le respect de la loi, un office européen de l’IA sera créé au sein de la Commission européenne, capable d’imposer des amendes allant de 7,5 à 35 millions d’euros en fonction des infractions.
Amnesty International appelle l’UE à garantir la transparence et la responsabilité concernant l’utilisation et l’exportation des systèmes d’IA. L’UE doit veiller à ce que les personnes affectées par ces technologies puissent demander réparation en cas de préjudice et à ce que les droits humains soient respectés dans toutes les pratiques liées à l’IA.