L’essor fulgurant de l’intelligence artificielle (IA) suscite autant d’espoir que d’inquiétude. Si les promesses de progrès sont immenses, les risques pour nos droits fondamentaux le sont tout autant.
« L’anxiété à l’égard de l’IA générative croît presque aussi vite que l’utilisation de la technologie elle-même, alimentée par une rhétorique dramatique de la part de personnalités éminentes de la technologie, du divertissement et de la sécurité nationale. Quelque chose, suggèrent-ils, doit être fait pour éviter un certain nombre de catastrophes, de la mort de l’artiste à la naissance de nouveaux robots dominateurs », rappelle Corynne McSherry, de l’Electronic Frontier Foundation. « Il pourrait être tentant (et correct) de rejeter une grande partie de ce qui précède comme la panique morale habituelle que les nouvelles technologies provoquent, ou comme un battage publicitaire égoïste. Mais il existe des préoccupations légitimes qui peuvent nécessiter certaines règles de conduite », dit-elle.
Face à cette révolution technologique, qui, pour d’aucuns, sera plus impactante que l’arrivée de l’ordinateur dans les entreprises, les organisations de défense des droits humains montent au créneau, appelant à la vigilance et à un encadrement strict. Tour d’horizon rapide (et limité) de leurs positions et préoccupations.
Des gardes-fous éthiques encore trop souvent absents
Plusieurs organisations ont contribué dès 2018 à l’élaboration des « Principes de Toronto » , un ensemble de lignes directrices pour s’assurer que l’apprentissage automatique respecte l’égalité et la non-discrimination. Mais on n’y est pas encore.
Amnesty International tire la sonnette d’alarme. « L’IA peut être un formidable outil de progrès, mais elle menace aussi gravement notre vie privée et nos libertés si elle n’est pas encadrée», avertit Agnès Callamard, secrétaire générale de l’organisation.
Dans un rapport publié en 2022 intitulé « L’ère de l’IA : Protéger les droits humains à l’ère de l’intelligence artificielle« , Amnesty souligne l’urgence d’instaurer des garde-fous éthiques. L’ONG s’inquiète particulièrement de l’utilisation de l’IA à des fins de surveillance de masse et de contrôle social.
L’exemple de la Chine cristallise ces craintes. Le système de « crédit social » mis en place par Pékin, qui note les citoyens en fonction de leur comportement grâce à l’IA, est vu comme un cauchemar orwellien. « C’est une atteinte flagrante à la vie privée et à la liberté individuelle », dénonce Amnesty.
Le rapport annuel 2019 de l’association détaille comment le gouvernement chinois utilise des technologies avancées de surveillance pour contrôler et réprimer les citoyens, soulignant les dangers d’un déploiement incontrôlé de l’IA dans la surveillance de masse.
Dans un autre rapport, l’ONG a montré comment les autorités israéliennes utilisent un système expérimental de reconnaissance faciale appelé Red Wolf pour pister les Palestiniens et les Palestiniennes, et automatiser les très strictes restrictions de leur droit de circuler librement. Dans Apartheid automatisé , l’organisation montre preuves à l’appui que Red Wolf fait partie d’un réseau de surveillance qui ne cesse de s’accroître et qui consolide le contrôle exercé par le gouvernement israélien sur les Palestinien·ne·s et aide à maintenir le système d’apartheid israélien.
Selon le rapport intitulé The Digital Border : Migration, Technology, and Inequality, l’utilisation des nouvelles technologies par des acteurs étatiques et non étatiques dans les systèmes migratoires à travers le monde augmente la probabilité que les droits fondamentaux des personnes en mouvement – notamment les droits à la vie privée, à la non-discrimination et à l’égalité, ainsi que le droit de solliciter l’asile – ne soient bafoués.
En outre rappelle Amnesty, les technologies exacerbent les inégalités raciales, économiques et sociales sous-jacentes aux frontières et au-delà. Les travailleurs·euses migrants et les personnes dont le statut de citoyen est incertain sont souvent soumis aux mêmes formes de surveillance, de contrôle et d’exploitation numériques que les personnes demandeuses d’asile et réfugiées, et sont ciblés de la même manière par ces technologies car ils ne sont pas en mesure de s’en protéger ni de demander réparation en cas de préjudice.
Lutter contre la discrimination algorithmique
Human Rights Watch (HRW) met l’accent sur les dangers de discrimination exacerbée par l’IA. « Les algorithmes ne font que reproduire et amplifier les biais présents dans nos sociétés », explique Amos Toh, chercheur sur l’IA chez HRW.
L’organisation cite l’exemple du logiciel COMPAS, utilisé par la justice américaine pour évaluer le risque de récidive des prévenus. Une étude de ProPublica en 2016 a révélé que ce système était biaisé contre les Afro-Américains, les considérant à tort comme plus susceptibles de récidiver que les Blancs. Face à ces dérives, HRW appelle à des audits réguliers et indépendants des systèmes d’IA.
L’organisation a aussi révélé que les photos personnelles d’enfants brésiliens sont utilisées pour créer de puissants outils d’intelligence artificielle (IA) à l’insu des enfants et sans le consentement des familles. Ces photos sont extraites de divers sites web et intégrées dans un vaste ensemble de données que des entreprises utilisent pour développer leurs outils d’IA. Certains outils peuvent ensuite être employés par des acteurs malveillants pour créer des faux contenus (« deepfakes »), qui exposent ces enfants au risque d’exploitation et d’autres préjudices.
Voir aussi : IA : quelle réglementation internationale?
Défendre la vie privée à l’ère numérique
L’Electronic Frontier Foundation (EFF), pionnière dans la défense des libertés civiles en ligne, s’inquiète particulièrement de l’impact de l’IA sur la vie privée. « Les technologies de reconnaissance faciale menacent de transformer nos espaces publics en zones de surveillance permanente », alerte l’organisation.
L’EFF cite le cas de Clearview AI, une entreprise qui a collecté des milliards de photos sur internet pour alimenter son système de reconnaissance faciale, utilisé par de nombreuses forces de police. L’organisation a intenté des poursuites contre Clearview AI en Californie, estimant que ces pratiques violent les lois sur la protection des données.
EFF propose régulièrement des recommandations spécifiques pour protéger les droits individuels face à l’IA. Elle offre des conseils pratiques pour les citoyens et les législateurs afin de minimiser les risques de surveillance intrusive et de garantir la protection de la vie privée.
Des armes autonomes?
L’IA est utilisée de plus en plus dans les « armes autonomes ». La campagne « Stop Killer Robots« appelle à l’interdiction préventive des systèmes d’armes entièrement autonomes, déshumanisant ainsi —mais pas seulement— la police. Pour les organisations qui soutiennent cette action, les machines, qu’elles soient sur un champ de bataille ou lors d’une manifestation, sont incapables de prendre des décisions éthiques complexes ou de comprendre la valeur de la vie humaine. Elles ne peuvent saisir les contextes ou les conséquences de leurs actions, ce qui est une capacité uniquement humaine. Sans cette compréhension, nous perdons l’engagement moral et nous affaiblissons les règles juridiques existantes.
« Maintenir un contrôle humain significatif implique de comprendre les technologies que nous utilisons, de savoir où nous les utilisons, et d’être pleinement conscients des conséquences de nos actions, disent les promoteurs de Stop Killer Robots. Les décisions de vie ou de mort ne devraient pas être déléguées à une machine. Il est temps d’établir de nouvelles lois internationales pour réglementer ces technologies».
Les J.O., terrain d’exercice de la reconnaissance faciale
En France, La Quadrature du Net milite pour un moratoire sur les technologies de reconnaissance faciale dans l’espace public. « Il y a une demande globale d’interdire la reconnaissance faciale, qui consiste à identifier à tout moment sans pouvoir s’y opposer. Cela veut dire que toute personne devient transparente face à l’État et face aux dérives qui sont possibles », affirme Bastien Le Querrec, membre de l’association.
L’organisation a notamment attaqué en justice le dispositif de reconnaissance faciale mis en place dans les lycées de la région PACA en 2019. Le tribunal administratif de Marseille a finalement donné raison à l’association en 2020, jugeant le dispositif disproportionné.
Elle a aussi lancé avec d’autres associations le site Technopolice, qui montre «comment la « Smart City » révèle son vrai visage : celui d’une mise sous surveillance totale de l’espace urbain à des fins policières»
Pour l’association, « l’expérimentation » de la vidéosurveillance algorithmique (VSA) dans le cadre fixé par la loi « Jeux Olympiques » adoptée l’an dernier n’en est pas une » : elle n’est « qu’une manœuvre hypocrite destinée à légaliser par petites touches une infrastructure policière déjà massivement déployée en France » ». Pour contrer cette stratégie, La Quadrature du Net a lancé une campagne s’attaquant à la VSA.
Une approche globale indispensable
« […] il est temps de veiller non seulement à ce que les systèmes d’IA soient conçus pour être par nature respectueux des droits humains, mais également à ce que les personnes pour lesquelles ces technologies ont des conséquences participent réellement au processus décisionnel », insiste Amnesty International.
Pour les ONG de défense des droits humains, Il faut dépasser les « beaux discours » pour adopter une réglementation véritablement contraignante. Cela nécessite une approche globale, articulant les niveaux international, régional et national, et qui tienne compte des erreurs du passé dans la régulation du secteur technologique. Des mécanismes solides doivent être mis en place afin de permettre aux personnes dont les droits ont été bafoués par l’IA d’obtenir justice.
Comme le rappelle fort justement Elise Degrave, chercheuse en droit numérique de l’UNamur, « Le numérique, grâce à l’intelligence artificielle, personnalise. Vous n’êtes plus un consommateur, vous êtes une personne qui a acheté tel ou tel produit. Donc, plus personne n’a les mêmes informations qu’un autre. On individualise. C’est pareil pour l’administration en ligne. Pour les personnes les moins favorisées cela ne fait pas gagner de temps. Or, ces personnes sont précisément très dépendantes de l’Etat (pour se loger, pour manger, bouger…). Le moindre bug peut être mortifère pour elles ».
Le dilemme est là: nous devons réglementer au plus vite l’intelligence artificielle. Mais nous devons aussi prendre le temps d’examiner tous les impacts de celle-ci, tous les enjeux en cours et remettre les droits humains (et l’humain tout court) au centre de la démarche. Les ONG le crient sur tous les toits. Encore faut-il qu’elles soient entendues.
Cet article a été rédigé le 30/7/2024. Les informations et liens sont susceptibles d’évoluer. N’hésitez pas à consulter les sites officiels des organisations mentionnées pour obtenir les informations les plus à jour.