Une enquĂȘte approfondie du Washington Post rĂ©vĂšle les dangers croissants de l’utilisation de la reconnaissance faciale par les forces de l’ordre amĂ©ricaines. Au moins huit AmĂ©ricains ont Ă©tĂ© arrĂȘtĂ©s Ă tort aprĂšs avoir Ă©tĂ© identifiĂ©s par des logiciels de reconnaissance faciale, mettant en lumiĂšre les risques d’une confiance excessive dans cette technologie encore imparfaite.
Le biais de l’automatisation en question
Les chercheurs ont identifiĂ© un phĂ©nomĂšne inquiĂ©tant : le « biais d’automatisation », une tendance des utilisateurs Ă faire aveuglĂ©ment confiance aux dĂ©cisions prises par des logiciels puissants, ignorant leurs limites et leurs risques. Dans le cas de la reconnaissance faciale, ce biais conduit les policiers Ă nĂ©gliger les procĂ©dures d’enquĂȘte traditionnelles, considĂ©rant les rĂ©sultats de l’IA comme des preuves irrĂ©futables.
L’enquĂȘte montre que sur 23 dĂ©partements de police Ă©tudiĂ©s, 15 ont procĂ©dĂ© Ă des arrestations basĂ©es uniquement sur l’identification par l’IA, sans rechercher de preuves complĂ©mentaires. Certains rapports de police qualifient mĂȘme ces correspondances de « 100% fiables » ou permettant d’identifier les suspects « immĂ©diatement et sans question ».
Des biais raciaux préoccupants
Sur les huit cas documentĂ©s d’arrestations erronĂ©es, sept concernaient des personnes noires. Cette disproportion n’est pas une coĂŻncidence : selon des tests fĂ©dĂ©raux menĂ©s en 2019, les personnes asiatiques et noires ont jusqu’Ă 100 fois plus de risques d’ĂȘtre mal identifiĂ©es que les hommes blancs. Cette diffĂ©rence s’expliquerait notamment par le fait que les algorithmes ont Ă©tĂ© initialement entraĂźnĂ©s sur des bases de donnĂ©es majoritairement composĂ©es de visages d’hommes blancs.
Des conséquences dramatiques pour les victimes
Les consĂ©quences de ces erreurs sont dĂ©vastatrices pour les personnes arrĂȘtĂ©es Ă tort : perte d’emploi, relations familiales dĂ©tĂ©riorĂ©es, difficultĂ©s financiĂšres. Certaines familles ont dĂ» recourir Ă des thĂ©rapies pour leurs enfants, traumatisĂ©s aprĂšs avoir vu leurs parents arrĂȘtĂ©s devant chez eux. Christopher Gatlin, pĂšre de quatre enfants, a passĂ© 16 mois en dĂ©tention avant que les charges ne soient abandonnĂ©es.
Une absence inquiétante de régulation
L’enquĂȘte rĂ©vĂšle un manque criant de supervision et de rĂ©gulation. Seuls sept Ătats amĂ©ricains exigent que l’utilisation de la reconnaissance faciale soit explicitement divulguĂ©e. De plus, alors que de nombreux services de police disposent de politiques internes exigeant la corroboration des rĂ©sultats de l’IA par d’autres preuves, ces rĂšgles sont rĂ©guliĂšrement ignorĂ©es.
Un outil Ă encadrer strictement
Si la reconnaissance faciale peut ĂȘtre utile dans certaines enquĂȘtes, comme l’a montrĂ© l’identification des participants Ă l’attaque du Capitole, son utilisation doit ĂȘtre strictement encadrĂ©e. Les experts recommandent de ne pas utiliser cette technologie comme seule base d’arrestation et insistent sur l’importance de maintenir les mĂ©thodes d’enquĂȘte traditionnelles : vĂ©rification des alibis, comparaison des tatouages, analyse des preuves ADN et des empreintes digitales.
La reconnaissance faciale reprĂ©sente un progrĂšs technologique majeur, mais son utilisation actuelle par les forces de l’ordre soulĂšve des questions Ă©thiques fondamentales. Entre biais d’automatisation, prĂ©jugĂ©s raciaux et absence de rĂ©gulation, cette technologie risque de devenir un outil de discrimination plutĂŽt qu’un instrument de justice.