La technologie ne cesse de transformer notre quotidien, et voilà qu’elle s’apprête à bouleverser l’un des piliers du système judiciaire américain : le rapport de police. Dans un article fascinant et inquiétant, le professeur Andrew Guthrie Ferguson explore les implications de l’arrivée de l’intelligence artificielle (IA) dans la rédaction des rapports de police aux États-Unis. Plongeons dans cette analyse qui soulève des questions cruciales pour l’avenir de la justice aux USA, et sans doute chez nous par la suite.
Une révolution nommée « Draft One »
Tout commence en avril 2024, lorsqu’Axon, géant des technologies policières, lance « Draft One ». Ce système promet de révolutionner la paperasserie policière en générant automatiquement des rapports à partir de l’audio des caméras-piétons. L’objectif ? Gagner du temps et assurer une meilleure cohérence. Mais derrière cette promesse d’efficacité se cachent des enjeux bien plus profonds.
Le système d'Axon "Draft One" fonctionne en étroite collaboration avec les caméras-piétons (bodycams) des policiers. Voici un bref aperçu de son fonctionnement :
Enregistrement : La caméra-piéton du policier enregistre l'audio et la vidéo de l'interaction.
Transcription : Une fois l'interaction terminée, le système convertit automatiquement l'audio en texte.
Génération du rapport : Utilisant l'IA GPT-4 Turbo, le système analyse la transcription et génère un premier jet de rapport de police.
Structuration : Le rapport est organisé selon un format standard, incluant la date, l'heure, le type d'incident, et d'autres détails pertinents.
Révision par l'officier : Le policier peut ensuite examiner, modifier et compléter le rapport généré, notamment en remplissant des champs spécifiques.
Validation : L'officier doit confirmer avoir revu et approuvé le rapport final.
Les défis technologiques : entre promesses et périls
Ferguson ne mâche pas ses mots quant aux risques technologiques. D’abord, la qualité des rapports dépendra des données utilisées pour entraîner l’IA. Imaginez un système formé uniquement sur des cas de vols à l’étalage, tentant de décrire une agression ! Ensuite, le passage de l’oral à l’écrit n’est pas sans embûches. Des erreurs de transcription pourraient avoir des conséquences dramatiques dans un contexte judiciaire.
Plus inquiétant encore, le phénomène des « hallucinations » de l’IA. Ces inventions apparemment plausibles mais totalement fausses pourraient se glisser dans les rapports, compromettant potentiellement des vies et des libertés. Enfin, la réorganisation subtile des événements par l’IA pourrait altérer leur signification juridique. Un simple changement dans l’ordre des faits pourrait transformer une arrestation légale en violation constitutionnelle !
Au cœur du débat : quelle vision du rapport de police ?
Ferguson oppose deux conceptions du rapport de police. D’un côté, une vision purement instrumentale : le rapport comme simple collecteur de faits. De l’autre, une vision axée sur la responsabilité : le rapport comme justification de l’usage de l’autorité policière. L’IA, selon lui, privilégie dangereusement la première au détriment de la seconde.
Cette réflexion soulève des questions fondamentales. Qui est véritablement l’auteur d’un rapport généré par IA ? Comment maintenir la notion de responsabilité lorsqu’une machine participe à la narration des faits ? L’autorité morale de la police, déjà fragile, ne risque-t-elle pas d’être encore plus érodée ?
Des implications pratiques vertigineuses
L’impact de cette technologie sur le processus judiciaire pourrait être colossal. Pensez aux procureurs et aux juges, contraints de se fier à des rapports partiellement rédigés par une machine pour des décisions aussi cruciales que la mise en accusation ou la détention provisoire. Comment garantir la fiabilité de ces documents ?
Les avocats de la défense se retrouveront face à un défi de taille : comment contre-interroger efficacement sur un rapport généré par IA ? Les subtilités du langage, les nuances dans la description des faits, tout ce qui fait la richesse d’un témoignage humain risque de s’effacer au profit d’une narration lisse et standardisée.
La question de la divulgation des preuves devient également épineuse. Les procureurs devront-ils fournir à la défense les journaux d’audit de l’IA, les paramètres du système, voire les données d’entraînement ? Ces éléments pourraient s’avérer cruciaux pour comprendre comment le rapport a été généré et potentiellement le remettre en question.
Enfin, n’oublions pas que la grande majorité des affaires se concluent par des accords de plaidoyer.1 Ces négociations s’appuient largement sur les rapports de police. L’introduction de l’IA dans ce processus pourrait avoir des conséquences imprévues sur les résultats des affaires et, in fine, sur le destin des accusés.
Vers un avenir incertain
Ferguson ne s’arrête pas là et pousse la réflexion vers des scénarios futurs inquiétants. Et si l’IA finissait par rendre les rapports écrits obsolètes, au profit d’une analyse directe des vidéos ? Que deviendrait alors le rôle du policier dans ce processus ? Ne risque-t-on pas une forme de « déqualification » des forces de l’ordre, réduites à de simples opérateurs d’une technologie qu’ils ne maîtrisent pas ?
Plus largement, cette évolution soulève la question de la dépendance croissante des services publics envers des entreprises privées. Quid de la souveraineté de l’État dans ses fonctions régaliennes lorsque des algorithmes propriétaires dictent la narration des faits ?
Un appel à la vigilance
L’article de Ferguson est un véritable cri d’alarme. Sans rejeter en bloc l’innovation, il appelle à un examen minutieux de cette technologie avant son adoption à grande échelle. Les enjeux sont trop importants pour laisser l’efficacité administrative primer sur l’intégrité de notre système judiciaire.
En tant que citoyens, nous devons nous emparer de ce débat. L’introduction de l’IA dans la rédaction des rapports de police n’est pas qu’une question technique : c’est un choix de société qui aura des répercussions profondes sur notre conception de la justice, de la responsabilité et de l’autorité.
Alors que l’IA s’apprête à franchir les portes des commissariats, prenons le temps de la réflexion. Exigeons transparence, débat public et garanties solides. Notre liberté et l’équité de notre système judiciaire en dépendent. L’efficacité ne doit pas se faire au détriment de la justice. À nous de veiller à ce que l’IA reste un outil au service de l’humain, et non l’inverse.
Les « hallucinations » de l’IA : quand la machine invente la réalité
Parmi les risques soulevés par l’utilisation de l’IA dans la rédaction des rapports de police, le phénomène des « hallucinations » mérite une attention particulière. Mais de quoi s’agit-il exactement ?
Les hallucinations sont des informations générées par l’IA qui semblent plausibles et cohérentes, mais qui sont en réalité complètement fausses. Ce phénomène survient lorsque le modèle d’IA, face à une incertitude ou un manque d’information, « invente » des détails pour combler les lacunes.
Dans le contexte des rapports de police, les conséquences pourraient être désastreuses. Imaginez un rapport mentionnant un témoin inexistant, une arme qui n’a jamais été présente, ou attribuant des propos fictifs à un suspect. Ces « faits » inventés pourraient influencer l’ensemble de la procédure judiciaire.
L’origine de ce problème réside dans la nature même des modèles d’IA actuels. Ils ne « comprennent » pas réellement le monde, mais produisent du texte en se basant sur des probabilités statistiques. Lorsqu’ils sont poussés hors de leur zone de connaissance, ils peuvent produire des informations fausses avec une apparence de certitude.
La difficulté est que ces hallucinations sont souvent indétectables pour un lecteur non averti. Elles s’intègrent parfaitement dans le récit, rendant leur identification presque impossible sans une vérification minutieuse des faits.
Face à ce défi, la vigilance des acteurs du système judiciaire sera cruciale. La formation des policiers, des procureurs et des juges à ce phénomène, ainsi que la mise en place de processus de vérification rigoureux, seront essentielles pour préserver l’intégrité des procédures judiciaires à l’ère de l’IA.
- Un plea bargain (ou accord de plaidoyer) est un arrangement dans le système judiciaire, surtout utilisé aux États-Unis, dans lequel l’accusé accepte de plaider coupable à une accusation en échange de concessions de la part du procureur. Ces concessions peuvent inclure une réduction des charges portées contre l’accusé, une peine plus légère, ou le retrait d’autres accusations.
L’objectif principal d’un plea bargain est d’éviter un procès long et coûteux. Pour l’accusé, cela permet généralement d’obtenir une peine plus clémente, tandis que pour le système judiciaire, cela permet de désengorger les tribunaux. Il existe plusieurs types de plea bargains :
Plea de culpabilité à une accusation réduite : L’accusé plaide coupable à une accusation moins grave que celle initialement portée contre lui.
Plea de culpabilité à certaines accusations : L’accusé plaide coupable à certaines des accusations, et d’autres sont abandonnées.
Plea sur la peine : L’accusé plaide coupable, mais l’accord porte sur la peine spécifique qu’il recevra.
Bien que ce processus permette une efficacité dans le système judiciaire, il est parfois critiqué, notamment parce qu’il peut inciter des accusés innocents à plaider coupable pour éviter le risque d’une peine plus sévère s’ils sont jugés coupables au procès. ↩︎
Article rédigé en partie avec IA.