Belgique : Sous l’Œil de l’Algorithme

Une transformation silencieuse est en cours dans nos villes et communes. Des milliers de caméras « intelligentes » scrutent désormais chaque mouvement dans l’espace public belge. Loin d’être de simples outils de sécurité, ces technologies redéfinissent notre rapport à la liberté, à la vie privée et à la démocratie elle-même.

Imaginez un instant : chaque fois que votre voiture franchit une intersection, traverse une commune ou emprunte une autoroute, elle est photographiée, identifiée et enregistrée. Ce n’est pas de la science-fiction, c’est la réalité quotidienne en Belgique. Les milliers de caméras ANPR (Reconnaissance Automatique de Plaques d’Immatriculation) déployées sur le territoire ne se contentent plus de gérer le stationnement ou les zones de basses émissions. Elles créent une carte détaillée de nos déplacements, un historique permanent de nos mouvements.

Après les attentats de 2015-2016, un « bouclier » national de caméras ANPR a été installé le long des autoroutes, officiellement pour lutter contre le terrorisme. Coût de l’opération : plus de 36,5 millions d’euros. Mais ce n’est que la partie visible de l’iceberg.

L’intelligence artificielle entre en scène

Au-delà de la simple lecture de plaques, une nouvelle génération de caméras fait son apparition : les systèmes de Surveillance Vidéo Algorithmique (SVA). Équipées d’intelligence artificielle, ces caméras analysent en temps réel les comportements dans l’espace public. Elles pratiquent une analyse comportementale automatisée : détection d’attroupements, de personnes immobiles pendant une longue durée, de bagages abandonnés, de mouvements de panique, et d’autres comportements qualifiés d’« anormaux ».

Le problème ? Qui définit ce qu’est un comportement « anormal » ou « suspect » ? L’algorithme, bien sûr. Et derrière l’algorithme, des choix de programmation qui reflètent inévitablement des biais, des préjugés, des visions du monde.

Selon plusieurs essais pilotes menés dans des communes comme Liège, Mouscron et Anvers, ces technologies sont déjà utilisées pour identifier et verbaliser automatiquement les auteurs de dépôts clandestins d’ordures ou pour détecter des comportements jugés problématiques. Un pas de plus vers une société où chaque geste est surveillé, analysé, jugé par une machine.

Un cadre légal dépassé par la technologie

Face à cette révolution technologique, le droit belge ressemble à une digue percée de toutes parts. La loi Caméras de 2007, modifiée en 2018, et le RGPD européen encadrent théoriquement la vidéosurveillance, mais ils ont été conçus bien avant l’essor de l’intelligence artificielle. La Circulaire ministérielle OOP22 de 2022 tente d’harmoniser les pratiques de vidéosurveillance, mais ne couvre pas spécifiquement l’intelligence artificielle. Résultat : un vide juridique béant.

Pendant que certaines communes testent discrètement ces nouvelles technologies, le cadre légal reste flou. L’Autorité de Protection des Données (APD) elle-même reconnaît que les bases juridiques actuelles sont « manifestement insuffisantes » pour réguler l’analyse vidéo par IA. Plus inquiétant encore : les études d’impact sur la protection des données (Data Protection Impact Assessments) sont rarement rendues publiques ou menées en profondeur, comme l’exigerait pourtant le RGPD.

L’illusion de l’efficacité

Les promoteurs de ces technologies promettent monts et merveilles : une ville plus sûre, une criminalité en baisse, une prévention efficace. Mais qu’en est-il vraiment ?

Le Comité P, organe officiel de contrôle de la police, a publié un rapport accablant en 2022 sur le système ANPR. Conclusion : des dysfonctionnements techniques chroniques, des alertes non traitées pendant des années, des formations insuffisantes, des données périmées. Le système censé protéger les citoyens peine à fonctionner correctement, mais continue de collecter massivement leurs données personnelles.

Une étude commandée par le SPF Intérieur et menée entre 2008 et 2010 dans 27 communes belges révèle que la vidéosurveillance n’a qu’un effet marginal sur la délinquance (évaluation publiée en 2011). Pire : elle peut provoquer un simple déplacement des délits vers des zones non surveillées, sans réduction globale de la criminalité.

La discrimination algorithmique : un danger bien réel

L’un des risques les plus graves de ces technologies réside dans leurs biais systémiques. Les algorithmes de détection comportementale sont entraînés sur des données qui reflètent les préjugés existants. Résultat : ils reproduisent et amplifient les discriminations.

Des études internationales le démontrent : les systèmes de reconnaissance faciale affichent des taux d’erreur jusqu’à 34% plus élevés pour les femmes à la peau foncée. En Belgique, la Ligue des droits humains a documenté comment la police prédictive cible de manière disproportionnée les jeunes issus de l’immigration, perpétuant ainsi un cercle vicieux de suspicion et de contrôle.

Qu’est-ce qu’un comportement « suspect » aux yeux d’un algorithme ? Rester immobile trop longtemps dans une gare ? Se rassembler dans un espace public ? Le risque est énorme de criminaliser des comportements parfaitement légitimes, simplement parce qu’ils sortent de la « norme » statistique définie par la machine.

L’effet glacial sur nos libertés

Au-delà de la discrimination, ces technologies instaurent ce que les chercheurs appellent un « effet dissuasif » ou « chilling effect » : la simple conscience d’être surveillé modifie notre comportement. Nous nous autocensurons, nous évitons certains lieux, nous limitons nos expressions publiques.

Comment participer librement à une manifestation quand on sait que chaque visage, chaque plaque d’immatriculation est enregistré ? Comment exercer son droit de réunion quand un algorithme peut qualifier votre rassemblement d’« attroupement suspect » ?

L’anonymat dans l’espace public, cette condition préalable à l’exercice de nombreuses libertés, disparaît progressivement. Nous entrons dans une ère où chaque mouvement laisse une trace numérique, où chaque déplacement est potentiellement suspect.

Le glissement des finalités : quand la surveillance s’étend

L’histoire de la surveillance technologique suit un schéma répétitif : un système est introduit pour un objectif spécifique et limité, puis son usage s’étend progressivement à d’autres domaines. C’est le « function creep », le glissement des finalités.

Les caméras ANPR, initialement prévues pour des tâches administratives, servent désormais à lutter contre le terrorisme, les cambriolages, le non-respect du stationnement, et même la vérification à distance des documents de bord. Qui peut garantir qu’elles ne serviront pas demain à traquer les opposants politiques ou à contrôler la participation à des manifestations ?

Les données collectées sont conservées pendant des mois, voire des années, créant un historique détaillé des mouvements de millions de citoyens. Sans limite claire, sans contrôle démocratique réel.

Un consensus critique largement ignoré

Face à ces dangers, un front remarquablement large s’est constitué. La Ligue des droits humains, Amnesty International Belgique, la Liga voor Mensenrechten, l’Autorité de Protection des Données, le Comité P : tous tirent la sonnette d’alarme.

Au niveau européen, le Conseil européen de la protection des données (EDPB) a également émis des avis critiques sur la reconnaissance faciale et les systèmes d’identification biométrique, soulignant les risques majeurs pour les droits fondamentaux et appelant à un encadrement strict, voire à des interdictions.

En 2023, plus de 210 organisations de la société civile à travers l’Europe ont appelé à l’interdiction de la reconnaissance faciale. En Belgique, les principales organisations de défense des droits humains demandent un moratoire immédiat sur le déploiement de ces technologies.

L’APD a émis des avis critiques à répétition, pointant l’insuffisance du cadre légal et les risques pour les libertés fondamentales. Le Comité P a documenté les dysfonctionnements systémiques du système ANPR. Mais ces alertes restent largement ignorées par les décideurs politiques, portés par l’illusion technologique et la promesse sécuritaire.

Vers un État de surveillance permanent ?

Nous sommes à un tournant. Les choix que nous faisons aujourd’hui détermineront le type de société dans laquelle nous vivrons demain. Acceptons-nous de vivre dans un panoptique numérique où chaque geste est enregistré, analysé, potentiellement sanctionné ?

La Belgique n’a pas encore autorisé la reconnaissance faciale en temps réel dans l’espace public. C’est une ligne rouge qui n’a pas encore été franchie. Mais la pression est forte, et le cadre technologique se met progressivement en place.

Le règlement européen sur l’IA (AI Act) adopté en 2024 classe la reconnaissance faciale biométrique en temps réel parmi les pratiques à haut risque, mais maintient de larges exceptions pour la sécurité nationale et la lutte contre la criminalité grave. Autant de brèches qui pourraient être exploitées.

Que faire ?

Il est urgent d’agir, avant que cette infrastructure de surveillance ne devienne irréversible. Voici quelques pistes essentielles :

1. Un moratoire immédiat sur le déploiement de nouvelles technologies de surveillance algorithmique, le temps d’établir un cadre juridique robuste et démocratique.

2. Une transparence totale : publication obligatoire des algorithmes utilisés, des études d’impact, des données de performance, et mise en place d’audits indépendants.

3. L’interdiction pure et simple de la reconnaissance faciale biométrique en temps réel dans l’espace public, sans exceptions.

4. La limitation stricte des finalités : chaque système ne doit servir qu’à l’objectif pour lequel il a été autorisé, avec des mécanismes juridiques pour empêcher le glissement des usages.

5. Un contrôle démocratique réel : les citoyens doivent avoir leur mot à dire sur le type de société dans laquelle ils veulent vivre. Les décisions sur la surveillance ne peuvent être prises de manière technocratique.

6. Le respect des droits fondamentaux comme principe supérieur : toute technologie de surveillance doit être évaluée à l’aune de son impact sur les droits humains, et non uniquement sur sa supposée efficacité sécuritaire.

En conclusion : la démocratie à l’épreuve de l’algorithme

La surveillance algorithmique ne menace pas un droit humain en particulier. Elle menace l’équilibre même de notre société démocratique. Elle transforme l’espace public d’un lieu de liberté en un lieu de contrôle. Elle remplace la présomption d’innocence par une présomption de suspicion. Elle substitue au jugement humain le calcul de la machine.

Les technologies ne sont jamais neutres. Elles incarnent des choix politiques, des visions de la société. La question n’est pas de savoir si nous voulons être « pour » ou « contre » la technologie, mais quel type de technologie nous voulons, au service de quelles valeurs, dans quel cadre démocratique.

Le débat doit avoir lieu maintenant, tant qu’il est encore temps. Avant que la surveillance devienne si omniprésente qu’elle nous semble normale. Avant que nous ayons oublié ce que signifie vivre libre dans l’espace public.

Car comme l’a écrit le philosophe Michel Foucault dans son analyse du panoptique : « Celui qui est soumis à un champ de visibilité, et qui le sait, reprend à son compte les contraintes du pouvoir ; il les fait jouer spontanément sur lui-même ; il inscrit en soi le rapport de pouvoir dans lequel il joue simultanément les deux rôles ; il devient le principe de sa propre sujétion. »

Ne laissons pas l’algorithme devenir le gardien invisible de notre liberté.


Cet article est basé sur une analyse approfondie des systèmes de surveillance déployés en Belgique, des cadres juridiques existants, et des risques documentés pour les droits humains. Les sources incluent les rapports de l’Autorité de Protection des Données, du Comité P, de la Ligue des droits humains, d’Amnesty International, ainsi que des études académiques et des documents parlementaires.