1,1 milliard de regards : la machine belge qui surveille les pauvres

Pendant que RTL filme les allocataires pour le prime time, l'État les surveille par algorithme. Bienvenue dans le « digital welfare state » belge — un système que le Rapporteur spécial de l'ONU qualifie de « dystopie numérique de l'aide sociale ».


Il y a deux manières de surveiller les pauvres.

La première est spectaculaire. C'est une équipe de télévision qui débarque rue de Dison à Verviers, filme une mère célibataire, monte 60 minutes de rushes en 45 minutes de « documentaire » et le diffuse devant 410 860 téléspectateurs un vendredi soir. On en parle, on s'indigne, on oublie.

La seconde est silencieuse. Ce sont des serveurs qui tournent 24 heures sur 24, qui croisent vos données fiscales avec vos données de santé avec vos données d'emploi avec vos données de domicile avec vos données de consommation d'énergie, et qui génèrent un score de risque. Personne n'en parle. Personne ne s'indigne. Personne n'oublie — parce que personne ne sait.

La première surveillance a fait l'objet de centaines de plaintes au CSA. La seconde ne fait l'objet d'aucun débat public.

C'est de la seconde qu'il faut avoir peur.

Dax%20Slog%20Mercer


La Banque Carrefour : le panoptique social belge

Au cœur de l'infrastructure se trouve un organisme dont le nom semble inoffensif : la Banque Carrefour de la Sécurité Sociale (BCSS, ou KSZ en néerlandais). Créée en 1990, elle est le nœud central qui connecte l'ensemble des institutions de sécurité sociale belges entre elles.

Les chiffres donnent le vertige.

1,1 milliard d'échanges de données électroniques par an. Pas des millions — des milliards. La BCSS traite plus de transactions informationnelles que la plupart des bourses européennes. Pour chaque citoyen belge, le système sait quelles institutions le « connaissent », en quelle qualité (employé, chômeur, invalide, bénéficiaire du RIS, indépendant), pour quelle période, et quelles données sont disponibles à son sujet.

Ce n'est pas un fichier. C'est un réseau nerveux.

La BCSS ne stocke pas elle-même les données — elle les fait circuler. C'est une distinction technique cruciale qui permet de contourner les objections en matière de vie privée : personne ne « détient » un fichier central sur vous. Mais tout le monde peut accéder à tout, sur demande, via un numéro unique : votre numéro de registre national. Le résultat est fonctionnellement identique à un fichier centralisé, avec en prime le confort de la dénégation.

Le principe était noble à l'origine : simplifier les démarches administratives, appliquer automatiquement les droits sociaux, éviter que le citoyen ne doive fournir dix fois le même document. Qui pourrait s'y opposer ?

Le problème commence quand cette même infrastructure n'est plus utilisée pour donner des droits, mais pour les retirer.


VDAB : quand Accenture prédit qui sera un « mauvais chômeur »

superMax

En Flandre, le VDAB (Vlaamse Dienst voor Arbeidsbemiddeling en Beroepsopleiding) — l'équivalent d'Actiris pour Bruxelles ou du Forem pour la Wallonie — utilise des modèles prédictifs développés par Accenture et Deloitte.

Le principe : des algorithmes de machine learning, nourris de données historiques sur des dizaines de milliers de demandeurs d'emploi, prédisent deux choses. Premièrement, quels demandeurs d'emploi « seront encore au chômage après six mois ». Deuxièmement — et c'est là que ça glisse — lesquels « chercheront moins activement du travail ».

Relisez cette deuxième prédiction. Un algorithme, entraîné sur des données passées, prédit un comportement futur. Avant même que vous n'ayez posé le moindre acte, une machine a décrété que vous seriez un « mauvais chercheur d'emploi ». Et cette prédiction influence la manière dont l'institution vous traite : accompagnement renforcé, convocations plus fréquentes, pression accrue — ou, dans la logique Arizona, sanctions précoces.

Les critères utilisés par ces algorithmes ? Inconnus. Accenture et Deloitte les ont développés dans le cadre de contrats commerciaux. Le code source n'est pas public. Les variables prises en compte ne sont pas publiées. Le demandeur d'emploi profilé ne sait pas qu'il l'est, ne sait pas sur quels critères, et n'a aucun recours contre un résultat qu'il ne connaît pas.

On appelle ça, dans la littérature académique, un système de « boîte noire ». Dans le langage courant, on appelle ça l'arbitraire.


MyDIA : l'inspecteur social dans votre poche

bst

L'application MyDIA (My Digital Inspection Application) représente un autre palier. Déployée auprès des inspecteurs sociaux belges, elle leur donne un accès en temps réel aux bases de données de la sécurité sociale via leur smartphone.

Un inspecteur en visite de contrôle — chez vous, dans votre salon, devant vos enfants — peut instantanément consulter votre historique d'allocations, vos déclarations fiscales, votre statut de cohabitation, votre consommation d'énergie (via les données du BIM), votre historique de soins de santé (via les mutualités), et bien davantage. Sur un écran de téléphone. En quelques secondes.

Au premier semestre 2023 seulement, 36 500 éléments ont été contrôlés via cette application. Combien de ces contrôles ont ciblé des quartiers aisés ? Combien ont visé des indépendants soupçonnés de fraude fiscale ? La question est rhétorique. L'infrastructure de surveillance numérique ne vise qu'un seul segment de la population : celui qui dépend des allocations.

C'est une asymétrie fondamentale. Le fraudeur fiscal opère dans un monde de montages financiers opaques, de ruling avantageux, de sociétés-écrans luxembourgeoises que l'administration met des années à démêler. L'allocataire social, lui, est transparent comme du verre. Chaque euro qu'il reçoit est tracé, croisé, vérifié — en temps réel.


Le précédent qui devrait terrifier la Belgique

Si la Belgique veut comprendre où mène cette trajectoire, elle n'a pas besoin de relire Orwell. Il lui suffit de regarder de l'autre côté de la frontière.

Le Toeslagenaffaire — le scandale des allocations familiales néerlandais — a fait tomber le gouvernement Rutte III en janvier 2021. C'est le plus grand scandale administratif de l'histoire des Pays-Bas.

Les faits. Le fisc néerlandais (Belastingdienst) utilisait un algorithme pour détecter les fraudes aux allocations de garde d'enfants. Le système croisait des données de revenus, de situation familiale et — c'est le point critique — de nationalité. Les familles portant une double nationalité ou un nom à consonance non-néerlandaise étaient automatiquement signalées comme « à risque élevé ».

Les conséquences. Des dizaines de milliers de familles ont été faussement accusées de fraude. Elles ont été contraintes de rembourser des allocations légitimement perçues — parfois des montants à six chiffres. Des familles ont été poussées dans la pauvreté du jour au lendemain. Des couples ont divorcé sous la pression. Des parents ont perdu la garde de leurs enfants, placés par les services sociaux parce que la famille, ruinée par les remboursements exigés, ne pouvait plus subvenir à leurs besoins. Des suicides ont été documentés.

sommation1

Amnesty International a publié un rapport intitulé Xenophobic Machines, démontrant que le profilage ethnique était intégré dans la conception même du système algorithmique. Ce n'était pas un bug. C'était une feature.

Et le système néerlandais SyRI (Systeem Risico Indicatie), frère aîné du Toeslagenaffaire ? Il croisait les données personnelles de multiples bases gouvernementales pour identifier des « profils citoyens improbables » — exclusivement dans les quartiers à faibles revenus et forte population immigrée. Le Rapporteur spécial de l'ONU Philip Alston l'a décrit comme « l'équivalent numérique d'inspecteurs anti-fraude frappant à chaque porte d'un certain quartier ».

En février 2020, le tribunal de La Haye a ordonné l'arrêt immédiat de SyRI pour violation de l'article 8 de la Convention européenne des droits de l'homme, reconnaissant le « risque que SyRI crée par inadvertance des liens basés sur des biais, tels qu'un statut socio-économique inférieur ou une origine immigrée ».

Philip Alston a salué cette décision comme un précédent : elle établit qu'un tribunal peut stopper l'utilisation de technologies numériques de surveillance des pauvres sur des bases de droits humains.


La Belgique a la même infrastructure. Elle n'a pas encore eu son scandale.

squad

Récapitulons.

La Belgique dispose d'une Banque Carrefour qui traite 1,1 milliard d'échanges de données par an. Elle dispose de modèles prédictifs opaques développés par des consultants privés (Accenture, Deloitte) pour profiler les demandeurs d'emploi. Elle dispose d'une application mobile qui donne aux inspecteurs sociaux un accès en temps réel à l'ensemble des données de sécurité sociale d'un citoyen. Elle dispose d'un gouvernement (Arizona) qui vient de quadrupler les sanctions contre les malades de longue durée, de limiter le chômage à 24 mois, et d'annoncer le réexamen de 218 000 dossiers d'invalidité.

Ce gouvernement a branché la machine de surveillance sur la machine de sanction.

Et la stratégie nationale sur l'intelligence artificielle — AI4Belgium — ne contient, selon les analystes, « rien sur les conséquences juridiques, éthiques et sociales » de ces systèmes. Rien. Pas un paragraphe sur les biais. Pas une ligne sur la discrimination algorithmique. Pas un mot sur le droit au recours quand un algorithme décide de votre sort.

Les Pays-Bas avaient la même confiance dans leurs systèmes. Jusqu'au Toeslagenaffaire.

La question n'est pas de savoir si la Belgique connaîtra son propre scandale algorithmique. La question est quand. Et combien de vies auront été broyées avant qu'on s'en aperçoive.


Muchtefion

Ce que dit l'ONU — et ce que la Belgique n'écoute pas

En 2019 — avant le Toeslagenaffaire, avant le Covid, avant l'Arizona — le Rapporteur spécial de l'ONU sur l'extrême pauvreté, Philip Alston, a publié un rapport sur le « digital welfare state ». Ses constats sont d'une brutalité sans ambiguïté.

L'humanité, écrit-il, doit modifier sa trajectoire pour éviter de s'engager « comme des zombies dans une dystopie numérique de l'aide sociale ».

Les systèmes numériques, poursuit-il, « automatisent, prédisent, identifient, surveillent, détectent, ciblent et punissent » les populations les plus vulnérables. Ces systèmes sont « sans fin intrusifs et exigeants, rigides et sans cœur ». Les entreprises technologiques qui les construisent « opèrent dans une zone pratiquement dépourvue de droits humains ». Et ces systèmes fonctionnent comme « chevaux de Troie de l'hostilité néolibérale envers l'aide sociale et la régulation ».

Sept mots dans cette dernière phrase méritent qu'on s'arrête : chevaux de Troie de l'hostilité néolibérale. La numérisation de l'aide sociale n'est pas neutre. Elle n'est pas simplement « plus efficace ». Elle est le véhicule d'une idéologie qui considère l'allocataire comme un suspect par défaut, le malade comme un coût à réduire, et le chômeur comme un paresseux à activer. L'algorithme n'est pas un outil : c'est une politique.

Olivier De Schutter — belge, Rapporteur spécial de l'ONU sur l'extrême pauvreté depuis 2020 — a prolongé ce travail en publiant en 2022 un rapport appelant à traiter le « pauvretisme » au même titre que le racisme et le sexisme. En Belgique, son propre pays, cette idée n'a même pas atteint le stade du débat parlementaire.


L'asymétrie fondamentale : on surveille les pauvres, pas les riches

Clodo%20L'IO

Il y a un test simple pour mesurer l'équité d'un système de surveillance : appliquez-le symétriquement.

Si la Banque Carrefour existe pour les allocataires, existe-t-il un système équivalent pour les patrimoines privés ? Non. La Belgique n'a pas de cadastre des fortunes. Elle n'a pas de registre central des comptes-titres (celui créé en 2011 reste embryonnaire et contesté). Elle n'a pas d'algorithme prédictif pour identifier les contribuables susceptibles d'évasion fiscale. L'administration fiscale met des années à traiter les dossiers complexes de ruling, de sociétés offshore, de montages internationaux. Et quand elle y parvient, les sanctions sont dérisoires en proportion des montants.

Le contraste est vertigineux. Un allocataire social qui omet de déclarer un changement de cohabitation est détecté en quelques jours par croisement automatique de données et sanctionné immédiatement (suspension ou réduction des indemnités). Un millionnaire qui dissimule des revenus dans une structure luxembourgeoise peut opérer pendant des décennies sans être inquiété.

L'infrastructure existe pour les uns. Pas pour les autres. Ce n'est pas un hasard. C'est un choix politique.

Les chiffres parlent d'eux-mêmes. La fraude aux allocations sociales est estimée entre 1 et 2% des dépenses. L'évasion et l'optimisation fiscale agressive représentent des dizaines de milliards supplémentaires. Mais l'investissement en surveillance, en technologie de détection, en effectifs de contrôle est massivement orienté vers le premier type de fraude. On dépense des millions pour surveiller des gens qui fraudent de quelques centaines d'euros, et on sous-finance systématiquement les services qui devraient contrôler ceux qui évitent des millions.


Le budget Arizona accélère la machine

Le gouvernement Arizona n'a pas créé cette infrastructure de surveillance. Elle existait avant lui. Mais il l'a branchée sur un programme de sanctions sans précédent.

Depuis janvier 2026, les sanctions pour non-coopération au « Retour au Travail » des malades de longue durée sont passées de 2,5% à 10% de réduction des indemnités. L'absence à une convocation du médecin-conseil entraîne la suspension complète. 218 000 dossiers d'invalidité seront réexaminés d'ici 2029. Le chômage est limité à 24 mois — 30 122 exclusions dès la première vague.

Chacune de ces décisions est implémentée par la machine. La BCSS identifie les profils. Les algorithmes du VDAB (ou demain du Forem, d'Actiris) classent les dossiers par « risque ». Les inspecteurs munis de MyDIA vérifient sur le terrain. Le tout sans transparence, sans droit de regard du citoyen sur les critères, sans recours effectif contre un profilage dont il ignore l'existence.

L'Arizona n'a pas inventé le panoptique social belge. Il a mis le panoptique au service de l'austérité. Et il a quadruplé la punition.


Ce qui existe ailleurs — et ce qui pourrait exister ici

nooooon

Le tribunal de La Haye a arrêté SyRI. C'est possible.

Philip Alston a qualifié cette décision de précédent que « d'autres tribunaux peuvent suivre ». En Belgique, l'article 22 de la Constitution protège le droit à la vie privée. Le RGPD impose la transparence des traitements automatisés et le droit à une explication des décisions algorithmiques (article 22 du RGPD). La loi du 30 juillet 2018 relative à la protection des personnes physiques à l'égard des traitements de données transpose ces principes.

Mais le RGPD est un tigre de papier quand l'Autorité de Protection des Données est sous-financée (délais de traitement supérieurs à 400 jours), quand les algorithmes sont protégés par le secret commercial des consultants qui les développent, et quand les citoyens ciblés n'ont ni les moyens ni l'information nécessaires pour agir.

Ailleurs, des modèles émergent. En Écosse, les Poverty Truth Commissions — « Rien sur nous, sans nous, n'est pour nous » — réunissent à égalité des personnes en situation de pauvreté et des décideurs. À Salford (Angleterre), le processus de recouvrement de dettes municipales a été redessiné grâce à ce modèle. Le langage a été simplifié. Les permanences ont été créées. L'engagement a été pris de ne plus utiliser d'huissiers contre les personnes vulnérables.

En Belgique, ce serait à la fois simple et révolutionnaire : ouvrir le code des algorithmes de profilage du VDAB. Publier les critères. Permettre aux citoyens profilés de connaître leur « score » et de le contester. Nommer un auditeur indépendant des systèmes algorithmiques de la sécurité sociale. Et surtout, appliquer la même intensité de surveillance aux patrimoines qu'aux allocations.

Simple. Révolutionnaire. Et parfaitement improbable sous l'Arizona.


Le vrai documentaire qu'il faudrait tourner

Christophe Deborsu a filmé Laetitia, mère célibataire de Verviers, pour la désigner comme symbole de la fraude. 410 860 personnes ont regardé.

Le documentaire qu'il faudrait tourner, c'est celui des serveurs de la BCSS qui traitent 1,1 milliard de transactions par an. Celui des data scientists d'Accenture qui paramètrent les algorithmes du VDAB dans des bureaux vitrés de la périphérie bruxelloise. Celui de l'inspecteur social qui consulte votre vie entière sur son smartphone en attendant que vous ouvriez la porte. Celui de la famille néerlandaise détruite par le Toeslagenaffaire et qui vous dirait, les yeux dans les yeux : « Ça va vous arriver aussi. On avait les mêmes systèmes. On avait la même confiance. »

Mais ce documentaire-là ne fera jamais 39,1% de part de marché. Parce que l'algorithme n'a pas de visage. Parce que le serveur n'a pas de rue. Parce que la surveillance silencieuse ne fait pas de bonne télé.

Et c'est précisément pour ça qu'elle est plus dangereuse que toutes les caméras de Deborsu réunies.

nomNom


Sources : Rapport Philip Alston (Rapporteur spécial ONU, 2019), Amnesty International « Xenophobic Machines » (2021), Arrêt SyRI – Tribunal de La Haye (5 février 2020), BCSS données officielles, recherches projet ouaisfieu (dossiers CCTV, surveillance, fabrique de l'ennemi intérieur, budget Arizona). Février 2026.

⬆️