Comme nous l’expliquions ici, la CAF utilise depuis 2012 un algorithme de profilage attribuant à chaque allocataire une note ou « score de risque ». Construite à partir des centaines de données dont la CAF dispose sur chaque allocataire, cette note est ensuite utilisée pour sélectionner celles et ceux qui seront contrôlé·es.
Cet algorithme symbolise l’étendue des dérives de l’utilisation des outils numériques au service de politiques de contrôle social portées par des logiques policières de suspicion généralisée, de tri et d’évaluation continue de chacun de nos faits et gestes.
Ici, comme c’est généralement le cas par ailleurs, ce tri cible les plus précaires. Les rares informations disponibles à ce sujet laissent apparaître que parmi les critères dégradant la note d’un·e allocataire, et augmentant ses chances d’être contrôlé·e, on trouve pêle-mêle : le fait de disposer de faibles revenus, d’habiter dans un quartier défavorisé, d’être une mère célibataire ou encore d’être né·e hors de France.
Pour en avoir le coeur net, nous avons donc demandé à la CAF de nous communiquer le code source de son algorithme [1] Et sa réponse est affligeante [2].
>Darmanin, elle est où l’enquête sur Briefcam ?
Le 14 novembre dernier sortait une enquête du site Disclose qui démontrait que depuis 2015 les keufs utilisent en secret un logiciel d’analyse d’images israélien de la société Briefcam qui permet notamment l’emploi de la reconnaissance faciale. Gérald le violeur, notre sinistre de l’intérieur,...
Compléments d'info à l'article
Proposer un complément d'info