Comme nous l’expliquions ici, la CAF utilise depuis 2012 un algorithme de profilage attribuant à chaque allocataire une note ou « score de risque ». Construite à partir des centaines de données dont la CAF dispose sur chaque allocataire, cette note est ensuite utilisée pour sélectionner celles et ceux qui seront contrôlé·es.
Cet algorithme symbolise l’étendue des dérives de l’utilisation des outils numériques au service de politiques de contrôle social portées par des logiques policières de suspicion généralisée, de tri et d’évaluation continue de chacun de nos faits et gestes.
Ici, comme c’est généralement le cas par ailleurs, ce tri cible les plus précaires. Les rares informations disponibles à ce sujet laissent apparaître que parmi les critères dégradant la note d’un·e allocataire, et augmentant ses chances d’être contrôlé·e, on trouve pêle-mêle : le fait de disposer de faibles revenus, d’habiter dans un quartier défavorisé, d’être une mère célibataire ou encore d’être né·e hors de France.
Pour en avoir le coeur net, nous avons donc demandé à la CAF de nous communiquer le code source de son algorithme [1] Et sa réponse est affligeante [2].
>Numérisation des services publics : rencontres à Villeurbanne Pour défendre l’accès aux droits et combattre les inégalités
La numérisation des services publics, en particulier des organismes sociaux, et ses conséquences sur les populations vulnérables, seront au cœur de la journée de rencontres et débats coorganisée le samedi 18 janvier 2025 par La Quadrature du Net, le collectif Changer de Cap et Halte au Contrôle...
Compléments d'info à l'article
Proposer un complément d'info