Comme nous l’expliquions ici, la CAF utilise depuis 2012 un algorithme de profilage attribuant à chaque allocataire une note ou « score de risque ». Construite à partir des centaines de données dont la CAF dispose sur chaque allocataire, cette note est ensuite utilisée pour sélectionner celles et ceux qui seront contrôlé·es.
Cet algorithme symbolise l’étendue des dérives de l’utilisation des outils numériques au service de politiques de contrôle social portées par des logiques policières de suspicion généralisée, de tri et d’évaluation continue de chacun de nos faits et gestes.
Ici, comme c’est généralement le cas par ailleurs, ce tri cible les plus précaires. Les rares informations disponibles à ce sujet laissent apparaître que parmi les critères dégradant la note d’un·e allocataire, et augmentant ses chances d’être contrôlé·e, on trouve pêle-mêle : le fait de disposer de faibles revenus, d’habiter dans un quartier défavorisé, d’être une mère célibataire ou encore d’être né·e hors de France.
Pour en avoir le coeur net, nous avons donc demandé à la CAF de nous communiquer le code source de son algorithme [1] Et sa réponse est affligeante [2].
>Radical·e ? Toi-même ! / une émission de Minuit Décousu
Agitateurices et terroristes, « radicalisation », départs et retours de Syrie, déchéance de nationalité, grandes et petites utopies… Cette semaine, alors que les médias font le bilan de la séquence de 2015, on bricole 1h de fanzine sonore sur la « radicalité ».
Compléments d'info à l'article
Proposer un complément d'info