Un recours a été déposé au Conseil d’État par quinze associations, dont Amnesty International et la Fondation Abbé Pierre, pour contester l’utilisation d’un algorithme par la Caisse nationale des allocations familiales (Cnaf). Ce dernier est accusé de discriminer les allocataires précaires en attribuant un « score de suspicion » basé sur des critères socio-économiques.
Des soupçons qui pèsent sur les plus précaires
L’algorithme utilisé par la Cnaf, visant à détecter des fraudes ou des erreurs dans les prestations sociales, est au centre d’une polémique grandissante. Quinze associations, parmi lesquelles Amnesty International, la Quadrature du Net et la Fondation Abbé Pierre, ont saisi le Conseil d’État pour obtenir l’arrêt de cet outil numérique. Selon elles, l’algorithme en question génère un « score de suspicion » pour chaque allocataire, lequel déterminerait la probabilité d’être contrôlé.
Le dispositif, en fonction depuis 2011, affecte les allocataires en analysant leurs données personnelles. Ce système statistique cible les 13,5 millions de bénéficiaires des prestations de la Cnaf, notamment ceux percevant le Revenu de solidarité active (RSA), l’Allocation adulte handicapé (AAH) ou la prime d’activité. Selon les associations requérantes, cet algorithme se baserait sur des critères discriminants, notamment le fait d’avoir de faibles revenus ou d’être au chômage, pour augmenter la probabilité d’un contrôle.
« En retour, les personnes en difficulté se retrouvent surcontrôlées par rapport au reste de la population », déplorent les associations dans leur communiqué, pointant du doigt un algorithme qui renforcerait la stigmatisation des plus fragiles. Après avoir accédé au code source de l’algorithme utilisé entre 2014 et 2018, elles dénoncent une surveillance renforcée des populations déjà vulnérables.
Un recours qui met en cause la transparence de la Cnaf
En juillet, les associations ont demandé à la Cnaf de cesser l’utilisation de cet algorithme, sans obtenir de réponse après deux mois. Ce silence a été interprété comme un refus implicite par Katia Roux, chargée de plaidoyer Technologie et Droits humains chez Amnesty International, conduisant à la saisie du Conseil d’État.
Face aux critiques, le directeur général de la Cnaf, Nicolas Grivel, a défendu l’algorithme, affirmant qu’il visait à identifier les erreurs les plus graves et répétées, tout en insistant sur le fait que ce sont les bénéficiaires les plus précaires qui reçoivent « le plus d’aide ». Il a toutefois reconnu que certaines situations de vie professionnelle complexe amplifiaient le risque d’erreurs dans les déclarations, souvent dues à la complexité des formulaires à remplir.
Nicolas Grivel a souligné que l’algorithme répondait à des besoins de gestion des risques, tout en assurant que la Cnaf se conformerait à toute décision judiciaire éventuelle. « Si une juridiction devait faire évoluer le dispositif, nous nous adapterions en conséquence », a-t-il précisé.


