Lecture en cours
Quand les algorithmes de la CAF ouvrent la chasse aux pauvres

Quand les algorithmes de la CAF ouvrent la chasse aux pauvresTemps de lecture : 9 minutes

Le datamining et le ciblage des allocataires selon des « scores de risque » débouchent sur des contrôles automatisés ou physiques, sans explications quant aux calculs informatiques. Face à la toute puissance de la machine, les situations de détresse se multiplient. Pour le collectif Changer de Cap, qui a enquêté pendant des mois sur le sujet, le numérique tel qu’il est utilisé ouvre de vastes zones de non-droit et va jusqu’à plonger un organisme de protection sociale, la CAF, dans l’illégalité.

« Pour quel motif mon RSA [Revenu de solidarité active] a été coupé pendant 27 mois ? Parce que je n’avais pas rempli une déclaration de patrimoine (pour une allocataire du RSA !) que je n’ai jamais reçu ». Isabelle, la cinquantaine, s’est retrouvée hébergée ici et là pendant plus de deux ans. Faute d’information, un logiciel de calcul de la CAF (Caisse d’allocation familiale) avait bloqué ses versements.

Un algorithme repère en croisant des données que Valentin a toujours un compte joint avec son ex-épouse (en réalité pour les dépenses relatives à leur enfant) et en déduit qu’il ne vit pas seul contrairement à ce qu’il déclare et à ce qui est réel. La CAF lui notifie un indu de plus de 16 000€.

Le versement de l’AAH (Allocation adulte handicapée) et des APL (Aide personnalisée au logement) de Mme X s’interrompt brutalement, sans aucune notification préalable. Elle a simplement repris son nom de jeune fille et sa déclaration à la CAF n’a pas été prise en compte. Malgré son bon droit et ses demandes, il faut plusieurs mois pour régulariser sa situation, avec impossibilité pour les agents de lui verser des aides partielles, la contraignant à la mendicité.

Ces situations témoignent-elles de « cas exceptionnels » parmi les 13 millions de ménages français percevant au moins une prestation de la part des 99 Caisses d’allocations familiales ? Elles ont déjà un point commun, un algorithme à la source de leur problème. Le collectif Changer de Cap, et d’autres associations, ont cherché à savoir si la « transformation numérique des administrations avec l’objectif de 100% de services publics dématérialisés » vantée dans le Plan Action Publique 2022 pouvait avoir des conséquences directes sur le quotidien des allocataires. Après des mois de recueil de témoignages, d’entretiens, de réunions et d’enquête, ils sont parvenus à la conclusion que le numérique (tel qu’il est utilisé) ouvre de vastes zones de non-droit et va jusqu’à plonger un organisme de protection sociale dans l’illégalité.

Et voici comment.

Le ciblage des personnes en situation de précarité

Première observation générale, le « monde merveilleux de la dématérialisation », qui s’accompagne d’une baisse considérable des moyens en termes d’accueil physique et téléphonique, génère des inégalités d’accès aux droits. Les raisons en sont d’une part les fractures numériques (territoriales, économiques pour la détention d’équipements, ergonomiques pour les personnes souffrant d’un handicap), d’autre part l’illectronisme (17% des Français) et la méconnaissance de l’outil numérique. En 2021 selon l’INSEE, 31% des Français ont renoncé à effectuer une démarche administrative.

Deuxième observation, le traitement informatique des dossiers nécessite évidemment des algorithmes de calculs des droits, mais il entraine aussi le développement de techniques de ciblage via le datamining, c’est-à-dire la récolte et le croisement de données de différents fichiers administratifs. Officiellement, ces techniques visent à rendre la branche famille de la sécurité sociale plus efficiente, à appliquer le « juste droit », à repérer les personnes en situation de non recours et à punir justement les fraudeurs.

Dans les faits, le ciblage des allocataires s’apparente à un véritable contrôle social. Plus de 1000 données sont collectées sur chacun d’entre eux, et la CNAF (Caisse nationale d’allocation familiale) l’écrivait elle-même dès 2017 dans son rapport « La politique de contrôle et de prévention des CAF » : « Ce traitement informatique permet de calculer la probabilité qu’une erreur se produise, en donnant un score de risque prédictif. Généralisé à tout le réseau des CAF, ce dispositif permet de repérer ainsi plus précisément les dossiers à risques ». Sur quels critères et selon quelles variables (décidés humainement) sont effectuées ces prédictions ? Mystère. Mais on peut aisément en imaginer quelques-uns… Maman solo, revenus irréguliers, lieu de naissance, par exemple.

Les dossiers aux scores de risques élevés sont plus étroitement surveillés, y compris par les logiciels informatiques. Sur les quelque 37 millions de contrôles réalisés en 2020, touchant la moitié des allocataires, 32,25 millions étaient automatisés. Et 75% des contrôles effectués par des agents en chair et en os ont été déclenchés par le dispositif de ciblage. Pour schématiser, un logiciel repère des incohérences dans un dossier, tire la sonnette d’alarme, effectue les calculs débouchant sur un indu…

Des lettres types, des allocataires perdus

Côté allocataires, ceux qui ont la chance d’être informés qu’ils ont été soumis à un contrôle automatisé reçoivent généralement une lettre type « signée » du directeur de leur CAF. Typiquement : « Nous avons étudié vos droits. Il apparaît après calcul que pour [nom de la prestation sociale] vous avez reçu XX€ alors que vous aviez droit à X€. Vous nous devez Y€. Pour vous permettre de rembourser cette somme, nous retiendrons Z€ sur vos allocations à partir du [mois] ». Et débrouillez-vous avec ça !

Les allocataires, qui ne savent toujours pas qu’ils sont contrôlés, peuvent aussi se voir subitement couper le versement de leurs prestations comme ils peuvent constater que leurs aides ont diminué du fait d’un remboursement de « dette » indiqué sur leur espace personnel (numérique). Lequel remboursement se fait sur une prestation ou/et une autre de manière indifférenciée et non uniquement sur celle qui est concernée. On a ainsi vu (au moins) une CAF se rembourser d’un trop-perçu d’APL en amputant une allocation d’éducation d’enfant handicapé.

Qu’est-ce qui justifie le calcul de l’indu et la somme établie ? L’allocataire a-t-il commis une erreur, omis de déclarer une ressource ? Il semble que la machine ne soit pas toujours en mesure de donner des explications. Le logiciel lui-même, dans sa toute-puissance, n’est pas infaillible, l’erreur peut donc venir de la CAF.

Des traitements informatiques défaillants, des notes internes cachées

Un exemple récemment médiatisé est celui de la situation « CAFkienne » des parents qui ont choisi la garde alternée. Un arrêt du Conseil d’État daté de juillet 2017 stipule que chacun des parents peut obtenir l’Aide personnalisée au logement. Problème – reconnu par la CAF -, le logiciel montre une défaillance, il est incapable de calculer les droits partagés. Le calcul doit par conséquent être effectué manuellement par des agents.

Les CAF mettent-elles les moyens pour pallier ce manque ? Pensez donc ! Une note interne adressée aux directeurs et consultée par des journalistes révèle que « dans l’attente d’une adaptation du traitement informatique, il est important de circonscrire le périmètre du partage aux seules réclamations express des allocataires »[1]. En somme, vous ne demandez rien, vous n’obtenez rien. Et ce alors même que le Code de la sécurité sociale, dans son article L583-1, impose aux organismes débiteurs des prestations familiales « d’assurer l’information des allocataires sur la nature et l’étendue de leurs droits », comme d’ailleurs de les aider dans l’établissement des demandes.

Cet exemple illustre les dysfonctionnements directement liés aux systèmes informatiques des caisses d’allocations familiales, au point que le cabinet de conseil McKinsey fut appelé à la rescousse face aux bugs du logiciel de calcul des APL. Il témoigne également d’une autre réalité : l’opacité des « notes internes », « circulaires » et autres « instructions techniques ». Celles-ci ne sont que rarement accessibles publiquement, alors que certaines concernent directement les droits des citoyens et le calcul de leurs aides. L’une des propositions du collectif Changer de Cap est d’ailleurs d’obtenir la transparence sur ces documents internes[2].

« Code is law » : l’impossible vérification

Cette indispensable transparence est en réalité le cœur de la bataille. Comment des allocataires à qui la CAF attribue un trop-perçu « tombé du ciel » peuvent-ils se défendre quand ils n’ont aucune connaissance du calcul effectué ? Pire encore, quand ils sont accusés de manœuvres frauduleuses sans savoir pourquoi ?

L’opacité entretenue par l’administration va plus loin encore. Tout programme informatique développé dans le cadre du secteur public, et en particulier pour l’attribution de prestations sociales, doit être en tous points conformes aux lois et aux règlementations, y compris lorsque celles-ci évoluent. Rendre publics les codes sources constitueraient une réponse logique pour que des citoyens avertis puissent procéder aux vérifications.

Seulement voilà… On parle ici de programmes qui viennent s’ajouter en « couches » sur le système informatique initial, Crystal en l’occurrence, et surtout conçus par des sociétés privées. C’est ainsi que le groupe néerlandais Oracle a été chargé de concevoir le logiciel de calcul de la prime d’activité. Le principe de la nécessaire transparence des algorithmes publics, défendue par la mission Etalab, se heurte ici à celui de la propriété intellectuelle et du secret des affaires.

Des obligations qui passent à la trappe

Mais passons sur les codes sources auxquels les quidams que nous sommes n’auront certainement jamais accès, sauf à changer la loi ou à renforcer les moyens des services informatiques de l’État, pour assurer un développement des programmes en interne – un doux rêve. Les administrations et les organismes de protection sociale ont d’autres obligations en matière de transparence. Elles figurent dans le Code des relations entre le public et les administrations, entré en vigueur en 2016.

L’article L311-3 rappelle ainsi que « toute personne a le droit de connaître les informations [les données personnelles] contenues dans un document administratif dont les conclusions lui sont opposées », que « toute décision individuelle prise sur le fondement d’un traitement algorithmique comporte une mention explicite en informant l’intéressé ». Peu de documents collectés par Changer de Cap contiennent en réalité cette mention qui doit, en outre, indiquer « la finalité poursuivie par ce traitement algorithmique ».

Le Code va plus loin en précisant que chaque personne, allocataire en l’occurrence, « faisant l’objet d’une décision individuelle prise sur le fondement d’un traitement algorithmique » (en clair, tous les calculs de droits, de rappels, de trop-perçus…) a un droit d’accès « au degré et au mode de contribution du traitement algorithmique dans la prise de décision, aux données traitées et à leurs sources, aux paramètres de traitement et le cas échéant leur pondération, aux opérations effectuées durant le traitement ».

Obligations légales versus réalité… En plus des mentions inexistantes dans les courriers des CAF, obtenir ce qui est ici promis de droit se transforme dans les faits en parcours du combattant. Les exceptions à cette obligation de communication dont « la recherche et la prévention d’infractions de toutes natures » constituent une première barrière infranchissable. Concrètement, un soupçon ou une accusation de fraude stoppe directement cette possibilité.

Prenons maintenant le cas d’une notification de trop-perçu. L’allocataire concerné doit donc faire une demande écrite des informations, souvent indispensables pour se défendre, auprès du directeur de sa CAF. Et ce « en formulant clairement et précisément sa demande ». En l’absence de réponse ou en cas de refus explicite dans un délai d’un mois, il devra saisir la CADA – Commission d’accès aux documents administratifs –… et patienter.

Or durant toute cette période, les délais pour déclencher un recours, amiable ou contentieux, courent eux aussi. Et dans la réalité toujours, peut-on imaginer qu’un allocataire sonné par ce recouvrement qui lui tombe sur la tête et qui se traduit par des retenues sur ses prestations, impactant directement sa vie quotidienne, ait comme premier réflexe de réclamer des informations sur ses données personnelles et un traitement algorithmique ?

« Je ne me sentais plus la force, je me suis dit qu’il n’y avait plus rien à faire et j’en ai eu ras-le-bol de me prendre des baffes dans la figure ».

« Ces contrôles me donnent l’impression de ne pas être légitime à faire valoir mes droits, d’être fautive d’être malade, handicapée et précaire ».

« Je vis chaque mois avec la boule au ventre en me demandant si la CAF va me demander de rembourser les allocations qu’elle a daigné m’envoyer. Ma santé mentale s’en trouve affaiblie ».

Les témoignages sur l’état psychique des allocataires qui se voient reprocher un trop-perçu sont multiples et aident à comprendre combien il peut être difficile de se défendre – et de faire valoir des droits inconnus de la plupart des gens, y compris de travailleurs sociaux. Il devient urgent de prendre en considération ces détresses et pour les CAF de rendre transparents les calculs des droits et de motiver clairement chaque décision (de trop-perçu, de fraude et même de rappel), quand bien même celle-ci a été prise par une machine.

Pour citer cet article

Changer de Cap, « Quand les algorithmes de la CAF ouvrent la chasse aux pauvres », Silomag 15, juillet 2022. URL : https://silogora.org/quand-les-algorithmes-de-la-caf-ouvrent-la-chasse-aux-pauvres/

Réagir

Si vous souhaitez réagir à cet article, le critiquer, le compléter, l’illustrer ou encore y ajouter des notes de lecture, vous pouvez proposer une contribution au comité de rédaction. Pour cela, vous pouvez envoyer votre texte à cette adresse : contact@silogora.org

AGORA DES PENSÉES CRITIQUES
Une collaboration

Mentions légales Crédits