Un nouvel outil de la CAF pour détecter les erreurs dans les dossiers
Depuis janvier 2026, les Caisses d’allocations familiales (CAF) ont adopté une nouvelle version de leur algorithme de contrôle, appelée Datamining Données entrantes 2026 (DMDE 2026). Cet outil statistique, présenté comme plus éthique et transparent, vise à mieux repérer les erreurs dans les dossiers des bénéficiaires, sans automatiser les décisions.
Chaque mois, les CAF versent des prestations sociales à près de 13,8 millions d’allocataires. Leur mission principale est de garantir un « juste droit » : verser le bon montant, au bon moment, de manière équitable. Cependant, la complexité des règles et la nécessité de déclarer des informations telles que les revenus, la situation familiale ou le logement peuvent entraîner des erreurs.
Pourquoi les contrôles sont-ils effectués ?
Pour assurer un versement juste, les CAF réalisent régulièrement des contrôles. En 2024, 31,5 millions de vérifications ont été menées auprès de 6,4 millions d’allocataires. La majorité de ces contrôles (environ 92 %) sont automatisés, basés sur des échanges de données avec d’autres organismes publics. Environ 8 % des contrôles sont effectués manuellement, par des agents.
Dans une faible proportion, environ 0,5 % des contrôles, un algorithme de datamining est utilisé pour cibler certains dossiers. Cet outil estime la probabilité qu’un bénéficiaire ait reçu un trop-perçu. Son but n’est pas de sanctionner, mais d’orienter les contrôles humains de façon plus efficace. Parfois, cela peut aussi conduire à un rappel, avec un versement complémentaire à l’allocataire.
Quelles garanties pour les bénéficiaires ?
Depuis le début 2026, la CAF utilise cette nouvelle version de l’outil, baptisée DMDE 2026. Conçu selon une approche « éthique dès la conception », il a été retravaillé pour renforcer la transparence et réduire les biais. Par exemple, certaines données sensibles comme la nationalité, le genre ou le lieu de résidence ont été exclues, tout comme les informations liées au comportement ou à l’historique des contrôles.
Surtout, cet outil ne remplace pas l’intervention humaine. Il ne prend aucune décision automatique. Il fournit simplement un indicateur de risque, laissant aux agents des CAF le soin de décider s’il faut effectuer un contrôle ou non.
Pour plus de transparence, la Caisse nationale des allocations familiales a choisi de rendre public le code source de l’algorithme. Cela vise à éclairer le fonctionnement de cet outil et à favoriser un débat ouvert.














