Depuis le début du mois de janvier 2026, l'organisme de prestations sociales s'appuie sur une technologie repensée pour affiner ses vérifications sans pénaliser les usagers.
C’est un tournant technologique majeur qui s’opère discrètement dans les serveurs de l’administration française.
Pour garantir le principe du « juste droit » auprès de ses 13,8 millions d'allocataires, la Caisse d'allocations familiales a activé une nouvelle version de son système de ciblage. Baptisé DMDE 2026 (Datamining Données entrantes), ce dispositif remplace les anciens modèles statistiques souvent critiqués pour leur opacité.
L'objectif est clair : débusquer les indus ou les rappels de droits avec une précision chirurgicale.
Fini le ciblage basé sur des critères sociologiques flous.
Dans une logique de « privacy by design », ce nouveau moteur de calcul exclut totalement des variables sensibles comme la nationalité, le genre ou encore le lieu de résidence. L'historique des comportements passés de l'allocataire disparaît également des radars de l'algorithme.
L'humain garde la main sur les décisions finales
La crainte d'une sanction automatisée par une intelligence artificielle est infondée selon les promoteurs du projet.
Le logiciel ne coupe aucun versement.
Il se contente de générer un score de risque statistique. Si une anomalie est suspectée, le dossier est transmis à un contrôleur bien réel qui effectuera les vérifications d'usage, sur pièces ou sur place. C'est l'agent administratif qui tranche, pas la machine.
Cette méthode de ciblage reste d'ailleurs minoritaire dans la masse des opérations de surveillance.
Sur les 31,5 millions de contrôles effectués en 2024, à peine 0,5 % provenaient du datamining. L'immense majorité des régularisations (92 %) s'opère via des croisements de fichiers automatiques avec d'autres administrations, comme les impôts ou Pôle Emploi.
Une transparence totale affichée par l'administration
Pour couper court aux polémiques sur les « boîtes noires » algorithmiques, la Caisse nationale a opté pour une stratégie d'ouverture radicale.
Le code source du logiciel a été rendu public.
Cette démarche permet aux experts et aux associations de décortiquer la mécanique interne de l'outil pour vérifier l'absence de biais discriminatoires. Une façon pour l'institution de prouver que la chasse aux erreurs administratives peut se conjuguer avec éthique et équité.
