L’intelligence artificielle est déjà largement intégrée au fonctionnement de France Travail. Dans un rapport inédit, la Cour des comptes dresse un état des lieux précis mais critique de ces usages, pointant un déploiement encore insuffisamment encadré sur les plans stratégique, éthique et réglementaire.
Une IA déjà bien installée dans les rouages de France Travail
Depuis près de dix ans, l’intelligence artificielle s’est progressivement imposée au sein de France Travail. Recherche d’emploi, appariement entre offres et candidats, outils d’aide aux conseillers ou encore analyse de données à grande échelle… selon la Cour des comptes, pas moins de 27 cas d’usage sont aujourd’hui déployés à grande échelle.
L’IA n’est donc plus un simple outil expérimental. Plus de la moitié des agents déclarent y recourir dans leurs activités quotidiennes, preuve que ces technologies font désormais partie intégrante du service public de l’emploi. La Cour reconnaît d’ailleurs certains gains d’efficience et une structuration progressive des projets autour de programmes dédiés à la donnée et à l’IA.
Une gouvernance encore trop peu structurée
Mais derrière ce constat, le rapport met en lumière de nombreuses fragilités. La première d’entre elles est l’absence d’une stratégie clairement formalisée et partagée au plus haut niveau. La Cour relève une gouvernance insuffisamment mobilisée, notamment au sein du conseil d’administration, alors même que les enjeux sont majeurs. Le déploiement de l’IA s’est fait par strates successives, souvent au fil des opportunités technologiques, sans vision d’ensemble suffisamment lisible. Une approche qui interroge, au regard de l’impact potentiel de ces outils sur l’accompagnement des demandeurs d’emploi et sur l’organisation interne de l’établissement.
Des risques persistants sur les données personnelles
L’autre point de vigilance majeur demeure celui de la protection des données. France Travail traite des volumes considérables d’informations sensibles, et l’usage de l’IA accentue mécaniquement les risques. La Cour des comptes souligne des retards dans la mise en conformité avec le RGPD et avec les futures exigences européennes en matière d’intelligence artificielle. Les dispositifs de contrôle, de traçabilité et de documentation des traitements algorithmiques apparaissent encore insuffisamment aboutis. Un angle mort préoccupant, dans un contexte où l’IA peut influencer des décisions ayant des conséquences directes sur les parcours professionnels des usagers.
Une éthique affichée, mais encore incomplète
Sur le terrain éthique, France Travail s’est doté d’une charte et de principes de référence. Pour autant, la Cour estime que ces engagements restent trop souvent déclaratifs. Leur mise en œuvre opérationnelle, leur articulation avec les obligations juridiques et leur traduction concrète dans les projets IA demeurent partielles. Le rapport pointe notamment une confusion persistante entre conformité réglementaire et démarche éthique. Or, lorsque des systèmes algorithmiques interviennent dans l’orientation, l’évaluation ou la priorisation des publics, les enjeux de transparence, de biais et d’explicabilité deviennent centraux.
Des résultats encore difficiles à mesurer
Enfin, la Cour des comptes se montre prudente sur les bénéfices réels de ces dispositifs. Si certains gains sont identifiés, leur évaluation reste hétérogène et parfois insuffisamment documentée. Les indicateurs de performance, d’impact social ou de qualité de service ne permettent pas toujours d’apprécier objectivement l’apport de l’IA. Voilà un constat qui alimente une interrogation plus large puisqu’à force de multiplier les usages, l’administration ne risque-t-elle pas de déployer des technologies dont les effets sont encore mal maîtrisés, faute de cadre clair et de suivi rigoureux ?
Un avertissement pour l’ensemble du secteur public
Sans remettre en cause l’intérêt de l’intelligence artificielle, la Cour des comptes réaffirme que l’IA ne peut être déployée à grande échelle dans les services publics sans garanties solides. Gouvernance renforcée, conformité juridique, exigences éthiques et évaluation des résultats doivent devenir des prérequis, et non des ajustements a posteriori. À l’heure où l’IA s’impose comme un levier majeur de transformation de l’action publique, ce rapport agit comme un signal d’alerte. Il rappelle qu’une technologie, aussi prometteuse soit-elle, ne saurait remplacer une stratégie, ni se substituer à la responsabilité de l’État envers ses usagers.








