Accueil Réglementation/Loi AI Act repoussé, l’Europe temporise face à une réalité plus complexe que...

AI Act repoussé, l’Europe temporise face à une réalité plus complexe que prévu

L’entrée en application de certaines obligations clés de l’AI Act pourrait être décalée à 2027 voire 2028. Derrière ce report se dessine un constat plus large, celui d’un cadre réglementaire ambitieux qui se heurte à la vitesse d’adoption de l’IA dans les entreprises.

L’Europe ralentit. Alors que l’AI Act devait entrer progressivement en application dès 2026, un report des dispositions concernant les systèmes d’IA à haut risque est désormais sur la table. Le calendrier pourrait glisser de plus d’un an, voire deux pour certains cas. Une inflexion qui n’a rien d’anecdotique et qui dit beaucoup de l’état actuel du marché.

Sur le papier, le texte reste l’un des cadres les plus structurants au monde. Pour rappel, il encadre les usages de l’IA en fonction de leur niveau de risque, impose des obligations de transparence, de documentation et de contrôle. Mais entre l’ambition politique et la réalité opérationnelle, l’écart apparaît de plus en plus difficile à ignorer.

Un cadre trop en avance sur les capacités des entreprises

Dans les faits, peu d’organisations sont prêtes. Cartographier les systèmes d’IA, qualifier leur niveau de risque, mettre en place des processus de conformité robustes… autant d’exigences qui demandent du temps, des compétences et des outils encore en construction. Du côté des éditeurs comme des entreprises utilisatrices, la même inquiétude revient. Le rythme d’innovation est tel que les projets avancent plus vite que les cadres de gouvernance. Beaucoup expérimentent, testent, industrialisent parfois, sans avoir encore stabilisé leurs pratiques.

Le report apparaît alors comme une forme de rattrapage. Non pas un renoncement, mais un ajustement face à une réalité où la réglementation court derrière les usages.

Un soulagement… qui prolonge aussi l’incertitude

À court terme, ce décalage donne de l’air. Il évite à certaines entreprises de se retrouver en situation de non-conformité dès l’entrée en vigueur des premières obligations. Il laisse aussi le temps aux acteurs de mieux comprendre les implications concrètes du texte. Mais ce répit a un revers. Il entretient une zone grise. Faut-il ralentir les projets en attendant des règles stabilisées ou continuer à avancer au risque de devoir tout réajuster plus tard ? Beaucoup de DSI et de responsables data naviguent encore à vue. Le danger, c’est que ce flou retarde aussi la structuration des pratiques. Or, plus l’IA s’ancre dans les processus métiers, plus les ajustements deviennent complexes.

Une pression qui reste intacte

Même repoussé, le cadre ne disparaît pas. La direction est connue et elle ne changera pas. Les exigences en matière de traçabilité, de transparence et de contrôle des systèmes d’IA devront s’imposer puisque en réalité, la pression est déjà là. Entre attentes des régulateurs, exigences des partenaires et vigilance accrue des utilisateurs, les entreprises ne peuvent plus traiter ces sujets comme secondaires. La question n’est plus de savoir si elles devront se conformer, mais quand et comment.

Une Europe qui cherche le bon tempo

Ce report dit aussi quelque chose de plus profond. L’Europe tente de trouver un équilibre entre régulation et innovation, sans freiner un secteur en pleine accélération. Le risque était réel de créer un cadre trop contraignant, difficilement applicable et potentiellement contourné. En temporisant, les institutions reconnaissent implicitement la complexité du sujet. Espérons que ce délai sera mis à profit pour clarifier les règles et accompagner les acteurs, et non une tentative de repousser un problème déjà bien installé.