Accueil Actualité des SSII Intelligence artificielle : la gouvernance française de l’IA Act se dessine

Intelligence artificielle : la gouvernance française de l’IA Act se dessine

Carte des compétences et gouvernance de l'IA
Carte des compétences et gouvernance de l'IA

La France, dans le cadre de l’IA Act, a défini les responsabilités des autorités publiques chargées de sa mise en œuvre.

Sous réserve du vote d’un projet de loi par les députés et sénateurs, la DGCCRF assurerait la coordination opérationnelle de l’IA Act. Elle serait le point de contact unique pour la surveillance du marché et exercerait le contrôle des pratiques interdites (manipulation, tromperie…), ainsi que des obligations de transparence liées aux interactions avec le public et aux hypertrucages. Elle aurait également la supervision des systèmes d’IA à haut risque pour les produits listés à l’Annexe I (machines, jouets, équipements divers).

La Direction Générale des Entreprises (DGE), rattachée au ministère de l’Économie, des Finances et de la Souveraineté Industrielle et Numérique, serait chargée de la coordination stratégique, de la représentation de la France au Comité IA et du rôle de bureau de liaison unique entre la France et les instances européennes.

La CNIL serait responsable des usages sensibles de l’IA, notamment les pratiques interdites (notation sociale, inférence émotionnelle, biométrie, etc.) et les obligations de transparence relatives à la reconnaissance des émotions et à la catégorisation biométrique. Elle superviserait également les systèmes d’IA à haut risque dans les domaines humains et sociaux (justice, emploi, frontières, etc.).

L’ACPR superviserait les systèmes d’IA utilisés dans les services financiers (crédit, scoring, gestion des risques), en collaboration avec la CNIL.

L’Arcom serait chargé de la surveillance des pratiques dans les médias et des contenus générés (deepfakes, hypertrucages). Elle veillerait à la transparence des contenus médiatiques et participerait aux dispositifs relatifs aux processus démocratiques.

L’ANSM contrôlerait les dispositifs médicaux et les dispositifs de diagnostic in vitro, classés parmi les systèmes d’IA à haut risque (Annexe I).

La DG Travail, le MASA, la DGPR, l’ANFR, la DGITM, la DGALN et la DGAMPA seraient, selon leur domaine respectif, responsables de l’application de la réglementation pour les produits industriels ou techniques spécifiques (machines, équipements, appareils radio, sécurité au travail, navigation maritime, etc.).

Le HFDS (Haut Fonctionnaire de Défense et de Sécurité) aurait pour mission l’évaluation et la protection des infrastructures critiques, ainsi que la résilience des systèmes d’IA critiques.

L’ANSSI et le PEReN (Pôle d’expertise de la régulation numérique) apporteraient un appui technique transversal aux autorités : expertise en cybersécurité et en IA, audits, tests et développement de socles techniques communs pour la vérification de conformité.

Enfin, le Conseil d’État, la Cour de cassation et la Cour des comptes seraient responsables de la supervision des systèmes d’IA mis en service ou utilisés par les autorités judiciaires à des fins d’administration de la justice.