Accueil Emploi/Formation « Ce n’est pas l’IA qui est responsable, c’est l’adoption qui doit...

« Ce n’est pas l’IA qui est responsable, c’est l’adoption qui doit l’être » Impact AI lance ses Cafés de l’IA responsable pour former 1 million de salariés

Né en 2018, le collectif Impact AI accélère sa mobilisation pour une IA de confiance avec le lancement des « Cafés de l’IA responsable ». Il a pour vocation première de former un million de salariés d’ici fin 2026, en s’appuyant sur un réseau d’ambassadeurs et le soutien de grands groupes comme AXA, Crédit Agricole, Bouygues et Microsoft. Christophe Liénard, président d’Impact AI, Bérengère Arnold, directrice exécutive adjointe d’Impact AI et Marcin Detyniecki, Group Chief Data Scientist chez AXA, détaillent l’ambition, la méthode et les premiers retours de terrain.

SNC : Quel constat vous a conduit à lancer les Cafés de l’IA responsable maintenant, sept ans après la création du collectif ?

Marcin Detyniecki : Pour illustrer, au début, on a beaucoup travaillé sur les risques, les biais, la régulation. On a contribué à sensibiliser les décideurs, notamment au niveau européen. Mais ces messages n’étaient pas forcément adaptés aux entreprises. On a produit des briefs pour aider à l’adoption responsable de l’IA. Et à chaque fois, il fallait redéfinir ce que veut dire « responsable ».

« Ce n’est pas l’IA qui doit être responsable, c’est l’adoption qui doit l’être »

Ce qui nous unit tous, c’est l’idée qu’il y a un sujet de confiance. Ce n’est pas l’IA qui est « responsable » toute seule ; ce sont les personnes et les organisations qui l’adoptent. On parle d’IA de confiance, et cette notion est partout : dans l’assurance, où il faut pouvoir payer un sinistre et rendre un service fiable ; dans l’aéronautique, où il faut avoir confiance dans les systèmes pour éviter les défaillances ; dans l’industrie, où l’IA contribue à la sécurité des employés, etc.

On s’est aussi rendu compte que, malgré les formations déjà en place – souvent très académiques – la pénétration n’était pas incroyable. C’est ce que montre notre Observatoire. Il manque quelque chose : des formats où les gens discutent, s’approprient les sujets. D’où l’idée des Cafés. 

Christophe Liénard : D’abord, on s’est rendu compte qu’on avait beaucoup de matière : les briefs, les workshops, les retours terrain. On s’est demandé : qu’est-ce qu’on peut faire d’intelligent avec tout ce contenu ? Nous, on avait une partie de la réponse : un million de salariés potentiels via nos membres, une matière très structurée, une crédibilité sur l’IA responsable. En combinant tout cela, on s’est dit qu’on pouvait bâtir un programme qui forme des ambassadeurs dans chaque entreprise, qui eux-mêmes formeraient des animateurs, et ainsi de suite. On est sur une pyramide descendante de diffusion de la culture de l’IA responsable, pour construire une IA « rendue juste » et sereine.

Votre Observatoire de l’IA responsable a aussi joué un rôle dans ce lancement. Qu’est-ce que vous y avez vu qui vous a particulièrement marqué ?

C. L. : Dans le dernier Observatoire, il y a un chiffre qui nous a frappés : 63 % des salariés déclarent qu’ils veulent une IA responsable avant même d’adopter l’IA. Ils demandent de la gouvernance, des repères, la certitude que leur entreprise met en place une IA responsable, et que eux-mêmes sont dans une démarche responsable. C’est une demande très claire du terrain.

Bérengère Arnold : Dans la communauté « IA & formation », on ne fait rien tout seuls, on fait tout en collectif. Beaucoup de managers nous ont parlé des attentes des salariés, plus que des stratégies des dirigeants – qui, elles, sont souvent bien organisées aujourd’hui. On a constaté un décalage entre des stratégies d’IA très structurées et des salariés qui, eux, ne se sentent pas toujours embarqués.

On a fait un travail de segmentation en six profils de salariés, à partir de remontées qualitatives et quantitatives :

  • l’“IA sachant” : déjà très avancé, voire expert ;
  • l’“IA pragmatique” : intéressé, mais qui veut du concret et du lien avec son travail ;
  • l’“IA curieux” : enthousiaste, fasciné par les capacités de l’IA, mais pas encore passé à l’usage ;
  • celui qui se sent “face à la machine” et a peur de travailler toute la journée avec elle, de perdre ses collègues, la convivialité ;
  • l’“IA hostile” pour des raisons de société, d’environnement, de valeurs ;
  • et d’autres nuances intermédiaires.

Les Cafés de l’IA responsable sont arrivés comme une réponse très fine à ces attentes différenciées.

Concrètement, à quoi ressemblent ces Cafés de l’IA responsable ? Comment vous mettez le salarié au centre du dispositif ?

M. D. : Ce que cette formation apporte, c’est qu’elle met le salarié au centre. Il devient acteur d’un projet qui, souvent, lui paraît abstrait ou théorique. Deux choses sont très importantes : Il peut se projeter. Il comprend ce que l’IA change pour lui, dans son métier, dans son quotidien. On passe à l’échelle via des ambassadeurs. On forme des équipes qui peuvent déployer les Cafés et animer les discussions. 

« Mettre le salarié au centre du dispositif »

B. A. : Les Cafés, c’est un catalogue de 12 modules que nous testons avec la communauté « IA & formation ». On propose un véritable voyage aux salariés : D’abord, libérer la parole grâce à des quiz, des jeux de cartes, des exercices ludiques et gamifiés.
L’objectif, c’est que chacun puisse exprimer ses peurs, ses attentes, ses envies par rapport à l’IA. Ensuite, le débat et l’intelligence collective avec des temps d’échange en équipe pour inventer ensemble les bonnes pratiques. Enfin, la mise en action où l’on construit en équipe des plans d’action, dans la durée, pour que les profils les plus en retrait basculent au moins du côté de la curiosité.

Votre objectif est de former un million de salariés d’ici fin 2026. Comment pensez-vous opérer ce passage à l’échelle ?

C. L. : Nous avons une centaine d’entreprises membres dans le collectif. D’ici 2026-2027, nous voulons en sélectionner une cinquantaine – plutôt de grands groupes, mais pas uniquement, puisque le collectif rassemble aussi des acteurs de plus petite taille. Dans chacune de ces entreprises, nous allons former des ambassadeurs, dans les grandes structures, il pourra y en avoir jusqu’à 20 ou plus. Ces ambassadeurs vont ensuite former des animateurs, qui eux-mêmes animeront des Cafés auprès des équipes.

On a donc une cascade : des gens qui forment d’autres, qui forment d’autres, etc. Si on arrive à tenir l’effort dans le temps, l’effet devient exponentiel. C’est comme ça qu’on peut atteindre le million.

Nous sommes en autonomie financière, avec quatre grands sponsors mécènes – AXA, Crédit Agricole, Microsoft et Bouygues – qui nous apportent un financement complémentaire et servent aussi d’entreprises pilotes. 

B. A. : Nous avons lancé officiellement les Cafés le 24 novembre, avec une page dédiée sur notre site et un formulaire. Nous avons déjà une trentaine de demandes, beaucoup venant de grandes entreprises. Mais nous lançons aussi un appel à toutes les entreprises – au-delà des membres d’Impact AI – pour nous rejoindre. L’ambition, c’est de mutualiser les ressources de départ et de rendre l’adoption accessible en travaillant avec des fédérations professionnelles, des organisations patronales, l’ESS, pour proposer un modèle économique vraiment attractif, y compris pour les plus petits.

Une fois le dispositif structuré, le coût marginal par salarié est très faible et les Cafés sont faciles à déployer, y compris dans de petites structures qui n’ont ni les budgets ni les ressources pour se payer de grandes formations sur mesure.

Comment allez-vous mesurer l’efficacité réelle des Cafés de l’IA responsable ?

C. L. : D’abord, le quantitatif : combien de Cafés ? combien d’ambassadeurs et d’animateurs ? combien de collaborateurs touchés ? Ensuite, l’impact sur l’adoption : qu’est-ce qui a changé avant / après, dans la façon dont les salariés perçoivent l’IA, dans leur niveau de confiance, dans leurs usages au quotidien ?

L’Observatoire nous sert de base. Nous allons publier un grand sondage en février-mars 2026, avant le déploiement massif des Cafés, puis un autre en février-mars 2027, pour comparer le “avant / après”, avec une trentaine de questions construites avec nos mécènes.

B. A. : Nos sponsors mécènes sont très exigeants et ont des engagements d’intérêt général en matière d’impact à l’échelle. Nous allons aussi renforcer l’équipe : recruter un chef de projet dédié à la mesure d’impact, industrialiser la collecte de données, automatiser le suivi pour avoir une granularité fine des résultats. C’est un vrai projet en soi.

Qu’est-ce que vous espérez, chacun, changer durablement dans les entreprises grâce à ce programme ?

C. L. : Ce qu’on veut, c’est qu’une IA responsable soit, dans les faits, bien adoptée. C’est-à-dire que l’adoption elle-même soit responsable. »

« Que l’IA responsable soit appropriée en première ligne »

M. D. : D’abord, on veut que l’IA responsable soit appropriée profondément, au plus près du terrain : que ce ne soit pas seulement une fonction support ou un comité qui émet des règles, mais que cela se joue en première ligne, chez les personnes qui utilisent l’IA dans leur métier.

Ensuite, on croit beaucoup au mécanisme de partage et de discussion. Dans un monde qui change très vite, on ne peut pas tout régler uniquement avec des formations techniques. On espère installer un mécanisme durable pour accompagner le changement. 

B. A. : Pour moi, l’objectif est clair : changer les comportements au quotidien. C’est ce que demandent les salariés. On teste actuellement le module dans des focus groups, une vingtaine pour l’instant, et on voit bien que ça fonctionne : les salariés se sentent écoutés, légitimes, ils prennent leur place dans la transformation. C’est cette appropriation-là, très concrète, qu’on veut généraliser.