A quelques jours de l’ouverture du sommet pour l’action sur l’intelligence artificielle, où il interviendra, Yann Ferguson, directeur scientifique du LaborIA à l’INRIA et spécialiste des mutations du travail, nous livre ses observations sur les transformations provoquées. Interview 2/3.
SN – Quels sont les défis à relever pour l’intégration de l’IA dans le monde du travail, notamment en matière éthique ?
YF – Il y a deux trajectoires de l’IA. Celle où l’IA est un projet d’employeur. Dans ce cas-là, on recherche des cas d’usage. C’est-à-dire que l’employeur veut intégrer de l’IA dans son organisation, publique ou privée, et on examine les métiers existants et ce que l’IA sait faire.
L’IA sait très bien identifier des liens entre les données. Donc, si vous avez beaucoup de données, vous dites : “Avec cette compétence-là, peut-on apporter de la valeur ou automatiser un certain nombre d’actions ?” Par exemple, au ministère de l’Économie et des Finances, nous avons beaucoup de données sur les entreprises, notamment leurs revenus d’activité, leurs déclarations, etc. On peut aussi avoir des données un peu moins officielles, comme le profil Facebook du dirigeant. C’est très difficile d’enquêter sur différents éléments en même temps. Cela peut se faire, mais c’est un peu lent. Par contre, si on crée un pipeline de données, l’IA peut, par exemple, identifier des incohérences. Elle peut dire si elle voit, par exemple, que sur Facebook le dirigeant montre sa nouvelle Ferrari et que, dans sa déclaration de ressources, il affiche un résultat en chute libre.
“si on crée un pipeline de données, l’IA peut, par exemple, identifier des incohérences.”
Je caricature, bien sûr. C’est ce qu’on appelle un schéma de fraude potentiel. C’est-à-dire que l’IA identifie un schéma incohérent dans les données et, par conséquent, envoie une notification à un agent, indiquant une suspicion élevée. C’est de l’IA prédictive. Ce n’est pas de l’IA générative. Elle ne génère pas de texte ; elle prédit statistiquement. Il y a une probabilité de fraude à hauteur de 80 %, 85 %, 90 %, etc. Un agent reçoit une notification concernant une entreprise à contrôler parce qu’il se passe quelque chose. Nous sommes dans le cas d’usage.
Avez-vous d’autres cas ?
L’IA peut relever la non-conformité, que ce soit dans une fraude fiscale ou sur une pièce de voiture. Dans un cas, on contrôle des chiffres. L’IA identifie des schémas de fraude dans les chiffres. Dans l’autre, on est plutôt sur de la “computer vision”, c’est-à-dire qu’une caméra capture des vidéos de pièces, et l’IA évalue statistiquement la non-conformité des pièces.
Ces systèmes fonctionnent assez bien, notamment sur tout ce qui est “computer vision”. Parce que l’IA moderne a fait un énorme saut qualitatif sur la reconnaissance d’images et les vidéos. Elle a beaucoup avancé, c’est vrai aussi pour des enjeux sécuritaires pour reconnaître un colis abandonné par exemple. L’IA sait bien le faire. Tout comme distinguer les graffitis d’une image publicitaire que la SNCF a posée sur le train volontairement.
On identifie un cas d’usage et on regarde s’il génère de la valeur. Si on arrive à automatiser la réponse au problème, dans quelle mesure ça apporte un gain significatif ? Quand le calcul semble d’un bon niveau d’efficience, alors l’IA est mise en oeuvre dans cette activité.
Parfois, l’IA remplace une manière de faire existante. Parfois, elle produit une nouvelle valeur, c’est-à-dire elle traite un problème qu’on n’arrivait pas à traiter. Comme par exemple la reconnaissance de graffitis sur les trains. Auparavant, on les découvrait seulement lorsque le train arrivait au centre de maintenance. Désormais, des caméras permettent de les détecter avant.
Quels sont les freins ?
Ces projets sont souvent motivés par des logiques d’innovation ou de productivité, sans tenir compte de la réalité du terrain. En théorie, l’IA peut faire beaucoup. Mais, sur le terrain, de nombreuses subtilités réduisent son efficacité ou la rendent moins performante. Finalement, l’efficience n’est pas là, et cela impose un travail de suivi humain qui s’ajoute à des tâches non reconnues.
“Sur le terrain, de nombreuses subtilités réduisent l’efficacité de l’IA.”
Ces limites inquiètent les collaborateurs, qui associent les gains de productivité à une réduction des effectifs. Une autre crainte est de se sentir soumis à une machine qui dicte des actions sans expliquer pourquoi. Cela devient une boîte noire. Par exemple, choisir une entreprise à contrôler parce qu’il y a un soupçon de fraude est très différent d’un contrôle imposé par une machine. Dans le premier cas, on joue les Sherlock Holmes. C’est motivant. Dans le second, on peut se sentir exécutant de la machine, qui dit : “Contrôlez cela.” De plus, la machine peut privilégier des probabilités de fraude élevées sans considérer le gain potentiel du contrôle. L’agent, lui, cible plutôt les gros “coups de filet”.
Cela touche aussi au prestige. Dans les douanes, par exemple, les annonces concernent souvent des centaines de kilos de drogue saisies. Arrêter un dealer local ne fait pas la Une. Le prestige réside dans la capture de grands fraudeurs, pas dans celle d’une PME qui aurait acheté un produit personnel avec un compte professionnel.
Et les employés dans tous ça ?
C’est une trajectoire. Il y a celle pilotée par l’employeur, et il y a aujourd’hui l’essentiel de l’IA au travail avec l’initiative des employés. Actuellement, la majorité de l’IA au travail vient des salariés qui utilisent des solutions grand public, souvent ChatGPT. Parfois, ils les paient eux-mêmes. Une grande partie du chiffre d’affaires d’OpenAI vient des particuliers.
“La majorité de l’IA au travail vient des salariés qui utilisent des solutions grand public.”
Ces employés paient 20 € par mois pour ChatGPT, non pas pour des recettes de cuisine, mais pour travailler sérieusement avec. Pourtant, ils le font en cachette. Environ 55 % des salariés français ont utilisé une solution d’IA à l’insu de leur manager. Cela montre qu’ils trouvent de nombreux cas d’usage, souvent plus adaptés à leur quotidien.
Par exemple, une commerciale polonaise utilise ChatGPT pour adapter culturellement ses messages commerciaux à ses prospects. Elle rédige un mail et demande à ChatGPT : “Je suis polonaise. Peux-tu rendre cette offre plus acceptable pour des italiens ?”
Les employés ont une expérience d’extension de leurs capacités. Ils ont l’impression de savoir faire plus de choses grâce à l’IA. Ils ont beaucoup moins de verrous. Ils sont beaucoup moins limités. Par ailleurs, ils ont l’impression d’être plus autonomes parce qu’ils vont beaucoup moins demander de l’aide aux collègues, mais davantage à ChatGPT.
Cette expérience des travailleurs peut être très satisfaisante parce qu’ils ont le sentiment d’aller beaucoup plus vite et d’être beaucoup moins dépendants d’une aide extérieure.
Sauf que lorsqu’on étudie les résultats produits avec l’IA générative, on se rend compte que les employés ne sont pas créatifs, malgré leur impression d’avoir été hypercréatifs. La qualité est souvent passable, voire médiocre. On peut vivre une expérience très contrastée entre le sentiment d’empowerment, de gain d’autonomie et la qualité réelle du travail produit.
Voulez-vous dire que l’expérience IA est artificielle ?
Quand on coopère avec l’IA, on coopère beaucoup moins avec les collègues parce qu’on a le sentiment finalement que l’IA est un. Ce qu’elle n’est pas. C’est un outil qui apporte des choses très différentes, qui répond statistiquement à un énoncé. Mais, de façon complètement asémantique et aculturelle et aterritoriale. Elle ne tient pas compte du sens de ce qu’elle dit parce qu’elle ne comprend pas le sens. Elle ne tient pas compte du lieu où vous êtes et elle ne tient pas compte de la culture. Du coup, elle ne prend pas en compte le contexte. Alors on peut améliorer ces considérations là avec le temps, en apprenant, mais dans les faits, l’expérience reste quelque chose de très artificielle.