Accueil Business La législation peut-elle rendre l’IA conforme à l’éthique de nos sociétés ?

La législation peut-elle rendre l’IA conforme à l’éthique de nos sociétés ?

Source : Tumisu de Pixabay

TRIBUNE – Pour les lecteurs de Solutions Numériques, cette tribune signée par James Hodge, Group Vice President et Chief Strategy Advisor chez Splunk, spécialiste en observabilité des événements IT et sécurité, s’intéresse aux législations sur l’IA en cours de définition par l’Union européenne et le Royaume-Uni. Deux approches divergentes qui ont toutes les deux à cœur de faire respecter l’éthique.

 

Potentiel de richesse, automatisation des tâches répétitives, gain de productivité… Telles sont les promesses de l’intelligence artificielle, et notamment de l’IA « générative », rendue célèbre par ChatGPT et d’autres grands modèles de langage (LLM) apparus au cours de l’année.
Pour autant, la prévalence et soudaine popularité de cette technologie cristallise la crainte des collaborateurs de perdre leur emploi. Plus d’un salarié sur trois dans le monde, selon une étude du BCG, a de telles craintes concernant de potentiels abus et autres mauvais usages.
Il n’est donc pas étonnant que dès 2021, l’Union européenne ait voulu créer sa propre législation. En posant un premier cadre réglementaire sur l’IA, la Commission européenne a voulu à la fois reconnaître les opportunités de l’intelligence artificielle tout en posant des garde-fous face aux risques sécuritaires, sur les droits fondamentaux et sur les questions autour de la transparence de l’IA.

Aujourd’hui, les réflexions législatives sont toujours en cours et les discussions vont s’étendre aux pays membres. Un cadre qui, comme au parlement, va certainement voir plusieurs visions s’affronter pour le développement et les usages futurs de cette technologie. Récemment, c’étaient les États-Unis qui s’inquiétaient, dans un rapport, que « l’IA Act » européen risquait d’avoir un impact négatif sur les entreprises de l’Union européenne et de freiner la recherche et le développement de l’intelligence artificielle.[2]

La question autour d’un cadre de réflexion sain autour de l’usage des outils d’IA est ainsi au cœur des débats. 

Une perception divergente des risques entre UE et Royaume-Uni

En Europe, deux politiques sur l’intelligence artificielle s’affrontent dont la source provient d’un cadre de réflexion différent. Cette opposition se trouve par exemple sur l’échelle de la législation et du cadre législatif à appliquer. Le Royaume-Uni a favorisé une approche par secteur, c’est-à-dire que dans son point de vue, la loi devra être au plus proche des différents domaines qui utilisent l’IA. La réflexion politique et juridique britannique pourrait se traduire ainsi : un même outil technologique est utilisé de manière différente avec des risques et des impacts qui diffèrent d’un domaine d’activité à un autre.

Selon cette approche, une législation uniforme empêcherait le développement de la technologie dans des domaines qui ne présentent pas de danger dans leur usage de l’intelligence artificielle. Avec ce cadre qui se veut moins central, le Royaume-Uni souhaite s’appuyer sur les acteurs de la régulation déjà existants pour créer un cadre législatif et éviter ainsi la création d’un organisme de gouvernance dédié à l’IA. En parallèle, la récente « Déclaration de Bletchley », un accord visant à convenir des politiques communes sur les risques liés à l’IA et signé par 28 pays lors du AI Safety Summit international, encourage le Royaume-Uni à adopter un modèle de gouvernance plus international.

Quant à la Commission européenne, elle est partie de la réflexion suivante : des problématiques similaires à toutes les formes d’utilisation de l’intelligence artificielle peuvent être mises en évidence et c’est sur ces dernières que la législation européenne doit agir. La Commission a donc une vision plus englobante sur l’impact de l’IA dans la société. L’Union européenne estime que le premier risque de l’IA est l’impact de cette technologie sur les libertés individuelles et donc le cadre législatif doit être, lui aussi, plus global, quitte à restreindre les utilisations de l’intelligence artificielle.

Pour s’assurer du respect des règles, la Commission européenne a proposé une double gouvernance, d’une part à l’échelle des États et d’autre part avec un comité européen de l’intelligence artificielle, à l’échelle supranationale.

Les réflexions européennes et britanniques sont, à ce jour, bien tranchées, l’un préférant une législation venant du haut, avec une loi qui est le reflet de la politique de défenses des libertés individuelles, et l’autre partant de l’expérience sur le terrain, qui se veut plus favorable au business. D’un côté, l’Union européenne aura un contrôle plus grand sur l’IA, alors même que celle-ci évolue très rapidement, mais dans un autre temps, les obligations législatives ont plus de risques d’être trop floues parce que trop générales et finalement ne s’appliquant réellement nulle part.

À ce jour, dans l’Union européenne, les obligations de conformité semblent toucher davantage les fournisseurs de technologie, ce qui a pu parfois être source d’inquiétude quant à la compétitivité de l’UE. Ainsi, en juin dernier au salon Viva Technology, Emmanuel Macron affirmait à propos des politiques relatives à l’intelligence artificielle : « Le pire scénario serait une Europe qui investit beaucoup moins que les Américains et les Chinois et qui commencerait par créer de la régulation. Ce scénario est possible, ce ne serait pas celui que je soutiendrais ».

Une politique réfléchie sur une éthique du temps long et centrée sur l’individu

Aujourd’hui, nous n’avons pas encore le recul nécessaire sur l’intelligence artificielle et sur son impact à court et moyen terme. Elle est probablement surestimée, mais les réflexions autour de la législation doivent prendre en compte les différentes échelles de risques et d’éthique. Étant amenée à se développer dans tous les pans de la société, l’utilisation de l’IA va avoir une incidence sur l’éthique, l’ordre moral et les valeurs de nos sociétés. C’est exactement ce qui se trouve au cœur du débat législatif, la volonté d’intégrer de nouveaux outils et de leur permettre de se développer, tout en se prévenant d’un risque que ces outils soient contraires aux valeurs portées par l’Union européenne.

L’usage de la reconnaissance faciale est l’un des derniers exemples médiatisés en date. L’Union européenne a estimé que son utilisation représentait un risque inacceptable de surveillance de masse et d’évaluation sociale de masse. Il a donc fallu arbitrer entre un intérêt sécuritaire et les valeurs démocratiques, en évitant, par exemple, que l’IA reproduise des schémas de discrimination. Bien sûr, chaque législation proposée par les pays reflétera cet arbitrage éthique avec une plus ou moins grande permissivité de l’IA.

C’est aussi la raison pour laquelle, avant même d’entamer les débats de régulation, les pays de l’Union européenne ont fixé un cadre autour de cinq priorités pour les systèmes d’IA : qu’ils soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.

Si nous reprenons les réflexions entamées par la Commission européenne, sa réflexion législative s’est appuyée sur cette échelle des risques éthiques. Cette dernière a opéré une distinction entre les risques limités, les risques élevés dans certains secteurs, comme l’éducation, les forces de l’ordre qui nécessiteront un suivi de l’UE et les risques inacceptables, tels que les systèmes d’IA mettant en place des scores sociaux ou utilisant la manipulation cognitivo-comportementale.

Ainsi, la loi peut offrir un cadre sain pour le développement de l’intelligence artificielle, tout en prenant en compte les enjeux éthiques contemporains. Mais pour cela, elle doit définir une feuille de route, des objectifs éthiques et une graduation des risques. Dans le cas contraire, la loi pourrait se révéler inefficace et inadéquate, ne sachant pas quelle valeur défendre et quel objectif viser ou encore ne sachant pas déterminer l’ordre de grandeur du risque.

Il ne faut pas perdre de vue que le cadre législatif, que ce soit en Europe ou dans d’autres pays, sera amené à évoluer au fil du temps, à mesure que les citoyens sentiront plus à l’aise avec cette technologie. Il est évident que pour les générations futures qui auront grandi avec de tels outils, leur vision sera différente. La compréhension de l’impact dans la vie quotidienne sera meilleure, de même que son acceptation par les individus. La législation sera alors probablement plus adaptée aux besoins. Plus de 80 % des entreprises utiliseront des modèles d’IA générative d’ici à 2026, selon Gartner, il est évident que cela entraînera des changements conséquents dans la manière de travailler, faisant éclore de nouveaux enjeux, de nouvelles discussions, sur lesquels il faudra continuer à légiférer.

 

James Hodge