Accueil Expert Derrière ChatGPT, les questions en suspens de l’intelligence artificielle générative

Derrière ChatGPT, les questions en suspens de l’intelligence artificielle générative

AVIS D’EPXERT – Par Sébastien Viou, Directeur Cybersécurité chez Stormshield. Qui n’a pas entendu de parler de ChatGPT et des débats, parfois houleux, qui l’entourent ? Suscitant à la fois l’émerveillement, la stupeur ou la frayeur, l’intelligence artificielle générative ne laisse pas indifférent. Et pose un certain nombre de questions : en termes de sécurité en général et de cybersécurité en particulier, mais également de philosophie et de règlementation.

 

ChatGPT : le bon sens (humain) en action

Après son ouverture au grand public, ChatGPT pose des questions de sécurité, au même
titre que d’autres intelligences artificielles génératives, telles que les traducteurs
intelligents par exemple. Technologiques, juridiques ou encore financiers, ces risques sont
multiples et généralement liés à l’absorption des informations par le robot : divulgation
d’informations industrielles, de données à caractère personnel ou encore de données
sensibles. Quant aux droits d’auteurs, à la fois des sources utilisées ou des contenus
produits, la question reste encore pleine et entière.

De son côté, la cybersécurité n’est pas en reste. Les IA génératives peuvent évidemment
être entraînées à des fins malveillantes, telles que la rédaction et l’envoi en masse
d’emails de phishing par exemple, comme le démontrent certaines recherches.
Pour des attaques plus perfectionnées en revanche, ChatGPT a ses limites et ne peut agir
seul. Néanmoins, il peut être utile pour récupérer du code déjà disponible sur Google et
agréger certaines réponses pour en faire un contenu plus structuré. A ce jour en tout cas,
aucune nouvelle forme d’attaques, qui pourrait être associée à l’utilisation de ChatGPT,
n’est apparue. Demeure cependant en suspens la question des attaques ciblant
potentiellement les IA elles-mêmes, et des détournements qui pourraient en être faits.
Comme pour tous types d’applications, s’assurer de la légitimité de l’IA utilisée constitue
un premier rempart, bien qu’insuffisant, contre ces risques. Le watermarking (ou tatouage
numérique) de ces IA devrait pouvoir rapidement répondre à ce besoin de légitimité.
Plus généralement, parmi les dangers majeurs de ces IA génératives, restent le biais
cognitif ou encore la diffusion de fausses informations, même involontaires. Pour autant,
les IA connectées (par définition ancrées dans le présent) ne sont pas exemptes de
problèmes, tels que des réponses qui peuvent progressivement s’adapter à l’utilisateur, ou
encore des résultats très différents selon la formulation de la question. Et les réseaux
sociaux regorgent de tests grandeur nature, dont les résultats sont au mieux approximatif,
au pire totalement faux.

Malgré la présence d’une modération automatique, qui reste elle-même très perfectible
puisqu’elle n’est pas en mesure de détecter de fausses informations, voire pourrait même
être susceptible d’en générer, il s’agit donc de conserver un certain recul vis-à-vis des
résultats des intelligences artificielles génératives, et surtout une bonne dose de bon sens
humain.

IA générative : transparence et encadrement des pratiques

Ce recul, ou au contraire ce manque de recul, peuvent être particulièrement variables d’un
pays à l’autre. Ainsi, la France et le Japon se classent par exemple parmi les pays les plus prudents face à l’IA, avec une confiance affirmée de respectivement 31 et 23 %. Tandis
que la Chine et l’Inde de leur côté affichent une confiance respective de 67 % et 75 %
quant aux résultats de ces intelligences artificielles.
Dans le détail, se pose aussi la question de l’éditeur et de la philosophie qui
l’accompagne. Ainsi, les IA génératives des GAFAM apparaissent comme de véritables
boîtes noires, qu’il est impossible de décrypter. À l’inverse, Bloom, un projet français, est
en Open Source. Mais encore plus que le code en tant que tel (qui peut être propriétaire),
ce sont avant tout les principes de fonctionnement et d’entraînement de l’IA concernée,
qui doivent être connus des utilisateurs.
Pour autant, quels que soient leurs origines et leurs éditeurs, il semble aujourd’hui
impossible d’en empêcher leur utilisation. Et ce n’est sans doute pas vraiment souhaitable,
l’IA s’inscrivant sans doute durablement dans le sens de l’histoire. En revanche, formation
et sensibilisation devront devenir les maîtres-mots des usages de l’intelligence artificielle.
Plus globalement, les pratiques devront, a minima, être normées et bien encadrées par la
réglementation. Un projet d’AI Act serait d’ailleurs déjà en cours d’étude au niveau
européen, pour une mise en œuvre d’ici 2025.

La spécialisation inéluctable des IA génératives

Si ChatGPT est un coup de génie marketing, utile à l’entreprise OpenAI mais aussi à la
notoriété du principe de l’IA dans son ensemble, ses usages, et surtout ses résultats,
demeurent perfectibles : comme un humain, une intelligence artificielle, aussi puissante
soit-elle, ne peut pas être spécialisée en tout. Cela tient principalement au besoin
d’apprentissage massif nécessaire. Certaines IA génératives spécialisées sont d’ailleurs
déjà disponibles depuis de nombreuses années, sans annonce média spectaculaire. C’est
le cas de certains traducteurs (DeepL), de générateurs d’images (Bing Image Creator,
Dall-E, Craiyon) ou encore d’analyseurs d’imagerie médicale (Strike, KI-Bêta).
À l’inverse, cette accélération de l’attention portée à l’IA et aux investissements afférents
nécessaires peut rapidement porter ses fruits sur des sujets très ciblés, où l’IA peut avoir
toute sa place. Et être entraînée spécifiquement sur un domaine d’application très pointu,
dans lequel ses résultats pourront être particulièrement satisfaisants. En restant prudents
toutefois !

Enfin, c’est aussi et bien sûr la question de l’emploi qui se pose, sans être spécifique à
l’IA : chaque innovation apporte son lot de métiers voués à disparaître, tout en faisant
apparaître d’autres besoins sur le marché du travail. Comme lors de la révolution
industrielle, nous devrons sans doute faire face à une révolution de l’IA et adapter le
système éducatif en conséquence. Une anticipation qui n’est pas encore dans les gênes
de nos dirigeants et qui présente donc un risque d’instabilité du marché du travail.

 

Sébastien Viou