Les géants de la tech n’auront pas, pour l’instant, à s’assurer que leurs modèles d’IA ne sont pas susceptibles de provoquer une catastrophe (humaine ou économique). Le projet de loi en ce sens du législateur californien s’est vu opposé le veto du gouverneur.
Les tentatives de régulation de l’IA sont légion, de notre côté de l’Atlantique comme aux Etats-Unis. Mais peu de textes ont autant cristallisé les tensions que le Californien SB 1047. Ce projet de loi « Safe and Secure Innovation for Frontier Artificial Intelligence Models Act » n’entendait rien de moins qu’éviter les catastrophes liées aux modèles d’intelligence artificielle avant qu’elle ne se produise.
Protocoles de sécurité et responsabilité
Approuvé par le Sénat californien en août, le texte faisait l’objet d’un feu nourri de la part des géants de l’IA, des fonds d’investissements et de quelques élus. Le projet de loi prévoyait, entre autres, que le procureur de l’Etat puisse engager des poursuites contre une entreprise qui se montrerait négligente en matière de sureté. Par ailleurs, les développeurs devaient apporter « l’assurance raisonnable » que leurs modèles ne posaient pas de risques de « catastrophe ».
Pour ce faire, un nouvel organisme gouvernemental était créé et chargé de délivrer un agrément annuel aux entreprises en évaluant les risques de son modèle d’IA et l’efficacité de son protocole de sécurité. En effet, le projet de loi exigeait la mise en place d’un protocole de sécurité pour empêcher les utilisations abusives des produits d’IA, y compris un « kill switch », des procédures de test documentées et des audits. Cette « Frontier Model Division » pouvait en outre saisir le procureur si elle consta des manquements à la loi.
Le tout était assorti d’une obligation de notification, similaires aux notifications de violation de données, si un « incident de sécurité de l’IA » se produit, dans les 72 heures suivant la prise de connaissance de l’incident.
Les géants à la manœuvre
A noter que le texte ne s’appliquait qu’aux plus grands modèles d’IA, coûtant au moins 100 millions de dollars et utilisant 10^26 FLOPS. Très peu d’entreprises sont donc, à l’heure actuelle, concernées par ce train d’obligations, à l’exception des géants de la tech tels que Google et Microsoft, ainsi qu’OpenAI.
Entre temps, avant d’arriver sur le bureau du gouverneur, SB 1047 est passé entre les mains du California’s Appropriations Committee. Le texte y a été considérablement édulcoré, sous l’influence notamment d’Anthropic : le procureur n’avait plus qu’un pouvoir d’injonction à cesser certaines opérations risquées et ne pouvait engager de poursuite qu’après une crise. Le ton a d’ailleurs été adouci : il n’était plus question « d’assurance raisonnable » mais « d’assurance raisonnable ».
La Californie à l’avant-garde
Si nous parlons depuis le début de cet article de SB 1047 au passé, la raison en est très simple : le gouverneur de Californie, Gavin Newsom, a posé son veto. Et ce pour la plus grande joie des détracteurs du texte. Dans l’explication de son véto, le gouverneur souligne que, bien que « d’accord avec l’auteur […], je ne suis cependant pas d’accord avec l’idée que pour assurer la sécurité du public, nous devons nous contenter d’une solution qui ne repose pas sur une analyse empirique de la trajectoire des systèmes et des capacités de l’IA ».
En cause, une loi trop large, qui s’applique à tous les fonctions d’un modèle sans distinction. « SB 1047 ne prend pas en compte le fait qu’un système d’IA soit déployé dans des environnements à haut risque, implique une prise de décision critique ou l’utilisation de données sensibles » écrit Gavin Newsom. Dans un communiqué, il souligne par ailleurs avoir signé un grand nombre de projets de loi couvrant le déploiement et la réglementation de la technologie GenAI, plaçant la Californie « à l’avant-garde de la régulation de ce secteur ». Des travaux qui se poursuivent, le gouverneur assurant « avoir demandé aux plus grands experts mondiaux de l’IA générative d’aider la Californie à développer des garde-fous pratiques pour le déploiement de grands modèles ».