Un projet de loi controversé visant à prévenir les catastrophes liées à l'IA, le SB 1047, a été adopté par le Sénat de l'État et est désormais sur le bureau du gouverneur Gavin Newsom. Il doit évaluer les risques théoriques les plus extrêmes des systèmes d'IA – y compris leur rôle potentiel dans les décès humains – par rapport aux risques potentiels de contrecarrer l'essor de l'IA en Californie. Il a jusqu'au 30 septembre pour signer le SB 1047 ou y opposer son veto.
Présenté par le sénateur d'État Scott Wiener, le projet de loi SB 1047 vise à empêcher la possibilité que de très grands modèles d'IA créent des événements catastrophiques, tels que des pertes humaines ou des cyberattaques coûtant plus de 500 millions de dollars de dommages.
Pour être clair, il existe aujourd’hui très peu de modèles d’IA suffisamment importants pour être couverts par le projet de loi, et l’IA n’a jamais été utilisée pour une cyberattaque de cette ampleur. Mais le projet de loi concerne l’avenir des modèles d’IA, et non les problèmes qui existent aujourd’hui.
Le projet de loi SB 1047 rendrait les développeurs de modèles d'IA responsables de leurs préjudices (comme les fabricants d'armes à feu responsables de fusillades de masse) et accorderait au procureur général de Californie le pouvoir de poursuivre les entreprises d'IA pour de lourdes pénalités si leur technologie était utilisée lors d'un événement catastrophique. Dans le cas où une entreprise agit de manière imprudente, un tribunal peut lui ordonner de cesser ses activités ; les modèles concernés doivent également être dotés d'un « coupe-circuit » qui permet de les arrêter s'ils sont jugés dangereux.
Ce projet de loi pourrait remodeler le secteur de l'intelligence artificielle aux États-Unis, et il n'est qu'à un pas de devenir loi. Voici comment l'avenir du projet de loi SB 1047 pourrait se dérouler.
Pourquoi Newsom pourrait le signer
Wiener estime que la Silicon Valley a besoin de plus de responsabilité, et a déjà déclaré à TechCrunch que l’Amérique doit tirer les leçons de ses échecs passés en matière de régulation des technologies. Newsom pourrait être incité à agir de manière décisive sur la régulation de l’IA et à demander des comptes aux grandes entreprises technologiques.
Quelques dirigeants du secteur de l'IA se sont montrés prudemment optimistes à propos du projet de loi SB 1047, notamment Elon Musk.
Sophia Velastegui, ancienne directrice de l'intelligence artificielle de Microsoft, est une autre optimiste prudente concernant le projet de loi SB 1047. Elle a déclaré à TechCrunch que « le projet de loi SB 1047 est un bon compromis », tout en admettant que le projet de loi n'est pas parfait. « Je pense que nous avons besoin d'un bureau de l'intelligence artificielle responsable pour l'Amérique, ou tout pays qui y travaille. Cela ne devrait pas être uniquement Microsoft », a déclaré Velastegui.
Anthropic est un autre partisan prudent du projet de loi SB 1047, bien que l'entreprise n'ait pas encore pris position officiellement sur le projet de loi. Plusieurs des changements suggérés par la start-up ont été ajoutés au projet de loi SB 1047, et le PDG Dario Amodei déclare désormais que les « avantages du projet de loi dépassent probablement ses coûts » dans une lettre adressée au gouverneur de Californie. Grâce aux amendements d'Anthropic, les entreprises d'IA ne peuvent être poursuivies qu'après que leurs modèles d'IA ont causé des dommages catastrophiques, pas avant, comme le prévoyait une version précédente du projet de loi SB 1047.
Pourquoi Newsom pourrait y opposer son veto
Compte tenu de la forte opposition de l’industrie au projet de loi, il ne serait pas surprenant que Newsom y oppose son veto. S’il le signe, sa réputation dépendrait du projet de loi SB 1047, mais s’il y oppose son veto, il pourrait repousser le dossier à un an ou laisser le Congrès s’en occuper.
“Ce [SB 1047] « Cela change le précédent qui nous a amenés à gérer la politique logicielle depuis 30 ans », a déclaré Martin Casado, associé général d'Andreessen Horowitz, dans une interview accordée à TechCrunch. « Cela déplace la responsabilité des applications vers l'infrastructure, ce que nous n'avons jamais fait auparavant. »
L'industrie technologique a réagi avec un tollé retentissant contre le projet de loi SB 1047. Aux côtés de a16z, la présidente de la Chambre des représentants Nancy Pelosi, OpenAI, les groupes commerciaux Big Tech et des chercheurs renommés en IA exhortent également Newsom à ne pas signer le projet de loi. Ils craignent que ce changement de paradigme en matière de responsabilité ait un effet paralysant sur l'innovation en IA en Californie.
Un effet paralysant sur l’économie des start-ups est la dernière chose que l’on souhaite. Le boom de l’IA a été un énorme stimulant pour l’économie américaine, et Newsom subit des pressions pour ne pas gâcher cet argent. Même la Chambre de commerce américaine a demandé à Newsom d’opposer son veto au projet de loi, affirmant dans une lettre qu’il lui était adressé que « l’IA est fondamentale pour la croissance économique de l’Amérique ».
Si le projet de loi SB 1047 devient loi
Si Newsom signe le projet de loi, rien ne se passera le premier jour, a déclaré à TechCrunch une source impliquée dans la rédaction du SB 1047.
D'ici le 1er janvier 2025, les entreprises technologiques devront rédiger des rapports de sécurité pour leurs modèles d'IA. À ce stade, le procureur général de Californie pourrait demander une injonction obligeant une entreprise d'IA à cesser de former ou d'exploiter ses modèles d'IA si un tribunal les juge dangereux.
En 2026, le projet de loi entrera en vigueur. À ce moment-là, le conseil d'administration de Frontier Models serait créé et commencerait à recueillir les rapports de sécurité des entreprises technologiques. Ce conseil composé de neuf personnes, sélectionnées par le gouverneur et le parlement de Californie, ferait des recommandations au procureur général de Californie sur les entreprises qui se conforment ou non aux normes.
La même année, le projet de loi SB 1047 obligerait également les développeurs de modèles d'IA à embaucher des auditeurs pour évaluer leurs pratiques de sécurité, créant ainsi une nouvelle industrie de conformité en matière de sécurité de l'IA. Et le procureur général de Californie pourrait commencer à poursuivre les développeurs de modèles d'IA si leurs outils sont utilisés lors d'événements catastrophiques.
D’ici 2027, le Board of Frontier Models pourrait commencer à émettre des conseils à l’intention des développeurs de modèles d’IA sur la manière de former et d’exploiter les modèles d’IA en toute sécurité.
Si le SB 1047 est rejeté
Si Newsom oppose son veto au projet de loi SB 1047, les souhaits d'OpenAI se réaliseraient et les régulateurs fédéraux prendraient probablement l'initiative de réglementer les modèles d'IA… à terme.
Jeudi, OpenAI et Anthropic ont posé les bases de la réglementation fédérale sur l’IA. Ils ont convenu de donner à l’AI Safety Institute, un organisme fédéral, un accès anticipé à leurs modèles d’IA avancés, selon un communiqué de presse. Dans le même temps, OpenAI a approuvé un projet de loi qui permettrait à l’AI Safety Institute d’établir des normes pour les modèles d’IA.
« Pour de nombreuses raisons, nous pensons qu'il est important que cela se produise au niveau national », a écrit le PDG d'OpenAI, Sam Altman, dans un tweet jeudi.
En lisant entre les lignes, on constate que les agences fédérales élaborent généralement une réglementation technologique moins contraignante que celle de la Californie et prennent beaucoup plus de temps à le faire. Mais plus encore, la Silicon Valley a toujours été un partenaire tactique et commercial important pour le gouvernement américain.
« En fait, les systèmes informatiques de pointe fonctionnent depuis longtemps avec les autorités fédérales », a déclaré Casado. « Lorsque je travaillais pour les laboratoires nationaux, chaque fois qu’un nouveau supercalculateur sortait, la toute première version était envoyée au gouvernement. Nous le faisions pour que le gouvernement ait des capacités, et je pense que c’est une meilleure raison que pour des tests de sécurité. »