Demo

Le projet de loi californien visant à prévenir les catastrophes liées à l'intelligence artificielle, SB 1047, a rencontré une forte opposition de la part de nombreux partis de la Silicon Valley. Aujourd'hui, les législateurs californiens ont légèrement cédé à cette pression, en ajoutant plusieurs amendements suggérés par la société d'intelligence artificielle Anthropic et d'autres opposants.

Jeudi, le projet de loi a été adopté par la commission des crédits de Californie, une étape importante vers l'adoption d'une loi, avec plusieurs changements clés, a déclaré le bureau du sénateur Wiener à TechCrunch.

« Nous avons accepté un certain nombre d’amendements très raisonnables proposés, et je pense que nous avons répondu aux principales préoccupations exprimées par Anthropic et de nombreux autres acteurs du secteur », a déclaré le sénateur Wiener dans une déclaration à TechCrunch. « Ces amendements s’appuient sur les changements importants apportés au projet de loi SB 1047 que j’ai apportés précédemment pour répondre aux besoins uniques de la communauté open source, qui est une source importante d’innovation. »

Le projet de loi SB 1047 vise toujours à empêcher les grands systèmes d'IA de tuer de nombreuses personnes ou de provoquer des incidents de cybersécurité coûtant plus de 500 millions de dollars, en tenant les développeurs responsables. Cependant, le projet de loi accorde désormais moins de pouvoir au gouvernement californien pour demander des comptes aux laboratoires d'IA.

Que fait désormais le projet de loi SB 1047 ?

Le projet de loi ne permet plus au procureur général de Californie de poursuivre les entreprises d'IA pour négligence en matière de sécurité avant qu'un événement catastrophique ne se produise. Il s'agit d'une suggestion d'Anthropic.

Au lieu de cela, le procureur général de Californie peut demander une injonction, demandant à une entreprise de cesser une certaine opération qu'elle juge dangereuse, et peut toujours poursuivre un développeur d'IA si son modèle provoque un événement catastrophique.

En outre, le projet de loi SB 1047 ne crée plus la Frontier Model Division (FMD), une nouvelle agence gouvernementale auparavant incluse dans le projet de loi. Cependant, le projet de loi crée toujours le Board of Frontier Models (le cœur de la FMD) et les place au sein de l'Agence des opérations gouvernementales existante. En fait, le conseil est désormais plus grand, avec neuf personnes au lieu de cinq. Le Board of Frontier Models fixera toujours les seuils de calcul pour les modèles couverts, émettra des directives de sécurité et émettra des réglementations pour les auditeurs.

Le sénateur Wiener a également amendé le projet de loi SB 1047 afin que les laboratoires d’IA n’aient plus besoin de soumettre des attestations de résultats de tests de sécurité « sous peine de parjure ». Désormais, ces laboratoires d’IA sont simplement tenus de soumettre des « déclarations » publiques décrivant leurs pratiques de sécurité, mais le projet de loi n’impose plus aucune responsabilité pénale.

Le projet de loi SB 1047 inclut désormais un langage plus indulgent sur la manière dont les développeurs garantissent la sécurité des modèles d’IA. Désormais, le projet de loi exige que les développeurs fournissent des « soins raisonnables » pour que les modèles d’IA ne présentent pas de risque significatif de provoquer une catastrophe, au lieu de l’« assurance raisonnable » requise par le projet de loi auparavant.

Les législateurs ont également ajouté une protection pour les modèles open source affinés. Si quelqu'un dépense moins de 10 millions de dollars pour peaufiner un modèle couvert, il n'est explicitement pas considéré comme un développeur par la SB 1047. La responsabilité incombera toujours au développeur original, plus important, du modèle.

Pourquoi tous ces changements maintenant ?

Bien que le projet de loi ait rencontré une forte opposition de la part des membres du Congrès américain, des chercheurs renommés en intelligence artificielle, des grandes entreprises technologiques et des investisseurs en capital-risque, il a été adopté relativement facilement par l'assemblée législative californienne. Ces amendements devraient apaiser les opposants au projet de loi SB 1047 et présenter au gouverneur Newsom un projet de loi moins controversé qu'il peut signer sans perdre le soutien de l'industrie de l'IA.

Bien que Newsom n'ait pas commenté publiquement le projet de loi SB 1047, il a déjà indiqué son engagement envers l'innovation en matière d'IA en Californie.

Cela dit, ces changements ne sont pas susceptibles d’apaiser les critiques acharnées de la SB 1047. Bien que le projet de loi soit nettement plus faible qu’avant ces amendements, la SB 1047 tient toujours les développeurs responsables des dangers de leurs modèles d’IA. Ce fait fondamental de la SB 1047 n’est pas universellement soutenu, et ces amendements ne font pas grand-chose pour y remédier.

En fait, quelques instants après l’adoption du projet de loi SB 1047 jeudi, huit membres du Congrès des États-Unis représentant la Californie ont écrit une lettre demandant au gouverneur Newsom d’opposer son veto au projet de loi. Ils écrivent que le projet de loi « ne serait pas bon pour notre État, pour la communauté des start-ups, pour le développement scientifique, ou même pour la protection contre les éventuels dommages associés au développement de l’IA ».

Quelle est la prochaine étape ?

Le projet de loi SB 1047 est maintenant soumis au vote final de l'Assemblée de Californie. S'il est adopté, il devra être renvoyé au Sénat de Californie pour un vote en raison de ces derniers amendements. S'il est adopté par les deux, il sera dirigé vers le bureau du gouverneur Newsom, où il pourrait être opposé à son veto ou promulgué.

Source link

Share.

Comments are closed.