De nombreux projets de loi sur l’IA circulent actuellement au Congrès, et OpenAI apporte son soutien à certains d’entre eux.
OpenAI a approuvé mardi trois projets de loi du Sénat qui pourraient façonner la position du gouvernement fédéral sur l'intelligence artificielle. L'un de ces projets de loi, le Future of AI Innovation Act, autoriserait officiellement l'AI Safety Institute des États-Unis à devenir un organisme fédéral chargé d'établir des normes et des lignes directrices pour les modèles d'IA.
« Nous avons toujours soutenu la mission de l’institut, qui dirige les efforts du gouvernement américain pour garantir que les systèmes d’IA de pointe soient développés et déployés en toute sécurité », a déclaré Anna Makanju, vice-présidente des affaires mondiales d’OpenAI, dans un message publié sur LinkedIn. Selon Anna Makanju, le projet de loi apporte le soutien du Congrès au nouvel institut pour « minimiser les risques potentiels posés par cette nouvelle technologie ».
OpenAI a également approuvé le NSF AI Education Act et le CREATE AI Act. Ces projets de loi prévoient des bourses fédérales pour la recherche en IA et établissent des ressources pédagogiques en IA dans les collèges et les lycées.
Alors pourquoi OpenAI, la startup à l’origine de ChatGPT, soutient-elle aujourd’hui les lois américaines ? Dans son message sur LinkedIn, Makanju explique qu’OpenAI estime qu’elle a un rôle important à jouer pour garantir que l’IA soit sûre et accessible. Mais en lisant entre les lignes, OpenAI est également leader mondial en matière d’IA générative. La startup a explosé pour atteindre une valorisation de 86 milliards de dollars grâce à son partenariat avec Microsoft, et maintenant Apple. OpenAI est un candidat probable pour faire l’objet d’un examen réglementaire à l’avenir, donc ces soutiens aident OpenAI à gagner la bonne volonté des législateurs fédéraux. Plus que cela, des soutiens comme ceux-ci aident OpenAI à obtenir une place à la table des discussions futures sur la réglementation de l’IA.
Un porte-parole d'OpenAI a dirigé TechCrunch vers la publication LinkedIn de Makanju lorsqu'il a été invité à commenter.
Lundi, OpenAI a signé une lettre aux législateurs en soutien à l'AI Safety Institute aux côtés de plusieurs grandes et petites entreprises, dont Microsoft, Meta, Palantir, Cohere, Amazon et d'autres. En vertu de la loi sur l'avenir de l'innovation en matière d'IA, l'institut est censé travailler aux côtés d'organisations privées et publiques pour développer des normes pour les systèmes d'IA.
La loi sur l’avenir de l’innovation en matière d’IA ordonne également aux agences fédérales de créer des ensembles de données organisées, disponibles pour un usage public, qui ne seront probablement pas créés par des entreprises privées.
Le choix du moment choisi par OpenAI n'est pas une coïncidence : deux de ces projets de loi doivent être examinés lors d'une session exécutive mercredi matin. Cela fait partie de la danse délicate que se livrent OpenAI et d'autres sociétés d'IA pour se mettre du bon côté des législateurs qui pourraient un jour décider de leur sort.
