Dans son « Manifeste techno-optimiste » polarisant de l’année dernière, le capital-risqueur Marc Andreessen a énuméré un certain nombre d’ennemis du progrès technologique. Parmi eux figuraient « l’éthique technologique » et « la confiance et la sécurité », un terme utilisé pour désigner les travaux sur la modération des contenus en ligne, qui, selon lui, ont été utilisés pour soumettre l’humanité à « une campagne de démoralisation massive » contre les nouvelles technologies telles que l’intelligence artificielle.
La déclaration d’Andreessen a suscité des critiques à la fois publiques et discrètes de la part de personnes travaillant dans ces domaines, notamment chez Meta, où Andreessen est membre du conseil d’administration. Les critiques ont considéré que son discours déformait leur travail visant à assurer la sécurité des services Internet.
Mercredi, Andreessen a apporté quelques éclaircissements : en ce qui concerne la vie en ligne de son fils de 9 ans, il est favorable aux garde-fous. “Je veux qu’il puisse s’inscrire à des services Internet et je veux qu’il vive une expérience semblable à celle de Disneyland”, a déclaré l’investisseur lors d’une conversation sur scène lors d’une conférence pour l’institut de recherche sur l’IA centrée sur l’humain de l’Université de Stanford. « J’adore Internet gratuitement. Un jour, il adorera aussi Internet gratuitement, mais je veux qu’il ait des jardins clos.
Contrairement à ce que son manifeste aurait pu lire, Andreessen a poursuivi en disant qu’il accueille favorablement les entreprises technologiques – et par extension leurs équipes de confiance et de sécurité – qui établissent et appliquent des règles pour le type de contenu autorisé sur leurs services.
« Il y a une grande latitude, entreprise par entreprise, pour pouvoir décider de cela », a-t-il déclaré. “Disney impose des codes de comportement différents à Disneyland de ceux qui se produisent dans les rues d’Orlando.” Andreessen a fait allusion à la façon dont les entreprises technologiques peuvent faire face à des sanctions gouvernementales pour avoir autorisé des images d’abus sexuels sur des enfants et certains autres types de contenu, de sorte qu’elles ne peuvent pas se passer complètement de la confiance et des équipes de sécurité.
Alors, quel type de modération de contenu Andreessen considère-t-il comme un ennemi du progrès ? Il a expliqué qu’il craignait que deux ou trois entreprises dominent le cyberespace et se « joignent » au gouvernement d’une manière qui rende certaines restrictions universelles, provoquant ce qu’il a appelé « de puissantes conséquences sociétales », sans préciser quelles pourraient être ces dernières. “Si vous vous retrouvez dans un environnement où il y a une censure et des contrôles omniprésents, alors vous avez un réel problème”, a déclaré Andreessen.
La solution, telle qu’il l’a décrite, consiste à garantir la concurrence dans l’industrie technologique et une diversité d’approches en matière de modération du contenu, certaines ayant des restrictions plus strictes sur la parole et les actions que d’autres. « Ce qui se passe sur ces plateformes compte vraiment », a-t-il déclaré. « Ce qui se passe dans ces systèmes compte vraiment. Ce qui se passe dans ces entreprises compte vraiment.
Andreessen n’a pas évoqué X, la plateforme sociale dirigée par Elon Musk et anciennement connue sous le nom de Twitter, dans laquelle sa société Andreessen Horowitz a investi lorsque le PDG de Tesla a pris le relais fin 2022. Musk a rapidement licencié une grande partie du personnel de confiance et de sécurité de l’entreprise. , a fermé l’équipe d’éthique de l’IA de Twitter, assoupli les règles de contenu et réintégré les utilisateurs qui avaient été précédemment bannis définitivement.
Ces changements, associés à l’investissement et au manifeste d’Andreessen, ont donné l’impression que l’investisseur souhaitait peu de limites à la liberté d’expression. Ses commentaires clarifiants faisaient partie d’une conversation avec Fei-Fei Li, codirecteur du HAI de Stanford, intitulée « Supprimer les obstacles à un écosystème innovant et robuste en matière d’IA ».
Au cours de la session, Andreessen a également réitéré les arguments qu’il avait avancés au cours de l’année écoulée, selon lesquels ralentir le développement de l’IA par le biais de réglementations ou d’autres mesures recommandées par certains défenseurs de la sécurité de l’IA reviendrait à répéter ce qu’il considère comme le retrait erroné des États-Unis de leurs investissements dans l’énergie nucléaire il y a plusieurs décennies. .
L’énergie nucléaire serait une « solution miracle » à de nombreuses préoccupations actuelles concernant les émissions de carbone provenant d’autres sources d’électricité, a déclaré Andreessen. Au lieu de cela, les États-Unis se sont retirés et le changement climatique n’a pas été maîtrisé comme il aurait pu l’être. « Il s’agit d’un cadre extrêmement négatif et d’aversion au risque », a-t-il déclaré. « La présomption dans la discussion est que s’il y a des dommages potentiels, il devrait y avoir des réglementations, des contrôles, des limitations, des pauses, des arrêts, des gels. »
Pour des raisons similaires, Andreessen a déclaré qu’il souhaite voir le gouvernement investir davantage dans l’infrastructure et la recherche en matière d’IA et donner plus de liberté à l’expérimentation de l’IA, par exemple en ne restreignant pas les modèles d’IA open source au nom de la sécurité. S’il souhaite que son fils vive l’expérience de l’IA à Disneyland, certaines règles, qu’elles émanent des gouvernements ou des équipes de confiance et de sécurité, peuvent également être nécessaires.