Bonjour à tous, bienvenue dans la newsletter IA régulière de TechCrunch.
Cette semaine, une nouvelle étude montre que l’IA générative n’est pas si dangereuse que ça — du moins pas au sens apocalyptique.
Dans un article soumis à la conférence annuelle de l'Association for Computational Linguistics, des chercheurs de l'Université de Bath et de l'Université de Darmstadt soutiennent que les modèles comme ceux de la famille Llama de Meta ne peuvent pas apprendre de manière indépendante ou acquérir de nouvelles compétences sans instruction explicite.
Les chercheurs ont mené des milliers d'expériences pour tester la capacité de plusieurs modèles à réaliser des tâches qu'ils n'avaient jamais rencontrées auparavant, comme répondre à des questions sur des sujets qui dépassaient le cadre de leurs données d'entraînement. Ils ont découvert que, même si les modèles pouvaient suivre superficiellement des instructions, ils ne pouvaient pas maîtriser de nouvelles compétences par eux-mêmes.
« Notre étude montre que la crainte de voir un modèle disparaître et faire quelque chose de complètement inattendu, innovant et potentiellement dangereux n’est pas fondée », a déclaré Harish Tayyar Madabushi, informaticien à l’Université de Bath et co-auteur de l’étude, dans un communiqué. « Le discours dominant selon lequel ce type d’IA constitue une menace pour l’humanité empêche l’adoption et le développement à grande échelle de ces technologies, et détourne également l’attention des véritables problèmes qui nécessitent notre attention. »
L’étude comporte des limites. Les chercheurs n’ont pas testé les modèles les plus récents et les plus performants de fournisseurs comme OpenAI et Anthropic, et les modèles d’évaluation comparative ont tendance à être une science imprécise. Mais cette recherche est loin d’être la première à démontrer que la technologie d’IA générative actuelle ne menace pas l’humanité – et que supposer le contraire risque d’entraîner des décisions politiques regrettables.
Dans un éditorial publié l’année dernière dans Scientific American, Alex Hanna, spécialiste de l’éthique de l’IA, et Emily Bender, professeure de linguistique, ont fait valoir que les laboratoires d’IA des entreprises détournaient l’attention des autorités réglementaires vers des scénarios imaginaires de fin du monde, en les considérant comme des manœuvres bureaucratiques. Ils ont souligné l’intervention du PDG d’OpenAI, Sam Altman, lors d’une audition au Congrès en mai 2023, au cours de laquelle il a suggéré – sans preuve – que les outils d’IA générative pourraient « très mal tourner ».
« Le grand public et les organismes de réglementation ne doivent pas se laisser prendre par cette manœuvre », écrivent Hanna et Bender. « Nous devrions plutôt nous tourner vers les universitaires et les militants qui pratiquent l’évaluation par les pairs et qui ont repoussé le battage médiatique autour de l’IA pour tenter de comprendre ses effets néfastes ici et maintenant. »
Leurs points et ceux de Madabushi sont essentiels à garder à l’esprit alors que les investisseurs continuent d’investir des milliards dans l’IA générative et que le cycle de battage médiatique approche de son apogée. Les enjeux sont considérables pour les entreprises qui soutiennent la technologie de l’IA générative, et ce qui est bon pour elles – et leurs bailleurs de fonds – n’est pas forcément bon pour le reste d’entre nous.
L’intelligence artificielle générative ne causera peut-être pas notre extinction. Mais elle est déjà néfaste à d’autres égards : on peut citer la propagation de la pornographie deepfake non consensuelle, les arrestations injustifiées par reconnaissance faciale et les hordes d’annotateurs de données sous-payés. Espérons que les décideurs politiques en prendront conscience et partageront ce point de vue – ou finiront par changer d’avis. Dans le cas contraire, l’humanité pourrait bien avoir quelque chose à craindre.
Nouvelles
Google Gemini et l'IA, oh mon Dieu : L'événement annuel Made By Google de Google a eu lieu mardi, et la société a annoncé de nombreuses mises à jour de son assistant Gemini, ainsi que de nouveaux téléphones, écouteurs et montres connectées. Consultez le résumé de TechCrunch pour connaître toutes les dernières nouvelles.
Le procès pour atteinte aux droits d'auteur sur l'IA avance : Un recours collectif intenté par des artistes qui accusent Stability AI, Runway AI et DeviantArt d'avoir illégalement entraîné leurs IA sur des œuvres protégées par le droit d'auteur peut être poursuivi, mais seulement en partie, a décidé lundi le juge qui préside le procès. Dans une décision mitigée, plusieurs des demandes des plaignants ont été rejetées tandis que d'autres ont survécu, ce qui signifie que le procès pourrait aboutir au procès.
Problèmes pour X et Grok : X, la plateforme de médias sociaux appartenant à Elon Musk, a été la cible d'une série de plaintes pour atteinte à la vie privée après s'être servie des données des utilisateurs de l'Union européenne pour former des modèles d'IA sans demander leur consentement. X a accepté de cesser de traiter les données de l'UE pour la formation de Grok — pour l'instant.
YouTube teste le brainstorming Gemini : YouTube teste une intégration avec Gemini pour aider les créateurs à réfléchir à des idées de vidéos, des titres et des miniatures. Baptisée Brainstorm with Gemini, cette fonctionnalité n'est actuellement disponible que pour certains créateurs dans le cadre d'une petite expérience limitée.
Le GPT-4o d'OpenAI fait des choses étranges : Le GPT-4o d'OpenAI est le premier modèle de l'entreprise à être formé à la fois à la voix, au texte et aux images. Cela l'amène parfois à se comporter de manière étrange, comme imiter la voix de la personne qui lui parle ou crier de manière aléatoire au milieu d'une conversation.
Article de recherche de la semaine
Il existe de nombreuses entreprises proposant des outils qui, selon elles, peuvent détecter de manière fiable les textes rédigés par un modèle d'IA générative, ce qui serait utile pour, par exemple, lutter contre la désinformation et le plagiat. Mais lorsque nous en avons testé quelques-uns il y a quelque temps, ces outils fonctionnaient rarement. Et une nouvelle étude suggère que la situation ne s'est pas beaucoup améliorée.
Des chercheurs de l'Université de Pennsylvanie ont conçu un ensemble de données et un classement, le Robust AI Detector (RAID), de plus de 10 millions de recettes, d'articles de presse, de billets de blog et autres générés par l'IA et rédigés par des humains pour mesurer les performances des détecteurs de texte IA. Ils ont découvert que les détecteurs qu'ils ont évalués étaient « pour la plupart inutiles » (selon les termes des chercheurs), ne fonctionnant que lorsqu'ils étaient appliqués à des cas d'utilisation spécifiques et à du texte similaire à celui sur lequel ils ont été formés.
« Si les universités ou les écoles s'appuyaient sur un détecteur étroitement formé pour détecter l'utilisation de [generative AI] « En s’appuyant sur des méthodes qui leur permettent de rédiger leurs devoirs, ils pourraient accuser à tort les étudiants de tricher alors qu’ils ne le font pas », a déclaré Chris Callison-Burch, professeur en informatique et en sciences de l’information et co-auteur de l’étude, dans un communiqué. « Ils pourraient également passer à côté d’étudiants qui trichaient en utilisant d’autres outils. [generative AI] pour générer leurs devoirs.
Il n’existe pas de solution miracle en matière de détection de texte par l’IA, semble-t-il : le problème est insoluble.
OpenAI aurait développé un nouvel outil de détection de texte pour ses modèles d'IA, une amélioration par rapport à la première tentative de l'entreprise, mais refuse de le publier par crainte qu'il n'ait un impact disproportionné sur les utilisateurs non anglophones et qu'il ne soit rendu inefficace par de légères modifications du texte. (De manière moins philanthropique, OpenAI serait également préoccupée par l'impact qu'un détecteur de texte IA intégré pourrait avoir sur la perception – et l'utilisation – de ses produits.)
Modèle de la semaine
L’intelligence artificielle générative ne se limite pas à la création de mèmes. Des chercheurs du MIT l’utilisent pour signaler des problèmes dans des systèmes complexes comme les éoliennes.
Une équipe du laboratoire d'informatique et d'intelligence artificielle du MIT a développé un cadre, appelé SigLLM, qui comprend un composant permettant de convertir des données de séries chronologiques (mesures prises de manière répétée au fil du temps) en entrées textuelles pouvant être traitées par un modèle d'IA générative. Un utilisateur peut alimenter le modèle avec ces données préparées et lui demander de commencer à identifier les anomalies. Le modèle peut également être utilisé pour prévoir les futurs points de données de séries chronologiques dans le cadre d'un pipeline de détection d'anomalies.
Le framework n'a pas fonctionné exceptionnellement Les chercheurs ont bien compris les résultats de leurs expériences. Mais si ses performances peuvent être améliorées, SigLLM pourrait, par exemple, aider les techniciens à détecter les problèmes potentiels sur des équipements tels que des machines lourdes avant qu'ils ne surviennent.
« Comme il ne s'agit que de la première itération, nous ne nous attendions pas à y parvenir dès le premier essai, mais ces résultats montrent qu'il existe ici une opportunité à exploiter [generative AI models] « pour des tâches complexes de détection d'anomalies », a déclaré Sarah Alnegheimish, étudiante diplômée en génie électrique et en informatique et auteur principal d'un article sur SigLLM, dans un communiqué.
Sac fourre-tout
OpenAI a mis à niveau ChatGPT, sa plateforme de chatbot alimentée par l'IA, vers un nouveau modèle de base ce mois-ci – mais n'a publié aucun journal des modifications (enfin, à peine un journal des modifications).
Alors, qu'en penser ? peut Il n'y a qu'une seule façon de le faire, exactement ? Il n'y a rien d'autre à dire que des preuves anecdotiques issues de tests subjectifs.
Je pense qu’Ethan Mollick, professeur à Wharton qui étudie l’IA, l’innovation et les startups, avait raison. Il est difficile d’écrire des notes de version pour les modèles d’IA générative, car les modèles « se sentent » différemment d’une interaction à l’autre ; ils sont en grande partie basés sur les vibrations. Dans le même temps, les gens utilisent – et paient pour – ChatGPT. Ne méritent-ils pas de savoir dans quoi ils s’engagent ?
Il se pourrait que les améliorations soient progressives, et OpenAI estime qu'il n'est pas judicieux, pour des raisons de concurrence, de le signaler. Il est moins probable que le modèle soit lié d'une manière ou d'une autre aux avancées de raisonnement rapportées par OpenAI. Quoi qu'il en soit, en matière d'IA, la transparence devrait être une priorité. Il ne peut y avoir de confiance sans elle – et OpenAI en a déjà beaucoup perdu.