Perplexity n’a pas répondu aux demandes de commentaires.
Dans une déclaration envoyée par courrier électronique à WIRED, le directeur général de News Corp, Robert Thomson, a comparé défavorablement Perplexity à OpenAI. “Nous saluons les entreprises de principe comme OpenAI, qui comprennent que l’intégrité et la créativité sont essentielles si nous voulons réaliser le potentiel de l’intelligence artificielle”, indique le communiqué. « Perplexity n’est pas la seule entreprise d’IA à abuser de la propriété intellectuelle et ce n’est pas la seule entreprise d’IA que nous poursuivrons avec vigueur et rigueur. Nous avons clairement indiqué que nous préférions courtiser plutôt que poursuivre en justice, mais, pour le bien de nos journalistes, de nos écrivains et de notre entreprise, nous devons défier la kleptocratie du contenu.»
OpenAI est cependant confronté à ses propres accusations de dilution de marque. Dans le New York Times contre OpenAIle Times allègue que ChatGPT et Bing Chat attribueront des citations inventées au Times et accuse OpenAI et Microsoft de nuire à sa réputation en diluant sa marque. Dans un exemple cité dans le procès, le Times allègue que Bing Chat a affirmé que le Times qualifiait le vin rouge (avec modération) d’aliment « sain pour le cœur », alors qu’en réalité ce n’était pas le cas ; le Times affirme que ses reportages ont réfuté les affirmations concernant les effets bénéfiques pour la santé d’une consommation modérée d’alcool.
“Copier des articles de presse pour exploiter des produits d’IA génératifs commerciaux substitutifs est illégal, comme nous l’avons clairement indiqué dans nos lettres à Perplexity et dans notre litige contre Microsoft et OpenAI”, a déclaré Charlie Stadtlander, directeur des communications externes du New York Times. “Nous applaudissons ce procès du Dow Jones. et le New York Post, ce qui constitue une étape importante pour garantir que le contenu des éditeurs est protégé contre ce type de détournement. »
Si les éditeurs l’emportent en affirmant que les hallucinations peuvent violer le droit des marques, les entreprises d’IA pourraient être confrontées à « d’immenses difficultés », selon Matthew Sag, professeur de droit et d’intelligence artificielle à l’Université Emory.
“Il est absolument impossible de garantir qu’un modèle de langage n’hallucinera pas”, déclare Sag. Selon lui, la façon dont les modèles linguistiques fonctionnent en prédisant les mots qui semblent corrects en réponse à des invites est toujours une sorte d’hallucination – parfois cela semble simplement plus plausible que d’autres.
“Nous appelons cela une hallucination uniquement si cela ne correspond pas à notre réalité, mais le processus est exactement le même, que le résultat nous plaise ou non.”