L'année dernière, OpenAI a organisé un événement de presse retentissant à San Francisco au cours duquel la société a annoncé une multitude de nouveaux produits et outils, notamment le malheureux GPT Store, semblable à l'App Store.
Cette année, l'événement sera toutefois plus calme. Lundi, OpenAI a annoncé qu'elle allait modifier le format de sa conférence DevDay, passant d'un événement phare à une série de sessions d'engagement des développeurs sur la route. La société a également confirmé qu'elle ne lancerait pas son prochain modèle phare majeur pendant le DevDay, se concentrant plutôt sur les mises à jour de ses API et de ses services aux développeurs.
« Nous n'avons pas prévu d'annoncer notre prochain modèle lors du DevDay », a déclaré un porte-parole d'OpenAI à TechCrunch. « Nous nous concentrerons davantage sur la sensibilisation des développeurs à ce qui est disponible et sur la présentation des histoires de la communauté de développeurs. »
Cette année, les événements DevDay d'OpenAI auront lieu à San Francisco le 1er octobre, à Londres le 30 octobre et à Singapour le 21 novembre. Tous comprendront des ateliers, des sessions de travail en petits groupes, des démonstrations avec le personnel produit et technique d'OpenAI et des projecteurs sur les développeurs. L'inscription coûtera 450 $ (ou 0 $ grâce aux bourses disponibles pour les participants éligibles), les candidatures devant être clôturées le 15 août.
Ces derniers mois, OpenAI a fait plus de progrès progressifs que de bonds en avant dans le domaine de l’IA générative, choisissant d’affiner et de peaufiner ses outils tout en formant le successeur de ses modèles phares actuels, GPT-4o et GPT-4o mini. L’entreprise a peaufiné ses approches pour améliorer les performances globales de ses modèles et éviter que ces derniers ne déraillent aussi souvent qu’auparavant, mais OpenAI semble avoir perdu son avance technique dans la course à l’IA générative – du moins selon certains benchmarks.
L’une des raisons pourrait être le défi croissant de trouver des données de formation de haute qualité.
Les modèles d'OpenAI, comme la plupart des modèles d'IA génératifs, sont formés à partir de vastes collections de données Web, des données Web que de nombreux créateurs choisissent de bloquer par crainte que leurs données soient plagiées ou qu'ils ne soient pas crédités ou payés. Plus de 35 % des 1 000 premiers sites Web du monde bloquent désormais le robot d'exploration d'OpenAI, selon les données d'Originity.AI. Et environ 25 % des données provenant de sources « de haute qualité » ont été exclues des principaux ensembles de données utilisés pour former les modèles d'IA, selon une étude de la Data Provenance Initiative du MIT.
Si la tendance actuelle au blocage des accès se poursuit, le groupe de recherche Epoch AI prédit que les développeurs seront à court de données pour former des modèles d'IA génératifs entre 2026 et 2032. Cela – et la crainte de poursuites en matière de droits d'auteur – a forcé OpenAI à conclure des accords de licence coûteux avec des éditeurs et divers courtiers en données.
OpenAI aurait développé une technique de raisonnement qui pourrait améliorer les réponses de ses modèles à certaines questions, notamment mathématiques, et la directrice technique de l'entreprise, Mira Murati, a promis un futur modèle doté d'une intelligence de « niveau doctorat ». (OpenAI a révélé dans un article de blog en mai qu'elle avait commencé à entraîner son prochain modèle « frontière ».) C'est une promesse importante – et la pression est forte pour tenir ses promesses. OpenAI perdrait des milliards de dollars pour former ses modèles et embaucher du personnel de recherche très bien payé.
OpenAI fait encore face à de nombreuses controverses, comme l’utilisation de données protégées par le droit d’auteur pour la formation, les accords de confidentialité restrictifs conclus avec les employés et l’éviction effective des chercheurs en sécurité. Le ralentissement du cycle de vie des produits pourrait avoir pour effet secondaire bénéfique de contrer l’idée selon laquelle OpenAI a dépriorisé le travail sur la sécurité de l’IA au profit de technologies d’IA génératives plus performantes et plus puissantes.