Alors que les entreprises intègrent de plus en plus l’intelligence artificielle dans leurs flux de travail et leurs produits, il existe une demande croissante d’outils et de plateformes facilitant la création, le test et le déploiement de modèles d’apprentissage automatique. Cette catégorie de plateformes – communément appelées opérations d'apprentissage automatique, MLOps – est déjà un peu encombrée, avec des startups comme InfuseAI, Comet, Arrikto, Arize, Galileo, Tecton et Diveplane, sans parler des offres d'opérateurs historiques comme Google Cloud, Azure et AWS.
Aujourd’hui, une plate-forme MLOps sud-coréenne appelée VESSL AI tente de se tailler une niche en se concentrant sur l’optimisation des dépenses GPU à l’aide d’une infrastructure hybride combinant des environnements sur site et cloud. Et la startup a maintenant levé 12 millions de dollars dans le cadre d'un cycle de financement de série A pour accélérer le développement de son infrastructure, destinée aux entreprises qui souhaitent développer des modèles de langage étendus (LLM) personnalisés et des agents d'IA verticaux.
L'entreprise compte déjà 50 entreprises clientes, parmi lesquelles de grands noms comme Hyundai ; LIG Nex1, un fabricant sud-coréen d'aérospatiale et d'armes ; TMAP Mobility, une coentreprise de mobilité en tant que service entre Uber et la société de télécommunications coréenne SK Telecom ; ainsi que les startups technologiques Yanolja, Upstage, ScatterLab et Wrtn.ai. La société a également établi un partenariat stratégique avec Oracle et Google Cloud aux États-Unis. Elle compte plus de 2 000 utilisateurs, a déclaré à TechCrunch le co-fondateur et PDG Jaeman Kuss An.
An a fondé la startup en 2020 avec Jihwan Jay Chun (CTO), Intae Ryoo (CPO) et Yongseon Sean Lee (responsable technique) – les fondateurs ont déjà travaillé chez Google, la société de jeux mobiles PUBG et certaines startups d'IA – pour résoudre un problème particulier. Le problème auquel il a dû faire face lors du développement de modèles d’apprentissage automatique dans une précédente startup de technologie médicale : l’immense quantité de travail impliquée dans le développement et l’utilisation d’outils d’apprentissage automatique.
L’équipe a découvert qu’elle pouvait rendre le processus plus efficace – et notamment moins cher – en tirant parti d’un modèle d’infrastructure hybride. La plate-forme MLOps de la société utilise essentiellement une stratégie multi-cloud et des instances ponctuelles pour réduire les dépenses en GPU jusqu'à 80 %, a noté An, ajoutant que cette approche résout également les pénuries de GPU et rationalise la formation, le déploiement et l'exploitation des modèles d'IA, y compris les grands LLM à grande échelle.
« La stratégie multi-cloud de VESSL AI permet l'utilisation de GPU provenant de divers fournisseurs de services cloud tels qu'AWS, Google Cloud et Lambda », a déclaré An. « Ce système sélectionne automatiquement les ressources les plus rentables et les plus efficaces, réduisant ainsi considérablement les coûts pour les clients. »
La plate-forme VESSL offre quatre fonctionnalités principales : VESSL Run, qui automatise la formation des modèles d'IA ; VESSL Serve, qui prend en charge le déploiement en temps réel ; VESSL Pipelines, qui intègre la formation de modèles et le prétraitement des données pour rationaliser les flux de travail ; et VESSL Cluster, qui optimise l'utilisation des ressources GPU dans un environnement de cluster.
Les investisseurs pour le cycle de série A, qui porte le total de la société levé à 16,8 millions de dollars, comprennent A Ventures, Ubiquitous Investment, Mirae Asset Securities, Sirius Investment, SJ Investment Partners, Woori Venture Investment et Shinhan Venture Investment. La startup compte 35 collaborateurs en Corée du Sud et dans un bureau de San Mateo aux États-Unis.