Anthropic, le deuxième fournisseur d’IA en taille derrière OpenAI, possède une puissante famille de modèles d’IA génératifs appelée Claude. Ces modèles peuvent effectuer une gamme de tâches, allant du sous-titrage d’images à la rédaction d’e-mails en passant par la résolution de problèmes mathématiques et de codage.
Avec la croissance si rapide de l’écosystème de modèles d’Anthropic, il peut être difficile de savoir quels modèles Claude font quoi. Pour vous aider, nous avons élaboré un guide de Claude, que nous tiendrons à jour au fur et à mesure de l’arrivée de nouveaux modèles et mises à niveau.
Modèles Claude
Les modèles Claude portent le nom d’œuvres d’art littéraires : Haïku, Sonnet et Opus. Les derniers sont :
- Claude 3 Haïkuun modèle léger.
- Claude 3.5 Sonnetun modèle milieu de gamme.
- Fermer 3 travauxLe modèle phare d’Anthropic.
Contre-intuitivement, Claude 3.5 Sonnet – le modèle « milieu de gamme » – est actuellement le modèle Claude le plus performant. Il est presque certain que cela changera une fois la prochaine version d’Opus, Claude 3.5 Opus, publiée.
Tous les modèles Claude peuvent analyser du texte ainsi que des images, des tableaux, des graphiques et des diagrammes techniques à partir de documents. Les modèles – qui disposent d’une fenêtre contextuelle standard de 200 000 jetons – peuvent également suivre des instructions en plusieurs étapes, utiliser des outils (par exemple, des trackers boursiers) et produire une sortie structurée dans des formats tels que JSON.
Une fenêtre contextuelle est la quantité de données qu’un modèle comme Claude peut analyser avant de générer de nouvelles données, tandis que les jetons sont des bits subdivisés de données brutes (comme les syllabes « fan », « tas » et « tic » dans le mot « fantastique »). . Deux cent mille jetons équivalent à environ 150 000 mots, soit un roman de 600 pages.
Contrairement à de nombreux modèles majeurs d’IA générative, les Anthropic ne peuvent pas accéder à Internet, ce qui signifie qu’ils ne sont pas particulièrement doués pour répondre aux questions d’actualité. Ils ne peuvent pas non plus générer d’images – seulement de simples diagrammes linéaires.
Quant aux différences majeures entre les modèles Claude, Claude 3.5 Sonnet est plus rapide que Claude 3 Opus et comprend mieux les instructions nuancées et complexes. Haiku a du mal avec les invites sophistiquées, mais c’est le plus rapide des trois modèles.
Tarification du modèle Claude
Les modèles Claude sont disponibles via l’API d’Anthropic et des plateformes gérées telles qu’Amazon Bedrock et Vertex AI de Google Cloud.
Voici les tarifs de l’API Anthropic :
- Claude 3 Haïku coûte 25 cents par million de jetons d’entrée (~ 750 000 mots), soit 1,25 $ par million de jetons de sortie
- Claude 3.5 Sonnet coûte 3 $ par million de jetons d’entrée, ou 15 $ par million de jetons de sortie
- Fermer 3 travaux coûte 15 $ par million de jetons d’entrée, ou 75 $ par million de jetons de sortie
Anthropic propose une mise en cache et un traitement par lots rapides pour générer des économies de temps d’exécution supplémentaires.
La mise en cache des invites permet aux développeurs de stocker des « contextes d’invite » spécifiques qui peuvent être réutilisés dans les appels d’API vers un modèle, tandis que le traitement par lots traite des groupes asynchrones de demandes d’inférence de modèle de faible priorité (et donc moins chères).
Forfaits et applications Claude
Pour les utilisateurs individuels et les entreprises souhaitant simplement interagir avec les modèles Claude via des applications pour le Web, Android et iOS, Anthropic propose un forfait Claude gratuit avec des limites de débit et d’autres restrictions d’utilisation.
La mise à niveau vers l’un des abonnements de l’entreprise supprime ces limites et débloque de nouvelles fonctionnalités. Les projets actuels sont les suivants :
Claude Pro, qui coûte 20 $ par mois, est livré avec des limites de tarif 5 fois plus élevées, un accès prioritaire et des aperçus des fonctionnalités à venir.
Étant axé sur l’entreprise, Team – qui coûte 30 $ par utilisateur et par mois – ajoute un tableau de bord pour contrôler la facturation et la gestion des utilisateurs, ainsi que des intégrations avec des référentiels de données tels que des bases de code et des plateformes de gestion de la relation client (par exemple, Salesforce). Une bascule active ou désactive les citations pour vérifier les allégations générées par l’IA. (Comme tous les mannequins, Claude hallucine de temps en temps.)
Les abonnés Pro et Team bénéficient de Projets, une fonctionnalité qui ancre les résultats de Claude dans des bases de connaissances, qui peuvent être des guides de style, des transcriptions d’entretiens, etc. Ces clients, ainsi que les utilisateurs du niveau gratuit, peuvent également accéder à Artifacts, un espace de travail dans lequel les utilisateurs peuvent modifier et ajouter du contenu tel que du code, des applications, des conceptions de sites Web et d’autres documents générés par Claude.
Pour les clients qui ont besoin d’encore plus, il existe Claude Enterprise, qui permet aux entreprises de télécharger des données propriétaires dans Claude afin que Claude puisse analyser les informations et répondre aux questions à ce sujet. Claude Enterprise est également livré avec une fenêtre contextuelle plus grande (500 000 jetons), une intégration GitHub permettant aux équipes d’ingénierie de synchroniser leurs référentiels GitHub avec Claude, ainsi que des projets et artefacts.
Un mot d’avertissement
Comme c’est le cas pour tous les modèles d’IA générative, l’utilisation de Claude comporte des risques.
Les modèles font parfois des erreurs en résumant ou en répondant aux questions en raison de leur tendance à halluciner. Ils sont également formés sur les données Web publiques, dont certaines peuvent être protégées par le droit d’auteur ou soumises à une licence restrictive. Anthropic et de nombreux autres fournisseurs d’IA affirment que la doctrine de l’utilisation équitable les protège des réclamations en matière de droits d’auteur. Mais cela n’a pas empêché les propriétaires de données d’intenter des poursuites.
Anthropic propose des politiques pour protéger certains clients des batailles judiciaires résultant de contestations d’utilisation équitable. Cependant, ils ne résolvent pas le dilemme éthique lié à l’utilisation de modèles formés à partir de données sans autorisation.
TechCrunch propose une newsletter axée sur l’IA ! Inscrivez-vous ici pour le recevoir dans votre boîte de réception tous les mercredis.