Claude Sonnet 3.5

Jean Delaunay

Anthropic lance son dernier modèle d’IA générative le plus puissant

Les entreprises d’IA générative se battent pour avoir une longueur d’avance sur les autres.

Anthropic a lancé un nouveau modèle d’intelligence artificielle (IA) générative plus puissant, qui arrive trois mois après sa version précédente, et prétend qu’il surpasse ses concurrents tels que ChatGPT-4o.

La société se présente comme une société de recherche sur la sécurité de l’IA et a été fondée par d’anciens dirigeants et chercheurs d’OpenAI. Google et Amazon sont également des investisseurs majeurs dans l’entreprise.

Anthropic a déclaré que son nouveau modèle – Claude 3.5 Sonnet – la première version du prochain groupe de modèles Claude 3.5, est le « modèle le plus puissant à ce jour ».

Lors d’une évaluation interne du codage agent, Claude 3.5 Sonnet a résolu 64 pour cent des problèmes, surpassant Claude 3 Opus qui en a résolu 38 pour cent, a indiqué la société.

Il a également de meilleures capacités de nuances, d’humour et d’instructions complexes et est exceptionnel dans l’écriture de contenu de haute qualité avec un ton naturel et pertinent, a ajouté la société.

Anthropic a également constaté qu’en matière de raisonnement au niveau des études supérieures, il obtenait un score de 59 pour cent, contre ChatGPT-4o qui était de 53 pour cent.

En matière de raisonnement sur texte, il a également surperformé les autres entreprises à 87 %, contre 83 % pour ChatGPT-4o, 74 % pour Gemini de Google et le grand modèle linguistique Llama de Meta, qui ont obtenu un score de 83 %.

Données anthropiques
Données anthropiques

Cependant, en matière de résolution de problèmes mathématiques, il a été battu par ChatGPT-4o, qui était cinq pour cent plus précis que Claude 3.5.

Course vers le sommet grâce à l’IA

Les entreprises d’IA générative s’efforcent de prendre une longueur d’avance les unes sur les autres. En avril, OpenAI, Google et Mistral AI ont tous publié de nouvelles versions de leurs modèles d’IA frontaliers à 12 heures d’intervalle.

Cela a suscité des inquiétudes quant au fait que les entreprises technologiques déploient la technologie plus rapidement que les développeurs ne peuvent intervenir et empêcher les modèles d’être utilisés à des fins nuisibles ou si les modèles présentent des biais qui doivent être corrigés.

« Créer des systèmes non seulement performants, mais également fiables, sûrs et alignés sur les valeurs humaines est un défi complexe », a déclaré Dario Amodei, co-fondateur et PDG d’Anthropic.

« Nous n’avons pas toutes les réponses, mais nous nous engageons à travailler sur ces problèmes de manière réfléchie et responsable », a-t-il déclaré dans un communiqué de presse.

Anthropic a également annoncé le lancement d’Artifacts sur Claude.ai, qui permet à des contenus tels que des extraits de code ou des documents texte d’apparaître dans une fenêtre dédiée à côté de leurs créations.

« Cela crée un espace de travail dynamique », a déclaré Anthropic, où les utilisateurs peuvent voir, modifier et développer ce sur quoi ils travaillent en temps réel.

L’entreprise a déclaré qu’elle marquait « l’évolution de Claude d’une IA conversationnelle à un environnement de travail collaboratif ».

« Ce n’est que le début d’une vision plus large pour Claude.ai, qui s’étendra bientôt à

soutenir la collaboration en équipe », a déclaré la société.

Dans un avenir proche, les équipes, et éventuellement les organisations, pourront centraliser en toute sécurité leurs connaissances, leurs documents et leur travail en cours dans un espace partagé, Claude faisant office de « coéquipier à la demande ».

Anthropic a annoncé son intention de publier ultérieurement des mises à niveau de sa famille de modèles, notamment

Claude 3.5 Haiku et Claude 3.5 Opus plus tard cette année « tout en poursuivant nos recherches en matière de sécurité pour garantir que ces systèmes restent sécuritaires ».

La société a été créée en 2021 par le frère et la sœur Dario et Daniela Amodei, après avoir quitté OpenAI.

Dans une interview avec Fortune, Dario a déclaré qu’il avait quitté l’entreprise en raison du manque d’attention qu’OpenAI accordait à la sécurité.

Cette annonce intervient alors que le cofondateur d’OpenAI et ancien scientifique en chef a annoncé la création de sa propre société d’IA dédiée à la sécurité.

Laisser un commentaire

12 + 15 =