The OpenAI logo is seen displayed on a cell phone with an image on a computer monitor generated by ChatGPT

Jean Delaunay

Openai dit qu’il pourrait «ajuster» les sauvegardes du modèle d’IA si un concurrent fabrique son risque à haut risque

Si un concurrent publie un modèle d’IA qui présente un niveau élevé de risque, Openai dit qu’il envisagera d’ajuster ses exigences de sécurité afin qu’il puisse aussi être en mesure.

Openai a déclaré qu’il envisageait d’ajuster ses exigences de sécurité si une entreprise concurrente publie un modèle d’intelligence artificielle à haut risque sans protection.

Openai a écrit dans son rapport de préparation à la préparation que si une autre entreprise publie un modèle qui représente une menace, il pourrait faire de même après avoir «rigoureusement» confirmé que le «paysage des risques» a changé.

Le document explique comment l’entreprise suit, évalue, prévoit et protège contre les risques catastrophiques posés par les modèles d’IA.

« Si un autre développeur d’IA frontière publie un système à haut risque sans garanties comparables, nous pouvons ajuster nos exigences », a écrit Openai dans un article de blog publié mardi.

«Cependant, nous confirmerions d’abord rigoureusement que le paysage des risques a réellement changé, reconnaissons publiquement que nous faisons un ajustement, évaluons que l’ajustement n’augmente pas de manière significative le risque global de préjudice grave et maintient toujours des garanties à un niveau plus protecteur».

Avant de publier un modèle au grand public, OpenAI évalue si elle pourrait causer de graves préjudices en identifiant les risques plausibles, mesurables, nouveaux, graves et irrémédiables et en construisant des garanties contre eux. Il classe ensuite ces risques comme faibles, moyens, élevés ou critiques.

Certains des risques que l’entreprise suit déjà sont les capacités de ses modèles dans les domaines de la biologie, de la chimie, de la cybersécurité et de son auto-amélioration.

La société a déclaré qu’elle évaluait également de nouveaux risques, tels que si leur modèle d’IA pouvait fonctionner longtemps sans implication humaine, auto-réplication et quelle menace elle pourrait représenter dans les domaines nucléaires et radiologiques.

«Les risques de persuasion», tels que la façon dont le chatppt est utilisé pour la campagne politique ou le lobbying sera géré en dehors du cadre et sera plutôt examiné à travers la spécification du modèle, le document qui détermine le comportement de Chatgpt.

«Réduire discrètement les engagements de sécurité»

Steven Adler, un ancien chercheur d’Openai, a déclaré sur X que les mises à jour du rapport de préparation de l’entreprise montrent qu’elle «réduit discrètement ses engagements de sécurité».

Dans son article, il a souligné un engagement de décembre 2023 de la société à tester les «versions affinées» de leurs modèles d’IA, mais a noté qu’Openai passera désormais à des modèles de test dont les paramètres ou les «poids» formés seront publiés.

« Les gens peuvent totalement être en désaccord sur le fait que le test de modèles à finetume est nécessaire, et mieux pour OpenAI de supprimer un engagement que de le garder et de ne pas suivre », a-t-il déclaré.

« Mais dans les deux cas, j’aimerais que Openai soit plus clair pour avoir reculé cet engagement précédent ».

La nouvelle intervient après que OpenAI a publié une nouvelle famille de modèles d’IA, appelée GPT-4.1 cette semaine, sans carte système ni rapport de sécurité. L’Observatoire de l’Europe a ensuite interrogé Openai sur le rapport de sécurité mais n’a pas reçu de réponse au moment de la publication.

La nouvelle intervient après que 12 anciens employés d’OpenAI ont déposé un mémoire la semaine dernière dans le cas d’Elon Musk amené contre OpenAI, qui allègue qu’un passage à une entreprise à but lucratif pourrait conduire à la réduction des virages.

Laisser un commentaire

douze − 7 =