Un nouveau document publié jeudi, présentant les conclusions d’une conférence mondiale tenue à Singapour en avril, a identifié comment l’IA peut être rendue plus sûre.
Le dernier rassemblement mondial sur l’intelligence artificielle (IA) au Sommet d’action de l’IA de Paris en février a vu les pays divisés, notamment après que les États-Unis et le Royaume-Uni ont refusé de signer une déclaration conjointe pour l’IA qui est « ouverte, inclusive, transparente, éthique, sûre, sécurisée et fiable ».
Les experts de l’IA à l’époque ont critiqué la déclaration de ne pas aller assez loin et d’être « dépourvu de tout sens », la raison pour laquelle les pays ont cité pour ne pas avoir signé le pacte, par opposition à leur être contre la sécurité de l’IA.
Le prochain sommet mondial de l’IA aura lieu en Inde l’année prochaine, mais plutôt que d’attendre jusque-là, le gouvernement de Singapour a tenu une conférence intitulée The International Scientific Exchange on IA Safety le 26 avril.
« Paris (Sommet de l’IA) a laissé une impression erronée que les gens ne sont pas d’accord sur la sécurité de l’IA », a déclaré Max Tegmark, professeur du MIT et contributeur au rapport de Singapour.
« Le gouvernement de Singapour était intelligent pour dire oui, il y a un accord », a-t-il déclaré à L’Observatoire de l’Europe ensuite.
Des représentants des principales sociétés d’IA, telles que OpenAI, Meta, Google Deepmind et Anthropic, ainsi que des dirigeants de 11 pays, dont les États-Unis, la Chine et l’UE, ont assisté.
Le résultat de la conférence a été publié dans un article publié jeudi intitulé «Le consensus de Singapour sur les priorités mondiales de recherche sur la sécurité de l’IA».
Le document répertorie les propositions de recherche pour garantir que l’IA ne devient pas dangereuse pour l’humanité.
Il identifie trois aspects pour promouvoir une IA sûre: l’évaluation, le développement de la fiabilité et le contrôle des systèmes d’IA, qui incluent des modèles de langues (LLM), des modèles multimodaux qui peuvent fonctionner avec plusieurs types de données, y compris le texte, les images, la vidéo et enfin des agents d’IA.
Évaluation de l’IA
La principale recherche qui, selon le document, devrait être évaluée, est l’élaboration de seuils de risque pour déterminer quand l’intervention est nécessaire, les techniques d’étude des impacts actuels et de prévision des implications futures et des méthodes de test et d’évaluation rigoureux des systèmes d’IA.
Certains des principaux domaines de recherche répertoriés comprennent l’amélioration de la validité et de la précision des évaluations des modèles d’IA et de la recherche de méthodes pour tester les comportements dangereux, qui comprennent des scénarios où l’IA opère en dehors du contrôle humain.
Développement de l’IA digne de confiance, sécurisée et fiable
Le document nécessite une définition des frontières entre les comportements acceptables et inacceptables.
Il indique également que lors de la construction de systèmes d’IA, ils doivent être développés avec des systèmes et des ensembles de données véridiques et honnêtes.
Et une fois construits, ces systèmes d’IA doivent être vérifiés pour s’assurer qu’ils répondent aux normes de sécurité convenues, telles que des tests contre le jailbreak.
Contrôle
La zone finale pour laquelle le document préconise est le contrôle et la résilience sociétale des systèmes d’IA.
Cela comprend la surveillance, les commutateurs de mise à mort et l’IA non agentique servant de garde-corps pour les systèmes agentiques. Il nécessite également des cadres de surveillance centrés sur l’homme.
En ce qui concerne la résilience sociétale, le document a déclaré que les infrastructures contre les perturbations compatibles AI devraient être renforcées, et il a fait valoir que les mécanismes de coordination pour les réponses des incidents devraient être développés.
‘Pas dans leur intérêt’
La sortie du rapport survient alors que la course géopolitique pour l’IA s’intensifie et les entreprises d’IA éliminent leurs derniers modèles pour battre leur concurrence.
Cependant, Xue Lan, doyen de l’Université Tsinghua, qui a assisté à la conférence, a déclaré: « À une époque de fragmentation géopolitique, cette synthèse complète de recherches de pointe sur la sécurité d’IA est un signe prometteur que la communauté mondiale se rassemble avec un engagement partagé pour façonner un avenir plus sûr d’IA ».
Tegmark a ajouté qu’il y a un consensus pour la sécurité de l’IA entre les gouvernements et les entreprises technologiques, comme c’est le cas dans l’intérêt de chacun.
« Openai, antropic et toutes ces sociétés ont envoyé des gens à la conférence de Singapour; ils veulent partager leurs problèmes de sécurité, et ils n’ont pas à partager leur sauce secrète », a-t-il déclaré.
« Les gouvernements rivaux ne veulent pas non plus des coups nucléaires dans les pays opposés, ce n’est pas dans leur intérêt », a-t-il ajouté.
Tegmark espère qu’avant le prochain sommet de l’IA en Inde, les gouvernements traiteront l’IA comme toute autre industrie technologique puissante, comme la biotechnologie, selon laquelle il existe des normes de sécurité dans chaque pays et de nouveaux médicaments sont tenus de passer certains essais.
« Je me sens beaucoup plus optimiste à propos du prochain sommet maintenant qu’après Paris », a déclaré Tegmark.