A screen shows an announcement of the AI Seoul Summit in Seoul, South Korea.

Jean Delaunay

Sommet AI de Séoul : les grandes entreprises technologiques s’engagent en faveur de la sécurité de l’IA alors que commence le deuxième sommet mondial

L’accord conclu par 16 entreprises technologiques intervient alors qu’un deuxième sommet sur la sécurité de l’IA se tient cette semaine en Corée du Sud.

Les entreprises technologiques se sont mises d’accord sur un ensemble d’engagements de sécurité en matière d’intelligence artificielle (IA) alors qu’un deuxième sommet mondial sur la sécurité dirigé par la Corée du Sud et le Royaume-Uni démarre.

Les engagements volontaires ont été convenus par 16 grandes entreprises technologiques, dont OpenAI, Mistral, Amazon, Anthropic, Google, Meta, Microsoft et IBM.

L’institut chinois Zhipu.ai et l’Institut d’innovation technologique des Émirats arabes unis ont également signé l’accord.

Il s’agit notamment d’identifier les risques possibles de l’IA, de fixer des seuils auxquels ces risques seraient considérés comme trop élevés et d’être transparents à leur sujet, selon une déclaration du gouvernement britannique, qui l’a qualifié de première historique.

Les entreprises se sont également engagées à suspendre les modèles ou systèmes d’IA si les risques ne pouvaient pas être réduits.

L’accord a été annoncé alors que le sommet AI de Séoul, d’une durée de deux jours, a débuté mardi. Le sommet fait suite au sommet sur la sécurité de l’IA de l’année dernière à Bletchley Park au Royaume-Uni.

« Premier accord mondial » par Big Tech

La France accueillera le prochain sommet en personne sur le sujet.

Le rassemblement de novembre précédent s’est terminé par une déclaration signée par près de 30 pays déclarant qu’ils veilleraient à ce que l’IA soit « centrée sur l’humain, digne de confiance et responsable ».

Le sommet en ligne actuel, organisé conjointement par le Royaume-Uni et la Corée du Sud, devrait aboutir à de nouveaux accords de la part des dirigeants mondiaux.

« C’est une première mondiale de voir autant de grandes entreprises d’IA de tant de régions différentes du monde convenir toutes des mêmes engagements en matière de sécurité de l’IA », a déclaré le Premier ministre britannique Rishi Sunak dans un communiqué après la signature de l’accord.

Sunak coprésidera mardi une réunion virtuelle avec les dirigeants du monde avec le président coréen Yoon Suk Yeol. La deuxième journée du sommet comprendra une discussion entre les ministres du numérique.

Mark Brakel, directeur des politiques de l’Institut à but non lucratif Future of Life, a déclaré dans un communiqué fourni à L’Observatoire de l’Europe Next que s’il se félicitait des engagements des entreprises, « il est crucial que les garde-fous, les normes et la surveillance nécessaires pour garder les gens coffre-fort sont codifiés dans la loi ».

« La bonne volonté seule ne suffit pas. Si les sociétés d’IA sont véritablement sincères dans leurs engagements en matière de sécurité, elles devraient soutenir que ces engagements soient inscrits dans la réglementation », a déclaré Brakel.

L’accord intervient alors que les entreprises technologiques se précipitent pour lancer de nouveaux modèles d’IA, le développement de la technologie s’accélérant à l’échelle mondiale.

Promouvoir une IA « sûre, sécurisée et digne de confiance »

La semaine dernière, OpenAI a annoncé son nouveau modèle GPT-4o doté de capacités plus rapides et Google a dévoilé de nouvelles fonctionnalités d’IA pour la recherche et les mises à jour de son modèle d’IA Gemini.

Google a demandé au modèle de compter le nombre de fois où l’entreprise a utilisé le mot IA lors de sa conférence des développeurs, pour un total de 120 mentions.

Pourtant, la démission des co-dirigeants de l’équipe d’OpenAI chargée d’empêcher les systèmes d’IA de devenir malveillants la semaine dernière a suscité davantage d’inquiétudes concernant la sécurité.

Jan Leike, l’ancien co-responsable de cette équipe, a déclaré qu’il avait démissionné en partie parce que « la culture et les processus de sécurité ont pris le pas sur des produits brillants », ajoutant qu’OpenAI doit devenir une « entreprise d’IA axée sur la sécurité ».

De nombreux efforts sont déployés pour commencer à réglementer cette technologie, notamment la première loi européenne sur l’IA au monde, qui devrait entrer en vigueur le mois prochain.

L’Assemblée générale des Nations Unies a également adopté une résolution plus tôt cette année sur la promotion d’une IA « sûre, sécurisée et digne de confiance ».

Le mois dernier, les États-Unis et le Royaume-Uni ont signé un accord visant à développer des tests de sécurité pour les modèles d’IA les plus avancés.

Laisser un commentaire

14 + 15 =