Britain

Jean Delaunay

Politique de l’UE. Comment le monde est aux prises avec l’IA : actes, pactes et déclarations

Cette semaine s’annonce importante pour l’IA avec un sommet international organisé en Corée et l’approbation de la loi sur l’IA à Bruxelles.

Le sommet sur la sécurité de l’IA organisé par la Corée du Sud et auquel participeront les gouvernements, les entreprises et la société civile (21 mai) devrait aboutir à davantage d’engagements volontaires à la suite d’un sommet d’ouverture organisé par le Royaume-Uni l’année dernière. Cette initiative – avec la France, le Royaume-Uni et la Corée du Sud comme principaux acteurs – fait partie d’un ensemble croissant de règles, pactes, lois et accords sur l’IA qui prolifèrent à l’échelle mondiale. Voici un aperçu des principales évolutions à surveiller du point de vue des entreprises et des décideurs politiques européens.

1. Sommet sur la sécurité de l’IA

Le sommet organisé aujourd’hui à Séoul et co-organisé par le Royaume-Uni s’appuiera sur l’héritage de la première édition de novembre de l’année dernière, pour « faire avancer les discussions mondiales sur l’IA ». Les discussions porteront sur la sécurité de l’IA et sur les capacités potentielles des modèles d’IA les plus avancés.

Parmi les participants de l’année dernière, outre les dirigeants gouvernementaux, figuraient Elon Musk, PDG de Tesla et propriétaire de Twitter, ainsi que Sam Altman, PDG d’OpenAI et Nick Clegg, président des affaires mondiales chez Meta. Cette édition devrait attirer moins de gouvernements, 19 au lieu de 28.

Les chercheurs ont salué les progrès réalisés à Bletchley Park en 2023, ainsi que la création d’un AI Safety Institute au Royaume-Uni pour tester de nouveaux types d’IA afin de lutter contre l’utilisation potentiellement nocive de ces modèles. Tous les résultats seront pris en charge par la France, qui accueillera le prochain Sommet sur la sécurité plus tard cette année.

2. Loi sur l’IA

La loi de l’UE sur l’IA, la première législation au monde basée sur les risques sur l’outil d’apprentissage automatique, sera également approuvée par les ministres de l’UE demain (21 mai), ce qui signifie que les règles commenceront à s’appliquer en juin. Une grande différence avec toutes les autres initiatives est que la loi sur l’IA est une véritable loi. Les entreprises peuvent donc être tenues responsables des manquements et, en fin de compte, faire face à des amendes.

En vertu de la loi – proposée par la Commission européenne en 2021 – les systèmes d’apprentissage automatique seront divisés en quatre catégories principales en fonction du risque potentiel qu’ils représentent pour la société. Les règles générales sur l’IA s’appliqueront un an après leur entrée en vigueur, en mai 2025, tandis que les obligations pour les systèmes à haut risque ne commenceront à entrer en vigueur qu’après trois ans. Ils seront placés sous la supervision des autorités nationales, soutenues par le bureau AI au sein de la Commission européenne.

3. Pacte sur l’IA

Dans le but d’aider les entreprises à se préparer à la loi sur l’IA, la Commission a proposé le Pacte sur l’IA. Il vise à aider les pionniers à tester et à partager leurs solutions d’IA avec d’autres entreprises, en prévision du prochain cadre réglementaire.AI Pact | Façonner l’avenir numérique de l’Europe (europa.eu)

Lucilla Sioli, directrice de l’IA à la Commission, a déclaré lors d’un sommet européen des entreprises la semaine dernière (15 mai) que le Pacte n’est pas conçu comme un moyen de faire respecter les règles par l’exécutif européen, mais plutôt comme un bac à sable où les entreprises peuvent voir si les règles sont respectées. adaptée à l’objectif. « Plus de 400 entreprises se sont inscrites. Nous organisons un atelier mensuel, que nous poursuivrons, pour que les entreprises puissent bien se préparer », a déclaré Sioli.

4. OCDE

S’éloigner de l’UE : l’Organisation de coopération et de développement économiques (OCDE) a publié pour la première fois ses principes en matière d’IA en 2019. Ceux-ci sont devenus une référence mondiale pour l’élaboration des politiques en matière d’IA : l’UE, le Conseil de l’Europe, les États-Unis et l’ONU utilise la définition de l’OCDE d’un système et d’un cycle de vie d’IA dans ses cadres législatifs et réglementaires.

Une version mise à jour a été adoptée au début du mois (3 mai) pour prendre en compte les développements récents en matière d’IA, tels que l’émergence d’outils d’IA généralistes et génératifs, notamment des programmes comme ChatGPT. La liste aborde désormais les défis liés à l’IA en matière de confidentialité, de propriété intellectuelle et d’intégrité des informations.

Audrey Plonk, chef de la Division des politiques de l’économie numérique de l’OCDE, qui s’exprimait lors de la même conférence de l’UER que Sioli, a déclaré que même si l’UE a montré un rôle de leader en matière de réglementation, « toutes les démocraties du monde finiront par se doter d’une loi sur l’IA ». et il y a beaucoup de similitudes dans les objectifs. L’OCDE compte quelque 38 membres, dont des pays de l’UE mais aussi le Canada, le Japon, l’Australie, la Norvège, le Royaume-Uni et les États-Unis.

5. Conseil de l’Europe

Le Conseil de l’Europe (CdE) – une organisation internationale visant à promouvoir et à protéger les droits de l’homme et la démocratie – comprend quelque 46 pays, dont tous les États membres de l’UE ainsi que des pays comme l’Albanie et la Turquie.

La semaine dernière (16 mai), le Conseil de l’Europe a adopté un traité qui couvre l’ensemble du cycle de vie des systèmes d’IA et aborde les risques qu’ils peuvent présenter, tout en promouvant l’innovation responsable. Il vise à garantir que les droits de l’homme et les règles de droit soient intégrés dans les situations où les systèmes d’IA assistent ou remplacent la prise de décision humaine.

Il y a une mise en garde avec ces règles internationales : chaque pays peut décider de signer ou non la convention.

6. G7

Le plus petit groupe de pays du G7 – l’Italie, le Canada, la France, l’Allemagne, le Japon, le Royaume-Uni et les États-Unis – se réunira en Italie le mois prochain pour discuter de l’IA. Elle comprendra une visite spéciale du pape François, qui a appelé au développement d’une IA éthique.

L’année dernière, le Japon a lancé le processus dit d’Hiroshima sous sa présidence du G7, dans le but de promouvoir une IA sûre, sécurisée et digne de confiance. Les 11 principes directeurs et le code de conduite volontaire visent à compléter, au niveau international, la loi juridiquement contraignante de l’UE sur l’IA.

Ursula von der Leyen, présidente de la Commission européenne présente à la réunion, a déclaré que ce faisant, l’UE contribue également « aux garde-fous et à la gouvernance de l’IA au niveau mondial ».

7. Nations Unies

Une approche plus symbolique a été adoptée par les Nations Unies (ONU), qui ont adopté en mars dernier un projet de résolution dirigé par les États-Unis pour souligner le respect, la protection et la promotion des droits de l’homme dans la conception, le développement et l’utilisation de l’IA. Le texte a été soutenu par plus de 120 des 193 États membres.

Laisser un commentaire

trois × un =