L’Observatoire de l’Europe a ensuite parlé à des experts du sommet de Paris pour leurs réactions sur la déclaration du sommet de l’IA.
Le sommet de l’action de l’intelligence artificielle de Paris (IA) a clôturé cette semaine avec une déclaration qui a décrit les politiques pour garantir que l’IA est «ouverte, inclusive, transparente, éthique, sûre, sécurisée et digne de confiance».
Une soixantaine de pays ont signé la déclaration, mais notamment le Royaume-Uni et les États-Unis ne l’ont pas fait.
Le Royaume-Uni a cité les problèmes de sécurité nationale comme raison alors que les États-Unis ne disaient pas exactement pourquoi il n’a pas signé la doctrine, mais le vice-président du pays, JD Vance, a averti les délégués à Paris que trop de réglementation étoufferait l’innovation.
Cependant, les experts du sommet ont déclaré à L’Observatoire de l’Europe Next que la déclaration n’était pas allée assez loin pour répondre aux risques et préjudices possibles causés par l’IA.
Besoin de lutter contre les risques et les inégalités
«Je pense que le communiqué ne parle pas adéquatement du type de risques et de dommages réels», a déclaré David Leslie, directeur de l’éthique et de la recherche responsable de l’innovation à l’Alan Turing Institute.
Certains des risques les plus urgents de l’IA comprennent les biais, la cybersécurité et les problèmes de confidentialité des données.
« L’action signifie évidemment une action à terme et une action progressive en termes de progression des opportunités de croissance et de bénéfice économique », a-t-il déclaré à L’Observatoire de l’Europe Next.
«Mais l’action a également à voir avec la réparation de l’ensemble des risques et des dommages existants que au cours des deux dernières années, et en particulier avec la mise à l’échelle de la production et des systèmes d’IA générés par les utilisateurs, est devenu un peu évident pour les chercheurs dans le domaine, »Ajouta-t-il.
Le sommet de l’IA intervient alors que les entreprises technologiques se déroulent pour publier des modèles d’IA avec un chauffage de compétition à travers le monde.
La dernière version de la société chinoise Deepseek il y a un mois a contesté le statu quo des entreprises technologiques occidentales dominant le marché avec des modèles d’IA qui sont plus chers à former.
Les gouvernements garantissent également qu’ils ne se laissent pas dans la course de l’IA. L’administration Trump nouvellement installée en janvier a annulé les initiatives précédentes sous l’ancien gouvernement qui a priorisé la sécurité de l’IA, les citant comme des obstacles à l’innovation américaine.
Une autre approche du sommet qui n’est pas allé assez loin était de «traiter les inégalités au niveau de l’écosystème», a déclaré Leslie, ajoutant qu’ils étaient «de véritables obstacles à l’avancement de l’innovation inclusive et équitable».
Il a fait valoir qu’avoir des structures globalement équitables pour le commerce entre les grandes entreprises technologiques et les petits et moyens pays, en particulier dans le Sud mondial, et l’accès à des infrastructures de calcul ou numériques, étaient des discussions qui auraient pu parler davantage au sommet.
Le PDG et co-fondateur d’Anthropic, Dario Amodei, a déclaré dans un communiqué qu’il avait été déçu que le sommet n’ait pas fait plus pour faire face aux risques de l’intelligence générale artificielle (AGI) et l’a qualifiée de «occasion manquée».
« Une concentration et une urgence plus importantes sont nécessaires sur plusieurs sujets étant donné le rythme auquel la technologie progresse », a déclaré Amodei dans un communiqué partagé avec L’Observatoire de l’Europe.
«La nécessité pour les démocraties de garder la tête, les risques de l’IA et les transitions économiques qui approchent à l’approche – elles devraient toutes être des caractéristiques centrales du prochain sommet».
Ouvert pour les affaires de l’IA
Contrairement aux sommets de l’IA précédents qui ont eu lieu au Royaume-Uni et en Corée du Sud, qui se concentrait davantage sur les dommages et les risques potentiels de l’IA, la France a clairement indiqué qu’elle était ouverte aux affaires.
Le sommet de Paris ressemblait davantage à une atmosphère de foire technologique ou même de festival avec de nombreux événements de fantaisie et même un DJ clôturant le premier jour au Grand Palais, qui a suivi le président français Emmanuel Macron en disant au public: «J’ai un bon ami dans l’autre Une partie de l’océan disant «Drill, bébé, foret» »,« se référant à son homologue américain.
«Ici, il n’est pas nécessaire de forer. C’est «Plug, bébé, plug». L’électricité est disponible, vous pouvez brancher (It), c’est prêt », a ajouté Macron.
Mais alors que des déclarations solides ont été reproduites, une grande partie des mots de la déclaration n’était que cela, disent les experts.
«Connaissant l’aspect diplomatique de ces choses, je sais que lorsque de nombreux pays se réunissent pour rédiger un texte, l’identification du plus petit dénominateur commun conduit souvent à une déclaration très faible, voire à des platitudes», a déclaré Jessica Galissaire, études et partenariat Manager au groupe de réflexion Renaissance Numerique basé en France.
« L’utilisation de mots comme« durable »et« inclusif »est dépourvu de tout sens si nous n’avons pas une compréhension partagée de ce qu’ils signifient – ce que je ne suis pas sûr de faire à un niveau aussi élevé», a-t-elle déclaré à L’Observatoire de l’Europe Suivant.
« En fin de compte, sur le sujet spécifique de garantir que les développements de l’IA respectent les droits et libertés fondamentaux, les signataires se sont simplement engagés à en parler davantage… tellement pour un sommet de l’IA« Action »», a-t-elle ajouté.
Cependant, Galissaire a déclaré qu’elle était plus positive au sujet de l’engagement environnemental et a hâte de voir les résultats d’un observatoire proposé pour assurer l’impact énergétique de l’IA auprès de l’Agence internationale de l’énergie (AIE).
Max Tegmark, le physicien du MIT qui est le fondateur et président du Future of Life Institute, a également déclaré qu’il était déçu des résultats du sommet, affirmant que la déclaration était faible et n’avait pas répondu aux menaces de sécurité.
« Compte tenu de l’urgence de la situation, les mots apaisants qui manquent de substance représentent un pas en arrière pour la collaboration internationale et technique, et cette faiblesse a conduit les pays à ne pas signer », a-t-il déclaré dans un communiqué.
« Alors que l’IA continue de monter à l’avance, le prochain sommet doit réinitialiser la conversation et enhardir une action décisive pour assurer une IA sécurisée, contrôlable et bénéfique », a-t-il ajouté.
Le prochain sommet de l’IA aura lieu en Inde, qui a conjointement accueilli le sommet de Paris avec la France. On ne sait pas ce que les sujets du prochain sommet de l’IA aborderont.