Plus de 1 000 experts en intelligence artificielle, penseurs, investisseurs, régulateurs et avocats envahissent Paris cette semaine pendant deux jours de discussions sur ce que la technologie peut et devrait faire. L’Observatoire de l’Europe aborde certains des grands noms qui façonnent le débat.
Arthur Mensch incarne les espoirs de la France pour une percée dans le monde de l’IA.
L’homme de 32 ans, qui a cofondé et dirigé les startups Mistral IA, a établi de solides liens avec le secteur public français et le président français Emmanuel Macron, travaillant sur la stratégie d’IA du pays et exprimant les préoccupations des entreprises de l’IA sur la réglementation.
Mensch a demandé à plusieurs reprises que les règles de l’Union européenne sur l’IA soient plus flexibles, même après avoir poussé un cadre « adapté à l’innovation » à mesure que la loi était en cours. Cette sensibilisation semble avoir eu un certain succès, les responsables de l’UE acceptant désormais de simplifier certaines de leurs exigences.
Essayer d’être un succès européen d’IA – en tenant compte d’un éventuel offre publique initial pour collecter des fonds auprès des investisseurs – implique un équilibre compliqué. Mistral AI a tenté de construire des partenariats en France avec l’agence de presse publique AFP et avec l’armée française.
Mais Mensch, un ancien élève de Google Deepmind, a également forgé des obligations à travers l’Atlantique, avec une équipe croissante aux États-Unis et avec un investissement américain. L’année dernière, la société a conclu un pacte de distribution avec les activités cloud de Microsoft Azure, provoquant un débat sur la question de savoir si les entreprises européennes d’IA peuvent ou devraient rester indépendantes des grands titans technologiques qui dirigent l’IA.
Peu de temps après que Openai est entré sous les projecteurs mondiaux avec le lancement de Chatgpt en novembre 2022, la société savait qu’elle devait faire appel à un maître de politique technologique et à une paire de mains sûres pour gérer ses opérations en Europe.
Ils ont choisi Sandro Gianella, qui avait appris les cordes à la fois dans une entreprise de technologie américaine (Google) et un parvenu européen (Stripe de gestionnaire de paiement irlandais-américain).
Gianella a commencé à travailler en juin 2023 à un moment critique, alors que les législateurs européens tentaient de décrocher la loi sur l’IA de l’UE, le tout premier livre de règles de l’IA contraignant du Globe, avec des appels pour inclure des règles spécifiques pour les modèles d’IA à usage général tels que celui d’Openai.
Gianella n’est pas votre lobbyiste moyen de la technologie Brussels Suit and Tie. Ayant embrassé la culture du travail à distance post-pandémique, il peut souvent être trouvé dans les Alpes bavaroises pittoresques près de Munich. Ses flux de médias sociaux concernent l’IA, bien sûr, mais il publie tout autant sur les voyages de vélo ou de ski dans les Alpes.
Ces intérêts divers pourraient l’aider à équilibrer un flux de travail Openai frénétique tout en jonglant avec le contrôle de plusieurs capitales européennes. Bruxelles a rédigé un code de pratique volontaire pour les modèles d’IA à usage général, tandis que Paris et Londres ont également tenu à développer leurs propres efforts d’IA et à freiner les risques potentiels, notamment l’examen des liens d’Openai avec Microsoft.
Cité comme l’un des parrants de l’IA pour son travail sur les réseaux de neurones artificiels, Hinton a choqué le monde de l’IA en mai 2023 en quittant Google pour parler du risque existentiel d’intelligence artificielle. L’informaticien a déclaré qu’il avait changé d’avis sur la technologie après avoir vu ses progrès rapides et a commencé à visiter le monde pour avertir des menaces désastreuses qu’elle posait à l’humanité. Cette mission comprenait des informations sur les ministres du gouvernement britannique sur les impacts sociétaux qui en résulteraient si les systèmes d’IA évoluaient au-delà du contrôle humain.
« Il était très convaincant », a déclaré une personne qui a été informée. Les avertissements d’Hinton ont contribué à convaincre le Premier ministre du UK-UK Rishi Sunak à lancer le premier Institut mondial de la sécurité de l’IA et à organiser un sommet de la sécurité de l’IA à Bletchley Park.
Les doutes de l’IA ont depuis perdu l’argument pour tenter de ralentir le développement de la technologie, mais l’homme de 77 ans continue de battre le tambour de risque existentiel. Le lauréat du prix Nobel (en physique) sera à Paris pour parler lors d’événements parallèles.
Même s’il travaille pour la méta géante de la Silicon Valley en tant que scientifique en chef de l’IA, Yann LeCun est un pilier de l’écosystème de l’IA français. Un premier pionnier de l’IA, il a été un défenseur de l’open source, une forme ouverte et collaborative de développement logiciel qui contraste avec des modèles propriétaires fermés développés par l’IA Star Openai et d’autres.
LeCun joue un rôle influent chez Meta, avec sa main visible dans l’ouverture de la société en 2015 du Fair Artificial Intelligence Laboratory à Paris. Le lancement a été une première pour la France à l’époque et était motivée par la condamnation de LeCun que la capitale française abritait un bassin de talents inexploités.
Près de 10 ans plus tard, les anciens élèves d’entreprise de ce laboratoire se sont classés dans toute l’IA européenne. Antoine Bordes, qui était la cogenteuse du Fair, travaille pour la startup de défense Helsing, tandis qu’un autre ancien employé, Timotée Lacroix, est désormais le co-fondateur et directeur de la technologie de Mistral AI.
LeCun est également une pom-pom girl enthousiaste pour la technologie, et pourrait être vu se promener dans Paris avec ses lunettes de bandes de rayons alimentées par l’IA alors même que Meta hésitait à les libérer en Europe en raison de préoccupations réglementaires.
LeCun n’a jamais été un condamné à l’IA et soutient qu’une approche open source peut garantir que l’IA évolue d’une manière qui profite à l’humanité, même si elle a également été considérée comme bénéfique pour la Chine, où l’open source a aidé à alimenter la création du chatbot en profondeur. Le plaidoyer open source de LeCun l’a vu jouter avec le fondateur de SpaceX, Elon Musk, sur les réseaux sociaux avant le tour actuel de Meta pour embrasser l’administration du président américain Donald Trump.
Matt Clifford est le cerveau de référence du gouvernement britannique sur toutes les technologies. Il préside l’agence de financement de Moonshot du pays Aria, a aidé à mettre en place l’Institut britannique de sécurité de l’IA sous le dernier gouvernement et conseille maintenant le nouveau gouvernement sur la mise en œuvre d’un «plan d’action d’opportunités de l’IA» qu’il a rédigé.
Il a joué un rôle crucial dans le premier sommet de la sécurité de l’IA à Bletchley Park en novembre 2023, partant à travers le monde en tant que représentant de PM Sunak à l’époque.
Après cela, l’ancien consultant McKinsey est retourné à son emploi de jour en tant qu’investisseur en démarrage dans les entreprises technologiques; Lorsque le gouvernement de Sunak est tombé lors des élections de l’année dernière, la nouvelle administration du travail est venue appeler.
L’homme de 39 ans a eu plusieurs conversations avec le secrétaire à la technologie du pays, Peter Kyle, qui a conduit à être chargé de créer un plan d’action de l’IA pour eux au cours de l’été. Ce plan a finalement été publié en janvier et sera le plan de la politique de l’IA britannique; Le gouvernement a accepté ses 50 recommandations et Kyle conseille maintenant le n ° 10 une fois par semaine sur sa mise en œuvre.
Aucun autre spécialiste de la technologie près du n ° 10, la star de Clifford continue de monter.
Bien que Clifford, né à Bradford, soit affable et ne prenne pas le paiement de son travail gouvernemental, il a fait l’objet de briefings contre lui pour des conflits d’intérêts perçus. Sa recommandation selon laquelle le régime du droit d’auteur soit réformé a attiré une colère particulière des éditeurs et des détenteurs de droits.
L’année dernière, l’Union européenne est devenue un pionnier mondial en adoptant sa loi sur l’IA, un livre de règles contraignant régulant les systèmes d’IA à haut risque. Le vétéran de la Commission européenne, Kilian Gross, a été l’une des personnalités clés pour s’assurer que la loi est déployée rapidement.
Gross mène l’unité de réglementation et de conformité de l’IA à l’intérieur du bureau de l’IA de la Commission, un groupe clé qui déterminera le sort de la loi sur l’IA. Alors que le patron de l’IA Office Lucilla Sioli est le visage de la commission à un public plus large sur tout ce qui concerne la réglementation de l’IA, Gross n’est jamais trop loin pour sauter lorsque les choses deviennent techniques.
Gross a été formé en tant qu’avocat de la compétition, mais au cours de son quart de siècle à l’exécutif de l’UE, il a également travaillé sur des politiques telles que le numérique, l’énergie, la fiscalité et les aides d’État. Il a également conseillé le commissaire de l’énergie et du logement en Allemagne, Günther Oettinger.
Les lobbyistes technologiques affirment que Gross a couru autour de Bruxelles pour rencontrer des entreprises technologiques ou des groupes de lobbys de l’industrie, soit pour expliquer les règles, soit pour écouter leurs plaintes quant à leur caractère. Ses nerfs pourraient être testés à la limite au cours des 18 prochains mois, car le livre de règles de l’IA de l’UE prend progressivement effet.
Alors que les décideurs politiques réglementent la façon dont les entreprises de l’IA gèrent les risques de la technologie, l’étape précédente – identifiant ces risques – est le terrain de jeu de l’informaticien canadien Yoshua Bengio.
L’un des «parrants de l’IA», avec Hinton et LeCun, Bengio est une voix influente dans le débat sur les risques de l’IA et les réponses potentielles à eux.
Dans la comptabilité du sommet de Paris, Bengio a dirigé des travaux sur un rapport de sécurité de l’IA rédigé par 96 scientifiques, qui sera un objectif de débat à Paris. Son message: Avant de commencer à aborder les risques, nous devons ouvrir les boîtes d’IA et exiger que les entreprises fournissent plus de transparence sur le fonctionnement de leurs modèles d’IA.
Bengio est également exploité pour des travaux de réglementation. Le bureau de l’IA de la Commission européenne l’a nommé l’un des experts universitaires qui rédigera un ensemble de règles volontaires pour les modèles d’IA à usage général les plus avancés. Cette initiative, cependant, est maintenant en péril après que Google et Meta ont attaqué la façon dont les règles sont rédigées.
En tant que chercheur en éthique influente de l’IA chez Google, Meredith Whittaker a exhorté que l’entreprise fasse plus sur les dommages potentiels de l’IA. Maintenant, en tant que chef de la Fondation à but non lucratif derrière l’application de messagerie cryptée Signal et une conseillère de l’IA de l’IA Now Institute, elle reste une voix puissante appelant Big Tech pour rendre compte et contrer une partie du battage médiatique de l’IA.
Whittaker a quitté Google en 2019 après avoir dirigé une série de débrayages pour protester contre l’inconduite en milieu de travail. Elle a depuis averti que les systèmes d’IA existants peuvent inclure des ensembles de données biaisés qui renforcent les biais raciaux et de genre – un problème qui nécessite une action immédiate par les régulateurs.
Elle a également fait campagne contre les tentatives de rompre le chiffrement et a mis en garde contre le pouvoir de marché d’une poignée d’entreprises américaines sur l’IA. Jusqu’à récemment, elle avait même un rôle de conseillers de conseil en tant que conseillère principale sur l’IA de Lina Khan, qui a présidé la Commission fédérale américaine du commerce de 2021 à 2025.
Le président français Emmanuel Macron a peut-être du mal à former un gouvernement, mais il n’a pas abandonné son ambition d’être le cerveau derrière la stratégie de France – et d’Europe -.
En tant qu’hôte du sommet de l’action de l’IA à Paris, le président français a travaillé dur pour pousser les pays européens à adopter une stratégie d’innovation plus agressive qui pourrait aider à tirer des investissements. Il a également intensifié des pourparlers avec des chefs et des chercheurs commerciaux français et européens pour montrer ce que la France peut faire pour l’IA.
L’intérêt de Macron pour l’IA n’est pas nouveau. En 2018, il a lancé une stratégie nationale d’IA, intitulée « IA for Humanity », visant à positionner la France en tant que leader mondial et à financer la recherche, l’innovation et la formation de l’IA.
Cette ambition a maintenant changé un équipement, en particulier depuis que Washington a annoncé l’investissement de centaines de milliards de dollars dans les infrastructures d’IA. Macron pousse dur pour aider les entreprises françaises et surtout le grand espoir du pays, Mistral AI, sur lequel Paris compte pour rivaliser avec Openai.
Dans le même temps, Macron veut également faire de Paris une plate-forme pour des discussions mondiales sur l’accès universel à l’IA, alors que l’Europe essaie de trouver un espace dans une race technologique dominée par les États-Unis et la Chine. Ici, il a essayé de tirer de nouveaux alliés, tendant même la main au Premier ministre indien Narendra Modi pour coprésider le sommet de l’IA de Paris.
(TagStotranslate) Applications



