La Grande-Bretagne danse sur la mélodie de JD Vance alors qu'elle refonte l'Institut de sécurité AI

Martin Goujon

La Grande-Bretagne danse sur la mélodie de JD Vance alors qu’elle refonte l’Institut de sécurité AI

LONDRES – Les indices sont venus pour la première fois à Paris. Les rumeurs circulaient au cours du sommet de l’action de l’IA de deux jours dans la ville cette semaine que la Grande-Bretagne refonterait son institut historique de sécurité de l’IA (AISI) en tant que «institut de sécurité».

Les responsables du gouvernement britannique avaient également cité une absence de références à la «sécurité nationale» comme raison de ne pas signer la déclaration du sommet, positionnant la Grande-Bretagne en verrouillage avec les États-Unis.

Leur langage s’est contenté d’un discours historique du vice-président américain JD Vance à Paris mardi, exposant la réflexion de l’administration sur la géopolitique technologique.

« L’avenir de l’IA ne sera pas gagné par la sécurité à la main », a déclaré Vance.

La Grande-Bretagne écoutait. Le ministère des sciences et de la technologie du pays a déclaré vendredi que son Institut de sécurité de l’IA, le premier au monde, se concentrerait sur les «risques graves de l’IA avec les implications de sécurité» et changerait son nom.

L’institut de sécurité de l’IA se concentrera sur la cybersécurité et s’associera au ministère de la Défense pour atténuer les risques de biosécurité, tout en travaillant avec le ministère de l’Intérieur sur la fraude et l’utilisation de l’IA pour créer des images de maltraitance d’enfants.

Henry de Zoete, ancien conseiller de l’IA du gouvernement britannique et maintenant conseiller principal à l’Initiative de gouvernance d’Oxford Martin AI, a déclaré: «L’AISI britannique mène le monde en testant de puissants modèles d’IA pour les risques de sécurité nationale. C’est formidable de le voir doubler cette approche. »

Le secrétaire à la technologie Peter Kyle l’a décrit comme la «prochaine étape logique» de l’AISI – et a insisté sur le fait que son travail ne changera pas.

Mais l’institut a discrètement apporté des modifications subtiles à la façon dont elle se réfère à son travail.

Dans son discours à Paris cette semaine, Vance a insisté sur le fait que «l’IA doit rester à l’abri des préjugés idéologiques» et «ne limiter jamais le droit de nos citoyens à la liberté d’expression».

Sur son site Web, l’Institut a maintenant changé de discussion sur les «impacts sociétaux» comme raison d’évaluer les modèles, de le changer en «résilience sociétale». Les références au risque de création d’une IA de création de «résultats inégaux» et de «nuire au bien-être individuel» ont également disparu.

L’Institut a également abandonné la «responsabilité publique» comme raison de l’évaluation des modèles, en le modifiant en gardant le «public en sécurité».

Cette décision attire déjà un examen minutieux.

«Nous sommes heureux de voir à quel point le Royaume-Uni prend au sérieux l’abus de l’IA», a déclaré Elizabeth Seger, directrice de la politique numérique chez Think Tank Demos. «Cependant, nous sommes profondément préoccupés par le fait que toute attention aux biais dans les applications de l’IA a été explicitement coupée de la portée de la nouvelle AISI.»

« Nous demandons au gouvernement de clarifier où, sinon AISI, nuire aux citoyens britanniques des préjugés et de la discrimination sera abordé », a ajouté Seger.

Michael Birtwistle, directeur associé de l’Ada Lovelace Institute, a déclaré qu’il risquait de laisser une «gamme entière de préjudice aux personnes et à la société non réprimée», que l’AISI avait précédemment engagée à s’attaquer.

«Les scandales d’IA les plus importants et les plus récurrents se rapportent fortement au biais, de la dette robo-degré australienne, à l’algorithme du bien-être néerlandais, à l’algorithme des examens Ofqual. Il existe un risque réel que l’inaction sur des risques comme les biais conduira à l’opinion publique contre l’IA et le Royaume-Uni manquant ses avantages. »

Le gouvernement britannique n’a pas immédiatement répondu à une demande de commentaires sur les modifications.

Vendredi les médias du matin, Kyle a eu peu de chances de parler de l’annonce de son département. Au lieu de cela, la conversation a été dominée par l’avenir et les tarifs de l’Ukraine.

Trump a signé jeudi un mémorandum présidentiel se rapprochant des États-Unis d’un système tarifaire «réciproque». Cela pourrait voir la Grande-Bretagne frapper avec des tarifs pouvant aller jusqu’à 21% sur les exportations si, comme l’indique le conseiller commercial de Trump, Peter Navarro, la TVA est considérée par l’administration comme une taxe sur les importations.

Kyle a déclaré: «Nous avons besoin d’un gouvernement avec une pensée cool et claire dans des moments comme celui-ci… nous évaluerons tous les changements et défis qui deviennent en fin de partie de toute partie de l’économie mondiale, et nous agirons de manière appropriée et dans le meilleur intérêt de la Grande-Bretagne .  »

Comme L’Observatoire de l’Europe l’a rapporté pour la première fois plus tôt ce mois-ci, la réflexion à l’intérieur du gouvernement britannique a changé sur la façon de faire avancer une nouvelle législation sur l’IA. Les ministres ont baissé le langage sur le forçage des entreprises d’IA à donner l’accès à la pré-libération de l’AISI pour les tests, qui a également fait l’objet de résistance de l’industrie.

La dernière fois que le secrétaire à la technologie du pays, Peter Kyle, l’a mentionné publiquement, c’était le matin après l’élection de Trump.

(Tagstotranslate) Intelligence artificielle

Laisser un commentaire

19 − trois =