Ne pas réglementer l’IA devrait être hors de question

Jean Delaunay

Ne pas réglementer l’IA devrait être hors de question

Une approche radicale de déréglementation de l’intelligence artificielle, actuellement menée par la France et l’Allemagne, nuirait à l’écosystème européen de l’IA et permettrait au contraire aux sociétés américaines existantes d’IA de dominer, écrit le Dr Kris Shrishak.

La semaine dernière, les gouvernements français et allemand se sont opposés à une régulation des systèmes d’IA sans finalités prédéfinies.

Ce sont les systèmes d’IA qui constituent la base de produits tels que ChatGPT. Leur opposition intervient à un moment où les États-Unis, par le biais d’un décret, et le Royaume-Uni, lors de son récent Sommet sur la sécurité de l’IA, ont fait part de leurs inquiétudes concernant ces mêmes systèmes d’intelligence artificielle.

Mais ne pas réglementer ces systèmes d’IA à usage général – ou comme certains les appellent, ces « modèles de base » – nuirait à l’écosystème de l’IA de l’UE.

Elles entraîneront des préjudices qui susciteront la méfiance au sein du public et pourraient, à leur tour, s’avérer coûteuses pour les politiciens européens de tout le continent.

L’accent devrait être mis sur le « responsable »

De nombreux systèmes d’IA à usage général disponibles sur le marché sont développés par des sociétés basées aux États-Unis.

L’UE souhaite accélérer et faciliter le développement d’une IA avancée locale, open source et construite selon les valeurs de l’UE. La France et l’Allemagne en particulier ne veulent pas être laissées pour compte.

Ils veulent concurrencer les entreprises américaines en soutenant les petites et moyennes entreprises (PME). L’Allemagne soutient Aleph Alpha, une société qui a récemment levé plus de 500 millions de dollars (460 millions d’euros). La France soutient Mistral, société dont le chargé des affaires publiques Cédric O était jusqu’à récemment ministre de l’économie numérique.

Il est important de soutenir l’écosystème des start-up pour développer des systèmes d’IA responsables. Cependant, l’accent devrait être mis ici sur le mot « responsable ».

La présidente de la Commission européenne, Ursula von der Leyen, arrive pour une séance plénière au sommet sur la sécurité de l'IA à Bletchley Park, en novembre 2023.
La présidente de la Commission européenne, Ursula von der Leyen, arrive pour une séance plénière au sommet sur la sécurité de l’IA à Bletchley Park, en novembre 2023.

Il est important de soutenir l’écosystème des start-up pour développer des systèmes d’IA responsables. Cependant, l’accent devrait être mis ici sur le mot « responsable ».

Mistral a développé une IA génératrice de texte et l’a rendue accessible en ligne en septembre. Malgré les preuves accumulées des dommages causés par les systèmes d’IA générative, Mistral a lancé son système d’IA sans aucune garantie pour les empêcher. Selon leurs propres mots, Mistral « ne dispose d’aucun mécanisme de modération ».

En quelques jours, il a été démontré que n’importe qui pouvait utiliser ce modèle d’IA pour produire des instructions détaillées sur le nettoyage ethnique.

Les risques pour les droits fondamentaux et la sécurité doivent être pris en compte

Est-ce le genre de développement de l’IA que l’UE souhaite soutenir ? D’autres entreprises européennes voudraient-elles acheter des systèmes d’IA qui ne répondent pas aux normes de sécurité ?

Une réglementation adéquate qui empêche un développement irresponsable est essentielle.

L’alliance européenne DIGITAL SME, qui représente plus de 45 000 PME dans l’UE, a appelé à une répartition équitable des responsabilités, sans imposer une charge excessive aux petites entreprises utilisant des systèmes d’IA à usage général.

Ces entreprises ne peuvent pas innover en plus des systèmes d’IA à usage général si OpenAI, Google et Mistral n’évaluent pas, ne documentent pas et ne corrigent pas les risques pour les droits fondamentaux et la sécurité que posent ces systèmes d’IA.

Si les développeurs de systèmes d’IA à usage général ne sont pas correctement réglementés, la loi sur l’IA fera échouer les PME et les investisseurs.

Un homme portant un masque facial contre la propagation du nouveau coronavirus passe devant un avis public invitant à se laver les mains à Tokyo, en juillet 2020.
Un homme portant un masque facial contre la propagation du nouveau coronavirus passe devant un avis public invitant à se laver les mains à Tokyo, en juillet 2020.

Par exemple, votre médecin pourrait utiliser un système d’IA à usage général comme chatbot, ce qui pourrait fournir de fausses informations préjudiciables à la santé des personnes. Même si le prestataire de soins de santé pourrait se voir confier la tâche de réparer le chatbot, il n’aura pas accès aux ensembles de données et aux informations nécessaires pour remédier aux préjudices.

Les investisseurs se méfient également des risques que font peser les systèmes d’IA sur la société. Ils s’attendent à ce que la loi du syndicat sur l’IA « fournisse les garde-fous nécessaires qui responsabiliseront les utilisateurs et rassureront toutes les parties prenantes sur le fait que tous les risques potentiels associés à son utilisation sont correctement gérés ».

Si les développeurs de systèmes d’IA à usage général ne sont pas correctement réglementés, la loi sur l’IA fera échouer les PME et les investisseurs.

Le monde regarde

Cela ne veut pas dire que les pays ne devraient pas soutenir le développement de modèles d’IA dans l’UE. Dans le passé, le gouvernement français a financé en partie BLOOM, un modèle open source construit avec les valeurs européennes – un net avantage sur ses homologues américains.

L’UE devrait en effet soutenir les start-ups qui souhaitent développer des systèmes d’IA à usage général via une infrastructure informatique et des « bacs à sable » où elles peuvent tester leurs produits. Cependant, laisser les start-up lancer des systèmes d’IA non testés et nuisibles en supprimant les obligations réglementaires pourrait être catastrophique pour le syndicat dans son ensemble.

L’objectif de la réglementation de l’IA dans l’UE devrait consister à soutenir une innovation responsable qui renforce les droits fondamentaux. Diluer les obligations tout en aidant apparemment quelques start-ups et en sacrifiant le reste de l’écosystème des PME dans l’UE compromettra cet objectif.

La France et l’Allemagne s’uniront-elles pour construire un écosystème d’IA responsable et prospère ?

Une approche de déréglementation radicale nuirait à l’écosystème de l’IA de l’UE et permettrait aux sociétés américaines existantes d’IA de dominer.

La France et l’Allemagne, ainsi que d’autres États membres de l’UE, devraient placer la barre plus haut pour stimuler l’innovation responsable en matière d’IA en soutenant de solides garanties réglementaires. Le monde regarde.

Laisser un commentaire

treize − six =