The OpenAI logo is seen displayed on a cell phone with an image on a computer screen generated by ChatGPT

Jean Delaunay

Réaction de l’UE à la loi sur l’IA : des experts en technologie affirment que la première loi sur l’IA au monde est « historique » mais « douce-amère »

C’est une première mondiale que l’UE a adopté une législation visant à réglementer l’intelligence artificielle. Si certains affirment qu’elle ne va pas assez loin, d’autres affirment qu’elle pourrait nuire aux entreprises en leur imposant des « contraintes supplémentaires ».

Les décideurs politiques européens se sont précipités pour élaborer des règles et des avertissements aux entreprises technologiques depuis le lancement de ChatGPT et cette semaine a été monumentale dans l’établissement des règles de l’UE en matière d’intelligence artificielle (IA).

Mercredi, le Parlement européen a approuvé la loi sur l’intelligence artificielle, qui adopte une approche basée sur les risques pour garantir que les entreprises publient des produits conformes à la loi avant qu’ils ne soient mis à la disposition du public.

Un jour plus tard, la Commission européenne a demandé à Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube et X, dans le cadre d’une législation distincte, de détailler comment ils réduisent les risques de l’IA générative.

Alors que l’UE est principalement préoccupée par les hallucinations de l’IA (lorsque les modèles font des erreurs et inventent des choses), la diffusion virale des deepfakes et la manipulation automatisée de l’IA qui pourraient induire les électeurs en erreur lors des élections, la communauté technologique a ses propres reproches à l’égard de la législation. alors que certains chercheurs affirment que cela ne va pas assez loin.

Monopoles technologiques

Même si Bruxelles mérite un « véritable mérite » pour avoir été la première juridiction au monde à adopter une réglementation atténuant les nombreux risques de l’IA, l’accord final présente plusieurs problèmes, a déclaré Max von Thun, directeur européen de l’Open Markets Institute.

Il existe « des lacunes importantes pour les autorités publiques » et « une réglementation relativement faible des plus grands modèles de fondations qui posent le plus de tort », a-t-il déclaré à L’Observatoire de l’Europe Next.

Les modèles de base sont des modèles d’apprentissage automatique qui sont formés sur des données et peuvent être utilisés pour effectuer diverses tâches, comme écrire un poème, par exemple. ChatGPT est un modèle fondamental.

Cependant, la plus grande préoccupation de von Thun concerne les monopoles technologiques.

« La loi sur l’IA est incapable de répondre à la menace numéro un que représente actuellement l’IA : son rôle dans l’augmentation et le renforcement du pouvoir extrême que quelques entreprises technologiques dominantes ont déjà dans nos vies personnelles, nos économies et nos démocraties », a-t-il déclaré.

De même, il a déclaré que la Commission européenne devrait se méfier des abus monopolistiques dans l’écosystème de l’IA.

« L’UE doit comprendre que l’ampleur des risques posés par l’IA est inextricablement liée à l’ampleur et au pouvoir des entreprises dominantes qui développent et déploient ces technologies. On ne peut pas traiter avec succès le premier sans s’attaquer au second », a déclaré von Thun.

La menace des monopoles de l’IA a été mise sous le feu des projecteurs le mois dernier après l’annonce du partenariat entre la start-up française Mistral AI et Microsoft.

Pour certains dans l’UE, cela a été un choc puisque la France avait fait pression pour obtenir des concessions à la loi sur l’IA pour les sociétés open source comme Mistral.

Arthur Mensch, cofondateur et PDG de Mistral AI.
Arthur Mensch, cofondateur et PDG de Mistral AI.

« Moment historique »

Mais plusieurs start-up ont salué la clarté apportée par la nouvelle réglementation.

« L’adoption finale par le Parlement européen de la loi européenne sur l’IA est à la fois un moment historique et un soulagement », a déclaré Alex Combessie, co-fondateur et PDG de la société française d’IA open source Giskard.

« Bien que la loi impose des contraintes et des règles supplémentaires aux développeurs de systèmes d’IA et de modèles de fondation à haut risque, considérés comme des ‘risques systémiques’, nous sommes convaincus que ces freins et contrepoids peuvent être efficacement mis en œuvre », a-t-il déclaré à L’Observatoire de l’Europe Next.

« Ce moment historique ouvre la voie à un avenir où l’IA sera exploitée de manière responsable, favorisant la confiance et garantissant la sécurité de tous », a-t-il déclaré.

La législation fonctionne en distinguant les risques posés par les modèles de fondation, qui reposent sur la puissance de calcul qui les entraîne. Les produits d’IA qui dépassent le seuil de puissance de calcul sont réglementés plus strictement.

La classification est considérée comme un point de départ et, comme d’autres définitions, elle peut être révisée par la Commission.

‘Bon public’

Mais tout le monde n’est pas d’accord avec cette catégorisation.

« De mon point de vue, les systèmes d’IA utilisés dans l’espace de l’information devraient être classés comme à haut risque, ce qui les obligerait à adhérer à des règles plus strictes, ce qui n’est pas explicitement le cas dans la loi européenne sur l’IA adoptée », a déclaré Katharina Zügel, responsable politique. au Forum sur l’information et la démocratie.

« La Commission, qui a la capacité de modifier les cas d’utilisation des systèmes à haut risque, pourrait explicitement mentionner les systèmes d’IA utilisés dans l’espace de l’information comme à haut risque, en tenant compte de leur impact sur les droits fondamentaux », a-t-elle déclaré à L’Observatoire de l’Europe Next.

« Les entreprises privées ne peuvent pas être les seules à diriger notre avenir commun. L’IA doit être un bien public », a-t-elle ajouté.

Mais d’autres soutiennent que les entreprises doivent également avoir leur mot à dire et pouvoir travailler avec l’UE.

« Il est essentiel que l’UE exploite le dynamisme du secteur privé, qui sera le moteur de l’avenir de l’IA. Il sera important de bien faire les choses pour rendre l’Europe plus compétitive et plus attractive pour les investisseurs », a déclaré Julie Linn Teigland, associée directrice pour l’Europe, le Moyen-Orient, l’Inde et l’Afrique (EMEIA) d’EY.

Il est essentiel que l’UE exploite le dynamisme du secteur privé, qui sera le moteur de l’avenir de l’IA. Il sera important de bien faire les choses pour rendre l’Europe plus compétitive et plus attractive pour les investisseurs.

Julie Linn Teigland

Associé directeur de la zone EMEIA d’EY

Cependant, elle a déclaré que les entreprises de l’UE et au-delà doivent être proactives et se préparer à l’entrée en vigueur de la loi, ce qui signifie « prendre des mesures pour s’assurer qu’elles disposent d’un inventaire à jour des systèmes d’IA qu’elles développent ou déploient ». et déterminer leur position dans la chaîne de valeur de l’IA pour comprendre leurs responsabilités juridiques ».

« Goût doux-amer »

Pour les start-ups et les petites et moyennes entreprises, cela pourrait représenter beaucoup plus de travail.

« Cette décision a un goût doux-amer », a déclaré Marianne Tordeux Bitker, responsable des affaires publiques de France Digitale.

« Si l’AI Act répond à un enjeu majeur en termes de transparence et d’éthique, elle crée néanmoins des obligations substantielles pour toutes les entreprises utilisant ou développant l’intelligence artificielle, malgré quelques aménagements prévus pour les startups et PME, notamment via des bacs à sable réglementaires.

« Nous craignons que le texte ne crée simplement des barrières réglementaires supplémentaires qui profiteront à la concurrence américaine et chinoise et réduiront nos opportunités pour l’émergence de champions européens de l’IA », a-t-elle ajouté.

Le logo OpenAI est affiché sur un téléphone portable avec une image sur un écran d'ordinateur générée par le modèle texte-image Dall-E de ChatGPT.
Le logo OpenAI est affiché sur un téléphone portable avec une image sur un écran d’ordinateur générée par le modèle texte-image Dall-E de ChatGPT.

« Mise en œuvre efficace »

Mais même si la loi sur l’IA est une affaire accomplie, sa mise en œuvre constitue le prochain défi.

« Désormais, l’accent est mis sur sa mise en œuvre et son application efficaces. Cela nécessite également une attention renouvelée à la législation complémentaire », a déclaré à L’Observatoire de l’Europe Next Risto Uuk, responsable de la recherche européenne à l’Institut à but non lucratif Future of Life.

Une telle législation complémentaire comprend la directive sur la responsabilité en matière d’IA, destinée à faciliter les actions en responsabilité pour les dommages causés par les produits et services basés sur l’IA, et l’Office européen de l’IA, qui vise à rationaliser l’application des règles.

« Les éléments clés pour garantir que la loi vaut le papier sur lequel elle est rédigée sont que le Bureau de l’IA dispose des ressources nécessaires pour accomplir les tâches qui lui ont été fixées et que les codes de bonnes pratiques pour l’IA à usage général soient bien rédigés avec l’inclusion des autorités civiles. société », a-t-il déclaré.

Laisser un commentaire

12 − cinq =