Les modèles d'IA ne sont pas conformes à la loi européenne sur l'IA, selon une étude de Stanford

Jean Delaunay

Les modèles d’IA ne sont pas conformes à la loi européenne sur l’IA, selon une étude de Stanford

Une étude récente de Stanford a montré que la plupart des modèles d’IA, y compris le PaLM 2 de Google et le GPT-4 d’Open AI, ne sont pas conformes à la loi européenne sur l’IA.

Selon une nouvelle étude, les modèles d’intelligence artificielle (IA) des principales entreprises technologiques ne sont pas conformes aux exigences de la prochaine loi sur l’IA de l’UE.

L’UE a travaillé activement à l’établissement de réglementations complètes pour régir les technologies d’IA et a élaboré la loi sur l’IA au cours des deux dernières années.

La loi a récemment fait l’objet d’un vote au Parlement européen, recueillant un soutien écrasant avec 499 voix pour, 28 contre et 93 abstentions.

Cette législation est destinée à imposer des obligations explicites aux fournisseurs de modèles fondamentaux comme OpenAI et Google, dans le but de réglementer l’utilisation de l’IA et de limiter les dangers de la nouvelle technologie.

Cependant, depuis la démocratisation des systèmes d’IA, de nombreux législateurs ont tenté de rattraper le développement rapide de la technologie et la loi sur l’IA a refait surface avec un besoin de réglementation beaucoup plus alarmant.

Une étude menée par des chercheurs du Centre de recherche sur les modèles de fondations (CRFM) de l’Université de Stanford s’est concentrée sur la version de la loi du Parlement européen.

Parmi les 22 exigences adressées aux fournisseurs de modèles de fondation, les chercheurs ont sélectionné 12 exigences qui pourraient être évaluées à l’aide d’informations accessibles au public.

Ces exigences ont été regroupées en quatre catégories différentes, notamment les ressources de données, les ressources de calcul, le modèle lui-même et les pratiques de déploiement.

Pour évaluer la conformité, les chercheurs ont conçu une rubrique en 5 points pour chacune des 12 exigences. Leur évaluation consistait à examiner 10 principaux fournisseurs de modèles, dont OpenAI, Google, Meta et Stability.ai, et à attribuer des notes allant de 0 à 4 en fonction du respect des exigences décrites.

L’étude a révélé un écart important dans les niveaux de conformité, certains fournisseurs obtenant des scores inférieurs à 25 %. Il a en outre montré qu’il existe un manque important de transparence parmi les fournisseurs de modèles.

Plusieurs domaines de non-conformité ont été identifiés, notamment la non-divulgation du statut des données de formation protégées par le droit d’auteur, ce qui pourrait jouer un rôle important dans l’adoption de nouvelles lois sur le droit d’auteur adaptées au contenu généré par l’IA.

De plus, la plupart des fournisseurs ont une consommation d’énergie et des émissions non divulguées pendant les données de formation du modèle, en plus de l’absence de méthodologies transparentes pour atténuer les risques potentiels, qui représentent également des parties importantes de la loi sur l’IA.

La recherche a en outre noté des disparités entre les fournisseurs de modèles d’IA ouverts et fermés, avec des versions ouvertes, telles que LLaMA de Meta, offrant une divulgation plus complète des ressources que les versions restreintes ou fermées, telles que GPT-4 d’OpenAI.

Défis pour se conformer à la loi sur l’IA au sein de l’UE

Tous les modèles de fondation étudiés n’ont pas atteint un score parfait, ce qui indique qu’aucun d’entre eux ne respecte pleinement les réglementations en vigueur décrites dans le projet de loi sur l’IA, selon l’étude.

Alors que l’étude note « une grande marge d’amélioration » pour que les fournisseurs s’alignent plus étroitement sur les exigences, les obligations de haut niveau établies dans la loi sur l’IA peuvent poser un défi à de nombreuses entreprises.

Dans un développement récent, les dirigeants de 150 entreprises de premier plan telles que Siemens, Renault et Heineken ont exprimé leurs préoccupations concernant la réglementation stricte dans une lettre ouverte adressée à la Commission européenne, au Parlement et aux États membres.

La lettre déclare : « Selon nous, le projet de loi mettrait en péril la compétitivité et la souveraineté technologique de l’Europe sans relever efficacement les défis auxquels nous sommes et serons confrontés », comme l’a rapporté le Financial Times..

Les dirigeants affirment en outre que les règles proposées imposeront de lourdes réglementations sur les modèles de base qui, à leur tour, pèseront sur les entreprises impliquées dans le développement et la mise en œuvre de systèmes d’IA.

Par conséquent, ils préviennent que ces limitations pourraient inciter les entreprises à envisager de quitter l’UE et les investisseurs à retirer leur soutien au développement de l’IA en Europe, ce qui pourrait mettre l’UE en retard dans la course au développement de l’IA par rapport aux États-Unis.

L’étude suggère en outre qu’il existe toujours un besoin urgent d’une collaboration renforcée entre les décideurs politiques et les fournisseurs de modèles dans l’UE pour combler efficacement les lacunes et les défis, et trouver un terrain d’entente pour assurer la mise en œuvre appropriée et l’efficacité de la loi sur l’IA.

Laisser un commentaire

dix-huit + quinze =