The AI Act divides AI systems into four main categories according to the potential risk they pose to society.

Jean Delaunay

Politique de l’UE. La Commission crée un groupe d’experts sur les secrets commerciaux de l’IA et les questions de droit d’auteur

La Commission européenne a créé un groupe d’experts pour aider les 27 États membres de l’UE sur les questions liées à la mise en œuvre de la loi sur l’IA et garantir une application harmonisée des règles.

Le groupe, composé de responsables issus des autorités des États membres, devrait également répondre aux questions attendues des pays sur la sécurité des produits, les secrets commerciaux, le droit d’auteur, l’identification biométrique et l’application de la loi, a appris L’Observatoire de l’Europe à partir des documents de la réunion. Cela fait suite à l’approbation du règlement sur l’IA lors d’une réunion des ambassadeurs de l’UE vendredi dernier (2 février).

Sur la sécurité des produits par exemple, les experts donneront des conseils sur l’application des règles relatives au règlement sur les dispositifs médicaux, au règlement sur les dispositifs de diagnostic in vitro ainsi que sur les règles relatives aux machines.

L’Allemagne a exprimé son soutien au groupe de travail, selon le procès-verbal. Son représentant a déclaré lors de la réunion que le lien entre la loi sur l’IA et d’autres législations devait être clarifié et avait des questions spécifiques concernant l’application de la loi et les systèmes de contrôle aux frontières. À son tour, la France souhaitait plus de clarté sur les secrets commerciaux, tandis que la Hongrie demandait plus de détails sur l’application de la loi.

Les pays de l’UE se sont mis d’accord sur les détails techniques de la loi sur l’IA, la première tentative mondiale de réglementer la technologie selon une approche basée sur les risques, après un accord politique en décembre.

La loi divise les systèmes d’IA en quatre catégories principales en fonction du risque potentiel qu’ils représentent pour la société. Au cours du processus de négociation, certains pays, dont la France, l’Allemagne et l’Italie, étaient sceptiques quant à la réglementation des modèles dits de fondation tels que ChatGPT.

Certaines des dispositions qui laissent place à l’interprétation, ou celles qui nécessitent des mises à jour plus fréquentes, nécessiteront l’adoption de ce que l’on appelle des actes délégués, ou du droit dérivé, dans le cadre de la loi sur l’IA.

L’accord doit être approuvé par les législateurs européens avant que les règles n’entrent en vigueur ; un vote en plénière au Parlement européen est attendu en avril.

Après cela, la loi devrait entrer en vigueur plus tard cette année et prévoit une période de mise en œuvre pouvant aller jusqu’à 36 mois. Les exigences relatives aux modèles d’IA commenceront à s’appliquer au bout d’un an déjà et, d’ici six mois, les pays de l’UE devront éliminer progressivement les systèmes interdits.

Outre le groupe d’experts, la commission met en place quatre organes de contrôle et d’exécution. Le Bureau de l’IA sera chargé de superviser la mise en œuvre, en collaboration avec les régulateurs nationaux. Un comité européen de l’intelligence artificielle, comprenant des représentants de chaque État membre, assistera la Commission et les pays de l’UE et partagera son expérience en matière de réglementation.

Un forum consultatif sera composé de représentants de l’industrie, de PME et du monde universitaire pour apporter une contribution technique à la loi sur l’IA. Enfin, un groupe scientifique, un groupe d’experts scientifiques et techniques indépendants, aidera le Bureau de l’IA à mettre en œuvre et à faire appliquer la loi. Modèles d’IA à usage général.

Laisser un commentaire

17 + 4 =