The Spanish parliament in Madrid.

Jean Delaunay

L’Espagne pourrait amender les entreprises d’IA jusqu’à 35 millions d’euros d’amendes pour contenu erroné

Le Conseil des ministres espagnol a approuvé un projet de loi qui a affiner les entreprises d’IA jusqu’à 35 millions d’euros pour ne pas étiqueter correctement leur contenu.

PUBLICITÉ

Le Conseil espagnol des ministres a adopté un projet de loi qui pourrait voir des amendes massives infligées aux sociétés d’intelligence artificielle (IA) qui n’abandonnent pas de manière appropriée le contenu généré par l’IA dans le but de limiter les «Fake-Kakes».

La facture de la facture incorrecte l’étiquetage de l’IA comme une infraction grave, avec une pénalité potentielle de 7,5 millions d’euros à 35 millions d’euros, soit entre 2 et 7% du chiffre d’affaires mondial d’une entreprise.

La nouvelle législation suggère que les startups et les entreprises de taille moyenne pourraient recevoir une pénalité plus faible.

« L’intelligence artificielle doit nous aider à améliorer le monde dans lequel nous vivons », a déclaré mardi Oscar Lopez, ministre espagnol de la transformation numérique.

Lopez a déclaré que la loi concentrera l’utilisation de l’IA sur la recherche médicale, la prévention des catastrophes et l’amélioration du trafic dans les villes espagnoles au lieu de «répandre des canular, des mensonges et une diffamation».

La loi de l’Espagne adopte les lignes directrices de la loi de l’UE sur l’IA, la loi relativement nouvelle du bloc qui impose des règles de transparence strictes sur les systèmes d’IA qui sont jugés à haut risque, selon Lopez.

Le projet de loi doit encore l’approbation du Congrès espagnol des députés avant d’entrer en vigueur.

Autres pratiques interdites par l’acte

Le gouvernement espagnol affirme que le projet de loi interdit d’autres pratiques telles que l’utilisation de techniques subliminales, y compris «des images ou des sons imperceptibles» pour manipuler les décisions sans consentement.

Un exemple de ce type de technique serait un chatbot qui identifie les utilisateurs d’une dépendance au jeu et les encourage à se connecter à une plate-forme de jeu.

Le projet de loi empêcherait également les entreprises de l’IA de classer les personnes en fonction de la race, des opinions politiques, de la religion ou de l’orientation sexuelle en fonction de leurs données biométriques ou de leurs présences sur les réseaux sociaux.

Ces données ne peuvent pas être utilisées pour décider si une personne est plus susceptible que les autres de commettre un crime, une critique prélevée contre un algorithme utilisé dans une prison en Catalogne pour déterminer le risque de récidive des prisonniers.

Les entreprises d’IA qui utilisent la biométrie pour surveiller la fréquentation des employés mais qui n’ont pas de supervision humaine sur ce système pourraient également être condamnées à une amende de 500 000 € à 7,5 millions d’euros, soit entre 1 et 2% du chiffre d’affaires mondial annuel.

Le projet de loi permet également au gouvernement espagnol retirer temporairement un système d’IA du pays «lorsqu’il a provoqué un grave accident, comme la mort d’une personne».

Laisser un commentaire

10 + vingt =