Les algorithmes sont utilisés dans le commerce depuis des décennies, mais les progrès récents pourraient relancer de nouveaux défis pour les régulateurs.
Les pratiques de trading malveillant ne sont pas nouvelles. Les difficultés contre le délit d’initié, ainsi que différentes formes de manipulation du marché, représentent une bataille de longue durée pour les régulateurs.
Ces dernières années – cependant – les experts ont averti de nouvelles menaces pour nos systèmes financiers. Les développements dans l’IA signifient que les robots de trading automatisés sont non seulement plus intelligents, mais ils sont également plus indépendants. Alors que les algorithmes de base réagissent aux commandes programmées, les nouveaux robots sont capables d’apprendre de l’expérience, de synthétiser rapidement de grandes quantités d’informations et d’agir de manière autonome lors de la fabrication des métiers.
Selon les universitaires, un scénario de risque implique une collaboration entre les bots d’IA. Imaginez: des centaines de profils de médias sociaux axés sur l’IA commencent à apparaître en ligne, en tissant des récits sur certaines entreprises. La diffusion d’informations n’est pas nécessairement fausse, mais peut être simplement l’amplification des nouvelles existantes. En réponse, les vrais utilisateurs de médias sociaux commencent à réagir, mettant en évidence le message choisi des bots.
Alors que le marché est basculé par le récit fabriqué, le roboadvisor d’un investisseur se réjouit des bénéfices, ayant coordonné les bots de commérages. D’autres investisseurs, qui n’avaient pas les informations d’initiés, perdent en chronométrant mal le marché. Le problème est que l’investisseur profitant peut même ne pas être conscient du régime. Cela signifie que les frais de manipulation du marché ne peuvent pas nécessairement être efficaces, même si les autorités peuvent voir qu’un commerçant a bénéficié de pratiques distortives.
Les plateformes sociales modifient le trading
Alessio Azzutti, professeur adjoint en droit et technologie (FinTech) à l’Université de Glasgow, a déclaré à L’Observatoire de l’Europe que le scénario ci-dessus est toujours une hypothèse – car il n’y a pas suffisamment de preuves pour prouver que cela se produit. Malgré cela, il explique que des schémas similaires et moins sophistiqués ont lieu, en particulier sur les «marchés des actifs cryptographiques et les marchés financiers décentralisés».
«Les acteurs malveillants… peuvent être très actifs sur les plateformes de médias sociaux et les plateformes de messagerie telles que Telegram, où ils peuvent encourager les membres à investir leur argent dans Defi ou dans un atout cryptographique donné, pour s’adapter à eux-mêmes», a expliqué Azzutti.
«Nous pouvons observer l’activité directe des acteurs malveillants humains mais aussi ceux qui déploient des robots AI.»
Il a ajouté que les agents répartissant la désinformation ne sont pas nécessairement très sophistiqués, mais ils ont toujours le pouvoir de «polluer les discussions via de fausses nouvelles pour induire les investisseurs de détail en erreur».
« Et donc la question est que si un profane, si un jeune à lui seul dans son bureau à domicile est en mesure d’atteindre ces types de manipulations, quelles sont les limites pour les plus grands joueurs pour obtenir le même effet, sur des marchés encore plus sophistiqués? »
La façon dont les informations sur le marché se propage désormais en ligne, d’une manière répandue, rapide et non coordonnée, favorise également différents types de trading. Les investisseurs de détail sont plus susceptibles de suivre les folies, plutôt que de compter sur leur propre analyse, ce qui peut déstabiliser le marché et potentiellement être exploité par les robots d’IA.
La saga GameStop largement citée est un bon exemple de trading de troupeau, lorsque les utilisateurs d’un forum Reddit ont décidé d’acheter des actions dans la société de jeux vidéo en masse. Les grands hedge funds pariaient que le prix baisserait, puis a perdu lorsqu’il a monté en flèche. De nombreux experts disent que ce n’était pas un cas de collusion car aucun accord officiel n’a été créé.
Un porte-parole de l’ESMA, la European Securities and Markets Authority, a déclaré à L’Observatoire de l’Europe que le potentiel pour les robots d’IA pour manipuler les marchés et profiter des mouvements est « une préoccupation réaliste », bien qu’ils aient souligné qu’ils n’avaient pas « des informations ou des statistiques spécifiques sur ce qui se produit ».
« Ces risques sont encore intensifiés par le rôle des médias sociaux, qui peuvent agir comme un canal de transmission rapide pour les récits faux ou trompeurs qui influencent la dynamique du marché. Un problème clé est le degré de contrôle humain sur ces systèmes, car les mécanismes de surveillance traditionnels peuvent être insuffisants », a déclaré le porte-parole.
L’ESMA a souligné qu’il «surveillait activement» les développements de l’IA.
La réglementation est-elle prête?
Un défi pour les régulateurs est que la collaboration entre les agents de l’IA ne peut pas être facilement retracée.
« Ils n’envoient pas de courriels, ils ne se rencontrent pas. Ils apprennent simplement au fil du temps la meilleure stratégie et donc la façon traditionnelle de détecter la collusion ne fonctionne pas avec l’IA », a déclaré à L’Observatoire de l’Europe Itay Goldstein, professeur de finance et d’économie à la Wharton School de l’Université de Pennsylvanie.
« La réglementation doit intensifier et trouver de nouvelles stratégies pour y faire face », a-t-il fait valoir, ajoutant qu’il y a un manque de données fiables sur la façon dont les commerçants utilisent l’IA.
Filippo Annunziata, professeur de marchés financiers et de législation bancaire à l’Université de Bocconi, a déclaré à L’Observatoire de l’Europe que les règles actuelles de l’UE « ne devraient pas être révisées », faisant référence au règlement sur l’abus du marché (MAR) et aux marchés dans la directive des instruments financiers II (MIFID II).
Malgré cela, il a fait valoir que «les superviseurs doivent être équipés d’outils plus sophistiqués pour identifier une éventuelle manipulation du marché».
Il a ajouté: « Je suggère même que nous demandons aux personnes qui développent des outils d’IA pour échanger sur les marchés et ainsi de suite pour inclure des disjoncteurs dans ces outils d’IA. Cela le forcerait à s’arrêter avant même le risque de manipulation. »
En ce qui concerne le cadre juridique actuel, il y a aussi la question de la responsabilité lorsqu’un agent d’IA agit de manière malveillante, indépendante de l’intention humaine.
Ceci est particulièrement pertinent dans le cas de la soi-disant échange de boîtes noires, où un bot exécute des transactions sans révéler son fonctionnement interne. Pour y faire face, certains experts pensent que l’IA devrait être conçu pour être plus transparent, afin que les régulateurs puissent comprendre la justification derrière les décisions.
Une autre idée est de créer de nouvelles lois concernant la responsabilité, afin que les acteurs responsables du déploiement de l’IA puissent être tenus responsables de la manipulation du marché. Cela pourrait s’appliquer dans les cas où ils n’avaient pas l’intention d’induire en erreur les investisseurs.
« C’est un peu comme la tortue et le lièvre », a déclaré Annunziata.
« Les superviseurs ont tendance à être des tortues, mais les manipulateurs qui utilisent des algorithmes sont des lièvres, et il est difficile de les rattraper. »