Dans une interview avec L’Observatoire de l’Europe Next, Brittany Kaiser déballait son plaidoyer pour l’intelligence artificielle open source (IA) au gouvernement.
Cambridge Analytica Whistleblower Brittany Kaiser dit que la protection des données en ligne s’est à peine améliorée depuis qu’elle a témoigné au Parlement britannique en 2018 que des millions de personnes pourraient avoir récolté leurs données Facebook.
Le scandale a éclaté en 2016 après qu’il est apparu que plus de 87 millions de personnes pourraient avoir recueilli leurs données sur Facebook via un quiz de personnalité.
Bien qu’il ne soit pas clair comment ces données ont été utilisées, Kaiser a déclaré que Cambridge Analytica avait « travaillé » un travail chargé « avec la campagne électorale de Donald Trump et son départ. EU Brexit. Les deux organisations ont déclaré qu’aucun contrat n’était signé pour travailler avec la société d’analyse.
« Je souhaite que je puisse dire que cela s’est amélioré. Je dirais qu’il y a maintenant de nombreuses parties du monde où les gens commencent à être légalement protégés, ce qui n’était pas le cas en 2018 », a déclaré Kaiser à L’Observatoire de l’Europe Next.
Bien qu’elle ait déclaré qu’il y avait plus de lois sur la protection des données maintenant, faisant référence au RGPD en Europe, elle a déclaré qu’il n’y avait pas de lois fédérales sur les données aux États-Unis et que si un individu veut intenter une action en justice contre les entreprises utilisant leurs données sans autorisation, cela prend beaucoup de temps dans la salle d’audience.
« Si vous ne voulez pas passer beaucoup de temps dans une salle d’audience ou faire face à la loi, je dirais techniquement que nous sommes moins protégés parce que la technologie est tellement meilleure à cibler », a-t-elle ajouté.
L’intelligence artificielle (IA) aggrave également les choses, surtout en ce qui concerne l’ingérence des élections, a-t-elle déclaré.
« La montée de l’IA générative a facilité la façon dont les choses sont réelles. À l’époque de Cambridge Analytica, nous avons eu une création algorithmique très basique de contenu que le monde utilisait à l’époque », a-t-elle déclaré.
« Cela ne ressemble en rien à ce qui existe aujourd’hui, où vous pouvez imiter la réalité parce que l’IA est devenue si bonne », a-t-elle déclaré.
Kaiser a déclaré qu’en dépit de la défense des droits numériques, même elle a été dupe par des images générées par l’IA-circulant en ligne.
À une occasion, elle pensait que quelque chose de terrible se passait à New York alors qu’elle était momentanément convaincue qu’une image générée par l’AI d’une voiture se déroulant à Manhattan était réelle.
« Sachant qu’il est même difficile de trouver une vraie image de quelque chose, je dirais que cela peut très facilement être abusé pour la politique ou à des fins commerciales – ou à des fins que les gens veulent utiliser », a-t-elle déclaré.
«Nous sommes toujours dans le scénario où vous savez que beaucoup de nos agences de renseignement disent qu ‘« il y a autant d’argent dépensé par la Russie, la Chine et l’Iran dans les communications de désinformation », a-t-elle ajouté.
«Mais la technologie est tellement meilleure que l’impact est plus et l’argent va plus loin dans tout objectif qu’elle a».
IA aux élections
L’année dernière, plus de 60 pays se sont rendus aux urnes dans ce qui était un super cycle d’élections mondiales. La recherche est limitée pour savoir si l’IA a joué un rôle en eux.
Mais un article récent du Center for Emerging Technology and Security (CETAS) à l’Institut Alan Turing a révélé que lors des élections générales du Royaume-Uni, il y avait 16 cas viraux de désinformation de l’IA ou de Fakefakes.
Les chercheurs ont également analysé les élections américaines et ont trouvé des exemples de désinformation générée par l’AI.
Il s’agit notamment des fermes AI Bot imitant les électeurs américains et des allégations contre les immigrants, ce qui a également conduit le contenu viral compatible AI référencé par certains candidats politiques et a reçu une couverture médiatique généralisée.
Bien que le journal ait déclaré qu’il n’y avait pas suffisamment de preuves que la désinformation compatible AI avait un impact mesurable sur les résultats des élections présidentielles américaines, il a ajouté que ce contenu de l’IA a façonné le discours électoral américain en «amplifiant d’autres formes de désinformation et de débats politiques enflammés».
Mis à part les élections, Kaiser a déclaré que l’une de ses plus grandes préoccupations est les contrats que les gouvernements signalent avec les grandes entreprises de l’IA technologique, telles que le fabricant de Chatgpt Openai.
« Parce que les gouvernements sont prêts à essayer d’utiliser l’IA, beaucoup d’entre eux sont des licences de produits d’IA de grandes entreprises fermées, des boîtes noires, et nos données et nos données gouvernementales entrent dans ces systèmes à but lucratif à but lucratif à but lucratif, et il n’y a pas de protection », a-t-elle déclaré.
Open Source signifie généralement que le code source du logiciel est disponible pour tous les domaines du domaine public pour utiliser, modifier et distribuer, et les données qui forment l’IA sont partagées.
Alors que l’IA de la source fermée signifie que le code et les données sur lesquels l’IA sont formés sont conservés dans le contrôle et la propriété de l’entreprise.
Cependant, il pourrait y avoir des implications sur la sécurité nationale d’avoir de grands modèles d’IA open source entre les mains de quiconque peut coder.
« OpenAI a une grande majorité de contrats d’IA gouvernementaux et pour toutes nos données personnelles, ainsi que toutes les données gouvernementales de toutes ces différentes agences gouvernementales et départements, tous allant dans les serveurs d’entreprise d’Openai, il crée une responsabilité encore plus grande », a déclaré Kaiser.
Elle a ajouté que cela est similaire à la façon dont Cambridge Analytica et Facebook étaient il y a plus d’une décennie, mais dans le cas d’Openai, c’est maintenant «beaucoup plus de données, en particulier des données sensibles, qui sont introduites dans ces systèmes».
Kaiser fait maintenant pression pour que les gouvernements adoptent plus de sociétés d’IA open source, tant aux niveaux fédéral et étatique.
Elle a déclaré que les open source sont «essentielles pour les agences gouvernementales orientées civils, surtout maintenant lorsqu’elle est devenue populaire pour la première fois pour que le public puisse auditer ce que le gouvernement fait avec les bases de données et les données».
Elle a fait valoir que des systèmes d’IA open-source seraient une étape plus éthique pour gagner la confiance du public alors que les gouvernements commencent à adopter l’IA, ce qui aux États-Unis, car il n’y a pas de législation fédérale pour protéger les gens de la façon dont leurs données pourraient être utilisées dans ces systèmes.
Kaiser a récemment joué un nouveau rôle dans la plate-forme d’IA open source Elizaos, qui construit des agents de l’IA. Elle dirige la nouvelle filiale de l’entreprise pour aider le secteur public américain à construire une technologie d’IA open source pour les gouvernements.
« Règlement de bon sens »
Kaiser espère que l’administration Trump pourrait prendre la protection des données plus au sérieux.
«Ce gouvernement particulier semble tout à fait prêt à avoir une politique technologique fédérale sérieuse et à s’engager avec des technologues et à embaucher les technologues pour diriger de nombreux ministères», a-t-elle déclaré.
«J’espère donc que cela signifie que nous verrons réellement quelque chose se passer aux États-Unis.
«Ce serait assez important si nous pouvions enfin voir une législation fédérale pour protéger les citoyens américains et protéger nos droits face à une adoption croissante de la technologie».
Cependant, les États-Unis ont clairement indiqué au sommet de l’action de l’IA à Paris en février que la surrégulation de la technologie pourrait bouleverser l’innovation, et que le pays conduirait à ne pas mettre une réglementation étrangère à ces technologies.
« Une réglementation excessive du secteur de l’IA pourrait tuer un secteur transformateur tout comme il décolle », a déclaré le vice-président américain JD Vance.
Kaiser ne considère pas cela comme entravant ses ambitions pour les protections des données américaines ou l’IA open source, mais plutôt qu’il y a un acte d’équilibrage en matière de réglementation.
«Je ne suis certainement pas d’accord avec (PDG d’Openai) Sam Altman quand il dit que nous devrions permettre à des données d’être utilisées pour nos modèles afin que nous puissions être compétitifs. Je pense que c’est très` `bouger vite et casser les choses » pour moi», a-t-elle déclaré.
Cependant, elle a dit qu’elle ne pensait pas non plus que la réglementation étrangère allait aider car elle ne finit pas par être techniquement implémentable, ce qui, selon elle, s’est produite dans certaines composantes du RGPD européen.
« Mais je crois que la réglementation de bon sens co-écrite avec des technologues afin qu’elle soit facilement implémentable … serait une bonne chose pour les Américains et pour l’économie », a-t-elle déclaré.