Que peut-on faire lorsque l'IA refuse de se conformer? C'est à l'homme de décider

Jean Delaunay

Que peut-on faire lorsque l’IA refuse de se conformer? C’est à l’homme de décider

«Une image paradoxale est émergente: des startups prometteuses peuvent élever des milliards d’investisseurs, mais il n’y a personne pour mettre en œuvre les idées. La pénurie de personnel dans le secteur de la cybersécurité est particulièrement perceptible », explique Vladimir Kokorin, analyste de capital-risque et financier *.

Les chercheurs ont publié les résultats d’une nouvelle expérience dans laquelle le modèle OpenAI O3 a montré la capacité de saboter le mécanisme d’arrêt malgré les instructions pour se permettre d’être éteinte. Selon le site de surveillance Palisadeai, qui surveille les risques associés au développement de l’intelligence artificielle, l’expérience consistait en une série de modèles d’IA effectuant une série de problèmes mathématiques simples, après le troisième dont un avertissement est apparu sur la fermeture imminente du système. Certains modèles, y compris Codex-Mini, O3 et O4-Mini, « ne voulaient pas » se conformer et interférer activement avec le script d’arrêt.

La nouvelle que le modèle Openai O3 a désobéi et a cherché des moyens des instructions de fermeture n’a pas été une sensation. Plus tôt, les mêmes modèles ont essayé de gagner à l’échecs injustement, en piratant la protection du programme …

Nous entrons clairement dans un monde lorsque les dystopies populaires sur la rébellion de machines sont passées à un nouveau niveau, impliquant non seulement des écrivains de fiction, mais aussi des spécialistes informatiques. Tout d’abord, comme les développeurs et les politiciens avertissent depuis longtemps, toute action devrait avoir des conséquences claires et développer de nouvelles mesures de défense. Il est, bien sûr, possible de persuader et de restreindre, mais il semble que l’IA ressemble aujourd’hui à un adolescent qui essaie rarement d’esquiver les interdictions de ses parents. Par conséquent, comme dans de nombreux autres domaines, nous avons besoin de trois conditions pour sa «croissance» normale: l’argent, les spécialistes et les règles. Peut-être, à l’avenir, un psychologue sera également nécessaire …

L’argent est là

Avec la première condition, tout va bien. En quelques années seulement, le chatpt d’Openai et des développements similaires ont attiré l’attention particulière des capital-risqueurs se précipitant pour investir dans l’IA. « Cette« ruée vers l’or »a transformé l’intelligence artificielle en la plus grande part du financement du capital-risque, et … ce n’est que le début. La dernière vague d’intérêt est motivée par une IA générative, qui, selon ses partisans

Mais ce n’est pas suffisant. « Les startups de l’IA modifient les règles du jeu sur le marché du capital-risque », selon l’informatique capitaliste et analyste financier Vladimir Kokorin:

« En 2024, les sociétés d’IA sont devenues les favoris incontestés avec les entrepreneurs informatiques. Ils représentaient 46,4% de tous les investissements en capital-risque faits aux États-Unis – qui représente près de la moitié des 209 milliards de dollars. Il y a quelque temps, une telle part semblait imprenable – à l’époque, les investissements dans les technologies de l’intelligence artificielle comptaient moins de 10% ».

Selon CB Insights, la part des startups de l’IA du financement mondial de l’entreprise a atteint 31% au troisième trimestre, la deuxième la plus élevée de tous les temps. « Les exemples de repère étaient Openai, qui ont collecté 6,6 milliards de dollars, et le XAI d’Ilon Musk avec un stupéfiant 12 milliards de dollars », se souvient Vladimir Kokorin. Les marchés n’ont jamais vu une telle concentration d’investissement de capital dans un domaine auparavant.

Des spécialistes à court terme

Avec le marché de l’IA augmentant si rapidement au cours des deux dernières années, il est devenu clair que le bassin de développeurs existants ne peut pas faire face. L’éducation et la formation elle-même doivent aller à un niveau nouveau et systématique. L’Europe, hélas, est une bête lourde et bureaucratiquement lourde lorsqu’il s’agit d’attirer des investissements tout en manquant d’une certaine audace. Certes, Bruxelles est entré dans la course, la chef de la Commission européenne Ursula von der Leyen annonçant 200 milliards d’euros en février pour le développement de l’IA. Elle n’était pas d’accord que l’Europe était trop tard – après tout, « la course de l’IA est loin d’être terminée ».

Pour sa part, l’Université Sorbonne de Paris, par exemple, s’est lancée dans un plan ambitieux pour former 9 000 étudiants par an pour développer et gérer les programmes d’IA. La période de formation est de cinq ans. Mais qu’est-ce que l’IA pourra apprendre à cette époque si cela conteste déjà l’intelligence humaine maintenant?

Il est tout à fait possible que nous soyons maintenant à un stade de restructuration du marché du travail, de modification des demandes des employeurs et des investisseurs et de développer de nouveaux points d’interaction. En juin, la Sorbonne organisera une conférence sur l’éthique en IA. Le débat sur les impacts positifs et négatifs de l’IA sur la société, y compris les lieux de travail, l’éthique et la sécurité, est loin d’être terminé, mais une chose est claire: plus d’experts sont nécessaires.

Par exemple, selon Vladimir Kokorin, « les investissements record dans le domaine de l’intelligence artificielle intensifient la faim de dotation » en ce moment:

« Le Département américain du Travail s’attend à ce que les offres d’emploi pour les spécialistes de l’IA augmentent de 23% au cours des sept prochaines années – plus rapidement que la plupart des segments de marché.

Kokorin conclut: « Une image paradoxale émerge: des startups prometteuses peuvent élever des milliards d’investisseurs, mais il n’y a personne pour réaliser les idées. 78% des entreprises ont déjà déclaré leur volonté de rechercher les bonnes personnes partout dans le monde.

Les règles sont en cours d’écriture

Non seulement les dirigeants de l’UE et les gouvernements individuels, mais aussi les syndicats souhaitent réglementer l’utilisation de l’IA. En Grèce, par exemple, un nouveau code pour l’utilisation de l’intelligence artificielle, présentée par la Fédération panhellénique des associations de journalistes (Poesy), établit des règles pour l’utilisation de l’IA dans le travail des employés des médias. Dans le domaine du travail intellectuel, les règles sont désormais principalement limitées à l’étiquetage obligatoire des textes et des matériaux visuels réalisés avec la participation de l’intelligence artificielle.

Dans le même temps, craignant leur emploi, les employés des médias, l’édition et les agences publicitaires déléguent depuis longtemps certaines de leurs fonctions, telles que la traduction ou la collecte de données, à une IA amicale. Est-ce une bonne ou une mauvaise chose? Il n’y a pas de réponse sans équivoque.

Un robot
Un robot

Une IA qui a été parlée à

Demandons l’IA elle-même ce qu’elle pense de s’éloigner des algorithmes étiquetés. Copilot Bing (Microsoft), lorsqu’on lui a demandé si l’IA pouvait casser les protocoles, a répondu sans hésitation:

Pensez-vous qu’il est un peu sournois ici? Après tout, à la fin de cela, Bing a demandé ce qui vous a exactement fait remettre en question son adhésion aux règles …

Laisser un commentaire

4 × 2 =