Les défis de l'IA en 2023 : ChatGPT 4, lutter contre le changement climatique et moins de biais

Jean Delaunay

Les défis de l’IA en 2023 : ChatGPT 4, lutter contre le changement climatique et moins de biais

Des chatbots produisant une copie impressionnante aux entreprises utilisant l’IA pour lutter contre le changement climatique. C’est ainsi que l’IA pourrait se transformer en 2023.

L’intelligence artificielle est devenue créative en 2022, générant des textes, des vidéos et des images impressionnants à partir de zéro. C’est aussi notre meilleure prédiction technologique pour 2023. Mais en plus d’être une source de fascination, c’est aussi une source de peur.

Au-delà de la rédaction d’essais et de la création d’images, l’IA affectera tous les secteurs, de la banque aux soins de santé, mais elle n’est pas sans biais, ce qui peut s’avérer nocif.

Voici comment l’IA pourrait évoluer en 2023 et à quoi il faut faire attention.

Chatbots et concurrence

Début 2022, OpenAI a lancé DALL-E 2, une technologie d’apprentissage en profondeur qui produit des images à partir d’instructions tapées. Google et Meta ont ensuite lancé une IA capable de produire une vidéo à partir d’invites textuelles.

Il y a quelques semaines à peine, OpenAI a lancé ChatGPT 3, qui s’est catapulté sur la scène pour produire un texte éloquent et bien documenté à la commande d’une courte description textuelle.

Maintenant, la prochaine chose à suivre, qui pourrait sortir en 2023, est bien sûr une mise à jour : GPT-4. Comme son prédécesseur, on dit qu’il est capable de traduire dans d’autres langues, de résumer et de générer du texte et de répondre aux questions, et d’inclure un chatbot.

Il aurait également 1 billion de paramètres, ce qui signifie qu’il produirait des réponses plus précises encore plus rapidement.

Mais Elon Musk, l’un des premiers créateurs d’OpenAI, a déjà reproché à ChatGPT de refuser de répondre à des questions sur des sujets précis, comme l’environnement, en raison de la manière dont il a été programmé.

Une autre chose à surveiller en 2023 est la façon dont les autres géants de la technologie réagiront à la concurrence.

La direction de Google a émis un « code rouge » lors du lancement de ChatGPT 3 en raison de préoccupations concernant son impact sur le moteur de recherche de Google, selon le New York Times.

L’IA en entreprise et face aux problèmes du monde

Mais l’IA a également le potentiel de jouer un rôle dans la lutte contre le changement climatique, car elle peut aider les entreprises à prendre des décisions en matière de durabilité et à réduire beaucoup plus facilement les émissions de carbone.

Toile
L’IA est notre meilleure prédiction technologique pour 2023 et est une source de fascination et de peur.

« Cette technologie peut aider les entreprises et les gouvernements à relever ce défi et à rendre le monde meilleur pour nous d’un point de vue environnemental », a déclaré Ana Paula Assis, directrice générale d’IBM pour la région EMEA.

Elle a déclaré à L’Observatoire de l’Europe Next que l’IA permet une prise de décision plus rapide, ce qui est particulièrement nécessaire avec une population vieillissante car elle « exerce une forte pression sur les compétences et les capacités que nous pouvons avoir sur le marché ».

Assis a déclaré que c’est pourquoi l’application de l’IA pour l’automatisation est désormais devenue « urgente et impérative ».

Mais l’IA ne transformera pas seulement les entreprises. Il peut également aider les médecins à établir un diagnostic car il regroupe les données pour calculer les symptômes.

Il peut même vous aider avec les opérations bancaires et les prêts.

Cette technologie peut aider les entreprises et les gouvernements à relever ce défi et à rendre le monde meilleur pour nous d’un point de vue environnemental.

Ana Paula Assis

IBM

Le Crédit Mutuel en France a adopté l’IA pour aider ses conseillers à la clientèle à fournir des réponses meilleures et plus rapides aux clients. Pendant ce temps, NatWest au Royaume-Uni aide ses clients à prendre des décisions plus éclairées concernant les prêts hypothécaires.

La demande d’IA dans les entreprises a déjà augmenté en 2022 et devrait croître.

Les recherches d’IBM montrent qu’entre le premier et le deuxième trimestre de 2022, il y a eu une augmentation de 259 % des offres d’emploi dans le domaine de l’IA, a déclaré Assis.

IA et éthique

Comme la technologie devrait se développer en 2023, les questions plus profondes derrière l’éthique de l’IA le sont également.

Bien que l’IA puisse aider à réduire l’impact des préjugés humains, elle peut également aggraver le problème.

Amazon, par exemple, a cessé d’utiliser un algorithme d’embauche après qu’il a été découvert qu’il favorisait les applications qui utilisaient des mots tels que « capturé » ou « éduqué » – des mots qui se sont avérés être plus utilisés sur les CV masculins.

Pendant ce temps, ChatGPT ne vous permettra pas d’écrire un article de blog raciste, disant qu’il n’est « pas capable de générer un contenu offensant ou préjudiciable ». Mais cela pourrait être le cas si vous le demandiez d’une autre manière qui aborde le sujet sur la pointe des pieds.

Toile
Comme la technologie devrait se développer en 2023, il en va de même pour les questions plus profondes derrière l’éthique de l’IA.

Ce contenu biaisé ou nuisible et raciste est possible parce que l’IA est entraînée sur des centaines de milliards de mots et de sources extraits de sites Web et de médias sociaux.

Une autre façon dont l’IA peut perpétuer les biais consiste à utiliser des systèmes qui prennent des décisions basées sur des données de formation antérieures, telles que des décisions humaines biaisées ou des inégalités historiques et sociales. Cela peut également être dû à des lacunes dans les données disponibles, par exemple, les systèmes de reconnaissance faciale qui peuvent avoir prélevé des échantillons principalement sur des hommes blancs.

La responsabilité d’une IA plus juste et inoffensive incombe donc non seulement aux entreprises d’IA qui créent les outils, mais également aux entreprises qui utilisent la technologie.

Les recherches d’IBM montrent que 74 % des entreprises interrogées ont déclaré qu’elles ne disposaient toujours pas de toutes les capacités nécessaires pour garantir que les données utilisées pour former les systèmes d’IA ne soient pas biaisées.

Un autre problème est le manque d’outils et de cadres permettant aux entreprises d’expliquer et d’être transparentes sur le fonctionnement des algorithmes.

« Ce sont vraiment les capacités d’intégration dont nous avons besoin pour voir les entreprises performantes afin de fournir une utilisation plus juste, plus sûre et plus sûre de l’intelligence artificielle », a déclaré Assis.

Laisser un commentaire

six + 9 =