ChatGPT pourrait diagnostiquer les patients ainsi que les médecins des urgences, selon une nouvelle étude pilote

Jean Delaunay

ChatGPT pourrait diagnostiquer les patients ainsi que les médecins des urgences, selon une nouvelle étude pilote

Une nouvelle étude suggère que ChatGPT pourrait suggérer des diagnostics aux patients ainsi qu’à un médecin qualifié.

ChatGPT pourrait aider à diagnostiquer les patients dans les futures salles d’urgence, selon une nouvelle étude pilote qui a examiné comment le grand modèle de langage pourrait être utilisé pour aider les médecins.

La recherche publiée dans la revue Annals of Emergency Medicine a révélé que le chatbot à intelligence artificielle (IA) diagnostiquait les patients ainsi que les médecins formés. Il devrait être présenté au Congrès européen de médecine d’urgence qui débute ce week-end.

Les chercheurs de l’hôpital Jeroen Bosch aux Pays-Bas ont saisi les notes des médecins et anonymisé les informations sur 30 patients, y compris les examens, les symptômes et les résultats de laboratoire, dans deux versions de ChatGPT.

Ils ont constaté un chevauchement d’environ 60 pour cent entre la liste restreinte de diagnostics possibles des médecins urgentistes et le chatbot.

« Nous avons constaté que ChatGPT fonctionnait bien en générant une liste de diagnostics probables et en suggérant l’option la plus probable », a déclaré l’auteur de l’étude, le Dr Hidde ten Berg, du service de médecine d’urgence de l’hôpital Jeroen Bosch, dans un communiqué.

« Nous avons également constaté de nombreux chevauchements avec les listes de diagnostics probables établies par les médecins. En termes simples, cela indique que ChatGPT était capable de suggérer des diagnostics médicaux un peu comme le ferait un médecin humain ».

Les médecins urgentistes avaient le bon diagnostic dans leurs cinq listes principales 87 pour cent du temps, tandis que la version 3.5 de ChatGPT avait le bon diagnostic dans sa liste restreinte 97 pour cent du temps, contre 87 pour cent pour la version 4.0 de ChatGPT.

« Cet outil n’est pas un dispositif médical »

La recherche, en tant que preuve de concept, n’a pas été utilisée pour avoir un impact sur les patients mais plutôt pour tester le potentiel ou la faisabilité de l’utilisation de l’IA générative pour le diagnostic.

Mais ce n’est pas encore quelque chose qui sera disponible pour une utilisation clinique.

« L’un des problèmes, du moins en Europe… est que la législation est très stricte », a déclaré à L’Observatoire de l’Europe Next l’auteur de l’étude Steef Kurstjens, du département de chimie clinique et d’hématologie de l’hôpital Jeroen Bosch.

« Ce genre d’outils ne sont donc pas des dispositifs médicaux. Donc, si vous les utilisez pour affecter les soins aux patients, vous utilisez un outil qui n’est pas un dispositif médical en tant que dispositif médical, et cela n’est pas autorisé. Donc, je pense qu’une nouvelle législation doit (être adoptée) si vous souhaitez utiliser cela », a-t-il ajouté.

La confidentialité des données des patients est une autre grande préoccupation liée à l’utilisation de l’IA générative dans les soins de santé, certains experts exhortant les décideurs politiques à essayer de réduire tout risque potentiel par la réglementation.

« L’IA pourrait, à terme, aider les professionnels de la santé très occupés »

Selon les experts, l’une des utilisations les plus intéressantes de l’IA dans le domaine de la santé pourrait être de faire gagner du temps aux médecins, de les aider à poser des diagnostics ou d’alléger une partie de la charge administrative du système de santé.

« En tant qu’outil de soutien, cela pourrait aider les médecins à créer (une liste de diagnostics) ou à trouver des idées auxquelles ils n’auraient pas pensé eux-mêmes. Pour les médecins moins expérimentés qui sont encore en formation, cela pourrait vraiment être un outil pour soutenir leurs soins quotidiens. « , a déclaré Kurstjens à L’Observatoire de l’Europe Next.

«Je pense que l’avenir de grands modèles de langage plus liés au domaine médical et formés sur des données médicales est vraiment intéressant, comme Med-PaLM, d’autres types de grands modèles de langage formés sur des données médicales. C’est vraiment intéressant de voir comment ils fonctionneraient s’ils surpassaient ChatGPT », a-t-il ajouté.

Les chercheurs ont également suggéré qu’il était possible de gagner du temps et de réduire les temps d’attente dans les services d’urgence.

Youri Yordanov du service des urgences de l’hôpital Saint-Antoine à Paris, qui préside également cette année le comité des résumés du congrès de médecine d’urgence, a déclaré dans un communiqué que les médecins sont loin d’utiliser ChatGPT en clinique.

Yordanov, qui n’a pas participé à la recherche, a ajouté qu’il est important d’étudier la technologie et de voir comment elle pourrait aider les médecins et les patients.

« Les personnes qui doivent se rendre aux urgences veulent être vues le plus rapidement possible et que leur problème soit correctement diagnostiqué et traité », a-t-il déclaré.

«J’attends avec impatience davantage de recherches dans ce domaine et j’espère qu’elles pourront, à terme, soutenir le travail de professionnels de la santé très occupés».

Laisser un commentaire

dix-sept − 2 =