Intelligence artificielle: ChatGPT, plus fort que les médecins?

ChatGPT est-il plus fort que les médecins? Une récente étude, publiée dans la JAMA Internal Medicine, une très sérieuse revue médicale à comité de lecture, montre que l’intelligence artificielle est plus précise qu’un médecin humain dans ses diagnostics. Elle ferait aussi preuve de plus d’empathie.
Cette étude a été menée à partir des réponses proposées par des médecins humains d’une part et de ChatGPT d’autre part à 200 questions posées sur internet par des patients.
Ensuite un panel de professionnels de santé a noté ces réponses à l’aveugle, sur la pertinence du diagnostic et sur le degré d’empathie avec le patient.
Un chien sauvé grâce à ChatGPT
Les résultats sont sans appel: dans 79% des cas, la réponse apportée par la machine est jugée plus précise, sur la qualité du diagnostic et des conseils, mais aussi plus empathique et plus humaine que celle apportée par les vrais médecins. Il est à noter que ce sont des réponses écrites, apportées par des médecins à des internautes, donc pas forcément dans des circonstances où le côté humain est le plus fort.
Pour autant, peut-on imaginer un avenir où un patient se fait diagnostiquer directement par une intelligence artificielle? Pas encore, même si dans certaines situations, cela peut s'avérer utile.
Par exemple, un chien a été sauvé par ChatGPT: alors que le vétérinaire n’arrivait pas à diagnostiquer le problème, le maître du chien a transmis à l'intelligence artificielle une transcription complète des analyses sanguines de l’animal et ChatGPT lui a suggéré une maladie, l’anémie hémolytique à médiation immunitaire. Finalement, ce diagnostic a été confirmé par un deuxième vétérinaire.
Des réponses insensées
ChatGPT peut aussi jouer le rôle de conseiller médical dans des pays où l’accès à la santé est compliqué et cher, c’est d'ailleurs ce qu’imagine Sam Altman, le fondateur d’OpenAI.
Attention quand même, il ne faut pas avoir une confiance aveugle en l'intelligence artificielle, qui a une fâcheuse tendance à halluciner ou à répondre n’importe quoi quand elle ne sait pas.
Dans une autre étude, des questions très précises ont été posées à ChatGPT sur la prévention des risques cardiovasculaires. Il a bien répondu à 21 questions sur 25, mais dans les 4 cas où il s’est trompé, il a donné des conseils qui auraient potentiellement pu tuer un patient.
Il invente de faux articles
Les résultats sont similaires avec des questions posées sur le dépistage du cancer du sein: il a eu bon à 22 sur 25. Son taux de bonnes réponses est donc impressionnant, mais quand il se trompe, il raconte n’importe quoi. Il va jusqu’à inventer de faux articles et de fausses références scientifiques. Dans un domaine aussi sensible que la santé, ça n’est pas acceptable.
Un des problèmes est que les médecins risquent de voir un afflux de patients qui arrivent en disant "j’ai telle maladie, c’est ChatGPT qui l’a dit". D'autant plus que la parole du médecin est déjà souvent remise en cause par les patients qui font leurs recherches sur internet.
Cependant, il y a de nombreux aspects positifs. Ces nouveaux outils vont, non pas remplacer, mais faire gagner un temps précieux au médecin, notamment pour répondre aux avalanches de mails qu'ils reçoivent et qu’ils n’ont pas le temps de traiter.
ChatGPT pour gérer les tâches administratives
Certains hôpitaux américains commencent à s'en servir dans cet objectif là, mais il est même possible d'aller plus loin. Un outil français qui s’appelle Nabla, basé sur GPT, va écouter la conversation entre le patient et son médecin. Il va ensuite rédiger automatiquement un compte-rendu médical, mettre à jour le dossier du patient et faire la déclaration à la sécurité sociale.
Aujourd'hui, 40% du temps des médecins est passé sur des tâches administratives, alors cela leur permettrait d'avoir plus de temps pour s’occuper des patients.