RMC
Tech

Doctolib: une IA peut désormais écouter les consultations et aider les médecins

placeholder video
Sur la plateforme Doctolib, un assistant virtuel peut désormais écouter les consultations, retranscrire les propos et aider les médecins en effectuant une synthèse.

Quand vous allez chez le docteur, sachez que désormais tout ce que vous dites pourra être écouté par une intelligence artificielle… La plateforme Doctolib vient de lancer un "assistant virtuel" qui pourrait révolutionner les consultations médicales. Les médecins qui l’utilisent doivent demander l’accord du patient. Le principe de cet "assistant de consultation", lancé il y a quelques jours, est le suivant: tout ce que vous dites à votre médecin va être écouté, retranscrit et analysé en temps réel par l’IA, qui va faire le tri dans ce que vous dites, le motif de la consultation, d’éventuels antécédents, votre mode de vie, les traitements en cours... A la fin de la discussion, l’assistant virtuel va faire une petite synthèse. Et toutes ces données vont venir alimenter automatiquement le dossier du patient.

L’intérêt pour le médecin: la possibilité de se concentrer pleinement sur ce que vous lui dites, plus besoin de prendre de notes, moins de crainte de ne pas avoir noté un élément essentiel… Et puis, un gain de temps considérable. Et donc plus de patients reçus dans une journée. Quand on sait que 40% du temps des médecins est passé sur des tâches à faible valeur ajoutée, paperasse, comptes-rendus médicaux, de l’administratif, répondre à des mails, si on peut déléguer ça à l’IA, c’est plus de temps pour le médecin, pour s’occuper des patients, ce qui est quand même le cœur de son métier.

L’outil a été testé pendant plusieurs mois avec 350 médecins. Il est déployé à grande échelle depuis quelques jours pour les généralistes, et ça se fera progressivement pour les spécialistes. Va aussi se poser la question de l’acceptabilité de ce genre d’outil, avec des craintes liées à la confidentialité des données récoltées, même si Doctolib assure que rien n’est enregistré et qu’aucun élément n’est stocké, car les conversations sont effacées après la consultation. Est-ce que ça suffira à rassurer les patients?

Estelle Denis donne rendez-vous aux auditeurs de RMC et téléspectateurs de RMC Story pour son talk-show d’opinions et de débats. Toujours accompagnée de Fred Hermel, Emmanuelle Dancourt, Périco Legasse, Estelle Denis et sa bande s’invitent à la table des Français pour traiter des sujets qui font leur quotidien. « Estelle Midi », c’est de l’actu, des débats, des coups de gueule, des coups de cœurs, des infos et un zapping des meilleurs moments entendus sur RMC.
On n'arrête pas le progrès : Une IA qui écoute les conversations chez le médecin - 28/10
4:40

Attention aux risques avec l'IA

C’est un premier pas, mais l’IA dans le domaine de la consultation médicale peut aller beaucoup plus loin. Ecouter et retranscrire, c’est bien, mais l’étape d’après, ce serait que l’IA puisse aussi poser un diagnostic. Est-ce que cette IA, qui aujourd’hui synthétise ce que je dis, pourrait aussi réaliser un diagnostic qui pourrait appuyer ou contredire celui du médecin par exemple? On a déjà eu des tests où, à partir de symptômes, ChatGPT était meilleur que les médecins humains pour poser un diagnostic. L’idée étant d’utiliser l’IA comme un appui supplémentaire pour éviter toute erreur, diagnostic, contre-indication médicamenteuse... Ce n’est pas évident à accepter pour les médecins, car ça remet un peu en cause leur position d’autorité, mais on y viendra petit à petit, ne serait-ce que parce que ça va dans l’intérêt du patient. D’ailleurs, si on va plus loin, on rêve aussi d’un bouton sur Doctolib qui indiquerait si le médecin chez qui on se rend utilise l’IA, et propose donc un œil numérique en plus du sien.

Mais on risque vite arriver à des gens qui vont s’autodiagnostiquer en utilisant ChatGPT et ne plus aller chez le médecin. Et là, ça devient dangereux... C’est à éviter absolument. Comme dans tous les domaines, l’IA a une fâcheuse tendance à halluciner, répondre n’importe quoi quand elle n’a pas la réponse à une question… Dans une autre étude, on a posé des questions très précises à ChatGPT sur la prévention des risques cardiovasculaires. Elle a bien répondu à 21 questions sur 25. Mais dans les quatre cas où elle s’est trompée, elle a donné des conseils qui auraient potentiellement pu tuer un patient! Mêmes résultats sur des questions posées sur le dépistage du cancer du sein, 22 sur 25. Son taux de bonnes réponses est impressionnant, mais quand elle se trompe, elle raconte n’importe quoi. Elle va jusqu’à inventer de faux articles et de fausses références scientifiques. Et dans un domaine aussi sensible que la santé, ce n’est clairement pas acceptable.

Anthony Morel