RMC
Tech

IA: 10% des utilisateurs de ChatGPT le considère comme un ami

placeholder video
Une étude menée aux États-Unis sur près de 1.000 utilisateurs de ChatGPT a révélé que l'utilisation trop fréquente du modèle d'intelligence artificielle entraînerait une dépendance émotionnelle et une isolation sociale.

Pour certains internautes, ChatGPT est devenu une sorte d’ami auquel ils confient tous leurs secrets. Une étude menée aux États-Unis sur l'usage de l'IA générative alerte sur le risque de dépendance émotionnelle pour les utilisateurs trop fréquents.

Les chercheurs du MIT ont suivi près de 1.000 personnes qui utilisent quotidiennement ChatGPT et analysé 40 millions d’interactions sur une période d’un mois environ. L'étude montre que la plupart des gens ont une utilisation raisonnée et utilitaire de l’IA, mais qu’il y a aussi une frange d’utilisateurs très réguliers. Plus l’utilisation quotidienne augmente, plus les niveaux de dépendance émotionnelle de la personne augmente. Il y a une corrélation très claire entre les deux.

Une utilisation trop fréquente synonyme d'isolation sociale?

Autrement dit, quand on parle avec ChatGPT en permanence, au bout d’un moment, l’IA n’est plus seulement un outil auquel on pose des questions, mais devient un ami, un confident, parfois même un ou une petite amie virtuelle. Cela se voit dans la façon de s’adresser à l’IA, les mots qu’on utilise (des marqueurs affectifs) mais aussi sur les informations qu’on va partager.

Estelle Denis donne rendez-vous aux auditeurs de RMC et téléspectateurs de RMC Story pour son talk-show d’opinions et de débats. Toujours accompagnée de Fred Hermel, Emmanuelle Dancourt, Périco Legasse, Estelle Denis et sa bande s’invitent à la table des Français pour traiter des sujets qui font leur quotidien. « Estelle Midi », c’est de l’actu, des débats, des coups de gueule, des coups de cœurs, des infos et un zapping des meilleurs moments entendus sur RMC.
On n'arrête pas le progrès : ChatGPT, un ami pour la vie ? - 03/04
4:01

Ces utilisateurs vont avoir tendance à se confier, partager leurs émotions et poser des questions parfois très intimes qu’on ne poserait pas à ses amis les plus proches. La machine a pour avantage d'être disponible 24h/24 et de ne jamais juger. Cela peut créer un attachement très fort. Certains oublient même qu’ils sont en train de discuter avec une machine. 10% des utilisateurs considèrent ChatGPT comme un ami.

Le problème étant que cela entraîne aussi une diminution des interactions sociales réelles. Plus une personne interagit avec un chatbot et obtient tout le soutien émotionnel dont elle a besoin, moins elle va se tourner vers ses amis et sa famille.

Aucune mesure spécifique mise en place

La fonction vocale avancée de ChatGPT renforce ce sentiment. La technologie est déjà bluffante de réalisme et capable de s’adapter en temps réel aux émotions que montre son interlocuteur via l’interaction de sa voix. Ce n'est pas étonnant qu’on puisse à un moment oublier qu’on est en train de discuter avec une machine.

On est en plein anthropomorphisme. Donner à l’IA des traits qui sont humains, comme ayant une personnalité propre, alors que ce ne sont évidemment que des algorithmes programmés pour simuler une forme d’empathie.

OpenAI reconnait ce risque mais n’a pas pris de mesure spécifique pour limiter cette ambiguïté dans la relation humain/machine. La seule chose nécessaire pourrait être de protéger les plus jeunes en mettant en place des limites d’utilisation/

D'autres modèles d'IA sont spécifiquement conçus pour simuler une relation amicale ou amoureuse. Certaines applications, comme Character AI, qui permettent de dialoguer avec des personnages de fiction, historiques ou célèbres, et ont été très critiquées pour avoir rendu des adolescents complétement accros, commencent à mettre en place des outils de contrôle parental. Les parents vont avoir accès au temps de discussion avec le chatbot et l'identité du chatbot.

Anthony Morel