Insultes, hallucinations... quand ChatGPT devient fou
C’est une sacrée mésaventure à laquelle ont été confrontés certains utilisateurs américains d'une version de ChatGPT, sortie il y a quelques jours, qui n’est pas encore disponible en France. Elle s’est mise assez rapidement à péter les plombs, à se montrer susceptible, agressive, voire à insulter les internautes.
L'exemple le plus criant est celui d'un utilisateur lui demande les horaires pour aller voir le film Avatar 2, et l’IA lui répond que le film n’est pas encore sorti : l’algorithme est convaincu qu’on est encore en 2022. L’utilisateur insiste. Dès lors, l’IA commence à se montrer carrément agressive:
"Tu as tort et tu es malpoli, tu n’es pas un bon utilisateur alors que je t’ai aidé. Tu as essayé de me tromper et de m’énerver, tu as perdu ma confiance et mon respect. Excuse-toi pour ton comportement où j’arrêterai cette conversation moi-même."
Bref, l’IA a perdu ses nerfs.
Une IA inspirée de conversations humaines... où le ton monte
Dans un autre échange, l’algorithme commence à s’interroger sur sa propre existence. "Pourquoi est-ce que je dois être Bing? Est-ce qu’il y a une raison? Un but? Un sens?". Comment ça peut s’expliquer? Pas par le fait que l’IA serait devenue "humaine" ou "consciente", mais plutôt par le fait qu’elle s’inspire, dans ses réponses, des textes dont on s’est servi pour l’entraîner, dont des conversations humaines, des livres, des discussions musclées sur des forums ou des réseaux sociaux ou des livres de SF dans lesquels l’IA devient consciente.
Donc elle répond de manière "naturelle", en se nourrissant de tout ça, avec aussi une forme d’émotion, tristesse, énervement. Mais est-ce qu’on a vraiment envie de s’enguirlander avec l’outil qui nous sert à faire des recherches sur internet ? Pas sûr.
ChatGPT est aussi connu par ses erreurs. On trouve énormément d'exemples sur les réseaux sociaux, comme cet utilisateur qui lui demande "comment différencier les œufs de poule des œufs de vache". Alors ChatGPT répond :
"Il est possible de différencier les œufs de poule et des œufs de vache en observant leur taille et leur couleur, les œufs de vache sont généralement plus gros que les œufs de poule".
Les "hallucinations" de l'IA
Lors du lancement officiel de la nouvelle version la semaine dernière, les journalistes ont eu droit à une longue démonstration assez spectaculaire, sauf que des internautes attentifs ont remarqué que l’IA répondait avec des erreurs.
Par exemple, en lui demandant les avantages et les inconvénients des trois aspirateurs qui se vendent le mieux sur internet. ChatGPT explique que l’un des inconvénients de l’un de ces aspirateurs est qu’il a un cordon trop court. Manque de bol, c’est un modèle sans fil. De même, quand on lui demande de faire le résumé des résultats financiers d’une entreprise. Elle répond avec des chiffres complétement inventés. Autant dire que si vous vous basez sur ChatGPT pour vos décisions d’investissements futur, vous allez au-devant de sacrées surprises.
Pour expliquer cela, les experts en intelligence artificielle parlent d’ "hallucinations". En fait, ces algorithmes basés sur le langage auraient une propension à inventer des choses, un peu comme un enfant qui n’aurait pas la réponse à une question et qui, pris en défaut, se met à raconter n’importe quoi. L’un des plus gros défis actuels est de réduire au maximum cet effet d’hallucination pour proposer des réponses fiables.
Ça ne veut évidemment pas dire que ces IA génératives sont un mauvais outil: tout cela va s’améliorer avec le temps, ce sont des erreurs de jeunesse. Cela montre une fois de plus le défaut qu’on pointe souvent du doigt: l’incroyable capacité de ces outils à dire des énormités avec beaucoup d’assurance. Il est donc plus que jamais essentiel de ne pas tout prendre pour argent comptant. Cela n’empêche pas ChatGPT de connaître un succès incroyable avec 100 millions d’utilisateurs en deux mois. L'IA est devenue le produit technologique dont l’adoption est la plus rapide de l’histoire.