ChatGPT autorisera les conversations érotiques pour les adultes en décembre

On veut "traiter les utilisateurs adultes comme des adultes"… Voilà comment Sam Altman, le patron d’OpenAI, justifie sur X l’assouplissement des restrictions de ChatGPT à partir du mois de décembre. Très concrètement, dans quelques semaines, une nouvelle version de ChatGPT permettra aux utilisateurs — adultes — d’avoir une IA à la personnalité adaptée à leurs envies. Une IA qui se comportera comme un humain, comme un ami, et qui permettra même d’avoir des discussions à caractère érotique.
On n’a pas encore tous les détails et OpenAI reste assez flou, mais on peut imaginer que, dans ce mode adulte, on restera sur du flirt un peu osé, des échanges suggestifs, sans aller jusqu’à la pornographie. Mais quand même : on va pouvoir simuler une relation amoureuse, un flirt virtuel avec une IA…
Une demande croissante, se justifie OpenAI
Évidemment, cela va soulever énormément de questions. Que se passe-t-il si un utilisateur vulnérable s’attache à son IA ? Et je ne parle même pas du moment où cette technologie sera intégrée à des robots… Ce qui finira inévitablement par arriver.
Pourquoi font-ils ça ? Cela peut sembler surprenant comme annonce, mais au fond, OpenAI reste une entreprise : elle donne aux utilisateurs (et donc aux clients) ce qu’ils veulent, tout simplement. Pour beaucoup, l’IA n’est plus seulement un outil : c’est devenu un confident, un ami, voire un partenaire. On se confie, on exprime des émotions, on aborde des sujets intimes — parfois des choses qu’on ne dirait pas à ses proches.
OpenAI agit ainsi parce qu’il y a une demande. Environ 2,3 % des requêtes concernent déjà des conversations autour des relations personnelles, de la réflexion intime ou du jeu de rôle, où l’on demande à l’IA d’incarner un ami ou une petite amie. La dernière version de ChatGPT, jugée trop froide et directe dans ses réponses, a d’ailleurs été très mal accueillie. Et OpenAI ne veut pas non plus se laisser distancer par des applications spécialisées.
L'exemple de Zeta
En Corée, par exemple, une appli encore plus populaire que ChatGPT chez les jeunes s’appelle Zeta. Elle a été conçue pour simuler une relation amoureuse, avec des échanges parfois assez osés. OpenAI ne veut donc pas priver ses utilisateurs de ce genre d’expérience.
Mais comment vont-ils vérifier l’âge des utilisateurs ? Cette nouvelle fonctionnalité sera évidemment réservée aux utilisateurs adultes vérifiés.
Ce sera l’occasion idéale de tester un système de prédiction de l’âge sur lequel OpenAI travaille depuis plusieurs mois.
Pas question de prendre un selfie pour analyser les traits du visage, comme le font certains sites pour adultes. Ici, l’IA analysera les interactions avec ChatGPT pour estimer si l’utilisateur est mineur ou majeur : le vocabulaire, la syntaxe, la structure des phrases (souvent plus courtes et plus orales chez les jeunes), les thèmes abordés — parler fiscalité ou retraite laisse peu de chances d’avoir 15 ans, tandis qu’évoquer ses problèmes au lycée laisse peu de doute sur le fait d’être mineur.
D’autres éléments seront aussi pris en compte : la vitesse de frappe, les heures de connexion, le type d’appareil utilisé… En somme, un faisceau d’indices. La question, c’est : y aura-t-il des ratés ? La réponse : probablement. Et même si seulement 0,1 % de mineurs y ont accès, cela risque déjà de poser problème.