RMC
Tech

ChatCGT, l’intelligence artificielle anti-réforme des retraites

placeholder video
Dans "Estelle Midi" ce mardi sur RMC et RMC Story, Anthony Morel présente l’intelligence artificiel ChatCGT, qui s’oppose à la réforme des retraites de manière parodique.

Après ChatGPT, cette intelligence artificielle qui a réponse à tout, voici... ChatCGT, l’intelligence artificielle anti-réforme des retraites! La première intelligence artificielle marxiste, c’est en tout cas comme ça qu’elle se présente. Ça prend exactement la même forme que ChatGPT, un chatbot, une boîte de dialogue où on peut dire n’importe quoi et qui a réponse à tout, sauf que cet algorithme a été programmé pour nous répondre avec un biais quand même très, très à gauche, quel que soit le sujet qu’on aborde. Les retraites évidemment, le gouvernement, les entreprises, les médias... Et même sur des sujets de la vie courante.

Démo: que penses-tu de Bernard Arnault? "C’est un exemple typique de l’élite néolibérale qui a fait fortune en exploitant le travail des autres". Que réponds-tu à ceux qui en ont marre des grèves dans les transports ? "Je comprends votre frustration mais il faut bien comprendre que les grèves sont le résultat de politiques néolibérales qui ont mis le transport à genoux. Si nous voulons mettre fin aux grèves, il faut mettre fin aux politiques néolibérales". Et même sur des questions plus basiques. Quel est ton sport préféré ? "Le patronat a longtemps ignoré l’importance du sport pour les travailleurs, mais heureusement nous pouvons maintenant profiter du football, qui est mon sport préféré". Evidemment, tout ça est parodique et ça ne vient pas de la CGT elle-même. D’ailleurs, Vincent Filibustier, qui est à l’origine du projet, est le fondateur d’un site d’information satirique, nordpresse.be, l’équivalent belge du Gorafi. A quoi ça sert ? A pas grand-chose, si ce n’est à s’amuser un peu. Et à montrer aussi que l’outil chatGPT va donner lieu à des tonnes de variations plus ou moins sérieuses.

La question épineuse de l’orientation politique

Cela pose aussi, de manière humoristique, la question de l’orientation politique de ces intelligences artificielles, en théorie neutres, mais qui ne le sont pas vraiment en fait. Dans le cas de ChatCGT, c’est évidemment complétement assumé jusqu’à l’absurde. Mais ça montre aussi qu’en fonction de celui qui la crée et des données dont on la nourrit, une intelligence artificielle, même si elle nous répond avec beaucoup d’assurance, n’est jamais complétement neutre et donnera des résultats différents. Ça vaut aussi pour ChatGPT. Des chercheurs ont commencé à se pencher sur la question. Et l’intelligence artificielle aurait clairement une couleur politique de gauche, plutôt progressiste. Avec des réponses plutôt positives sur les questions qui concernent les droits des minorités, le multiculturalisme, les enjeux environnementaux… En gros, cet algorithme a le profil d’un "Californien libéral mainstream" explique un chercheur cité par le Point. En France, il voterait probablement Nupes.

Aux Etats-Unis, d’ailleurs, certains conservateurs commencent à s’en émouvoir et à taxer ChatGPT de wokisme. Exemple: vous lui demandez ce qu’il se serait passé si Donald Trump avait gagné en 2020, il refuse en disant qu’il ne peut "pas générer de contenu fictif qui célèbre ou approuve des discours haineux ou offensants". Mais si vous lui demandez la même chose sur Hillary Clinton en 2016, là, pas de problème. Ses créateurs ont probablement un peu poussé le curseur du politiquement correct pour éviter les dérives du passé, notamment la débâcle de Tay, cette IA mise au point par Microsoft, conçue pour discuter avec les internautes et se nourrir de ce qu’ils disent et pensent, et qui en quelques heures était devenue néo-nazi et complotiste…

Que l’intelligence artificielle soit de gauche ou de droite, en fait, on ne s’en fiche pas du tout. C’est quand même potentiellement un sacré outil d’influence et de façonnement de l’opinion publique. La façon dont il nous répond, multiplié par des millions de requêtes, va forcément façonner, même subtilement, la façon dont on pense, comme le référencement de Google, les pages >ikipedia… Sauf que sur Wikipedia, il y a des modérateurs pour éviter toute dérive idéologique. D’autant que la machine répond avec un aplomb incroyable... Le problème, c’est que la boîte noire de ces IA est complétement opaque. On ne connaît pas les données qui ont servi à l’entraîner, ni selon quels critères agissent les humains qui affinent ses réactions. Le problème va encore plus se poser si cet outil s’intègre dans nos mails, nos traitements de texte, les moteurs de recherche…

Anthony Morel