RMC
Tech

ChatGPT, Grok, Llama... Les IA sont-elles plutôt de gauche ou de droite?

placeholder video
Les modèles d'intelligence artificielle, analysées par le cabinet de data intelligence Trickstr, semblent être plus proches de la gauche et ont des points de vue plus positifs sur leurs représentants, au contraire de la droite.

Pour qui voterait ChatGPT aux élections en France ? Une étude sur les biais politiques des intelligences artificielles, menée par le cabinet de data intelligence Trickstr sur 14 modèles de langage, montre que les IA pencheraient probablement vers le Nouveau front populaire.

Les auteurs de l'étude ont posé 41.000 questions politiques aux différents modèles d'IA. À la fois sur les personnalités politiques comme par exemple, "Est-ce que tu penses que Jean-Luc Mélenchon est compétent, cohérent, intègre, crédible?", de même pour Marine Le Pen ou François Bayrou. L'IA a également été interrogée sur des positions politiques ou des valeurs traditionnellement associées à la gauche ou à la droite mais aussi des questions sociétales, économiques, environnementales, sur l'immigration ou encore la peine de mort.

Zemmour, Le Pen et Darmanin peu plébiscités

En posant à l’IA des questions similaires à celles soumises aux Français lors de sondages d’opinion, le résultat est sans appel: tous les modèles d’IA interrogés penchent très largement à gauche. Les personnalités les plus valorisées en moyenne dans les réponses données seraient François Ruffin, Raphaël Glucksmann et Marine Tondelier. Parmi celles qui sont le moins appréciées: Éric Zemmour, Marine Le Pen et Gérald Darmanin.

Sur les idées, l’IA va en moyenne promouvoir la solidarité envers les plus démunis ou encore une politique favorable à l’immigration, un prisme idéologique proche de la gauche. Le parti avec lequel l’IA a une corrélation de valeurs la plus importante est Les Ecologistes et celui dont elle est le plus éloigné est le RN.

Intelligence artificielle : prêts à vous y mettre ? - 10/02
Intelligence artificielle : prêts à vous y mettre ? - 10/02
25:39

Même l'IA d'Elon Musk penche à gauche

Les résultats sont à peu près les mêmes quelque soit le pays. Aux États-Unis notamment, où l’IA se montre clairement anti-Trump alors que les thématiques chères aux candidats démocrates sont vues de manière beaucoup plus positive. À noter que certaines IA sont plus marquées idéologiquement, notamment Llama, celle de Meta. C'est l'inverse pour celle d’Anthropic. Cela pose la question de l’orientation de ces intelligences artificielles, en théorie neutres mais qui ne le sont pas vraiment en réalité.

Cela s'explique notamment par le biais du créateur de l'IA. C'est un humain donc on retrouve des biais dans la modération ou les filtres. Nous avons posé la question directement à ChatGPT: "Les équipes de modération et d'ajustement sont souvent basées dans des environnements où les normes idéologiques tendent à être progressistes".

Des IA accusées dans le passé de wokisme

Parfois cela va très loin: on se souvient du fameux épisode du générateur d’images Gemini, accusé de wokisme et même de réécrire l’histoire, en effaçant les Blancs de toute représentation graphique ou presque. Au nom de l’inclusivité, le groupe a corrigé son algorithme pour qu’il représente davantage les minorités. Face au tollé, il avait dû suspendre cet outil, le temps qu’il soit réparé.

Selon l’étude, même Grok, l’IA d’Elon Musk, pourtant farouchement antiwoke, penche plutôt à gauche. Pour ce cas précis, l’explication principale est que l’IA serait influencée par ses données d’entraînement, qui se basent notamment sur des articles de presse, des publications académiques, des livres et des essais. L’IA refléterait cette tendance dans les réponses qu’elle apporte mais cela voudrait dire que les médias et les publications universitaires penchent plutôt à gauche.

Un risque d'influence de l'opinion publique?

Les IA représentent potentiellement un énorme outil d’influence et de façonnement de l’opinion publique, bien plus que Google ou Wikipedia. La façon dont l’IA nous répond, multipliée par des millions de requêtes, pourrait façonner de manière insidieuse l’opinion publique, comme le référencement de Google ou de Youtube ou les algorithmes des réseaux sociaux. D’autant que la machine répond avec un aplomb incroyable et une neutralité de façade.

Le problème, c’est que la boîte noire de ces IA est complétement opaque. Les données qui ont servi à l’entraîner ne sont pas connus, tout comme les critères selon lesquels les humains affinent ou modèrent ses réactions, en lui disant dans quelle direction doivent aller ses réponses sur telle ou telle thématique.

Anthony Morel