RMC

Faut-il une intelligence artificielle pour remplacer les politiques?

L’intelligence artificielle peut-elle remplacer les personnalités politiques ? Un quart des Français affirment qu’ils seraient prêts à déléguer les décisions gouvernementales à... des algorithmes.

De plus en plus des métiers sont automatisés grâce - ou à cause - de l’intelligence artificielle. Peut-être que le prochain sur la liste est celui d’homme politique. En tout cas si l’on en croit les résultats d'une étude vertigineuse publiée par un centre de recherche de l’université de Madrid sur 2.500 personnes dans 8 pays européens.

A la question: "Est-ce que vous seriez prêt à laisser des algorithmes gouverner à la place de vos hommes politiques ?" 25% des Français répondent oui, 30% en Allemagne, 43% aux Pays-Bas. Un sentiment réel ou juste une expression du ras-le-bol envers les politiques?

Une IA fait 9% aux élections dans une ville du Japon

L’idée serait de mettre au point des programmes informatiques capables de prendre des décisions froides et objectives à partir de milliers de paramètres, basées sur l’intérêt général, sans flancher, sans être influencés, et sans revenir sur leurs promesses. Non plus des hommes mais des "machines politiques", froides, rationnelles, incorruptibles. Ca semble complètement fou, pourtant certains y pensent.

En 2018, lors des élections municipales, la ville de Tama, au Japon, 150.000 habitants, parmi les candidats figurait une IA. Sur les affiches il prenait la forme d’un robot, avec comme programme le fait de mener une politique "impartiale et objective". Il n’a pas été élu, mais il a quand même fait 9%.

Une simple aide à la décision?

Sauf qu’une intelligence artificielle ne peut pas prendre de décisions, elle n’a pas de jugement, ni de sens moral. Le jugement humain, l’éthique ne sont pas informatisables. En fait, l’IA va être utile, non pour décider à proprement parler, mais pour l’aide à la décision.

Elle est très forte –beaucoup plus que les humains- pour analyser des tonnes de données et en tirer des conclusions sur l’évolution d’une situation ou des politiques publiques à mener. On peut lui poser des questions comme "comment optimiser le réseau de transport dans une ville ou un pays" à "Est-ce qu’il faut faire passer la retraite à 65 ans?" ou encore définir le niveau optimal des impôts et des dépenses publiques pour que l’économie se porte au mieux.

Elle va prendre en compte des milliers de paramètres, imaginer tous les scenarios possibles et donner des conclusions, déceler des schémas invisibles pour un œil humain même exercé. On s’en est servi au moment du "grand débat", après les gilets jaunes, pour analyser et synthétiser les centaines de milliers de contributions des Français –souvent manuscrites-, on a utilisé des algorithmes pour tenter de comprendre les mots où les phrases, et donc les revendications ou les propositions qui reviennent le plus souvent, pour les faire remonter à la surface.

Des discours automatisés?

On peut aussi se servir d’algorithmes pour rédiger des discours. Aux Etats-Unis, un chercheur a même mis au point un algorithme capable d’écrire des discours politiques. Un outil informatique qu’on a nourri de milliers de discours et qui est capable d’en créer un de toutes pièces sur une thématique donnée. Finalement, le job d’un cabinet ministériel plus que celui d’un homme politique à proprement parler. Mais elle serait (heureusement) incapable de prendre une décision sur ce qu’il faut faire dans le conflit entre Russie et Ukraine. Ni avoir de vision propre, pour l’avenir de la France par exemple.

Ces entreprises qui commencent déjà à déléguer le pouvoir aux algorithmes

Il y a quelques années, une très sérieuse entreprise d’investissement en capital risque de Hong Kong a nommé une IA à son conseil d’administration, qui a exactement la même voix au chapitre, la même capacité de décision que les autres membres du conseil. Elle s’appelle Vital, et son travail est d’avaler des quantités de données et d’analyser le pour et le contre dans les décisions d’investissements de cette entreprise de façon totalement objective et désintéressée, contrairement aux humains, qui sont toujours biaisés.

Même si, de fait, cette "neutralité" est très discutable. Un algorithme a, lui aussi, toujours des biais, ce n’est pas une création du saint esprit, ils sont écrits par des êtres humains, avec leurs forces, leurs faiblesses. Il y a une expression pour ça en informatique : on dit "garbage in, garbage out". En gros, si on nourrit un logiciel avec des ordures, il ne peut en sortir que des ordures.

Anthony Morel (édité par J.A.)