RMC

Pourquoi la reconnaissance faciale est-elle accusée de racisme?

C'EST DEJA DEMAIN - Chaque matin, RMC fait le point sur les nouveautés high-tech.

La reconnaissance faciale est à son tour accusée de racisme. En conséquence aux États-Unis, de grands groupes technologiques ont décidé d'arrêter de fournir des outils de ce genre à la police. En cause: ces outils de reconnaissance faciale sont accusés de cibler les personnes noires de manière disproportionnée.

IBM a ainsi annoncé qu’il arrêtait de travailler sur la reconnaissance faciale, de peur que ses technologies soient utilisées pour la surveillance de masse et le profilage racial, les contrôles au faciès. Amazon a également décidé de suspendre pendant un an l’utilisation par la police d’un logiciel qui s’appelle "Rekognition" et qui permet d’identifier des suspects. Cet outil permet ainsi, lors d'une interpellation, lorsque le policier le prend une photo ou récupère une image sur les réseaux sociaux, de comparer cela à une base de données de centaines de milliers de délinquants pour tenter de l’identifier. Le problème: ces technologies sont très critiquées notamment pour leurs biais raciaux.

Selon certaines études, les algorithmes de reconnaissance artificielle fonctionnent très mal avec les Noirs et les Asiatiques: les algorithmes ont 10 à 100 fois plus de chances de se tromper en identifiant un visage noir qu’un visage blanc, ce qui peut entraîner des arrestations abusives. D’autant que ces logiciels sont parfois utilisés dans des caméras de surveillance pour la maison. 

C'est évidemment aussi une opération de communication derrière cela. Et une dose d’opportunisme de la part de ces entreprises qui ne veulent surtout pas se mettre à dos le mouvement "Black Lives Matter". Et même ce que les Américains appellent du "virtue signaling", ou "vertu ostentatoire" en français. Le fait de "montrer sa vertu" pour une entreprise.

C’est encore plus vrai dans la Silicon Valley, historiquement très progressiste, et qui doit se montrer solidaire de tous les combats sociétaux. D’ailleurs, souvent la pression vient aussi des salariés eux-mêmes – c’est le cas chez Amazon.. On peut aussi y voir une forme d’opportunisme: certaines mauvaises langues disent même qu’IBM est très en retard dans le domaine de l’intelligence artificielle et que le mouvement "Black lives matter" serait ainsi un bon prétexte pour arrêter la casse en enrobant ça d’une bonne couche de morale.

Mais au final, cela ne va pas changer grand-chose. Les services de police trouveront d’autres fournisseurs. En Chine, par exemple, où on n’a beaucoup moins de scrupules par rapport à la reconnaissance faciale via Alibaba ou Tencent. 

Anthony Morel