Injustice amplifiée : Les biais racistes de la reconnaissance faciale aux États-Unis.

Dans une société où la technologie évolue à un rythme effréné, les contours de l’éthique et de la justice se redessinent, et les dernières révélations concernant les défaillances des systèmes de reconnaissance faciale en témoignent de manière poignante.

L’histoire de Porcha Woodruff, une Afro-Américaine enceinte de huit mois, est emblématique de la manière dont les biais raciaux insidieux se reflètent dans ces technologies, entraînant des conséquences humaines dévastatrices.

Nous sommes en février dernier, à Detroit, Michigan. Porcha Woodruff, âgée de 32 ans, subit une arrestation injuste qui la marquera à jamais. Onze heures passées dans le centre de détention de la ville, des spasmes, des crises de panique, des douleurs dans le dos… Des conditions insoutenables pour toute personne, mais d’autant plus pour une femme enceinte de huit mois. Elle partage son expérience bouleversante dans un article publié par le New York Times le 6 août dernier, une histoire qui met en lumière la cruauté des erreurs technologiques et la fragilité de la justice lorsqu’elle est confiée à des algorithmes.

L’élément déclencheur de ce cauchemar fut le système de reconnaissance faciale utilisé par la police. Ce système, censé aider à identifier les criminels, s’est révélé être un instrument d’accusation erronée. Porcha Woodruff a été accusée à tort de vol, simplement parce que le système l’a confondue avec une autre Afro-Américaine. C’est ainsi qu’une séquence de onze heures d’angoisse a été enclenchée, marquée par les contractions d’une femme enceinte, laissant des séquelles tant physiques qu’émotionnelles.

Le cas de Porcha Woodruff s’inscrit dans une série d’erreurs similaires aux États-Unis. Elle rejoint le groupe de six personnes, dont cinq sont noires, qui ont été faussement accusées par des systèmes de reconnaissance faciale. Ce sombre tableau souligne une réalité inquiétante : les préjugés raciaux et sexistes imprègnent les fondements mêmes de ces technologies. Les experts en intelligence artificielle ne cessent d’alerter sur ces biais, conséquence d’une conception défectueuse, de tests inadéquats et de la sous-représentation de la diversité au sein des équipes de développement.

L’injustice subie par Porcha Woodruff exige une réflexion approfondie sur les implications sociétales et éthiques des technologies de reconnaissance faciale. Au cœur de cette réflexion se trouve la nécessité de repenser l’utilisation de ces outils technologiques afin d’éviter qu’ils ne contribuent à renforcer l’injustice et la discrimination. Plutôt que d’amplifier les inégalités, ces technologies devraient être au service de l’équité et de la justice pour tous.

Cette histoire vient souligner les écueils auxquels fait face la société à l’ère de la technologie. Alors que nous célébrons les avancées scientifiques et les possibilités qu’elles offrent, il est impératif de reconnaître que la technologie doit être encadrée par des valeurs éthiques et morales. L’affaire de Porcha Woodruff est un rappel poignant de l’importance de maintenir un équilibre entre l’innovation technologique et la préservation des droits fondamentaux de chaque individu.

En fin de compte, l’histoire de Porcha Woodruff transcende les lignes de code et les algorithmes. Elle met en évidence la nécessité d’une technologie qui agit en harmonie avec la dignité humaine et la justice, plutôt que de devenir le vecteur d’une injustice amplifiée.

Source : « Injustice Alimentée par les Biais : Les Biais Racistes de la Reconnaissance Faciale aux États-Unis », publié le 7 août 2023. https://www.liberation.fr/international/amerique/aux-etats-unis-une-femme-noire-enceinte-de-huit-mois-victime-des-biais-racistes-de-la-reconnaissance-faciale-20230807_IEHH3U2FFVFMFFVTUSOV53UPJU/