La reconnaissance faciale d'Amazon associe faussement 105 hommes politiques américains et britanniques à des photos de la police, mais pouvez-vous vous fier aux affirmations sur l'exactitude ?

En juillet 2018, l’American Civil Liberties Union a mené une enquête test en utilisant l’outil de reconnaissance faciale d’Amazon, « Rekognition », pour comparer les photos de membres du Congrès américain avec des photos de personnes arrêtées pour un crime. L’ACLU a trouvé 28 fausses correspondances, soulignant les lacunes de la technologie de reconnaissance faciale qui est colportée aux forces de l’ordre dans tout le pays.
Alors, est-ce que ça s'est amélioré ?
Pas grand-chose, selon notre dernière expérience.
Curieux de savoir si et à quelle vitesse la reconnaissance des visages s'améliore, Comparitech a décidé de mener une étude similaire près de deux ans plus tard. Nous avons également ajouté des politiciens britanniques, pour un total de 1 959 législateurs.
Résultats
Nous partageons les résultats entre les politiciens américains et britanniques. Mais avant de discuter des résultats, examinons d’abord le point d’appui sur lequel reposent tous ces tests : les seuils de confiance.
Seuils de confiance
Lorsque deux images sont comparées par Rekognition d’Amazon, il ne renvoie pas simplement une réponse oui ou non. Au lieu de cela, les résultats sont donnés sous forme de pourcentages. Plus le pourcentage est élevé, plus Rekognition est sûr que les deux images représentent la même personne.
L’ACLU a utilisé les paramètres par défaut de Rekognition, qui fixent le seuil de confiance à 80 %.
Amazon a critiqué les conclusions de l’ACLU, affirmant que le seuil était trop bas. Un porte-parole d'Amazon dit à GCN il devrait être fixé à au moins 95 pour cent à des fins d'application de la loi, et un article de blog sur le site Web d'Amazon Web Services, il devrait être de 99 pour cent. Cependant, un rapport de Gizmodo a constaté que c’est à la discrétion de la police de fixer ces seuils, et qu’elle n’utilise pas toujours les recommandations d’Amazon.
Relever le seuil de confiance conduit inévitablement à moins de faux positifs (correspondance incorrecte de deux photos de personnes différentes), mais aussi à davantage de faux négatifs (impossibilité de faire correspondre deux photos de la même personne). Malheureusement, nous ne pouvons pas mesurer ce dernier dans cette expérience. Nous en reparlerons plus tard.
Nous avons contacté l'ACLU et Amazon pour commentaires et mettrons à jour cet article si nous recevons une réponse consignée.
NOUS
L'ensemble de données américaines comprenait des photos de 430 représentants et 100 sénateurs.
À un seuil de confiance de 80 pour cent,La reconnaissance correspondait incorrectement à une moyenne de 32 membres du Congrès américainaux photos dans la base de données des arrestations. C’est quatre de plus que l’expérience de l’ACLU il y a deux ans.
Selon ces normes, la reconnaissance faciale d’Amazon ne s’est pas améliorée et a même été moins performante que ce que l’ACLU postulait il y a deux ans.
Cependant, lorsque nous augmentons le seuil par rapport à ce qu'Amazon recommande aux forces de l'ordre,nous n'avons trouvé aucune correspondance incorrecte avec un niveau de confiance égal ou supérieur à 95 %.L’ACLU n’a pas donné de résultats à ce seuil en 2018, nous n’avons donc aucun résultat antérieur auquel comparer.
ROYAUME-UNI
Notre ensemble de données britanniques comprend 1 429 hommes politiques : 632 membres du Parlement et 797 membres de la Chambre des Lords. Nous les avons comparés aux mêmes photos d’arrestation que celles des hommes politiques américains.
Avec un seuil de confiance de 80 %, Rekognition a mal identifié en moyenne 73 hommes politiques grâce à des photos enregistrées dans la base de données des arrestations.
Le taux de faux positifs était plus faible pour les hommes politiques britanniques (5 %) que pour les hommes politiques américains (13 %), ce qui pourrait suggérer que les hommes politiques britanniques sont sensiblement différents de leurs homologues américains, du moins selon Rekognition.
Lorsque nous avons augmenté le seuil de confiance à 95 pour cent, il n’y a eu aucune correspondance incorrecte.
Préjugé racial
L’ACLU a allégué qu’au seuil de confiance de 80 pour cent, la technologie de reconnaissance faciale d’Amazon était raciste, identifiant à tort les non-blancs à un taux plus élevé que les blancs.
Nos résultats soutiennent cette constatation. Sur les 12 hommes politiques mal identifiés à un seuil de confiance de 90 % ou plus, six n’étaient pas blancs (comme le montre l’image en haut de cet article). Cela signifie que la moitié des personnes mal identifiées étaient des personnes de couleur, même si les non-blancs ne représentent qu’environ un cinquième du Congrès américain et un dixième du Parlement britannique.
Méthodologie
Nous avons utilisé des photos accessibles au public de 430 représentants américains, 100 sénateurs américains, 632 membres du Parlement britannique et 797 membres de la Chambre des Lords.
Celles-ci ont été comparées à quatre séries de 25 000 photos d'arrestation choisies au hasard sur Jailbase.com à l'aide d'Amazon Rekognition. L'expérience a été répétée une fois pour chaque ensemble et les résultats ont été moyennés. Parce que l’ACLU n’a pas publié ses données de test, nous n’avons pas pu utiliser exactement la même base de données de photos d’arrestation.
Dans certains cas, un même politicien a été identifié à tort plus d’une fois sur plusieurs photos. Cela compte comme un seul faux positif.
Cette feuille de calcul contient tous les politiciens qui correspondent à un niveau de confiance égal ou supérieur à 70 %, leurs photos et le niveau de confiance avec lequel Rekognition les a comparés.
Pourquoi vous ne devriez pas vous fier aux statistiques de précision de la reconnaissance faciale
Soyez sceptique chaque fois qu’une entreprise investissant dans la reconnaissance faciale colporte des indicateurs sur son fonctionnement. Les statistiques sont souvent opaques et parfois carrément trompeuses.
Voici un exemple de la façon dont les statistiques sur la précision de la reconnaissance faciale peuvent être déformées. Au Royaume-Uni, la police du Met a affirmé que sa technologie de reconnaissance faciale ne commettait une erreur que dans un cas sur 1 000. Ils ont atteint ce nombre en divisant le nombre de correspondances incorrectes par le nombre total de personnes dont les visages ont été scannés. Cela gonfle le taux de précision en incluant de vrais négatifs, c'est-à-dire la grande majorité des images qui ne correspondaient pas du tout.
En revanche, des chercheurs indépendants de l'Université d'Essex ont découvert que la technologie avait un taux d'erreur de 81 pour cent lorsqu'ils ont divisé le nombre de correspondances incorrectes par le nombre total de correspondances signalées. Le rapport de l’Université est beaucoup plus conforme à la manière dont la plupart des gens jugeraient raisonnablement l’exactitude, en ignorant les vrais négatifs et en se concentrant sur le taux d’exactitude des correspondances rapportées.
Un plus tard rapport a découvert que la police du Met avait utilisé la reconnaissance faciale en direct pour scanner le visage de 8 600 personnes sans consentement à Londres. Les résultats étaient conformes aux conclusions de l’Université d’Essex : une correspondance correcte conduisant à une arrestation et sept faux positifs.
Faux négatifs
Le taux de faux négatifs est encore plus rarement rapporté : deux images de la même personne qui auraient dû correspondre, mais qui ne l’ont pas été. À titre d’exemple hypothétique de cette erreur pratique, une caméra équipée d’une reconnaissance faciale dans un aéroport ne parviendrait pas à déclencher une alerte lorsqu’elle apercevrait une personne qu’elle aurait dû reconnaître. Une autre forme de faux négatif serait de ne pas reconnaître qu’un visage existe dans une image.
Afin de mesurer le taux de faux négatifs, nous devrions remplir notre base de données de photos avec des photos réelles, mais pas identiques, des hommes politiques. Notre objectif étant de recréer le test de l’ACLU, cela dépassait le cadre de notre expérience.
Cas d'utilisation réels
Considérons également ce que nous comparons : deux séries de portraits. L’un contient des photos de la police et l’autre des portraits falsifiés, mais les deux offrent une vue claire du visage de chaque personne au niveau des yeux, face à la caméra.
Les cas d’utilisation réels sont très différents. Prenons par exemple la vidéosurveillance. La police veut scanner les visages à une intersection et les comparer à une base de données de photos criminelles. Voici quelques facteurs qui brouillent encore davantage les affirmations sur l’efficacité de la reconnaissance faciale dans un tel contexte réel :
- À quelle distance se trouve l'appareil photo du sujet ?
- Sous quel angle l'appareil photo est-il pointé vers le sujet ?
- Dans quelle direction le sujet est-il orienté ?
- Le sujet est-il obscurci par d'autres humains, des objets ou la météo ?
- Le sujet porte-t-il du maquillage, un chapeau ou des lunettes, ou s'est-il rasé récemment ?
- Quelle est la qualité de l'appareil photo et de l'objectif ? Est-ce propre ?
- À quelle vitesse le sujet bouge-t-il ? Sont-ils flous ?
Tous ces facteurs et bien d’autres affectent la précision et les performances de la reconnaissance faciale. Même le logiciel de reconnaissance faciale le plus avancé disponible ne peut compenser les images de mauvaise qualité ou obscurcies.
Accorder trop de confiance à la reconnaissance faciale peut conduire à de fausses arrestations. En avril 2019, par exemple, un étudiant a poursuivi Apple en justice après le un logiciel de reconnaissance faciale l'a faussement lié à des vols dans plusieurs magasins Apple, ce qui a conduit à son arrestation.
Utiliser un seuil supérieur à 80 % améliore certainement les résultats. Mais que vous soyez d’accord ou non avec l’utilisation par la police de la reconnaissance faciale, une chose est sûre : elle n’est pas prête à être utilisée à des fins d’identification sans surveillance humaine. Amazon déclare dans son article de blog : « Dans des scénarios réels de sécurité publique et d'application de la loi, Amazon Rekognition est presque exclusivement utilisé pour aider à restreindre le champ et permettre aux humains d'examiner et d'envisager rapidement les options en utilisant leur jugement (et non pour prendre des décisions totalement autonomes). ).”