• Catégories
  • Récent
  • Mots-clés
  • Populaire
  • Utilisateurs
  • Groupes
  • S'inscrire
  • Se connecter
TECHNOPOLICE
  • Catégories
  • Récent
  • Mots-clés
  • Populaire
  • Utilisateurs
  • Groupes
  • S'inscrire
  • Se connecter

UK -- la reconnaissance faciale est raciste

Planifier Épinglé Verrouillé Déplacé Technologies et industries de surveillance
2 Messages 2 Publieurs 132 Vues
Charger plus de messages
  • Du plus ancien au plus récent
  • Du plus récent au plus ancien
  • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • F Hors-ligne
    felix
    dernière édition par 15 mai 2019, 08:39

    Un article de la BBC sur la reconnaissance faciale au Royaume-Uni et le problème des faux-positifs s'agissant des personnes racisées.

    Several UK police forces have been trialling controversial new facial recognition technology, including automated systems which attempt to identify the faces of people in real time as they pass a camera.

    Documents from the police, Home Office and university researchers show that police are aware that ethnicity can have an impact on such systems, but have failed on several occasions to test this.
    https://www.bbc.com/news/technology-48222017

    1 réponse Dernière réponse Répondre Citer 0
    • S Hors-ligne
      Selim
      dernière édition par 15 mai 2019, 08:45

      Des études similaires aux États-Unis :

      The battle over the technology intensified last year after two researchers published a study showing bias in some of the most popular facial surveillance systems. Called Gender Shades, the study reported that systems from IBM and Microsoft were much better at identifying the gender of white men’s faces than they were at identifying the gender of darker-skinned or female faces.

      Another study this year reported similar problems with Amazon’s technology, called Rekognition. Microsoft and IBM have since said they improved their systems, while Amazon has said it updated its system since the researchers tested it and had found no differences in accuracy.

      Warning that African-Americans, women and others could easily be incorrectly identified as suspects and wrongly arrested, the American Civil Liberties Union and other nonprofit groups last year called on Amazon to stop selling its technology to law enforcement.
      (source: New York Times)

      1 réponse Dernière réponse Répondre Citer 0
      1 sur 2
      • Premier message
        1/2
        Dernier message