Eine Zeichnung von verschiedenen Gesichtern, über welchen Vermessungslinien liegen
© Amnesty International

Riconoscimento facciale

«I sistemi di riconoscimento facciale si stanno diffondendo in tutta Europa. Attualmente non disponiamo di una legislazione efficace per limitare l’uso di questo strumento di sorveglianza. Amnesty International, AlgorithmWatch CH e Société Numérique si uniscono per chiedere il divieto del riconoscimento facciale automatizzato e della sorveglianza biometrica di massa sul territorio svizzero.»
Screenshot del sito web di Ban the Scan
© Amnesty International

Ban the Scan - Inside the NYPD’s Surveillance Machine

In tutto il mondo, le tecnologie di riconoscimento facciale vengono utilizzate per reprimere le manifestazioni e perseguitare le minoranze. Scopri come e dove vengono impiegate, e perché dobbiamo vietarle. Visita il sito web per leggere testimonianze...

Sorveglianza

Il numero di Paesi che ricorrono alle tecnologie di riconoscimento facciale per sorvegliare gli spazi pubblici è in costante aumento. Questa tecnologia può essere utilizzata a fini identificativi per scopi legittimi – ad esempio per rintracciare criminali o bambini scomparsi – ma Amnesty International ritiene che non debba essere utilizzata in modo sproporzionato negli spazi pubblici, poiché registra e analizza tutte le persone che transitano senza che vi sia un sospetto fondato e individualizzato. Questo modo di agire viola il diritto alla privacy, e minaccia i diritti alla libertà di riunione e alla libertà di espressione, poiché può dissuadere le persone dal partecipare alle manifestazioni di protesta pacifiche.

In breve

Il riconoscimento facciale solleva diverse questioni in materia di diritti umani:

Questa tecnologia consente infatti la sorveglianza negli spazi pubblici, alla quale le persone toccate non possono dare il proprio consenso. Questo minaccia il diritto all’anonimato e può portare a uno Stato di sorveglianza totale, in particolare se il riconoscimento facciale viene utilizzato dalle autorità.

A causa di software difettosi, persone innocenti possono essere erroneamente scambiate per sospetti e finire nel mirino della polizia, con gravi conseguenze. Inoltre, gli algoritmi sono addestrati principalmente su immagini di uomini bianchi. Di conseguenza, riconoscono meno bene le persone con la pelle più scura, le donne, i bambini e le persone anziane. Questo aumenta il rischio di identificazione errata per le persone appartenenti a questi gruppi.

Inoltre, il riconoscimento facciale viene sempre più utilizzato per controllare le minoranze o gli oppositori, come già avviene in Cina. Anche nei Paesi occidentali questa tecnologia è oggetto di critiche a causa delle potenziali restrizioni alla libertà di espressione durante le manifestazioni.