• Politicose

L’elefante nella stanza: riconoscimento facciale e perché se ne dovrebbe parlare

Aggiornamento: apr 2

Di Matteo Piovacari


Le manifestazioni che infiammano gli Stati Uniti in queste settimane passeranno di certo alla storia per l’impeto con cui si sta cercando di rovesciare il razzismo istituzionalizzato incancrenitosi fra i lembi del tessuto socioeconomico nordamericano da decenni. Tuttavia, esiste un’altra ragione per cui le dimostrazioni del movimento Black Lives Matter sono da considerarsi significative e, purtroppo, potrebbe non trattarsi di altrettante buone notizie. OneZero riporta infatti come in queste settimane le forze di polizia americane si stiano avvalendo in maniera massiccia delle tecnologie che sfruttano il riconoscimento facciale per identificare soggetti resisi protagonisti di violenze durante le proteste. Tutto bene all’apparenza, se non fosse che il ricorso a questi dispositivi per ragioni di sicurezza interna avviene nella più totale vacuità dal punto di vista legislativo.

Facciamo una premessa. Le infrastrutture digitali che permettono il riconoscimento di volti o altre immagini attraverso un software dotato d’intelligenza artificiale offrono immense opportunità, sia nell’ambito economico che di ordine interno. Gli esperti hanno pochi dubbi sul fatto che per quanto rappresentino già il presente, questi sistemi si imporranno in maniera prorompente in un futuro più che prossimo. Per esempio, se il valore del mercato globale per quanto riguarda le tecnologie a riconoscimento facciale si aggirava intorno ai 4 miliardi di dollari nel 2017, le proiezioni segnano il raggiungimento di quota 11 miliardi appena nel 2025. Ciò che ancora brancola nel buio è la mano del legislatore. In un momento in cui una trasparente regolamentazione al loro utilizzo manca, è necessario essere consapevoli dei pericoli introdotti da possibili abusi, e premere sulla necessità di un’azione tempestiva da parte delle autorità governative, al fine di prevenirne i rischi. Ma pochi leader politici, apparentemente, sono sembrati fino ad ora interessati a fronteggiare l’elefante nella stanza.

Tutta l’efferatezza di un uso intrusivo delle tecnologie di riconoscimento facciale è stata messa in luce dalla Cina, che tanto si appresta ad assomigliare a un’Orwelliana Oceania. Negli ultimi anni, il governo di Pechino ha avviato la messa a punto di una rete hardware e software capace di fornire profilazione e tracciamento 24/7 dei propri cittadini, dopo averne sperimentato le potenzialità nella persecuzione degli Uiguri in Xinjiang. Le dimostrazioni avvenute ad Hong Kong hanno sommato timori sull’utilizzo intrusivo del riconoscimento facciale da parte delle autorità di fronte a partecipate sollevazioni popolari. Molti dubbi sono stati espressi sulla legalità delle azioni di sorveglianza della polizia così come della detenzione di molti dimostranti in circostanze poco chiare. Negli stessi Stati Uniti, simili sistemi di vigilanza sono stati impiegati nel 2015, in occasione delle sollevazioni per la morte di Freddie Gray, un giovane afroamericano deceduto durante un arresto. Allora, la polizia di Baltimora aveva fatto ricorso alla sicurezza facciale per identificare i manifestanti collegandone i volti a foto estratte dai social media, e perseguirli anche in un momento successivo alla fine delle proteste. Secondo quando riportato da vari media, le forze di sicurezza statunitensi fanno oggi ampiamente ricorso a database d’immagini e altre infrastrutture digitali per la sicurezza facciale, come quelle provviste dalla società ClearView AI. Quest’ultima si è però trovata bersaglio di forti critiche per il modo in cui le foto presenti sui propri server verrebbero raccolte da Internet, estraendole dai profili personali sui social network (a quanto pare la polizia potrebbe disporre delle foto di circa la metà dei cittadini americani), e per le modalità in cui le forze dell’ordine possono accedere agli archivi e farne uso. Anche in questo caso, le autorità federali sono rimaste impassibili di fronte ad un crescente, ma sempre meno trasparente, uso di tali servizi.

Mentre le leadership politiche temporeggiano, altri attori hanno deciso di affrontare l’elefante nella stanza, ma con molte probabilità perseguendo interessi diametralmente opposti. Ha infatti sorpreso che ha mostrare il pugno duro siano stati proprio i giganti tech della Silicon Valley. La settimana scorsa, Amazon, IBM e Microsoft hanno annunciato la sospensione della fornitura di servizi di sicurezza facciale alle forze dell’ordine americane, in probabile aspettativa di un intervento legislativo. Tuttavia, come riporta il Corriere, gli interessi delle compagnie californiane nel frenare l’utilizzo di determinate tecnologie potrebbero andare oltre la mera preoccupazione per la privacy dei cittadini. Essendo queste stesse società fornitrici minoritarie nel mercato della sorveglianza hi-tech, è possibile ipotizzare che i proclami di regolamentazione celino in realtà un tentativo di fermare l’avanzata di altre aziende competitrici, vedi Clear View AI.

Quella che potrebbe apparire una questione strettamente americana, è solo il preludio di un’era destinata a diventare realtà in tutto il globo; un’era contrassegnata da profondi dilemmi morali e giuridici man mano che si affineranno gli studi sull’intelligenza artificiale. I benefici offerti dagli sviluppi in questo campo sono troppo vantaggiosi per non essere colti, diventa dunque solo questione di tempo prima che le nostre città siano invase da articolate infrastrutture digitali per la gestione e la vigilanza interna. Tuttavia, il crescente uso di simili tecnologie richiede un’attenta, e soprattutto tecnica, regolamentazione, che ne elimini le aree grigie e ne contrasti i bias. Ci dobbiamo chiedere, i nostri leader saranno capaci di affrontare l’elefante nella stanza?


Fonti & approfondimenti


Proteste in USA: https://onezero.medium.com/facial-recognition-is-law-enforcements-newest-weapon-against-protestors-c7a9760e46eb

I trend del mercato: https://www.mordorintelligence.com/industry-reports/facial-recognition-market

Sorveglianza in China: https://www.theatlantic.com/international/archive/2018/02/china-surveillance/552203/

Sorveglianza in Xinjiang: https://www.nytimes.com/2019/05/22/world/asia/china-surveillance-xinjiang.html

Honk Kong: https://www.nytimes.com/2019/07/26/technology/hong-kong-protests-facial-recognition-surveillance.html

I bias del riconoscimento facciale: https://www.nytimes.com/2020/06/09/technology/facial-recognition-software.html

I problemi di ClearView AI: https://www.engadget.com/2020-02-12-clearview-ai-police-surveillance-explained.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAACCmF6lI0wASgM7u7CnfIHZNjyZ5nUnQnzmS9BqAi3B_UBoGUqg7sNY9SaQj0lcQCMEoricW814GaBCH6xTNVjeVZshOf8U8TO4PreWE5OeR1rW7b9JL3WGZfHt9_9NYeqnZtP3siLZVygCtSOhKIasydmQKFtTWzaFqMorFcRHT

I giganti tech si oppongono: https://www.corriere.it/esteri/20_giugno_12/proteste-usa-riconoscimento-facciale-gran-rifiuto-silicon-valley-polizia-9b44b0fa-acef-11ea-b5f6-e69744c83472.shtml


44 visualizzazioni0 commenti

Post recenti

Mostra tutti