Sotto la lente

Quando il riconoscimento facciale diventa un’arma di guerra

Il conflitto in Ucraina si sta muovendo sempre di più sullo scacchiere degli algoritmi specializzati nell'identificazione – Con Alessandro Trivilini, responsabile del Servizio d’informatica forense della SUPSI, abbiamo parlato dei rischi che comporta questo tipo di disciplina
Irene Solari
23.03.2022 06:00

Si può usare la tecnologia del riconoscimento facciale per identificare con una buona precisione le persone. Lo sappiamo. Ma è possibile servirsi di questo metodo anche come parte di una strategia bellica. Le ultime informazioni che provengono dal fronte russo-ucraino lo starebbero dimostrando. Parliamo di algoritmi usati per identificare i soldati o gli infiltrati russi presenti in Ucraina. O messi al servizio delle autorità di Mosca per dare rapidamente un nome e un volto ai dimostranti che protestano contro la guerra nelle piazze russe.
La questione è stata sollevata qualche giorno fa, in un’inchiesta condotta da Reuters che ha mostrato come la startup americana Clearview AI abbia messo a disposizione le proprie competenze alle autorità ucraine, garantendo loro l’accesso gratuito a un database biometrico che permette il riconoscimento dei volti e il tracciamento dei dati. Gli scopi possono essere molteplici. Ad esempio, identificare i morti caduti negli scontri: tramite il riconoscimento facciale si risparmia ai cari la pena di dover vedere di persona il corpo del defunto. Oppure servirsi di questi dati per tracciare e riunire le famiglie dei rifugiati. Ma anche per identificare i soldati russi e gli infiltrati nemici in Ucraina ai posti di blocco.
Oppure, come riporta Wired, vengono usati dalle forze dell’ordine russe per raccogliere i dati di coloro che mostrano il proprio dissenso nei confronti della guerra in Ucraina. Molto spesso si tratta di giornalisti o di attivisti. La repressione non porterebbe, quindi, soltanto su minacce fisiche e arresti ma correrebbe anche sul sottile filo della rete informatica. In questo caso il sistema utilizzato è Sphere, attivo all’interno dei mezzi pubblici e della metropolitana di Mosca, che permette di identificare una persona in pochi secondi e di tracciare i suoi spostamenti. Ed è in contatto con le banche dati della polizia, permettendo così l’identificazione e l’arresto immediato delle persone ricercate. In questo caso, anche dei manifestanti contro la guerra.

Si tratta di applicazioni allenate a riconoscere le identità che stanno diventando sempre più brave e precise e questo anche grazie alle molte immagini che provengono dai social

Una raccolta controversa
Raccogliere dati biometrici e schedare i dettagli personali degli esseri umani non è qualcosa che deve passare come normalità. Molte volte, infatti, le startup che accumulano dati privati per “allenare” i propri algoritmi al riconoscimento facciale, vengono tacciate di violazione della personalità. C’è chi le accusa di prendere dalla rete tantissime immagini senza consenso. In questi casi, le autorità per la protezione dei dati personali contestano il data scraping (raschiatura dei dati) o la “pesca a strascico”. Quest’ultimo concetto è molto vicino a quello della fishing expedition (spedizione di pesca), che indica una ricerca non specifica e su larga scala di informazioni – specialmente di quelle incriminanti – o comunque dati sensibili. È una tecnica che, ad esempio, non viene ammessa nelle inchieste internazionali. Le startup, dal canto loro, tendono a replicare che la loro raccolta dati serve al perfezionamento dell’algoritmo e che avviene in modo simile alla raccolta di informazioni delle ricerche su Google.

Questi algoritmi possono essere utilizzati, ad esempio, per identificare i morti caduti negli scontri della guerra: si risparmia in questo modo ai cari del defunto la pena di dover vedere di persona il corpo

Dati sensibili e guerra
Qualsiasi sia la loro provenienza o lo scopo per cui vengono impegnati, l’uso di dati sensibili richiede la massima attenzione e prudenza. E, in tempo di guerra, ancora di più del dovuto. Per avere un quadro più chiaro su una questione così delicata abbiamo chiesto informazioni sull’uso di questi algoritmi ad Alessandro Trivilini, responsabile del Servizio d’informatica forense della SUPSI, che 2017 al 2021 ha rappresentato la Svizzera nel programma intergovernativo COST di ricerca scientifica, coordinando il gruppo di ricerca europeo sul riconoscimento facciale in ambito sicurezza.
Trivilini comincia con una premessa: «Questo discorso parte dal presupposto che dobbiamo staccarci dall’emotività che comporta questa guerra. Parlo di competenza tecnica nell’uso della tecnologia, senza dare un giudizio sul buono-cattivo o giusto-sbagliato». Come ci spiega da subito il nostro interlocutore, nell’ambito di un conflitto bellico i problemi e i rischi sono molteplici e derivano dal fatto che non si sa chi si celi veramente dietro le banche dati o con quale scopo vengano raccolte le informazioni.

Algoritmi allenati dai social
Si è parlato molto del tema dell’identificazione facciale, che qui troviamo declinato all’interno di una guerra. Ma come spiegarlo in modo chiaro? Partiamo dall’inizio, dal concetto puro e semplice del “riconoscimento” e di come questo avvenga. «Si tratta nella maggior parte dei casi di applicazioni che contengono procedure informatiche addestrate a riconoscere i volti delle persone» spiega Trivilini, illustrandoci questa tecnica: «È un vero e proprio allenamento a cui viene sottoposto il software. In una prima fase gli si fa riconoscere l’immagine di un viso “pulito” senza nulla attorno, come l’immagine riflessa da uno specchio. Si dice all’algoritmo che si tratta di un volto, lo si “tagga” come volto umano». Quindi il sistema da lì impara a riconoscere le immagini simili. «Poi inizia l’apprendimento automatico nel tempo: più dati, più volti. L’algoritmo di riconoscimento facciale diventa molto bravo e viene inserito nelle App specifiche». Un fattore di rischio però, mette in guardia Trivilini, sono i social, le cosiddette «fonti aperte». Gli algoritmi che prendono i dati dalle fonti aperte diventano ancora più bravi a identificare i visi. «Devono infatti riconoscere non solo i volti “puliti” – detti anche “senza rumore” – ma anche quelli in situazioni ordinarie della vita quotidiana: immagini non nitide, in movimento, con altre persone vicino, oggetti sullo sfondo. Questo porta a ottenere un buon livello di riconoscimento facciale». E spesso questa raccolta dati ci si presenta sotto la forma di un gioco: «Andavano molto di moda queste applicazioni o catene sui social, dove ti devi riconoscere in una foto o dove vuoi vedere il tuo viso invecchiato. E per farlo metti a disposizione della rete la tua faccia, che è un bene molto prezioso, di valore. Questi giochi non sono altro che raccolte di dati sotto forma di divertimento, sono mezzi che consentono di addestrare meglio gli algoritmi». Anche in questo contesto, molto semplice e “amichevole”, bisogna prestare attenzione, spiega Trivilini, perché «identificare i volti significa poter incrementare e arricchire un archivio che magari sta classificando volti e informazioni già da tempi non sospetti».

Spesso questa raccolta dati ci viene presentata sotto la forma di un gioco, come quelle App dove puoi vedere il tuo viso invecchiato: per farlo metti a disposizione della rete la tua faccia, che è un bene molto prezioso, di valore

«Come una cyber arma»
Ma un occhio particolare va prestato quando questo speciale tipo di tecnologia incontra le strategie di un conflitto bellico. Le applicazioni e i database possono sì fornire un grande aiuto dal punto di vista umanitario. Ad esempio, per identificare i caduti in battaglia, e in questo caso servono gli algoritmi “allenati”. Sia per riconoscere un volto tumefatto, rovinato dagli scontri a fuoco, sia per riuscire a riunificare le famiglie, anche laddove si tratti di visi ripresi in condizioni di “rumore”, con confusione sullo sfondo o in movimento. Ma c’è anche un altro aspetto, precisa Trivilini, al quale va tributato il giusto peso e un’attenzione accresciuta. Si tratta dell’uso di questi dati a fini di identificazione militare. È un mezzo che può avere un grosso peso, soprattutto se usato per scopi meno nobili: «È come un virus, un trojan, che viene introdotto nello smartphone di qualcun altro per riconoscerlo, tracciarlo, o per ascoltare quello che dice» ci spiega Trivilini. Come sta accadendo nei due casi di cui abbiamo parlato all’inizio. Un mezzo che, in un contesto bellico, può rivelarsi dannoso come un’arma. Se non come due. «Il riconoscimento facciale in tempi di guerra deve essere considerato tecnicamente una cyber-arma» specifica il nostro interlocutore. E aggiunge: «Immaginiamo la potenza di unire le armi che sparano al tracciamento informatico delle persone e all’immagine del loro volto identificato. Si tratta di una tecnologia che consente di fare – potenzialmente – dei danni molto gravi». In pratica, poter identificare con certezza il viso di una persona in tempo di guerra è come puntargli addosso il mirino di un fucile. «Riconoscere una persona in un contesto bellico ha la stessa potenzialità tecnica di un’arma: può dare al nemico delle informazioni molto rilevanti e personali».

Il riconoscimento facciale in tempi di guerra deve essere considerato tecnicamente una cyber-arma: immaginiamo la potenza di unire i fucili che sparano al tracciamento informatico delle persone e all’immagine del loro volto identificato, è una tecnologia che consente di fare danni molto gravi

A fin di bene o uso criminale?
Non sembra esserci molto spazio per le mezze misure nell’utilizzo dei cyber-dati, soprattutto all’interno dei conflitti. C’è infatti il rischio che gli elementi finiscano nelle mani sbagliate o vengano usati per scopi deprecabili, come ci spiega il nostro interlocutore. «Il rischio è che una persona o un’associazione usi ingenuamente queste applicazioni durante la guerra a fin di bene ma, non conoscendo chi l’ha sviluppata, potrebbe diventare inconsapevolmente un mezzo, un ambasciatore di questa raccolta dati. Potrebbe esserci dietro un’azienda con interessi poco nobili, che mette gratuitamente a disposizione un’App per accumulare informazioni che sul campo non potrebbe prendere. La persona raccoglie così dati sensibili senza conoscere il perimetro cibernetico dentro il quale si muove». Si parla anche di spionaggio o di intelligence. «Ci sono queste speculazioni con questo tipo di tecnologia», Trivilini mette in guardia: è un canale nobile ma molto delicato. «Ecco perché questi algoritmi, avanzati, importanti, autonomi, di tracciabilità dei dati biometrici delle persone, devono sottostare a delle regole per poter essere impiegati anche da un’associazione umanitaria, anche a fin di bene, affinché non scatti lo spionaggio».

Il rischio è che una persona o un’associazione usi ingenuamente di queste applicazioni durante la guerra a fin di bene ma, non conoscendo chi l’ha sviluppata, potrebbe diventare inconsapevolmente un mezzo di questa raccolta dati per scopi di spionaggio 

Regole e leggi

Il primo tentativo a livello europeo di introdurre delle regole in materia risale al 2018, come ci spiega Trivilini. «Andavano messi dei freni alle potenzialità di sviluppo dell’intelligenza artificiale per il riconoscimento facciale. Proprio perché non c’erano regole sulla privacy per limitare l’utilizzo di questi dati, pensando anche alla criminalità informatica o agli usi borderline che ne possono essere fatti». La Comunità europea ha quindi stabilito delle leggi e frenato la raccolta a strascico dei dati personali, che prima poteva avvenire liberamente. «È anche una questione che tocca i diritti umani» specifica Trivilini. E in molti sembrano sentire l’esigenza di una regolamentazione in questo campo. «Anche la Cina» ci conferma il nostro interlocutore, «dove la nuova legge della protezione dei dati ha alla base il 90% della stessa definizione di dato personale di quella europea e di quella svizzera. Stiamo assistendo a un allineamento a livello internazionale». Stabilire delle regole per chi maneggia questi dati altamente sensibili e preziosi è importante, continua Trivilini, i rischi possono essere dietro l’angolo, soprattutto in un contesto bellico.

© Shutterstock
© Shutterstock
In questo articolo: