Il caso

Alexa potrà ricreare la voce (anche dei morti): «Rischioso, è come clonare una persona»

Fa discutere la nuova funzione dell'assistente vocale di Amazon - L’esperto della SUPSI Alessandro Trivilini: «Uno scenario apocalittico dal punto di vista etico e di privacy»
Michele Montanari
24.06.2022 17:46

Una persona morta potrebbe tornare a parlarci in futuro. Amazon sta infatti lavorando ad una nuova funzione dell’assistente vocale Alexa in grado di clonare le voci deli nostri cari, e non solo. Nel corso della conferenza MARS, tenutasi a Las Vegas, il vicepresidente senior del team dietro all'assistente vocale di Amazon, Rohit Prasad, ha mostrato un video in cui Alexa legge una favola a un bambino, imitando la voce della sua nonna morta da poco. Prasad ha commentato: «Viviamo in un'epoca d'oro dell'intelligenza artificiale e se l'A.I. non può eliminare il dolore di una perdita, può di sicuro far sì che i ricordi rimangano». Al dispositivo di Amazon basterebbe meno di un minuto di ascolto di un file audio per replicare una voce con risultati soddisfacenti. La presentazione del prodotto ha subito fatto il giro del web, tra entusiasmo e scetticismo. Perché, diciamolo, una tecnologia del genere messa a disposizione di chiunque potrebbe aprire scenari davvero inquietanti. Concretamente, quali sono i rischi? Lo abbiamo chiesto ad Alessandro Trivilini, responsabile del Servizio informatica forense della SUPSI.

Si apre uno scenario apocalittico dal punto di vista etico e della privacy. Di fatto, clonare una voce è come clonare una persona, o parti di essa.

La voce è un dato personale, serve l’autorizzazione

Il dottor Trivilini chiarisce subito un punto che sta facendo parecchio discutere sulla nuova funzione di Alexa: è legale clonare una voce? «Questa funzione non potrà essere utilizzata senza un’autorizzazione», spiega l’esperto, aggiungendo: «perché esistono le leggi sulla protezione dei dati personali. E la voce, in quanto parametro biometrico, è proprio un dato personale: identifica una persona. Non è dunque possibile replicare una voce senza il consenso dell’interessato. Ovviamente se si parla di una persona che non è più in vita non può esserci alcun consenso, a meno che non sia stato dato a un parente prima del decesso, come quando vengono gestiti account su Instagram o Facebook post mortem». Trivilini entra nello specifico: «La voce è univoca, tecnicamente ha molte caratteristiche per essere descritta e tutte le sue “feature” la rendono diversa dalle altre. Se poi parliamo di un personaggio pubblico o un VIP subentra anche la questione dei diritti d’autore». Il responsabile del Servizio informatica forense della SUPSI aggiunge: «Oggi la legge non è ancora entrata in vigore in Svizzera, ma da settembre del 2023 lo sarà e diventerà illegale clonare una voce senza il permesso dell’interessato: devono esserci accordi definiti e trasparenti sull’uso di una voce».

Etica e privacy: uno scenario apocalittico

La possibilità di ricreare una voce non è certo una novità per gli addetti ai lavori. La novità sta nel fatto che una tecnologia del genere potrebbe finire nelle mani di chiunque. Trivilini, in questo senso, sottolinea: «È molto rischioso: si apre uno scenario apocalittico dal punto di vista etico e della privacy. Di fatto, clonare una voce è come clonare una persona, o parti di essa. Stiamo andando sempre più verso un mondo in cui l’interazione tra uomo e macchina avviene attraverso la voce e i gesti. Poter clonare liberamente la voce degli altri potrebbe portare alla creazione di identità digitali fittizie, che potrebbero essere utilizzate dalla criminalità per mettere a segno truffe e frodi». L’informatico ribadisce: «È come poter clonare gli esseri umani: una cosa fuori controllo».

Questa tecnologia rischia di andare ad arricchire il calderone delle notizie false, perché va a introdurre un elemento biometrico in più: quindi non solo testo e video, ma anche una voce.

Una nuova arma per le fake news

Basti pensare anche solo alla diffusione già incontrollata delle fake news. Trivilini a tal proposito evidenzia: «Questa tecnologia rischia di andare ad arricchire il calderone delle notizie false, perché va a introdurre un elemento biometrico in più: quindi non solo testo e video, ma anche una voce». Nello specifico? «Potrebbe essere utilizzata per animare persone e oggetti all’interno di un metaverso, incrementando la possibilità di inganno nei confronti di persone poco preparate o poco responsabili. È un’evoluzione delle fake news. È già facile essere ingannati da una e-mail, figuriamoci se poi viene utilizzato un falso messaggio vocale di qualcuno che conosciamo».

Ricostruire la voce di chi l’ha persa

Ma questa tecnologia può essere utilizzata anche per fini tutt’altro che negativi, specialmente nel campo medico. Il responsabile SUPSI puntualizza: «Noi del servizio Servizio informatica forense stiamo lavorando sul progetto VocalHUM: A smart system improving hospital care of bedridden patients enhancing their speech intelligibility by exploiting digital audio forensic techniques, finanziato da Innosuisse, in collaborazione con il Gruppo Spinelli SA di Lugano e l’OTAF di Sorengo. Usiamo l’analisi del segnale della voce, con le tecniche di audio che applichiamo nel contesto forense, per distinguere le voci. In questo modo è possibile ricostruire la voce delle persone che hanno deficit», conclude Trivilini.