Il lato oscuro di Spotify: «Spierà le emozioni»

La tecnologia

La piattaforma digitale di musica presenta una tecnologia «dai risvolti inquietanti»: riconoscere lo stato d’animo degli utenti, sfruttandolo nella raccomandazione delle canzoni da ascoltare

Il lato oscuro di Spotify: «Spierà le emozioni»
Il mercato delle tecnologie per il riconoscimento delle emozioni potrà valere anche 150 miliardi di dollari entro il 2026

Il lato oscuro di Spotify: «Spierà le emozioni»

Il mercato delle tecnologie per il riconoscimento delle emozioni potrà valere anche 150 miliardi di dollari entro il 2026

La musica è una cosa bella. Ma «spiare» gli utenti che l’ascoltano? Un po’ meno. Anzi. Decisamente no, almeno secondo l’attivista Riccardo Coluccini, ingegnere, divulgatore e ricercatore indipendente che collabora con il centro Hermes per la trasparenza e i diritti umani digitali. La «miccia» che ha scatenato le polemiche è stata la presentazione di un brevetto da parte di Spotify, la piattaforma digitale di musica nata in Svezia nel 2006, dai risvolti piuttosto inquietanti: sfruttare il riconoscimento delle emozioni, tramite la voce, per raccomandare le canzoni da far ascoltare ai propri utenti usando l’intelligenza artificiale. Una spina nel fianco anche per Access Now, che dal 2009 si batte a favore della sicurezza digitale. In una lettera aperta destinata agli azionisti e alla dirigenza, gli attivisti hanno sottolineato il loro scetticismo sulla reale efficacia della tecnologia, alla quale gli svedesi stanno lavorando dal 2018, oltre che a una potenziale violazione «dei i diritti degli individui alla privacy, alla non discriminazione e alla libertà di espressione». Parole come pietre, insomma? «Non credo – ribatte Coluccini –. Stiamo parlando di un’azienda che vuole ascoltare di continuo le nostre conversazioni. Una vera e propria sorveglianza di massa. Che poi sia sfruttata per raccomandare contenuti in base alle emozioni, questa è un’altra storia», dice l’esperto (guarda il video allegato a quest’articolo).

Loading the player...
Guarda il video – Il lato oscuro di Spotify: in futuro, forse, spierà anche le nostre emozioni

Della serie: non potremo fidarci dei nostri microfoni. Perché qualcuno, da qualche parte, sarà sempre all’ascolto. Come una sorta di «Grande fratello». Tramutato in «fratello buono», perché è quello che ti consiglia la musica da ascoltare. Di più. La musica che vorresti sentire, quella che ti serve in quel momento. Rabbia? Frustrazione? Stress? Felicità? Il «Grande fratello Spotify» sa già quel che vorresti. Perché ti conosce, forse meglio di te stesso. «Identifica il modo di parlare, l’accento, l’età, il genere, i sentimenti...», elenca Coluccini. Anche Access Now gli fa eco, nella missiva: «La musica dovrebbe essere fatta per la connessione umana, non per compiacere un algoritmo che massimizza il profitto». Ma non solo: nella lettera parla anche di «manipolazione emotiva del consumatore». Quel che un tempo erano i «messaggi subliminali» che si credeva potessero spingere la massa ad acquistare un certo prodotto piuttosto che un altro, secondo questo scenario sembrano diventare una realtà estremamente efficace. Un nuovo «El Dorado». Soprattutto se si tiene conto del fatto che, secondo alcune fonti, questo tipo di mercato – quello delle tecnologie per il rilevamento e il riconoscimento delle emozioni – potrebbe arrivare a valere anche oltre 150 miliardi di dollari entro il 2026.

Il lato oscuro di Spotify: «Spierà le emozioni»

La richiesta, da parte degli attivisti, è semplice: strappare la promessa, da parte di Spotify, di non usare questa tecnologia. «È interessante, perché Spotify ha sottolineato il fatto che sinora non è mai stata impiegata – spiega Coluccini –, e per ora non c’è nessuna intenzione di introdurla. Ma non ha fatto promesse, su quanto riguarda il domani. Quindi, tra qualche mese, potremmo davvero trovarci in questa situazione». Ci salveranno le associazioni degli attivisti? «Oggi ci sono varie realtà, a livello europeo, che lottano a favore del divieto della cosiddetta sorveglianza biometrica. Ad esempio in Italia con Hermes, nell’ambito della campagna ‘Reclaim your face” (“Riprenditi la tua faccia”,ndr), ma anche Edri, che ha sede a Bruxelles, una sorta di “ombrello” sopra tutte queste associazioni che sono nate per difendere i diritti umani trasferiti nella sfera digitale».
Non solo il volto, l’iride, il palmo della mano e le impronte digitali. Anche la voce è un parametro biometrico da tutelare, da proteggere. Da non far catalogare o sorvegliare dalle macchine. O, nel peggiore dei casi, da uno Stato, magari uno di quelli non particolarmente democratici. «Queste associazioni si stanno attivando affinché la Commissione europea introduca un divieto nei confronti di queste tecnologie».
Ma è possibile che Spotify sia in grado di mettere a punto un sistema di sorveglianza di massa su scala globale? «Sì, sembra uno scenario fantascientifico. È pur vero che molte provocazioni sono esagerate e pensate solo per ravvivare gli azionisti. Dalla conquista di Marte al Metaverso di Zuckerberg, lo scopo è far mettere mano al portafogli con i sogni. In effetti, non dobbiamo pensare che siano soluzioni pronte per entrare “in produzione” nell’immediato. Tuttavia – avverte Coluccini –, non dobbiamo pensare che alcune tecnologie non possano non essere pericolose».

L’esperto esprime comunque una certa cautela nei riguardi di questa nuova trovata della casa svedese: «Delinea un desiderio e anche una capacità di farlo. Perché dichiarano di esserne in grado. Non penso ci troviamo di fronte a una mera proclamazione per gli investitori. Dobbiamo agire in anticipo, come stanno facendo alcune associazioni, per comprendere quali siano i limiti di queste tecnologie e se effettivamente ci sia l’intenzione di introdurle», conclude Coluccini. Spotify, che abbiamo contattato, non ha voluto rilasciare alcuna dichiarazione.

©CdT.ch - Riproduzione riservata

In questo articolo:

Ultime notizie: Mondo
  • 1
  • 1