La novità

YouTube etichetterà i brani generati dall'AI che imitano le voci degli artisti

Dopo l'inaspettato successo di «Heart on My Sleeve», canzone che imitava perfettamente sia Drake sia The Weeknd, la piattaforma video è corsa ai ripari annunciando una serie di misure
The Weeknd. © Shutterstock
Red. Online
14.11.2023 14:45

Le case discografiche, presto, potranno richiedere a YouTube la rimozione di brani che utilizzano versioni delle voci degli artisti generate dall'intelligenza artificiale. E questo grazie a nuove linee guida emesse dalla piattaforma video. YouTube, nello specifico, sta introducendo uno strumento che consentirà alle etichette musicali e ai distributori di segnalare contenuti, citiamo, che imitano la «voce unica di cantare o rappare» di un artista.

La musica falsa, ma sarebbe meglio dire verosimile, generata dall’intelligenza artificiale è stata uno degli indesiderati effetti collaterali dei passi avanti compiuti quest’anno dalla cosiddetta intelligenza artificiale generativa. Espressione, questa, comunemente utilizzata per la tecnologia in grado di produrre testo, immagini e voce altamente convincenti partendo da suggerimenti umani.

Uno degli esempi di più alto profilo è Heart on My Sleeve, un brano con voci realizzate dall'intelligenza artificiale che pretendono di essere Drake e The Weeknd. Ne avevamo parlato qui e qui. La canzone, con colpevole ritardo verrebbe da dire, è stata ritirata dai servizi di streaming dopo che Universal Music Group, la casa discografica di entrambi gli artisti, aveva più o meno accusato l'autore di aver creato «contenuti illeciti creati con l'AI generativa». 

La piattaforma di proprietà di Google, ora, ha affermato in un post sul proprio blog che sperimenterà i nuovi controlli con un gruppo selezionato di etichette e distributori prima di un lancio più ampio. YouTube ha pure spiegato che il gruppo selezionato stava partecipando a non meglio precisati «primi esperimenti musicali con l’intelligenza artificiale». Esperimenti che prevedono l’utilizzo di strumenti di intelligenza artificiale generativa per produrre contenuti.

YouTube consentirà inoltre alle persone di presentare reclami sui deepfake in un aggiornamento della procedura di reclamo sulla privacy. «Consentiremo di richiedere la rimozione di contenuti generati dall'intelligenza artificiale o altri contenuti sintetici o manipolati che simulano un individuo identificabile, incluso il suo volto o la sua voce» ha garantito la piattaforma, aggiungendo che i contenuti parodici o i deepfake di funzionari pubblici o personaggi famosi potrebbero non venire rimossi. «Non tutti i contenuti verranno rimossi da YouTube e prenderemo in considerazione una serie di fattori nel valutare queste richieste» ha chiarito YouTube nel post sul blog di Jennifer Flannery O'Connor ed Emily Moxley, vicepresidenti della gestione del prodotto presso l'azienda.

YouTube richiederà inoltre ai creatori di rivelare quando hanno realizzato contenuti «manipolati o artificiali» dall'aspetto realistico, incluso materiale generato dall'AI. Quando il contenuto viene caricato, ai creatori verrà presentata un'opzione per contrassegnare i filmati di questo tipo. YouTube ha affermato che la persistente violazione delle linee guida potrebbe comportare la rimozione dei contenuti o la sospensione dei pagamenti pubblicitari. La piattaforma, ancora, ha affermato che le nuove linee guida sull’intelligenza artificiale sono particolarmente importanti «nei casi in cui il contenuto tratta argomenti delicati, come elezioni, conflitti in corso e crisi di salute pubblica, o funzionari pubblici».

Un'etichetta che segnala i contenuti generati dall'intelligenza artificiale verrà aggiunta al pannello della descrizione di un video, ma i contenuti su argomenti sensibili riceveranno un'etichetta se possibile ancora più evidente. Il materiale creato dall’intelligenza artificiale verrà rimosso del tutto se dovesse violare le linee guida sui contenuti esistenti, ha proseguito YouTube, come un video violento creato artificialmente per causare shock o disgusto.

La settimana scorsa Meta, la società madre di Facebook e Instagram, ha spiegato che avrebbe richiesto agli inserzionisti politici di riconoscere quando hanno utilizzato l’intelligenza artificiale negli annunci sulle proprie piattaforme. Meta ha aggiunto che gli inserzionisti dovranno, ad esempio, rivelare quando immagini, contenuti video o audio vengono utilizzati per rappresentare una persona reale che fa qualcosa che non ha detto o fatto. Un mese fa il governo del Regno Unito, fra gli altri, aveva avvertito che i deepfake potrebbero contribuire a un «degrado dell’ambiente informativo» e ridurre la fiducia del pubblico in «informazioni, istituzioni e processi civici come le elezioni». La settimana scorsa, sui social media, sono circolati e diventati virali falsi clip audio di Sadiq Khan, il sindaco di Londra, che sottovalutava l’importanza del Giorno della Memoria.

In questo articolo: