Stati Uniti

OpenAI insiste per regolamentare l'intelligenza artificiale: ecco le proposte

L'audizione al Congresso di Sam Altman ha sorpreso ma nemmeno troppo: per la prima volta gli esponenti di un settore chiedono espressamente al legislatore di imporre regole precise al mercato
© AP
Marcello Pelizzari
17.05.2023 22:30

Mettiamola così: l’audizione davanti al Congresso statunitense di Sam Altman, amministratore delegato di OpenAI, la start-up alla base di ChatGPT, non ha creato scalpore né tantomeno suscitato reazioni scomposte della stampa. Il clima, d’altronde, è sembrato disteso. Finanche collaborativo.

Altman, leggiamo, è stato convocato assieme ad altri esperti del settore per capire non tanto se, ma come regolare l’intelligenza artificiale generativa. Una convocazione figlia, manco a dirlo, del successo ottenuto da ChatGPT ma anche da piattaforme come Dall-E e Midjourney.

Il modello europeo

Atmosfera distesa, dicevamo. E il motivo è presto detto: Altman, per primo, spinge perché il settore venga presto regolamentato e inquadrato. Queste le sue parole: «OpenAI si impegna sia per garantire la democratizzazione dell’intelligenza artificiale sia per massimizzare la sicurezza di questi modelli. Tuttavia, l’intervento del governo è necessario per limitare i rischi posti da questa tecnologia sempre più potente».

Se è vero che l’abito non fa il monaco, a differenza di altri esponenti di Big Tech precedentemente torchiati dal Congresso Altman ha scelto completo e cravatta per esporre il suo pensiero. Come dire: guardate, prendo la faccenda sul serio. Maledettamente sul serio.

Altman, in particolare, ha proposto l’istituzione di un’Agenzia federale indipendente, incaricata di concedere le licenze necessarie per commercializzare gli algoritmi di intelligenza artificiale. Di concederle e, ovviamente, revocarle in caso di mancato rispetto di un certo numero di criteri, sul modello di quanto fa la Food & Drug Administration negli Stati Uniti, ad esempio.

«Stiamo assistendo a qualcosa di storico» ha osservato la riguardo il senatore democratico dell’Illinois Richard Durbin. «È probabilmente la prima volta che i leader dell’industria si presentano davanti al legislatore per implorare una maggiore regolamentazione del loro mercato. Questo è particolarmente insolito in un Paese in cui è da tempo prevalente l’idea che quanto minore è il coinvolgimento del governo in un settore economico, tanto più questo può prosperare». La paura di ripetere gli stessi errori commessi all’alba dei social network, pare di capire, è forte se non fortissima. All’epoca, un approccio improntato sul laissez-faire finì per creare mostruosità come Cambridge Analytica. «Il Congresso non era riuscito ad agire al momento giusto sui social network» ha sintetizzato Richard Blumenthal, senatore democratico del Connecticut e presidente della Commissione che ha ascoltato Altman. «Ora abbiamo il dovere di agire sull’intelligenza artificiale prima che la minaccia diventi troppo reale». L’America, in questo senso, sta osservando da vicino ciò che sta facendo – e intende fare – l’Europa, il cui focus è legato soprattutto alla raccolta dei dati.

Fra dubbi e mercato

Negli ultimi mesi, l’intelligenza artificiale generativa ha conquistato un’ampia fetta di mercato ma, allo stesso tempo, ha suscitato non pochi dubbi circa i possibili usi impropri. A detta di Altman e di molti altri attori di Silicon Valley, una regolamentazione massiccia non rappresenterebbe solo un male necessario ma anche, se non soprattutto, un’opportunità economica.

Va letto in quest’ottica l’intervento di Gary Marcus, pure lui presente al Congresso in qualità di esperto di intelligenza artificiale: «Tutti hanno interesse perché vi sia una rapida implementazione di regolamenti uniformi su scala globale, sotto la spinta degli Stati Uniti, comprese le aziende di intelligenza artificiale. In assenza di tali norme, è infatti probabile che ogni Paese, o addirittura ogni regione, si trastulli con le proprie regole nel proprio angolo, il che costringerebbe le aziende di intelligenza artificiale ad addestrare un numero infinito di modelli diversi per adattarsi alle specificità di ogni legge locale. Un incubo».

Con le presidenziali americane all’orizzonte, tornando ai rischi, uno scandalo alla Cambridge Analytica ma con l’intelligenza artificiale quale potentissimo motore, beh, avrebbe tutti i tratti della catastrofe o, se preferite, della tempesta perfetta. E getterebbe un’ombra sinistra sul settore. «La capacità di questi modelli di manipolare l’opinione è uno dei miei peggiori timori, soprattutto nel contesto delle elezioni presidenziali» ha ammesso Altman, per quanto abbia ribadito più volte che l’intelligenza artificiale e i social network sono due cose molto diverse (e distanti).

Il «fuoco amico»

Paradossalmente, ma nemmeno troppo, la critica più forte rivolta a OpenAI durante l’audizione è arrivata a mo’ di fuoco amico. Gary Marcus, infatti, ha spiegato che «lo scopo originario di OpenAI era quello di far progredire l’intelligenza artificiale in modo vantaggioso per l’umanità e non era vincolato dalla necessità di generare profitti». E ancora: «Sette anni dopo, l’organizzazione è in gran parte finanziata da Microsoft, un’azienda privata, che attualmente sta combattendo un’aspra battaglia con Alphabet per la supremazia nella ricerca su Internet, una battaglia che ha portato Alphabet a lanciare sul mercato un prodotto, Bard, trascurando la sicurezza». Ahia.

Parallelamente, è emerso anche il discorso copyright. «In Tennessee – ha detto la senatrice repubblicana Mary Blackburn – abbiamo una vivace comunità di artisti e musicisti. Quando un algoritmo di intelligenza artificiale attinge alle opere di questi artisti per generare canzoni, in che misura questi artisti hanno voce in capitolo e come farete a garantire che siano adeguatamente compensati?». Proprio OpenAI, di recente, ha lanciato Jukebox, uno strumento capace di generare automaticamente musica. La problematica, alcune settimane fa, è emersa in tutta la sua urgenza quando una canzone creata da un tiktoker clonando le voci di Drake e The Weeknd, Heart On My Sleeve, ha fatto sfracelli sulle piattaforme di streaming prima di venire rimossa per evidenti violazioni.

Amy Klobuchar, senatrice democratica del Minnesota, ha invece concentrato i suoi timori sulla stampa locale, di suo in grande difficoltà e, ora, minacciata da chatbot come ChatGPT in grado di scrivere testi e, quindi, articoli. Roberto Porta, giornalista della RSI e presidente dell’Associazione ticinese dei giornalisti, al riguardo ci aveva detto: «La politica dovrebbe riflettere su questo e agire molto rapidamente. Tutti gli Stati sembrano essere in ritardo, mentre la tecnologia corre».

Incalzato su entrambi i fronti, musica e giornalismo, Altman ha dichiarato che il suo team sta pensando al modo migliore per remunerare i creatori dei contenuti su cui vengono addestrati gli algoritmi, senza tuttavia riuscire a dare una risposta precisa. E definitiva.

E se lo chiedessimo a ChatGPT?

Da parte nostra, abbiamo chiesto direttamente a ChatGPT, come esercizio, perché il settore dell’intelligenza artificiale andrebbe regolamentato. Una regolamentazione dell’intelligenza artificiale, secondo il chatbot, è necessaria per le seguenti ragioni:

1. Protezione dei dati personali: l’intelligenza artificiale può raccogliere grandi quantità di dati personali, pertanto è necessario garantire la sicurezza dei dati e la loro opportuna gestione.

2. Prevenzione della discriminazione: l’intelligenza artificiale può creare sistemi che discriminano categorie di persone, per questo è necessario garantirne l’equità e l’inclusione sociale.

3. Responsabilità dei produttori dell’IA: i fabbricanti di intelligenza artificiale devono essere tenuti responsabili dei prodotti che realizzano e dei danni che possono causare.

4. Preservare la privacy: l’intelligenza artificiale può mettere in pericolo la privacy degli utenti, quindi è necessario garantire che gli algoritmi siano sicuri e non violino la privacy degli utenti.

5. Garantire la sicurezza: gli sviluppi dell’IA possono mettere in pericolo la sicurezza degli individui e delle società, per questo è importante regolamentarli per garantire la sicurezza di tutti.

In sintesi, conclude ChatGPT, «una regolamentazione dell’intelligenza artificiale è necessaria per proteggere gli interessi degli utenti e per garantire che la tecnologia non causi danni alla società e all’ambiente»».

In questo articolo: