Il punto

Concorrenza e dati personali, i due volti della «lotta» all'intelligenza artificiale

I regolatori negli Stati Uniti e in Europa stanno affrontando l'argomento partendo da premesse e punti di vista differenti: come mai?
© AP
Marcello Pelizzari
08.05.2023 13:11

Sì, il mercato dell'intelligenza artificiale è esploso. Letteralmente. A immagine di Microsoft, che sta sfruttando – invero molto bene – la sua partnership strategica con OpenAI, la start-up alla base di ChatGPT, per contrastare lo strapotere di Google. Come? Integrando la cosiddetta AI generativa nel suo motore di ricerca, Bing, nella suite di Office e in altri prodotti del colosso tech.

L'ingresso, prepotente, dell'AI nella nostra quotidianità sta provocando non pochi pruriti alle autorità di regolamentazione. Tanto in Europa quanto negli Stati Uniti. Uno, in particolare, l'obiettivo, a maggior ragione se consideriamo che molti esperti paragonano questa ondata di «intelligenza artificiale per tutti» alla diffusione di Internet negli anni Novanta o, ancora, al lancio dell'iPhone. Ovvero, qualcosa di rivoluzionario. Uno, dicevamo, l'obiettivo: evitare gli eccessi dei primi anni Duemila, che si tradussero nella creazione di monopoli. Con tutte le conseguenze del caso, allora, in termini di gestione dei nostri dati.

La FTC scende in campo

L'ultimo attore ad alzare la voce, in questo senso, è stata l'Autorità statunitense per la concorrenza. Attraverso un'opinione pubblicata nientepopodimeno che sul New York Times a firma Lina Khan, presidente della Federal Trade Commission (FTC). La richiesta? Una regolamentazione, presumiamo stretta, dell'AI generativa. Pena, un ritorno al passato o, meglio, al cosiddetto web 2.0 a metà dei citati anni Duemila. Un'epoca segnata dall'ascesa di Facebook e Google e dalla monopolizzazione di svariati settori tecnologici. Un'epoca, tuttavia, accompagnata e segnata da numerosi scandali sulla trasparenza a livello di dati personali. Così Khan, in una sorta di «prevenire è meglio che curare»: «La storia della crescita delle aziende tecnologiche negli ultimi due decenni dovrebbe servire da monito su come dovremmo affrontare l'espansione dell'AI generativa. Le autorità pubbliche hanno la responsabilità di garantire che questa storia non si ripeta».

Di qui, appunto, la necessità di intervenire ora, adesso, subito. Onde evitare il laissez faire degli anni Duemila. Della serie: difficile spezzare i monopoli una volta che si sono creati e sono, per forza di cose, diventati potenti. Più facile agire per tempo ed evitare che si formino. La stessa Khan ha ammonito i protagonisti dell'AI spiegando che, se necessario, non esiterà a utilizzare «vigorosamente» gli strumenti a sua disposizione per garantire il rispetto della legge sulla concorrenza e la protezione dei consumatori americani.

La FTC, d'altronde, non è sola. Anzi: giovedì, la controparte britannica ha avviato un'indagine sull'AI generativa e sul mercato a essa associato. Sarah Cardell, responsabile della Competition and Markets Authority (CMA) del Regno Unito, ha dichiarato al Financial Times che l'autorità di regolamentazione sta esaminando «che tipo di salvaguardie e principi dovrebbe sviluppare per garantire una concorrenza leale e la protezione dei consumatori». Ahia.

Chi sono i leader?

Sul taccuino dei regolatori figurano i volti più o meno noti del momento: Microsoft e OpenAI, con il primo che sta avendo fra l'altro non poche grane per la questione Activision, Google e Anthropic, Meta. Il punto, leggiamo, non è tanto lo sviluppo dell'intelligenza artificiale in sé o le sue possibili derive (ne abbiamo già discusso: qui l'ultimo contributo al filone) quanto la possibilità di spesa di questi colossi rispetto ad altre aziende. O, girando la questione, il fatto che il potere tecnologico nel campo dell'AI sia concentrato in poche, pochissime mani. Tre aziende, ad esempio, controllano il mercato del cloud: Amazon, Microsoft e Google. parliamo dell'accesso alla potenza di calcolo necessaria per addestrare i vari sistemi di intelligenza artificiale. 

Come limitare il potere degli uni e garantire un equo accesso al mercato per gli altri? Bella domanda. La FTC, rimanendo in America, confida nel sostegno dell'Esecutivo. Alcuni giorni fa, la Casa Bianca ha ricevuto proprio gli attori dell'AI per discutere rischi e potenziali minacce di questa tecnologia. Alla fine di aprile, invece, i ministri per il Digitale del G7 hanno concordato su un punto: urgono regolamenti per prevenire scenari alla Terminator. Finora, dalle aziende sono arrivate alcune concessioni, come la disponibilità a far studiare i rispettivi modelli di AI generativa ad alcuni esperti. 

La questione in Europa

Se in America il dibattito è incentrato quasi esclusivamente sulla concorrenza e poco, molto poco su problemi quali la protezione dei dati, il discorso è completamente capovolto in Europa. L'Unione Europea, ad esempio, ha fatto notare che modelli come GPT-4 sono addestrati su milioni di miliardi di dati, vere e proprie fette di web risucchiate senza tenere conto della protezione dei dati personali o, peggio ancora, dei diritti in vigore all'interno dello spazio comune. I creatori come OpenAI invocano il cosiddetto «fair use», e cioè la facoltà di utilizzare materiale protetto da copyright per scopi d'informazione, critica o insegnamento, senza chiedere l'autorizzazione scritta a chi detiene i diritti. Ma parliamo, come minimo, di una zona grigia, se non grigissima. 

Non a caso, alla fine di marzo il Garante italiano per la protezione dei dati personali ha alzato la voce e, di fatto, costretto ChatGPT a sospendere il servizio nella Penisola. Il motivo? L'azienda aveva accolto dati personali, fra cui nomi e date di nascita, senza aver prima richiesto espressamente il consenso delle persone interessate, come previsto appunto dalla legge. Alla fine, OpenAI – temendo multe salatissime – si è adeguata. Chiudendo il primo round di una battaglia che, a cominciare dalla Francia, promette scintille.

In questo articolo: