AI

ChatGPT ha un problema con i dati e la privacy?

Dopo il blocco dell'applicazione imposto dal Garante in Italia, facciamo il punto con l'esperto Alessandro Trivilini: «L'intelligenza artificiale ha introdotto un nuovo livello di complessità»
© KEYSTONE / CHRISTIAN BEUTLER
Marcello Pelizzari
31.03.2023 15:23

ChatGPT, che succede? Il Garante per la protezione dei dati personali ha disposto lo stop del chatbot più discusso e chiacchierato di sempre, in grado di simulare e, ancora, di elaborare le conversazioni umane. E il motivo è presto detto: l’applicazione di intelligenza artificiale non avrebbe assicurato il rispetto della disciplina della privacy. Ahia.

La situazione

Concretamente, il Garante ha aperto un’istruttoria nei confronti di OpenAI, la start-up statunitense che ha sviluppato e gestisce la piattaforma. A mancare, leggiamo, è un’informativa agli utenti circa le modalità di raccolta dei dati. Allargando il campo, mancherebbe pure una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali.

Lo scorso 20 marzo, fra l’altro, OpenAI aveva subito una perdita di dati, data breach, legata alle conversazioni degli utenti e alle informazioni di chi si era abbonato al servizio a pagamento. Il Garante ha aggiunto, nella sua comunicazione, che i filtri per verificare l’età degli utenti – considerando che ChatGPT è vietato ai minori di 13 anni – non sono sufficienti. I minori, insomma, sarebbero esposti a risposte non idonee alla fascia di età.

OpenAI, ora, ha una ventina di giorni a disposizione per comunicare le misure che intende mettere in atto per adeguarsi alle richieste del Garante. In caso contrario, è prevista una multa fino a 20 milioni di euro o pari al 4% del fatturato globale annuo.

Consapevolezza e responsabilità

Con Alessandro Trivilini, esperto digitale nonché responsabile del Servizio d’informatica forense della SUPSI, cerchiamo di comprendere meglio la portata di quanto successo in Italia. Soprattutto, gli chiediamo se per tutto questo tempo non ci siamo concentrati sui rischi «sbagliati», come le possibili derive dell’intelligenza artificiale. Il problema sono sempre stati la raccolta dei dati e la privacy, dunque? «In effetti – dice – tutti siamo rimasti abbagliati dal nuovo paradigma introdotto da ChatGPT» e, nello specifico, dalla sua capacità di trovare risposte alle nostre domande. «Il problema della privacy, in questo caso, introduce un nuovo livello di complessità».

Una complessità generata, se così vogliamo dire, dal fatto che ChatGPT stia sempre di più entrando in contatto con aziende e applicazioni esterne. Per dire: Helvetia, nota compagnia assicurativa svizzera, lancerà un servizio di contatto diretto con i clienti basato proprio su ChatGPT. Come spiega Trivilini, «significa che non è più solo OpenAI a dover dire come raccoglie e tratta i dati degli utenti, ma anche l’azienda che integra i servizi di ChatGPT. E questo per non creare buchi di violazione della privacy».

Le parole chiave, al riguardo, sono consapevolezza e responsabilità. «Ed è qui, appunto, che si crea un nuovo livello debole. Se non ci fosse stata quella perdita di dati, alcune settimane fa, il problema non si sarebbe nemmeno posto».

La colpa, in parte, è proprio di ChatGPT poiché non dice che potrebbe avere lacune sul fronte della privacy. Pensando alla legislazione europea e a quella svizzera, ad esempio, dovrebbe chiarire come tratta i dati raccolti tramite le nostre domande
Alessandro Trivilini

L'integrazione con le aziende

La questione della privacy, prosegue l’esperto, con ChatGPT è diventata centralissima non appena il chatbot, parliamo della versione più recente, è stato integrato a Bing, il motore di ricerca targato Microsoft, e quindi alla rete. «Ora, beh, le risposte vengono date pescando anche da fonti non verificate. Di riflesso, c’è un problema di verifica della privacy e del trattamento dei dati».

Il problema, dice Trivilini, non è nuovo, «ma è stato accelerato dalla digitalizzazione che riguarda l’intelligenza artificiale» e, parallelamente, dal fatto che nessuno si sia curato della protezione dei dati e della privacy. «La colpa, in parte, è proprio di ChatGPT poiché non dice che potrebbe avere lacune sul fronte della privacy. Pensando alla legislazione europea e a quella svizzera, ad esempio, dovrebbe chiarire come tratta i dati raccolti tramite le nostre domande. L’altra parte di colpa, diciamo il restante 50%, è nostra. Perché, come dicevo, siamo stati ammaliati da questo chatbot e ci siamo dimenticati delle esperienze pregresse. Ora, presa consapevolezza della situazione, c’è stata una prima reazione. Ma sarà complicato riportare i buoi all’interno del recinto. E questo perché lo sviluppo di ChatGPT, con miriadi e miriadi di plugin e con un’integrazione sempre più forte con applicazioni esterne, aggiunge di continuo strati di complessità. Ogni azienda, ad ogni modo, dovrebbe tenere a mente i concetti di consapevolezza e responsabilità: che cosa e chi tutelare? Che cosa limitare?».

La profilazione

Le domande che poniamo a ChatGPT, oggi, hanno lo stesso peso e lo stesso valore delle ricerche che facevamo (e facciamo) sui motori di ricerca tradizionali. «Sono, soprattutto, l’elemento centrale per addestrare l’intelligenza artificiale. È quello il grande valore, dato che più poniamo domande più l’intelligenza migliora».

Il rischio che, tramite le nostre richieste, venga fatta una profilazione commerciale è reale. «Ma non è un rischio vero e proprio, nella misura in cui è qualcosa che già succede. Siccome ChatGPT al momento è diffuso in forma gratuita, al netto della possibilità di passare al servizio in abbonamento, è verosimile pensare che i nostri dati, in forma aggregata e anonima, vengano venduti a scopo di profilazione. Diventando qualcosa di strategico, interessante e redditizio».

Trivilini, tuttavia, si spinge oltre: «Il rischio che vedo io è la manipolazione delle informazioni. Più ChatGPT impara, più avrà capacità di persuasione e potrà condizionare il nostro comportamento».

In questo articolo: