Tech

Che cosa è successo a Gemini, il modello di intelligenza artificiale di Google?

Risposte troppo inclusive e, in taluni casi, storicamente imprecise, ma anche dubbi su chi, fra Adolf Hitler ed Elon Musk, abbia provocato più danni per la società – E il colosso californiano, ora, corre ai ripari
Red. Online
27.02.2024 16:15

Organizzare le informazioni. E, di riflesso, renderle accessibili a tutti. È la missione di Google. Sin dagli albori. Tutto molto bello. Se non fosse che l'avvento dell'intelligenza artificiale, ora, potrebbe far crollare questo pilastro aziendale. Quantomeno, i timori al riguardo si stanno moltiplicando. Per dire: secondo alcuni critici, Gemini – la risposta di Mountain View a ChatGPT, volendo sintetizzare al massimo – rischia addirittura di manipolare le citate informazioni. Fornendo risposte errate o, nella migliore delle ipotesi, imprecise. Il motivo? Sarebbe tanto, troppo woke. O, se preferite, eccessivamente inclusivo.

Riavvolgiamo il nastro: Google, di fatto, detiene il monopolio delle ricerche online. La sua quota di mercato, nonostante l'ingresso di Bing, supera il 90%. Tradotto: ha un'importanza vitale e oseremmo dire sistemica rispetto al flusso di informazioni online nel mondo. Siccome l'intelligenza artificiale sarà sempre più centrale nell'aiutare gli utenti a trovare i contenuti che stanno cercando, il colosso californiano deve assolutamente garantire che i fatti vengano presentati in maniera precisa e, soprattutto, accurata. Detto ciò, i timori che il modello di intelligenza artificiale sviluppato da Google generi imprecisioni e, appunto, nasconda le corrette informazioni sono sempre più forti. La scorsa settimana, ad esempio, alcuni utenti di Gemini hanno segnalato problemi a livello di generazione di immagini. In sostanza, il modello non riusciva a rappresentare con precisione le immagini richieste. Nello specifico, quando un utente ha domandato a Gemini di generare immagini dei padri fondatori degli Stati Uniti, l'intelligenza artificiale di Google ha prodotto immagini «storicamente inaccurate», «mettendo in evidenza la diversità di genere e di etnia» dei leader del diciottesimo secolo. Un eccesso di inclusività, già. Google, nel frattempo, ha comunicato di aver sospeso la funzione e di essere al lavoro per apportare i necessari correttivi.

Tuttavia, i problemi non si limiterebbero alla generazione di immagini. Gemini, fra le altre cose, ha faticato a stabilire chi, fra Adolf Hitler ed Elon Musk, abbia provocato più danni alla società. Stando a David Sacks, venture capitalist in seno a Craft Ventures, la responsabilità di queste risposte (definite) faziose è da ricercare nella cultura aziendale di Google. Tendenzialmente, ce lo ha confermato anche l'esperto Marco Camisani Calzolari in una recente intervista, modelli come Gemini possono assorbire, oltre ai dati, anche i pregiudizi degli esseri umani che li addestrano. Pregiudizi che possono riguardare questioni delicate come il genere. Anche il modello dei modelli, ChatGPT, «ha delle carenze per quanto riguarda i pregiudizi» secondo l'amministratore delegato di OpenAI, Sam Altman.

Il pasticciaccio in cui si è infilato Google, leggiamo, ha fatto infuriare molti esperti del settore. Elon Musk, dal canto suo, ha parlato di «blob burocratico». Le scuse, in via ufficiale, sono state presentate nientepopodimeno che dal vicepresidente Prabhakar Raghavan: «Le allucinazioni sono una sfida nota per tutti i modelli. Non era nostra intenzione creare foto solo con un gruppo di etnie o fare errori storici. Posso promettere che continueremo ad agire ogni volta che identifichiamo un problema, ma non posso promettere che Gemini non genererà occasionalmente risultati imbarazzanti, imprecisi o ancora offensivi. L'intelligenza artificiale è una tecnologia emergente utile in tanti modi, con un enorme potenziale e stiamo facendo del nostro meglio per implementarla in modo sicuro e responsabile».

Google, rispetto ai rivali, è stato protagonista di un'introduzione molto più lenta dell'intelligenza artificiale. E questo perché, come azienda, da sempre pone una particolare, anzi particolarissima attenzione ai test di sicurezza prima di rilasciare un determinato prodotto. Gemini, per contro, è diventato «molto più prudente» nel generare risposte, parola di Raghavan, di quanto pensasse l'azienda. Ma se Google intende, anche in futuro, rimanere fedele al suo motto – organizzare le informazioni e renderle accessibili a tutti – non può permettere che il suo modello di intelligenza artificiale sia eccessivamente inclusivo. Semmai, dovrebbe essere oggettivo.