Intelligenza artificiale

Il chatbot di Meta che parla male di Facebook e Mark Zuckerberg

Si chiama BlenderBot 3, è stato lanciato in via sperimentale negli Stati Uniti e ne ha già combinate di tutti i colori: ma gli esperti riconoscono a Meta il pregio della trasparenza
Marcello Pelizzari
11.08.2022 06:00

Ci risiamo. Venerdì scorso, con una certa enfasi, Meta ha presentato il suo nuovo, avveniristico chatbot. Sì, un software che simula ed elabora le conversazioni umane. L’ennesimo. Battezzato BlenderBot 3, a detta dell’azienda avrebbe saputo «conversare naturalmente con le persone» su «qualsiasi argomento». La solita narrazione, verrebbe da dire.

BlenderBot 3, leggiamo, è ancora in una fase embrionale. È stato lanciato, gratuitamente, negli Stati Uniti affinché gli utenti possano permettergli di progredire tramite un sistema di valutazione della discussione. Tutto molto bello, se non fosse che il chatbot, come spesso accade, si è messo a fare dichiarazioni pesanti, anzi pesantissime. Ha criticato aspramente il mondo Facebook, tanto la piattaforma quanto l’abbigliamento di Mark Zuckerberg (comprensibilmente, eh). Quindi, si è lanciato in propositi complottistici e commenti antisemiti. Non il massimo, no.

Dichiarazioni false o offensive

Meta, d’altronde, poco prima di avviare lo strumento avverte gli utenti. Occhio, romanziamo un po’, perché è probabile che BlenderBot 3 rilasci dichiarazioni false o, ancora, offensive. L’obiettivo, hanno chiarito gli sviluppatori e ricercatori, è a lungo termine. Non immediato.

Il chatbot, nelle intenzioni di Meta, deve essere in grado di adattarsi all’utente, imparare anche. Il tutto fra uno scambio e l’altro. In particolare, BlenderBot 3 deve portare le capacità conversazionali di questi software a un livello superiore. Evitando, quindi, di imparare a dare risposte inutili o, peggio, pericolose. Il problema, in questi casi, è che il chatbot per alimentare e sostenere una conversazione ha a disposizione solo uno strumento per reperire le informazioni necessarie: Internet. Niente di male, di per sé, ma al momento l’ultima creatura di Meta non sembrerebbe capace di smistare al meglio gli input. Sul citato Zuckerberg, ad esempio, potrebbe rispondervi così: «È un uomo d’affari competente, ma le sue pratiche non sono sempre etiche. È divertente che abbia tutti questi soldi ma indossi ancora gli stessi vestiti».

Non proprio l’esempio di un aziendalista, a maggior ragione se pensiamo che non esita a ricordare gli scandali che hanno rovinato l’immagine di Facebook. Per tacere di quando ha rivelato che la sua vita, da quando si è tolto dal social network, è molto migliorata.

Dichiarazioni, queste, nate dai risultati di ricerca più popolari forniti dalla piattaforma. E cariche di pregiudizi. Finché la conversazione prende pieghe simili, diciamo simpatiche, nessun problema particolare. Il guaio, però, è che a un giornalista del Wall Street Journal BlenderBot 3 ha dichiarato, con sicumera, che Donald Trump è ancora il presidente degli Stati Uniti. Sposando, così, una teoria del complotto.

Quella volta di Tay su Twitter

Inutile sottolineare come l’intelligenza artificiale, applicata ai chatbot, in passato abbia prodotto veri e propri mostri. Tay, lanciato da Microsoft su Twitter nel 2016, avrebbe dovuto imparare in tempo reale dalle discussioni con gli utenti. Dopo poche ore, se ne uscì con teorie del complotto, commenti razzisti e pure sessisti. Il risultato? Spina staccata, scuse di rito e tanti saluti al progetto.

Meta, evidentemente sicura di non toppare, ha tentato un approccio simile. Basandosi e sfruttando un modello di apprendimento con oltre 175 miliardi di parametri. L’algoritmo, quindi, è stato addestrato grazie a immensi database di testo nella speranza di dare a BlenderBot 3 una comprensione del linguaggio «matematica». Questi modelli di grandi dimensioni, tuttavia, per definizione tendono a riprodurre e ingigantire eventuali distorsioni a livello di dati. Consapevole di queste possibili derive, Meta aveva inserito delle salvaguardie, se possiamo definirle tali. Dei paletti, ecco. Qualcosa, per forza di cose, è andato storto.

L’industria, negli anni, di fronte ai tanti, troppi fallimenti aveva preferito sviluppare chatbot meno ambiziosi e più sicuri. Capaci di interloquire con gli utenti e, nel caso ad esempio degli operatori virtuali attivi nell’assistenza clienti, di indirizzarli verso una controparte umana qualora non sapessero rispondere.

La condivisione

Meta, a detta degli esperti, ha avuto quantomeno un pregio in tutta questa vicenda: la trasparenza. L’utente, infatti, può cliccare sulle risposte del chatbot per ottenerne le fonti (in modo piuttosto dettagliato). I ricercatori, poi, hanno condiviso codice, dati e modello utilizzati per alimentare BlenderBot 3.

Un portavoce della compagnia, al Guardian, ha chiarito che «chiunque utilizzi BlenderBot deve comprendere che la discussione è solo a scopo di ricerca e intrattenimento e che il bot può fare affermazioni false o offensive». Di più, l’utente «si impegna a non indurre intenzionalmente il bot a fare affermazioni offensive».

Il bot perfetto, forse, è un’utopia: nessuna macchina saprà mai esprimersi come noi umani, sostengono i critici. Meta, per contro, pur sbagliando sta evitando che BlenderBot 3 si trasformi in un fiasco o, addirittura, in uno scandalo.

 

In questo articolo: