Dopodomani

Pro e contro di ChatGPT

Questi modelli di intelligenza artificiale sono qui per restare: è urgente insegnare agli adulti di domani a usarli criticamente, a capirne le implicazioni etiche e gli effetti sulla nostra vita
Patrizia Pesenti
Patrizia Pesenti
10.06.2023 06:00

In molte aule scolastiche la prima reazione a ChatGPT è stata di vietarne l’uso. Il timore è che gli allievi usino i sistemi di intelligenza artificiale per rispondere alle domande e svolgere temi. E la preoccupazione è fondata, eccome. Farsi aiutare dall’intelligenza artificiale a scrivere un esame non va bene affatto. La scuola fa bene a testare le conoscenze e le capacità dell’allievo come ha sempre fatto, senza permettere a nessuno di copiare né dai compagni o dai libri, né di farsi suggerire le risposte. Tra l’altro, usare ChatGPT - anche l’ultima versione - porta gli stessi guai come quando si copia dal vicino di banco. La risposta potrebbe essere giusta oppure campata in aria. Un Large Language Model come ChatGPT utilizza modelli matematici per sfornare un linguaggio simile a quello umano. È addestrato sui testi che trova online e impara a mettere una parola dopo l’altra in base ad un calcolo di probabilità. Produce testi verosimili e sensati. Però non sempre. A volte sono solo apparentemente assennati, perché non ha nessuna idea di cosa significhi quello che sta dicendo. Se la sequenza di parole è probabile, la scrive, anche se non corrisponde alla realtà. Penoso il recente caso di un avvocato che ha chiesto a ChatGPT se vi fossero casi precendenti analoghi - si trattava di una causa contro una compagnia aerea. Le risposte sembravano verosimili ma spensieratamente inventate, di sana pianta - una figuraccia per l’avvocato. Inoltre meglio non dimenticare che i cosidetti «grandi modelli di linguaggio» sono stati allenati sui testi disponibili in internet solo fino alla fine del 2021 e nell’addestramento non hanno potuto usare i testi protetti da una firewall o paywall - spesso i più affidabili dal punto di vista del contenuto. Per riprendere il paragone, usare ChatGPT a scuola è come copiare, sì, ma non dal primo della classe, da un compagno che ogni tanto ha le allucinazioni. Tra l’altro, per impedire agli allievi di barare OpenAI sta collaborando con le scuole per programmare un sistema in grado di rivelare se il testo è stato prodotto dal loro sistema ChatGPT. Sembra non sia di grande aiuto, per ora. Comunque in passato le scuole sono sopravvissute bene ad altri scossoni, dall’uso delle calcolatrici all’avvento dei motori di ricerca. Meno bene invece sopravvivono gli allievi, usare l’intelligenza degli altri per fare i compiti - quella artificiale oppure più prosaicamente quella dei genitori a casa - non porta lontano. Per imparare bisogna mettere in moto i propri di circuiti neurali. Non ci sono scorciatoie.

Ma il punto è un altro. Questi modelli di intelligenza artificiale sono qui per restare. Sono già una trentina oltre al più popolare ChatGPT. Quello che più serve agli allievi è capire come funzionano e cosa sono, e capirlo davvero, criticamente. In altre parole, la scuola potrebbe insegnare come l’intelligenza artificiale produce i testi, in che modo le parole sono allineate una dopo l’altra con un calcolo di probabilità fino a formare un testo grammaticalmente sensato, corretto e però magari allucinato o tendenzioso. Per esempio, l’allievo potrebbe essere allenato a trovare gli errori nelle baldanzose risposte dell’intelligenza artificiale. Oppure ad andare a caccia delle informazioni faziose, manipolatorie. Ragionare insomma, inter-legere proprio nel senso etimologico di raccogliere, scegliere le informazioni e connetterle. Perché questo i modelli artificiali non lo fanno (non ancora). Servirebbe tanto.

Ci saremmo risparmiati un sacco di guai, se di pari passo alla crescita di internet - penso a YouTube o Twitter, due esempi fra molti - avessimo esercitato più senso critico invece di guardare ai social con gli occhi sgranati dallo stupore come bambini creduloni. Pareva tutto un gioco, forse perché gratuito e non abbiamo visto crescere i monopoli, sacrificare la nostra privacy e soprattutto non ci siamo accorti quanto la democrazia sia oggi messa a dura prova dalla formazione di bolle di informazione che si formano nei social networks e da cui non si esce. Meglio sarebbe stato imparare dall’inizio a capire che il rischio del bombardamento di video o tweet che attirano la nostra attenzione è di cadere nella «tana del bianconiglio», di non vedere più il resto della realtà. No, vietare ChatGPT non serve. Però è urgente insegnare agli adulti di domani a usare criticamente l’intelligenza artificiale, a capirne le implicazioni etiche e gli effetti sulla nostra vita. In altre parole, insegnare ad essere sempre, sempre un passo avanti. Abbiamo perso il treno con internet, meglio non perdere questo.

In questo articolo: