L'intervista

«ChatGPT non è un nemico»: come l'AI può aiutare i bambini

Che sia per imparare o per coltivare un hobby, l'intelligenza artificiale può rivelarsi uno strumento interessante anche per i più piccoli – Servono, però, regole precise: ne parliamo con Sophie Hundertmark, esperta di AI e ricercatrice alla Hochschule Luzern (HSLU)
© Shutterstock
Federica Serrao
15.02.2026 09:00

L'intelligenza artificiale, a volte, può far paura. Specialmente quando sono i più piccoli a farne uso. Non a caso, negli ultimi tempi, hanno fatto discutere i casi in cui giovani adolescenti hanno instaurato un vero e proprio legame con un chatbot, tanto da considerarlo un amico

Non sempre, tuttavia, ChatGPT o, più in generale, l'AI, è necessariamente un pericolo o un nemico da temere. Al contrario, se utilizzato nel modo giusto, può rivelarsi uno strumento valido per diversi scopi: dall'apprendimento alle passioni personali. Come spiega Sophie Hundertmark, esperta di intelligenza artificiale e ricercatrice presso la Hochschule Luzern (HSLU), ChatGPT può rivelarsi utile quando viene «utilizzato nel modo giusto».

«Non dovrebbe sostituire lo studio o il pensiero dei bambini, ma può affiancarli. Per esempio, può spiegare un concetto con parole più semplici, aiutare a capire un testo difficile o proporre esempi alternativi». Basti pensare a un paragrafo che risulta complicato da capire, o a un esercizio di matematica di cui non si capiscono formule e operazioni. «Dal punto di vista scolastico è interessante, perché l'AI può adattarsi al ritmo del bambino», prosegue l'esperta. Chi è curioso, può chiedere al chatbot di approfondire un determinato argomento. Chi invece fa più fatica, può chiedere spiegazioni più lente e dettagliate. «Questo crea una vera opportunità di pari accesso all'apprendimento, soprattutto per le famiglie che non possono permettersi ripetizioni o aiuto extrascolastico». In questo senso, dunque, l'AI può rivelarsi uno strumento interessante: ma – avverte Hundertmark – solo se i bambini vengono accompagnati da adulti nell'utilizzo di un chatbot e se vengono definite regole chiare.

Con i bambini servono regole educative e non punitive, che insegnino che l'AI è uno strumento, non un gioco senza limiti e nemmeno un'autorità che "sa tutto"
Sophie Hundertmark

A tal proposito, infatti, stabilire regole per l'utilizzo dell'AI non è solo necessario, ma «fondamentale». «I bambini hanno bisogno di confini chiari», sottolinea l'esperta. Per esempio, può essere utile chiarire che ChatGPT può essere usato solo con un adulto presente, così come si può impostare un tempo massimo di utilizzo. «Può aiutare anche stabilire anche per cosa può essere usato, per esempio spiegare qualcosa, ma non copiare». La cosa più importante, come evidenzia la ricercatrice, è che le regole non siano punitive, ma educative. «Servono a insegnare che l'AI è uno strumento, non un gioco senza limiti e nemmeno un'autorità che "sa tutto"». 

Ma non finisce qui. L'AI, infatti, può aiutare i più piccoli anche a coltivare un hobby. «Può essere molto utile per imparare una lingua, scrivere storie, inventare giochi, approfondire un interesse personale come la scienza, la musica o persino la cucina. Su questo aspetto vedo un grande potenziale creativo: il bambino non consuma solo contenuti, ma interagisce, fa domande, sperimenta». Una situazione che permette al bambino, se ben guidato, di «rafforzare autonomia e curiosità». 

ChatGPT non è magia e non è nemmeno il nemico. È uno strumento potente, che va compreso prima di essere vietato e prima di concederne un utilizzo completamente libero
Sophie Hundertmark

Occhio ai pericoli

In tutto questo processo, tuttavia, è essenziale che anche le famiglie siano formate per utilizzare i chatbot in maniera consapevole. «Se i genitori non capiscono come funziona l'AI, difficilmente possono accompagnare i figli», osserva Hundertmark. «Formare le famiglie significa eliminare paura e panico, ma anche illusioni. ChatGPT non è magia e non è nemmeno il nemico. È uno strumento potente, che va compreso prima di essere vietato e prima di concederne un utilizzo completamente libero». 

I rischi, infatti, possono essere dietro l'angolo. «Quelli principali sono tre: affidarsi ciecamente alle risposte senza verificarle, sostituire il pensiero personale con quello del sistema ed esporsi troppo a livello emotivo o personale, dimenticando che non si sta parlando con una persona reale». E non è tutto. Esiste, infatti, anche il rischio di imbattersi in contenuti non adatti all'età del bambino – specie quando questo è piuttosto piccolo – o interpretare in maniera sbagliata le informazioni fornite dal chatbot. 

In particolare, secondo l'esperta, è fondamentale mettere confini per evitare legami emotivi. «È importante essere chiari: ChatGPT non è un amico. Non prova emozioni e non può sostituire relazioni umane. I bambini vanno aiutati a capire la differenza tra dialogo simulato e relazione reale. Serve il coinvolgimento degli adulti, osservazione, dialogo aperto e, se necessario, limiti chiari sull'uso personale ed emotivo del chatbot». 

La protezione dei dati è parte dell’educazione digitale di base
Sophie Hundertmark

E non è tutto. Un'altra cosa che bisogna insegnare ai bambini è una regola tanto semplice, quanto importante: mai condividere dati personali, emozioni troppo intime o informazioni familiari. «I bambini devono capire che quello che scrivono non sparisce nel nulla. Non serve spaventare, ma spiegare in modo concreto e adatto all’età. La protezione dei dati è parte dell’educazione digitale di base, esattamente come imparare a non parlare con sconosciuti online», spiega Hundertmark. 

C'è, però, un ultimo aspetto che vale la pena menzionare e ha a che fare con gli errori dell'AI. «Il fatto che ChatGPT possa sbagliare diventa un ottimo esercizio di verifica, confronto e dubbio», osserva la ricercatrice. «Se insegniamo “È vero?”, “Da dove arriva questa informazione?”, “La posso controllare?”, allora l’AI diventa una palestra di pensiero critico, non un pericolo». E nemmeno un nemico.