«La minaccia cognitiva è reale, ma la resistenza è possibile»

Dopo aver dato alla luce, lo scorso autunno, Moins d’Amérique dans nos vies, Bruno Giussani ha proseguito nella sua personale esplorazione del mondo nuovo. Ecco, quindi, in uscita, La mente sotto assedio. Il sottotitolo scelto è piuttosto esplicito: «Come non lasciarsi manipolare nell’era dell’intelligenza artificiale». Lo abbiamo letto in anteprima - una lettura necessaria, non particolarmente rassicurante, ma comunque necessaria -, per poi confrontarci con l’autore stesso.
Bruno Giussani, oltre a essere uno degli intellettuali svizzeri contemporanei più ascoltati a livello internazionale, è da considerare pienamente «dentro» la sua epoca. Per lui parla il passato - in particolare l’esperienza ventennale con TED -, certo, ma poi il presente ne offre chiare conferme. La breve riflessione Moins d’Amérique dans nos vies (Georg Editeur, 2025) trova ora pieno compimento nel saggio La mente sotto assedio (Edizioni Casagrande, 2026). Dal quale si sviluppano una fotografia piuttosto inquietante del mondo di oggi e una proiezione fosca di quel che sarà il domani. Giussani, in questo senso, non fa sconti. Al punto che, una volta fuori dalla lettura, ci si sente come minimo scossi, indecisi tra il sogno e la realtà. Ma anche isolati. Lui stesso lo scrive, descrivendo il proprio esercizio: «Un’esplorazione personale, che solleva più domande di quante risposte offra». Ne parliamo direttamente con l’autore del saggio. «In effetti, le tecnologie che chiamo «algoritmiche», i social, l’intelligenza artificiale generativa, i gadget connessi, stanno evolvendo a grande velocità e sono circondate da molta confusione. Entusiasmi acritici si mescolano a grandi timori, a un’adozione rapida e a un’ incomprensione sulla loro vera natura. C’è anche molta fuffa raccontata per scopi di marketing dalle aziende che le producono. Il libro è un tentativo di spiegare in modo accessibile a tutti cosa esse sono veramente e di illustrarne gli impatti possibili, tanto su di noi individualmente che sulla società. Per poi offrire dei tentativi di risposta, sapendo che le tecnologie, una volta inventate, non possono essere dis-inventate, ma anche che una volta adottate, hanno conseguenze. Fra queste risposte c’è appunto la necessità di non rimanere soli dietro agli schermi, dove siamo vulnerabili e manipolabili, ma di ricreare spazi di socializzazione, di ristabilire dei legami. Perché se i social per esempio stanno facendo tanti danni, creando sfiducia e polarizzazione, e se molte persone si sentono meglio comprese dai chatbot di IA che dalle altre persone, è anche perché queste tecnologie s’inseriscono su un tessuto sociale già sfilacciato», risponde Giussani.
L’atteggiamento critico
Il saggio è diviso in due parti. La prima, «La minaccia algoritmica», esplora origini e traiettoria dell’intelligenza artificiale. La seconda, «Piccolo manuale di resistenza», prova a offrire una chiave per entrare in questo groviglio di tecnologia, geopolitica ed economia. Se la minaccia algoritmica è lanciata - incalzata dalle grandi potenze mondiali, Stati e aziende che siano - e, come spiega Giussani, «non è transitoria», la resistenza non è che una reazione possibile, tutta da coordinare. La resistenza è, per definizione, controcorrente. «Nel libro uso il concetto di resistenza tecnologica non per indicare un rifiuto della tecnologia. Ma per suggerire una postura che mi sembra necessaria davanti a macchine che hanno un’influenza sociale e cognitiva. «Resistere» significa capire che il nostro rapporto con la tecnologia è fatto sì di vantaggi ma anche di inconvenienti. Che le tecnologie non sono naturali e non sono neutre, sono il prodotto di un contesto economico e politico. Bisogna quindi sempre guardarle e utilizzarle con atteggiamento critico, lucido, consapevole. Con lungimiranza. L’entusiasmo acritico nell’adozione per esempio dell’IA apre la porta a molti rischi».
Non semplici prodotti
È molto presente, in Giussani, la lettura di un «oggi» in cui ogni elemento è connesso ad altri, in cui nulla è casuale. Cita anche quel 20 gennaio del 2025, giorno dell’insediamento bis di Donald Trump. Alle spalle del presidente, non futuri partner politici, bensì i vertici delle principali aziende tecnologiche. Il mondo si sta plasmando quindi attorno alla convergenza fra il potere politico, in particolare statunitense, e la potenza delle società tecnologiche. Tutto, insomma, converge in una stessa direzione. Ma come ci siamo arrivati? Lo chiediamo allo stesso Bruno Giussani. «Noi continuiamo a guardare a queste tecnologie come a dei prodotti, che una volta acquistati sono nostri e possiamo farne quel che vogliamo. Ma in realtà esse sono diventate delle piattaforme. È molto diverso. Quasi tutti i software e i servizi digitali importanti - quelli che usiamo in ufficio, i sistemi di pagamento, i flussi informativi e di divertimento, i social, i siti di vendita, i chatbot d’IA - funzionano oggi, come si dice, «sul cloud». Cioè sempre più spesso sia i dati che la loro elaborazione risiedono su macchine lontane, controllate dalle aziende tecnologiche. Questo permette loro di esercitare un’enorme influenza sulle nostre vite, di decidere cosa possiamo o non possiamo fare, di condizionare il tenore dei nostri dibattiti pubblici. Certo, questi sistemi sono efficienti, utili, pratici, facili da utilizzare, spesso anche gratuiti. È la trappola più insidiosa delle tecnologie digitali: sono veramente utili. È la ragione per la quale le abbiamo adottate ed è così difficile pensare di farne a meno. Ma tutto ciò ha un prezzo: estrazione di dati, perdita della privacy, confusione informativa, dipendenza, salute mentale, manipolazione, l’elenco è lungo. Nel libro descrivo questa realtà, e poi cerco di spiegare come, appunto, resistere. Cioè imparare a usarle senza farsi manipolare».
Criteri opachi
Leggendo, mi sono appuntato una serie di parole chiave. Poi sono andato a ricercarle per una valutazione successiva, per provare a metterle in fila. Al termine di questo esercizio, a nuvolette connesse, centrale risulta, in particolare, il concetto di «integrità cognitiva». E, quindi, il successivo: «Difesa cognitiva». L’obiettivo di Giussani era quello di portarla a galla come un tema, se non il tema, per i prossimi anni. «È la sfida più urgente del nostro tempo», scrive a un tratto. Poche pagine prima, spiega: «È molto improbabile che l’IA e le neurotecnologie possano svilupparsi in modo sicuro, benefico e orientato al bene comune senza uno sforzo voluto e concertato. Abbiamo ancora un po’ di tempo prima che le fondamenta di queste tecnologie si consolidino. Qualche anno. Dopo di che, la forma che assumerà il nostro rapporto con esse potrebbe essere difficile da modificare». Ma non stiamo, allora, perdendo tempo di fronte a un circolo vizioso che sembra sul punto di chiudersi? E come fare a implementare la difesa cognitiva, che può essere individuale ma che deve essere anche collettiva? Va data «priorità alla sovranità cognitiva sulla logica di mercato» (leggiamo, da una citazione della deputata centrista Isabelle Chappuis). Una sfida, però, molto complessa. «È fondamentale capire che le tecnologie digitali non sono neutre. Molte persone pensano: sono macchine, mica possono avere idee, ideologie, intenzioni. Ma in realtà, il codice informatico è per sua natura non-neutro. Impone regole e restrizioni, invisibili ma vincolanti. Quel che noi vediamo sui social è filtrato da algoritmi, sulla base di criteri opachi e per scopi commerciali. Quel che rispondono i chatbot di IA è spesso inventato, e quando non lo è, può essere tendenzioso, per aderire alle visioni sociali o politiche di coloro che li hanno sviluppati. Il che significa che siamo sempre più circondati da macchine che, anche se sembrano darci dei superpoteri, tipo scrivere una e-mail in pochi secondi o riassumere un documento, da un lato degradano la nostra capacità di capire la realtà, e dall’altro sono in grado di riprogrammare le nostre menti e la società. Sono macchine che prendono di mira appunto la nostra integrità cognitiva: la nostra capacità di pensare e decidere autonomamente».
Investire nell’istruzione
La sfida è complessa anche perché l’IA ha una sua utilità evidente. «Qui sta il vero nodo di questa tecnologia e del nostro rapporto con essa: offre servizi reali, pratici, utili e ci rende più efficaci. Ma al prezzo della cessione dei nostri dati personali, dell’estinzione della sfera privata e di una crescente dipendenza». Scrive così, Giussani. Come mantenere allora il controllo umano dell’IA? L’autore propone una paletta di misure che considera necessarie: regolamentazione, naturalmente, e un atteggiamento da «resistenti». Ma anche educazione, robustezza cognitiva, ripristino di legami sociali, coscienza acuta della «tecnoferenza», l’interferenza della tecnologia nelle relazioni fra persone. E poi ancora, misure specifiche di design dei sistemi informatici perché sfruttino meno le emozioni degli utilizzatori, e protezione dei bambini, il cui sviluppo neuroanatomico è minacciato da queste tecnologie. Bruno Giussani parla anche di investire nell’istruzione. Anche per riconoscere e comprendere il nuovo contesto. «Che è disorientante», ammette. Già, l’istruzione come risposta al caos. «Di corsi di formazione all’IA ce ne sono ormai molti, nei programmi scolastici, nelle aziende, in offerta sul mercato. Ma offrono spesso un apprendimento strumentale della tecnologia. Spiegano come usarla efficacemente. Ciò è ovviamente molto importante, visto che in futuro ci saranno pochi mestieri che non dovranno interagire o collaborare con forme di IA. Ma essere veramente istruiti all’uso di queste tecnologie non significa soltanto saperle usare bene. Significa soprattutto fare lo sforzo di comprendere come esse vengono create e come funzionano. Imparare a interrogarne i prodotti e i risultati, a coglierne le implicazioni umane, sociali, ed etiche. A decodificare le strutture culturali, economiche e di potere in cui queste tecnologie esistono ed evolvono».
