Il caso

Swiss e disinformazione: dopo Kittilä, una foto fake sull'Airbus A330 evacuato a Nuova Delhi

L'Airbus A330-300 del volo LX 147 è stato evacuato il 26 aprile per un problema al motore — Sui social, però, gira un'immagine generata dall'intelligenza artificiale che mostra fiamme inesistenti, una scaletta al posto degli scivoli e una scena diurna invece che serale
Marcello Pelizzari
29.04.2026 10:30

Un Airbus A330-300 in fiamme, i passeggeri che si affrettano ad abbandonare l'aereo, i bagagli sparsi lungo la pista. L'immagine, generata dall'intelligenza artificiale, in queste ore ha fatto capolino sui social. A condividerla, in primis, è stato Air Traveler Club, portale che utilizza l'IA per scovare voli a prezzi convenienti con (quasi) 250 mila follower su Facebook e che, sulla piattaforma, offre pure post informativi. O, meglio, disinformativi vista l'immagine scelta per riferire dell'incidente occorso al volo LX 147 alcuni giorni fa a Nuova Delhi: un problema a un motore, ricordiamo, ha costretto l'equipaggio a interrompere il decollo, con destinazione Zurigo, e a optare per l'evacuazione del velivolo. A seguito dell'incidente, quattro persone sono state portate in ospedale per controlli medici.

Che cosa mostra la foto di Air Traveler Club e perché non corrisponde all'evacuazione del volo LX 147

L'evacuazione, a margine di quanto accaduto, è stata commentata da Swiss. «In caso di dubbio, agiamo con decisione, nell'interesse della sicurezza» ha tagliato corto il direttore operativo Oliver Buchhofer, ribadendo fra le altre cose l'importanza, in momenti simili, di lasciare i bagagli a mano nelle cappelliere o sotto il sedile. «Per un'evacuazione rapida e sicura, è fondamentale che gli effetti personali vengano lasciati a bordo». 

L'immagine, generata con l'IA, condivisa da Air Traveler Club.
L'immagine, generata con l'IA, condivisa da Air Traveler Club.

Nel frattempo, sui social ha iniziato a circolare, con forza, il post di Air Traveler Club. Con, a corredo, l'immagine descritta all'inizio dell'articolo. Un'immagine di per sé drammatica ma, appunto, falsa. A smascherarla, su LinkedIn, è stata Léa Wertheimer, alla guida della comunicazione aziendale di Swiss da aprile 2023. Con un post netto e inequivocabile: «Questa immagine non è reale e non riflette ciò che è accaduto» leggiamo. Wertheimer, in seguito, ha smontato l'immagine elencando tutte le incongruenze rispetto a ciò che, realmente, è successo: non si è sviluppato alcun incendio, l'incidente è avvenuto in serata e non in pieno giorno, alcune persone nell'immagine sembrano dirigersi verso l'aereo e, credeteci, durante un'evacuazione non avrebbe senso. Non solo, i passeggeri hanno abbandonato l'aereo tramite scivoli e non utilizzando una normale scaletta. 

Quattro dettagli, quattro errori. Sufficienti a smontare la foto. Ma non sufficienti a fermarla, perché l'immagine ha continuato a girare, condivisa da chi l'ha presa per vera e da chi l'ha rilanciata senza chiedersi da dove venisse. Ancora Wertheimer: «Questi dettagli contano. Perché immagini come questa non solo disinformano, distorcono anche il modo in cui le persone percepiscono la sicurezza e come vengono gestite simili situazioni».

Foto IA e incidenti di Swiss: il precedente dell'Airbus A220 a Kittilä del dicembre 2025

Non è la prima volta che Swiss finisce nel mirino della disinformazione attraverso l'IA. Lo scorso dicembre, un Airbus A220-300 partito da Ginevra era finito fuori dalla pista di rullaggio a Kittilä, in Finlandia, rimanendo bloccato nella neve. A «tradire» l'equipaggio il forte vento. Anche in quel caso, attorno alla notizia, era cresciuto un sottobosco di immagini false. La più nota – pubblicata dal blog in lingua inglese The Traveler – era talmente realistica che, sulle prime, aveva tratto in inganno persino i dipendenti Swiss a Kloten. Una verifica con il personale della compagnia presente in Finlandia, infine, aveva permesso di stabilire che la foto non era autentica. 

Il caso, in quei giorni, aveva fatto il giro degli specialisti del settore, con aeroTELEGRAPH e il Tages-Anzeiger che avevano ricostruito la vicenda. Swiss, dal canto suo, aveva spiegato: «Questi contenuti possono sembrare spettacolari e generare attenzione, ma non trasmettono un'immagine realistica dell'evento e non contribuiscono a una valutazione oggettiva».

Quattro mesi dopo, lo schema si è ripetuto. È cambiata la macchina, è cambiato lo scalo, è cambiata altresì l'origine del problema. Non è cambiato, per contro, il meccanismo: un fatto reale, un'immagine inventata che viene appiccicata addosso al fatto stesso e che viaggia più veloce della smentita, spinta dall'algoritmo.

Disinformazione visiva e incidenti aerei: perché, ora, è diverso

Il caso di Kittilä, agli occhi degli analisti, era stato definito «tutto sommato innocuo» da Matthias Zehnder, ex giornalista e consulente per i media specializzato nell'uso dell'IA negli spazi pubblici. Un velivolo nella neve, nessun ferito, un'immagine fasulla a illustrare un episodio davvero accaduto. Della serie: che volete che sia, in fondo.

Nuova Delhi, al contrario, è un'altra cosa. E questo perché, banalmente, l'equipaggio di Swiss ha davvero ordinato l'evacuazione di un aereo. Di riflesso, un'immagine che mostra fiamme inesistenti e modalità di abbandono dell'aereo che non sono mai avvenute non illustra, con qualche licenza poetica, l'evento. Lo riscrive. Non solo, lo riscrive nel momento in cui la compagnia ha sensibilizzato l'opinione pubblica circa l'importanza di comportarsi in maniera corretta in caso di emergenza e, ancora, mentre i media (svizzeri e indiani) stanno raccogliendo testimonianze fra i passeggeri a bordo dell'A330.

Giusto condividere?

Wertheimer, nel suo post su LinkedIn, si è chiesta e ha chiesto ai suoi contatti se sia corretto condividere un'immagine generata dall'IA, pur denunciandone il contenuto falso e fuorviante, o se — al di là delle spiegazioni e pur involontariamente — la mossa contribuisca alla diffusione di disinformazione. Un dilemma, questo, che da tempo sta attraversando tanto il giornalismo quanto il settore dell'aviazione. La pazienza di smontare un'immagine, pixel dopo pixel, si scontra contro le capacità dell'IA stessa, con la produzione di contenuti fake che può raggiungere, volendo, dimensioni industriali. Il meccanismo della disinformazione visiva, d'altro canto, si nutre dell'attenzione. Quando c'è, contenuti come questa foto proliferano. Con tutte le conseguenze del caso.