Il caso

Il chatbot sbaglia, ma la colpa è di Air Canada

Un cliente della compagnia, tratto in inganno dall'assistente virtuale, ha vinto la sua personalissima battaglia in tribunale contro la compagnia aerea
© AP
Red. Online
19.02.2024 20:45

E così, alla fine, Air Canada dovrà passare alla cassa. Nello specifico, la compagnia di bandiera canadese dovrà versare 812,02 dollari a un suo cliente, Jake Moffatt, secondo la sentenza emessa da un tribunale civile del Paese lo scorso 14 febbraio. Il motivo? Un errore commesso dal chatbot presente sul sito web del vettore. Ma andiamo con ordine. E, soprattutto, riavvolgiamo il nastro fino al 2022. Quando, cioè, Moffatt ha visitato il portale della compagnia per acquistare dei biglietti aerei allo scopo di partecipare al funerale di sua nonna. L'assistente virtuale, su richiesta di Moffatt, ha assicurato al cliente che Air Canada offriva sconti per le prenotazioni cosiddette last minute a causa di un lutto. Moffatt ha quindi speso 600 dollari pensando che la compagnia gli avrebbe rimborsato parte dell'importo, a patto che la richiesta avvenisse entro 90 giorni dalla prenotazione. E qui, beh, è cascato l'asino come si suol dire: nel tentativo di ottenere il rimborso promesso, Moffatt ha appreso che – in realtà – il chatbot ha fornito informazioni sbagliate. E che sconti di questo tipo, presso Air Canada, devono soddisfare altre condizioni. 

Per tre mesi, circa, il cliente ha tentato via e-mail di venire a capo del problema. La compagnia, però, gli ha risposto picche. Sempre. Rifiutandosi di concedere l'agognato rimborso. Il che ha spinto Moffatt ad avviare un'azione legale contro Air Canada. Il vettore, da un lato, ha sostenuto che l'assistente virtuale fosse un’entità legale separata rispetto ad Air Canada e, quindi, «responsabile delle proprie azioni», mentre dall'altro ha aggiornato il sistema e, infine, disattivato lo stesso chatbot. Le giustificazioni della compagnia, di certo, non hanno convinto il tribunale, che ha ritenuto Air Canada responsabile dell'errore commesso dall'intelligenza artificiale. Secondo Christopher Rivers, uno dei membri del tribunale, Moffatt non poteva né doveva sapere che «una sezione del sito era valida e l'altra no». Perciò, il tribunale ha stabilito che Air Canada dovrà coprire la differenza fra l'importo pagato dal cliente e quello indicato dal chatbot, oltre alle spese legali. 

Quanto successo ad Air Canada (e a Moffatt) potrebbe succedere anche altrove, visto l'impiego diffuso di questi assistenti virtuali a livello aziendale. Il punto, hanno spiegato gli esperti, è che i chatbot basati su grandi modelli linguistici tendono a produrre la cosiddetta allucinazione. Ovvero, in determinate circostanze potrebbero produrre false informazioni. Il tutto mantenendo un tono rassicurante e deciso. False informazioni o, in alcuni casi, soluzioni incredibilmente controproducenti (per l'azienda in questione). Qualche mese fa, ad esempio, il chatbot di General Motors non ha esitato a consigliare a un utente di acquistare un marchio rivale. Tesla.