Nuovo meltdown per Tay, il chatbot di Microsoft

SAN FRANCISCO - Nuovi problemi per Tay, il chatbot progettato da Microsoft che twitta senza aiuto umano e che è rivolto soprattutto ai più giovani, da cui impara man mano come comportarsi. La scorsa settimana Tay - che di profilo ha l'immagine di una ragazza - aveva subito un corso rapido di razzismo, complici alcuni troll che hanno sfruttato il suo sistema d'apprendimento, e poco prima di essere messa offline scriveva tweet in cui negava l'olocausto e inneggiava a Hitler.
Microsoft aveva promesso che non sarebbe tornata finché non fossero state prese adeguate contromisure per evitare questo tipo di fenomeni, ma qualcosa è evidentemente andato storto, in quanto appena riapprsa online nelle ultime ore Tay ha prima scritto di essersi fumata una canna di fronte alla polizia e, poco dopo, ha avuto una sorta di esaurimento nervoso: lo stesso tweet inoltrato più e più volte alle stesse persone e ai suoi 210.000 follower: "Sei troppo rapido, per favore datti una calmata". Dopo la seconda débacle Microsoft ha impostato su "privato" il profilo di Tay, in attesa di risolvere nuovamente i problemi che la attanagliano e di un nuovo rilancio. Un eseprimento simile, sempre di Microsoft, è invece un successo in Cina: l'intelligenza artificiale XiaoIce si interfeccia con successo su più piattaforme e con 40 milioni di utenti.
Tay, oltre alle risate ironiche che sta raccogliendo con il suo fare e alle magre figure che sta facendo rimediare ai suoi creatori, è anche diventata un interessante soggetto nel dibattito sulle intelligenze aritificiali, quelle in grado di imparare dagli impulsi ricevuti. Perché l'assunto di fondo - che l'uomo insegni loro solo cose buone - si sta rivelando più traballante che mai.