Tecnologia

I pericoli di ChatGPT: «Attenti alle frodi online generate dalle AI»

L'allarme, in questo senso, è stato lanciato da Darktrace, la più grande società di cybersicurezza britannica
©Copyright 2022 The Associated Press. All rights reserved.
Red. Online
10.03.2023 15:00

Sono passati poco più di tre mesi dalla pubblicazione di ChatGPT, il chatbot di OpenAI basato su intelligenza artificiale (AI) e machine learning. È stato, questo, un periodo di grande sviluppo che ha spinto molte aziende (e anche Stati) a una corsa per rimanere al passo con la nuova tecnologia: tutti vogliono carpirne i segreti e, perché no, creare la propria versione per sfruttare al massimo il potenziale di questo nuovo passo avanti digitale. Ma, come spesso accade, un nuovo strumento può essere utilizzato anche dai malintenzionati. Darktrace, la più grande società di cybersicurezza britannica (quotata in borsa) ha lanciato l'allarme: «I criminali sfrutteranno ChatGPT per scatenare una nuova ondata di frodi online»

E-mail più complesse

Tutto sta nelle e-mail. Secondo Darktrace, citata dal Telegraph, i criminali informatici dediti alle frodi online starebbero già utilizzando la tecnologia di ChatGPT per creare e-mail "truffaldine" più complesse e con minori probabilità di essere individuate dalle vittime. Gli esperti, riporta il quotidiano britannico, hanno notato che i messaggi di spam ora contengono frasi più lunghe e fanno un uso migliore della punteggiatura. «Questo indica che i criminali informatici potrebbero riorientare la loro attenzione verso la creazione di truffe di social engineering più sofisticate che sfruttano la fiducia degli utenti. ChatGPT può aver contribuito ad aumentare la sofisticazione delle e-mail di phishing, consentendo ai criminali di creare attacchi più mirati, personalizzati e, in ultima analisi, di successo».

L'allarme della Federal Trade Commission

La scorsa settimana, rivela Insider, un allarme è stato lanciato anche dalla Federal Trade Commission (FTC), agenzia governativa statunitense a tutela dei consumatori: «Le aziende stanno esagerando la rivoluzione dell'intelligenza artificiale, fornendo agli artisti della truffa strumenti più potenti per frodare il pubblico». Un problema, sottolinea FTC, che andrebbe ad aggiungersi alle già esistenti preoccupazioni dell'agenzia sul potenziale dell'AI di introdurre pregiudizi online, discriminazioni e altri danni per i consumatori. Dopo aver rafforzato le proprie capacità investigative a febbraio con la creazione del nuovo Office of Technology, l'agenzia ha dichiarato di voler «monitorare le promesse esagerate su ciò che un prodotto AI può fare, sulla sua superiorità rispetto alla concorrenza non AI e sulla misura in cui l'azienda o il prodotto utilizzano effettivamente la tecnologia AI».

Ma non finisce qui: «Siamo anche preoccupati per il rischio che i deepfake e altri media sintetici basati sull'AI, che stanno diventando sempre più facili da creare e diffondere, vengano utilizzati per le frodi», ha dichiarato al sito d'informazione una portavoce della FTC. Il discorso non riguarda solo ChatGPT: «Abbiamo già riscontrato un aumento vertiginoso delle frodi sui social media. Gli strumenti di intelligenza artificiale che generano video, foto, audio e testi dall'aspetto autentico potrebbero rafforzare questa tendenza, consentendo ai truffatori una maggiore portata e velocità: i chatbot potrebbero esacerbare queste tendenze».