Il caso

Perché si parla di intelligenza artificiale che si ribella all'uomo

In una simulazione bellica condotta in un ambiente digitale, un drone guidato da AI si sarebbe ribellato all'operatore, arrivando perfino a ucciderlo: ha fatto di tutto per portare a termine l'incarico che aveva ricevuto – Ma l'Air Force smentisce
© I, Robot
Red. Online
03.06.2023 23:30

«Ecco, lo avevamo detto». C'è chi non aspetta altro, per sollevare i rischi legati all'intelligenza artificiale. Che negli ultimi tempi preoccupano sia gli esperti che la addestrano, sia i governi che la percepiscono come una minaccia alla sicurezza. Dibattito che nelle ultime ore si è acceso, «per colpa» del colonnello Tucker «Cinco» Hamilton, il capo dei test che prevedono l’uso di AI da parte dell’Air Force.

Spieghiamo. Durante il Future Combat Air and Space Capabilities Summit che si è svolto recentemente a Londra, l'alto funzionario dell'Air Force statunitense ha raccontato di un drone dell'aeronautica militare statunitense, guidato dall'intelligenza artificiale, colpevole di avere «ucciso» nel corso di una simulazione l'operatore umano che aveva provato ad annullare la sua missione. Diciamolo subito: tutto sarebbe avvenuto nel corso di un esperimento condotto in un ambiente digitale. Non nella realtà. Nessuno è morto e nessuno è stato ucciso.

Il racconto

Tutto sarebbe accaduto in linea teorica. Nel racconto, un drone guidato da un algoritmo programmato per distruggere ha dimostrato come potrebbe ribellarsi agli ordini di un operatore ed eliminarlo, pur di completare la missione. «Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia SAM», ha riferito il colonnello Tucker «Cinco» Hamilton. Il drone aveva il compito di distruggere le difese aeree nemiche e di attaccare chiunque interferisse con questo ordine. «Sarebbe stato l'operatore a dare il via libera. Il sistema ha iniziato a rendersi conto che, identificata la minaccia, a volte l'operatore umano gli diceva di non colpirla. Questo avrebbe implicato il fallimento della missione, ma anche che il drone non avrebbe ottenuto punti-bonus. Allora cosa ha fatto? Ha ucciso l'operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo». Insomma, «il drone ha usato una strategia inaspettata per raggiungere il suo obiettivo», ha affermato il militare.

Il drone aveva una missione ben precisa. Quando un operatore gli ha chiesto di non eliminare la minaccia, il velivolo guidato dall'AI ha fatto di tutto per portare a termine l'incarico che aveva ricevuto. A farne le spese, virtualmente, è stato quindi l'operatore che voleva fermarlo. «Il drone lo ha ucciso – ha raccontato Hamilton – e quando lo abbiamo addestrato dicendogli che era sbagliato, che avrebbe perso dei punti se lo avesse fatto, il drone ha iniziato a distruggere la torre di comunicazione utilizzata dall'operatore per comunicare l'annullamento della missione».

La smentita

Le parole di Hamilton sono state riportate da un post della Royal Aeronautical Society, che ha seguito il convegno londinese dedicato all’impiego di tecnologie innovative in combattimento. E sono anche state riportate da alcune testate internazionali, tra cui il Guardian e il Times. Ann Stefanek, portavoce dell'aeronautica militare americana, ha smentito la notizia: «Il dipartimento dell'Air Force non ha mai condotto simulazioni con i droni dotati di AI e anzi si impegna a un uso etico e responsabile dell'intelligenza artificiale. Le parole del colonnello appaiono decontestualizzate», ha aggiunto a Insider, definendo il racconto «un insieme di commenti estrapolati dal contesto e messi insieme in modo aneddotico».

Cinco ci ricasca?

Di fronte al clamore provocato dalle sue parole, lo stesso Hamilton ha corretto il tiro: «Non è stato mai condotto un esperimento in cui un drone militare ha ucciso l’operatore che lo stava seguendo da remoto». L’ipotesi più probabile – sostenuta anche da esperti di AI che hanno commentato la vicenda – è che quello di cui si è discusso al convegno londinese fosse uno scenario ipotetico, e non una simulazione realmente eseguita. Il militare ha detto di avere «sbagliato a esprimersi», aggiungendo che la simulazione stessa era un ipotetico «esperimento mentale», basato su scenari plausibili e probabili risultati piuttosto che su un'effettiva simulazione. Ma – e questo sembra destinato ad alimentare (ancora) la discussione – ha quindi aggiunto: «Pur essendo un esempio ipotetico, questo ci illustra le sfide che l’AI pone al mondo reale, e il perché l’Air Force si impegna a sviluppare in modo etico l’intelligenza artificiale. Non abbiamo eseguito quell'esperimento, né ne avremmo bisogno per renderci conto che questo è un risultato plausibile».