Anche i robot avranno le regole

Anche i robot dovranno fare i conti con le regole dell’Unione Europea, sottostare a divieti e accettare in alcuni casi la supervisione dell’uomo. Bruxelles ha infatti deciso di mettere dei paletti allo sviluppo dell’Intelligenza Artificiale (IA) per evitare che il progresso diventi una minaccia alla sicurezza e ai diritti fondamentali degli individui. L’UE sarà il primo ente a introdurre regole di questo tipo, tracciando una strada fin qui inesplorata. Se da un lato gli Stati Uniti consentono alle nuove tecnologie uno sviluppo senza limiti e dall’altro la Cina le utilizza per il controllo della popolazione, l’Unione vuole farsi promotrice di una terza via. Stando però ben attenta a non soffocare un settore che la vede in competizione con le altre due potenze mondiali.
Non mancano le critiche
La Commissione ha messo sul tavolo una proposta normativa che ora dovrà essere approvata, ed eventualmente emendata, dai governi degli Stati membri e dal Parlamento europeo. Come sempre i negoziati non saranno semplici e già emergono alcuni malumori tra gli eurodeputati per la decisione adottata sul riconoscimento facciale. Sarà vietata «in linea di principio» la sorveglianza di massa dei cittadini, ma con alcune eccezioni: i governi potranno utilizzare l’identificazione biometrica a distanza per ragioni di sicurezza in caso di reati gravi. Un’attività che dovrà essere autorizzata da un organo indipendente e che dovrà essere limitata nel tempo e nello spazio.
Toccherà tutte le aziende
Le nuove regole riguardano però tutti gli aspetti della nostra vita quotidiana – dalla salute ai trasporti, fino all’energia, l’agricolture o la ricerca di lavoro – e partono dalla definizione di una gerarchia dei rischi: alcune attività saranno totalmente vietate, altre saranno sottoposte ad autorizzazioni preventive e a limitazioni, mentre altre ancora saranno costrette soltanto a garantire la massima trasparenza agli utenti. Le norme si applicheranno a tutte le società operanti sul mercato europeo, siano esse basate sul territorio UE oppure extra-UE. Per le aziende che non le rispetteranno ci sarà prima una sorta di ammonimento. In caso di violazione continua verrà imposto loro di togliere dal mercato europeo le attività che non sono a norma e, in ultima istanza, ci potranno essere sanzioni pecuniarie fino a 30 milioni di euro o fino al 6% del loro fatturato globale. Uno scenario che preoccupa il settore: secondo Digitaleurope, che rappresenta le aziende europee del digitale, le nuove norme sono troppo complicate, poco chiare e comportano pesanti oneri per le società, specialmente per le start-up che potrebbero così sviluppare i loro prodotti altrove.
Una questione di fiducia
«È un nostro dovere introdurre queste norme – ha detto Margrethe Vestager, vicepresidente della Commissione europea con delega al Digitale – perché dobbiamo fare in modo che ci si possa fidare dell’Intelligenza Artificiale. Abbiamo definito gli standard per aprire la strada a una tecnologia etica». Per evitare che l’Europa resti indietro, è stato presentato un nuovo piano di coordinamento con gli Stati per lo sviluppo dell’IA che prevede partnership pubblico-privato e nuovi investimenti, anche con i fondi UE.
Le attività vietate
Ma l’Intelligenza Artificiale, dice il commissario Thierry Breton (Mercato Interno), «è un mezzo non un fine». Per questo dovrà fare i conti con le nuove regole. Il documento presentato ieri individua alcune attività che implicano «rischi inaccettabili» e che dunque saranno vietate perché comportano una minaccia alla sicurezza, ai mezzi di sostentamento o ai diritti dei cittadini. Rientrano in questa categoria quelle che «manipolano il comportamento umano», come per esempio i giocattoli che utilizzano l’assistente vocale e incoraggiano i minori a comportamenti pericolosi. Oppure i sistemi di punteggio sociale, come quelli utilizzati dal governo cinese per stilare una classifica dei cittadini.
Le attività permesse
Ce ne sono poi altre «ad alto rischio» che comporteranno severi obblighi prima dell’immissione in mercato, tra cui la necessità di introdurre «adeguate misure di sorveglianza umana». Si tratta, per esempio, dei sistemi utilizzati per alcune infrastrutture critiche, come i trasporti, che possono mettere a rischio la salute dei cittadini. Oppure quelli per la chirurgia assistita dai robot, per la gestione delle risorse umane (analisi automatica dei curriculum), per la valutazione della solvibilità di chi chiede un prestito, ma anche per la gestione delle procedure di immigrazione e asilo, attraverso la verifica automatica dei documenti.
Per le attività «a rischio limitato» basterà rispettare specifici obblighi di trasparenza (per esempio nel caso di un’interazione con un chatbot gli utenti dovranno essere informati), mentre per quelle «a rischio minimo» non ci saranno vincoli, ma soltanto la possibilità di aderire volontariamente a un codice di condotta. Il nuovo quadro normativo assegna alle autorità nazionali di vigilanza del mercato il potere di controllare l’applicazione delle regole e istituisce anche un Comitato europeo per l’Intelligenza Artificiale che «guiderà lo sviluppo degli standard».