La previsione

Scienza, fantascienza
e futuro prossimo

Scienza, fantascienza <br />e futuro prossimo
Sarà necessario porsi la questione del rapporto tra umani e macchine

Scienza, fantascienza
e futuro prossimo

Sarà necessario porsi la questione del rapporto tra umani e macchine

L’idea dell’intelligenza artificiale (IA) ha spesso scatenato la fantasia degli scrittori di fantascienza che con incredibile visione anticipatoria hanno immaginato scenari diversi, alcuni positivi e felici e altri distopici e da incubo. Vediamone qualcuno.
Un esperto di computer libera inavvertitamente un’entità IA senziente di nome Archos R-14 che decide di far fuori allegramente l’umanità intera. Le prime azioni vanno a buon fine, anche perché ben dissimulate, così vengono infettati tutti i dispositivi personali, le driverless car, le guide computerizzate degli aerei, le case gestite da domotica, gli ascensori, i programmi finanziari, i sistemi sanitari e chi più ne ha più ne metta. Seguono i prevedibili disastri a catena finchè, dopo un bel po’ di va e vieni, Archos viene neutralizzato e i buoni vincono (tranne che l’IA riesce segretamente a mandare in extremis un messaggio a sconosciute macchine aliene). È la trama di un bel libro di Daniel H. Wilson di qualche anno fa, dal titolo di «Robocalypse». Ed è un po’ l’incubo-paradigma che si può applicare alle nostre fantasie sui robot intelligenti.
Con la progressiva avanzata dell’IA, sappiamo cosa stiamo facendo? La domanda non è peregrina se un paio d’anni fa gente seria come i banchieri centrali di mezzo mondo – da Draghi (BCE) a Bernanke (Fed) a un’altra mezza dozzina di colleghi – ha sentito il bisogno di riunirsi, sotto la guida di luminari come David Autor, Joel Mokyr e altri, per discutere il saggio dello stesso Autor che si chiedeva se i robot arriveranno a minacciare il lavoro delle persone. La conclusione, con scorno dei super-banchieri, è rimasta incerta.

Ma la questione rimane: fino a che punto fare evolvere le IA e dare loro autonomia col rischio di diventarne dipendenti e, perché no, vittime potenziali. La fantascienza ce ne aveva già parlato, per esempio con Hal di «2001, Odissea nello spazio», ma anche con gli androidi descritti da Philip K. Dick (autore del libro «Do Androids Dream of Electric Sheep?», da cui è stato tratto il film «Blade Runner»), o nelle lande inquietanti dei film seriali dedicati a Terminator.
Di recente Oren Etzioni, dell’Allen Institute for Artificial Intelligence, ha esplicitamente richiamato sul New York Times le «tre leggi della robotica», enunciate da Asimov nel 1942, come una buona base per regolare i nostri futuri rapporti con IA e robot. E se Bill Gates ha ipotizzato l’introduzione di una tassa sui robot per compensare chi rischia di perdere il lavoro, il visionario capo di Tesla, Elon Musk, ha esortato i Governi a regolare l’introduzione dell’IA «prima che sia troppo tardi».
La pensano come lui alcuni ricercatori che qualche tempo fa hanno deciso di porre fine all’idillio di Alice e Bob, due computer per nulla stupidi che si erano inventati un linguaggio loro per non farsi capire, nelle loro evidentemente intime interazioni, dai programmatori umani.
Insomma, come ha correttamente sostenuto Luciano Floridi, docente di filosofia a Oxford, è indispensabile porsi la questione del rapporto tra umani e macchine non tanto per evitare che l’intelligenza di queste arrivi a sopraffare l’intelligenza di quelli, ma per evitare che la stupidità umana si fonda con la stupidità dei robot.

Enrico Sassoon, direttore responsabile, Harvard Business Review Italia

©CdT.ch - Riproduzione riservata

In questo articolo:

Articoli suggeriti
Ultime notizie: Tech
  • 1