Questi robot arrivano o non arrivano?

«Le vie portavano opere
simili a vivi in cammino.»
— Pindaro, Olimpica VII, V secolo a.C. Trad. di B. Gentili.

I robot sono ovunque. Sono nella fantascienza, sono nell’horror, sono nei cartoni animati e nei nostri libri. Probabilmente, molti ricordano un robot artista, che, dopo aver dipinto in stile cubista un’auto, cancellava il suo operato all’avvicinarsi di un umano, limitandosi ad apporre la propria firma: Picasso.

In confronto alla produzione letteraria di cui sono protagonisti, i robot fanno raramente capolino nell'attualità. Sono decenni che ci aspettiamo una penetrazione dei robot nei nostri stili di vita, e sembra che questi robot, invece, non abbiano tanta fretta di arrivare. Sono arrivati al loro posto gli smartphone, che nessuno dieci anni fa si aspettava, che tutti usano e che non hanno però neppure un decimo del fascino dei robot. Lo smartphone è a metà fra un'estensione della mano e una piccola televisione: nulla che possa mettersi al confronto con una macchina che vuol essere anche uomo, attraverso la quale saremmo costretti, per divisione e revisione, a guardarci allo specchio e determinare che cosa significa davvero essere un essere umano.

Eppure, lenti lenti, arrivano anche i robot.

I primi investitori sono, ovviamente, le forze armate. Gli Stati Uniti, ormai da un pezzo, si sono dati allo sviluppo di sistemi automatici di difesa. Chi ha letto Ghost Fleet ricorderà la pletora di droni e missili di varia forma e intelligenza. Ma esistono anche altre funzioni: simpatici robottini sono utilizzati per disinnescare le bombe sparandoci contro acqua.

Hanno anche buone capacità di trazione. Fotografia U.S. Army distribuita sotto licenza CC BY 2.0

Hanno anche buone capacità di trazione. Fotografia U.S. Army distribuita sotto licenza CC BY 2.0

Non tentano di farle andare in corto circuito innaffiandole: la pressione è talmente forte da sfasciare gli ordigni, e il fatto di usare l’acqua, invece che, ad esempio, proiettili, rende meno probabile una deflagrazione.

Però i robottini telecomandati non ci bastano. Noi vogliamo dei sistemi sì semoventi, ma soprattutto in grado di interagire autonomamente con l’ambiente, fra di loro e, magari, anche con noi.

Vogliamo A.I., ma non vogliamo Skynet.

E questo è un problema. Sviluppare dei robot a scopo militare significa, prima o poi, lasciarli andare allo stato brado non solo sul campo di battaglia, ma anche in aree popolate da civili. L'anno scorso, un articolo di Michael Vlahos ribadiva come l’Occidente tenda a dimenticare che le guerre tendono a svilupparsi intorno a città fortezza: che si parli di Troia, Vienna, Stalingrado, di Berlino, o, oggi di Kobane e di Gaza. Si tratta di un ambito in cui un aggressore ha il dovere di proteggere sia le proprie truppe, che i civili nelle loro case. Inviare dei sistemi da combattimento automatizzati in queste zone può mettere al sicuro la vita dei soldati, ma, a meno di sviluppare dei sistemi attualmente inesistenti, rischia di diventare una catastrofe per i civili. Certo, si può obiettare che, anche nel presente, il se, come, quando e fino a che punto i civili siano protetti nelle zone di guerra sia fortemente variabile a seconda del singolo teatro. Qui, però, in ballo non c'è della semplice filantropia: la tutela dei civili è prevista dal diritto dei popoli, e le sue violazioni sono punibili secondo il principio della giurisdizione universale: qualunque nazione ha il diritto a giudicare e punire chi lo infrange.

«Tutti i popoli che sono retti dalle leggi e dai costumi usano in parte un diritto proprio a loro, in parte uno comune a tutti gli uomini: infatti, quello che ogni popolo ha costituito per sé a diritto, quello è proprio di quella stessa civiltà e si…

«Tutti i popoli che sono retti dalle leggi e dai costumi usano in parte un diritto proprio a loro, in parte uno comune a tutti gli uomini: infatti, quello che ogni popolo ha costituito per sé a diritto, quello è proprio di quella stessa civiltà e si chiama diritto civile, in quanto diritto proprio della civiltà: quello però che il calcolo naturale ha costituito fra tutti gli uomini, quello viene rispettato presso tutti i popoli ugualmente e si chiama diritto dei popoli, in quanto ne fanno uso tutti i popoli.» Dalle Istituzioni (I:II) dell'imperatore Giustiniano, rappresentato a sinistra nei mosaici di San Vitale a Ravenna. A destra, Augusto Pinochet, il cui processo fu aperto in Gran Bretagna secondo il principio della sovranità universale. Se il diritto dei popoli è comune a tutte le nazioni, tutte hanno il diritto ad applicarlo.

Tuttavia, mentre, nel caso dei semplici esseri umani, stabilire le responsabilità personali può non essere semplice, non è difficile andare a prendere il programmatore che ha deciso che, in determinate circostanze, il suo robot possa - e, se lo fa, debba - aprire il fuoco sui civili.

C'è dunque, per ora, un buon incentivo ad attendere prima di schierare robot fra i civili.

Qui, tuttavia, ci siamo spinti negli ambiti meno gradevoli della robotica, e con cui, a essere sinceri, speriamo di avere a che fare il meno possibile.

il robot incivile non è un buon selvaggio

Ci sono già, tuttavia, dei robot che insidiano i civili in Occidente, anche se lo fanno con le armi dell'astuzia e della simpatia. Passiamo dunque a qualcosa che con noi ha a che fare: le chiamate dai call center.

Oggi ci sono già sistemi computerizzati di selezione di numeri. Ci sono anche voci registrate che telefonano in campagna elettorale: credo che, una volta, Casini abbia telefonato a casa mia. Queste, però, sono delle azioni che sa fare anche un pappagallo, o che risparmiano, al limite, la pressione di qualche tasto: l’unica emozione che possono provocare nell'utente è il fastidio, non certo l’interesse per l’avvenire.

Ma se qualcuno, invece, decidesse di sviluppasse un sistema di intelligenza artificiale per simulare le chiamate di vendita?

agent-18707_1920.jpg

Ebbene, l’hanno già sviluppato. Si chiama Samantha West. E, per nostra fortuna, sembra non conoscere ancora altra lingua che l’inglese.

Samantha sa muoversi nel proprio ambito, che è quello della vendita telefonica di assicurazioni sanitarie. Fa qualche domanda introduttiva, poi passa il potenziale cliente, se è interessato, ad un collega umano. Non sa gestire bene alcune domande – che giorno era ieri? Che verdure ci sono nella zuppa di pomodori? –, ma è capace di svicolare adducendo come scusa una cattiva connessione telefonica. Pare si comporti in modo molto amichevole: forse l'unica cosa in cui il robot batte l'uomo.

I robot che parlano, i chatterbot, comunque, ci sono da molto tempo. Chi ha usato Windows Messenger forse ricorda Doretta, la ricercatrice quasi perfetta: l’idea era quella di chiederle di ricercare qualcosa, e lei avrebbe offerto un link, ottenuto, suppongo, via MSN Search.

Ma con Doretta si potevano fare quattro chiacchiere. Se non capiva qualcosa, pronunciava la frase «non ho capito. Sarò un genio?», che, d'altro canto, non era comprensibile neppure per l’interlocutore umano. L’unico modo per lasciarla davvero senza parole era inventari qualcosa che la mandasse in un loop interpretativo, del tipo «Sono nato l’anno del dragone!». Dopo qualche tempo, comunque, anche queste eccezioni venivano indicizzate; quest’opera era però compiuta da esseri umani. Doretta sapeva interagire, ma non imparare.

Cleverbot sa imparare. Messo online nel 1997, ha avuto modo di intrattenersi in 200 milioni di conversazioni. Cleverbot è in grado di apprendere singole parole e di utilizzarle nel modo in cui sono state usate dalle persone che hanno chattato con lui.

Questo, però produce alcuni guai. Il primo è che Cleverbot non sa riconoscere umorismo o sarcasmo. Una conversazione con Cleverbot conterrà quasi certamente una minaccia di morte o una dichiarazione d’amore, perché questi sono i discorsi che vengono fatti a Cleverbot.

Il secondo è che Cleverbot tende a inserire frasi intere, invece che scegliere singole parole. Una frase che contiene la parola giusta verrà selezionata, anche se esprime, nel suo complesso, il concetto sbagliato.

D’altro canto, Cleverbot non fa altro che parlare: a parte essere un esperimento, non combina nulla di utile. Altri bot, invece, hanno funzioni ben precise. Ad esempio, l’università di Colonia ha approntato un chatterbot di nome Albot, che aiuta gli utenti con i servizi on-line della biblioteca universitaria. Albot funziona molto bene e, se interrogato, sostiene di essere il figlio meccanico di Sant'Alberto Magno, sopravvissuto in stand-by attraverso i secoli, ma non apprende: come Doretta, ha dei risultati preimpostati.

Chiedilo a Albot!

Chiedilo a Albot!

E, probabilmente, questa è la via da seguire. L’apprendimento automatico, infatti, rischia di portare a risposte non pertinenti. Questo non è un problema, finché si tratta di una semplice chiacchierata o di una ricerca in Google, ma lo diventa, se la risposta del computer si traduce in atto pratico: per esempio, alzare o abbassare una sbarra, o, molto peggio, attivare un nuovo contratto telefonico.

"Mi dispiace, David. La nuova tariffa è già stata attivata."Immagine by MyName (Bantosh) [GFDL, CC-BY-SA-3.0  or CC BY-SA 2.5-2.0-1.0], via Wikimedia Commons.

"Mi dispiace, David. La nuova tariffa è già stata attivata."

Immagine by MyName (Bantosh) [GFDL, CC-BY-SA-3.0  or CC BY-SA 2.5-2.0-1.0], via Wikimedia Commons.

Ma davvero non si possono dare responsabilità ai robot?

there's a robot on the road

Forse sì. C’è un campo in cui l’automazione sta entrando a gamba tesa: quello dei trasporti.

Verrebbe da pensare, tuttavia, che, in carreggiata, l’assenza di libero arbitrio potrebbe essere un vantaggio. Non vuol forse dire che l’auto non passerà mai col rosso? Non vuol forse dire che metterà le frecce? Che lascerà attraversare i pedoni sulle strisce? Che non parcheggerà in doppia fila?

Un'automobile autoguidante prodotta da Google. Fotografia di Smoothgrover22 distribuita via Flickr secondo licenza CC BY-SA 2.0.

Un'automobile autoguidante prodotta da Google. Fotografia di Smoothgrover22 distribuita via Flickr secondo licenza CC BY-SA 2.0.

Certo, è giusto, è giustissimo. Tutto vero. Ma vuole anche dire che, se qualcuno avesse parcheggiato l’auto a bordo strada, e la vostra Google Car dovesse decidere se passare o meno, potrebbe bloccarsi per l’eternità. Come potrebbe, infatti, andare contro il codice della strada e passare sopra alla linea bianca continua? Come potrebbe invadere la carreggiata opposta?

Si potrebbe implementare la capacità di valutare le distanze, e fare sì che l’auto, in condizioni di sicurezza, faccia quello che fa qualunque umano: sorpassare l’auto ferma, se non c’è rischio di collisione. Tecnicamente, va contro il codice, ma è meglio, a livello pratico, di un’eterna attesa.

Ma se l’auto ferma fosse stata parcheggiata in curva? Se la visibilità fosse assente? Se le condizioni di sicurezza, semplicemente, non esistessero, e l’unica cosa possibile fosse proseguire alla minima velocità possibile? Un guidatore umano si assumerebbe una responsabilità simile. Un ingegnere, però, sarebbe disposto a farlo per migliaia o milioni di veicoli?

Immagine © Copyright Walter Baxter and licensed for reuse under this Creative Commons Licence.

Immagine © Copyright Walter Baxter and licensed for reuse under this Creative Commons Licence.

Ad ogni modo, Google non è l’unica parte in causa. C’è anche Mercedes. Presto ci saranno altri, e un modo per risolvere questi problemi sarà trovato alla stessa velocità con cui sembrerà un buon affare.

Scheler, Weber e Hartmann entrano in un caffè...

Tutti questi problemi possono essere generalmente ricondotti a problemi di valutazione. Che cosa ha maggior valore – il codice della strada o la possibilità di circolare? Il divieto di sosta o trovare un parcheggio entro un raggio di cinquecento metri? Evitare un pedone o evitare le auto sull’altra carreggiata?

E qui si può entrare in un ambito interessante. Abbiamo già parlato della filosofia dei valori parlando di Carl Schmitt. Nei primi decenni del novecento, diversi filosofi tedeschi avevano cercato di costruire gerarchie di valori oggettive. Altri hanno poi giustamente notato che queste scale non possono essere davvero oggettive: la categoria di valore deriva dai singoli e viene determinata su base situazionale.

Eppure, questi sono dei sistemi di valori già pronti, da cui partire per programmare un’intelligenza artificiale capace di adattarsi secondo un'etica alle situazioni che si presentano. Poco tempo fa, una macchina, per la prima volta, ha manifestato autocoscienza durante un test. Una scala di valori progettata da un filosofo tedesco di inizio secolo potrebbe non bastare a risolvere i problemi del traffico, ma potrebbe essere il punto di partenza per mettere in salvo i civili durante operazioni militari nel futuro.

E al futuro bisogna guardare.

Immagine di Ben Husmann, distribuita su Flickr con licenza CC BY 2.0.L'immagine di thumbnail è dello stesso autore e distruibuita con le stesse modalità e licenza.

Immagine di Ben Husmann, distribuita su Flickr con licenza CC BY 2.0.

L'immagine di thumbnail è dello stesso autore e distruibuita con le stesse modalità e licenza.

La traduzione della citazione di Pindaro in apertura è tratta da: Bruno Gentili, L'Olimpica VII di Pindaro. Testo e traduzione / Olimpica VII. A Diagora di Rodi vincitore nel pugilato, in Quaderni Urbinati di Cultura Classica, New Series, Vol. 85, No. 1 (2007), pp. 41-50