Questo libro ha lo scopo di offrire una prospettiva filosofica sul campo dell’intelligenza artificiale, che sta diventando sempre più controverso.
Per raggiungere questo obiettivo, prima si prenderà in considerazione un settore specifico dell’intelligenza artificiale, ovvero l’intelligenza morale e l’auto a guida autonoma, esaminando il prototipo dell’azienda informatica statunitense: la macchina senza conducente di Google.
In effetti, quest’ultima verrà valutata dal punto di vista etico usando lo scenario del Trolley Problem, uno dei dilemmi etici più famosi. Nella seconda parte verranno discusse le due opinioni opposte che accompagnano la ricerca in questo campo: I tecnofobi pensano che il nuovo tipo di intelligenza non sarà mai in grado di replicare la complessità dell’intelligenza umana.
Tuttavia, i tecnoentusiasti affermano che le macchine potrebbero non solo riprodurre completamente l’intelligenza umana, ma potrebbero anche spiegarne meglio le funzioni. La soluzione sta nel mezzo, come in molte altre rivoluzioni scientifiche precedenti: vedere i vantaggi di queste tecnologie, ma tenere presente la necessità di un potenziamento morale che guidi l’utilizzo teleologico. Acquista il libro adesso cliccando qui.
Intervista
Buongiorno, Mattia. Grazie per aver accettato di essere intervistato.
Buongiorno. Sono contento di poter parlare del mio lavoro.
1. Qual è stato il punto di partenza che ti ha spinto a esplorare il campo dell’intelligenza artificiale, concentrandoti in particolare sulle self-driving cars e il Trolley Problem?
Posso dire che i punti sono stati diversi, cominciando dalla mia esperienza ad Amsterdam
dove ho scoperto per la prima volta l’esperimento mentale del Trolley Problem e
ammirandone, fin da subito, le sue potenzialità di estensione.
Nello stesso periodo, solamente qualche mese dopo, ho avuto la possibilità di leggere un articolo, che ho deciso di riportare all’inizio dell’opera, dove si narra di una situazione che potremmo definire tragi-
comica avvenuta a San Francisco: un veicolo stava girando per le strade con i fari spenti
e, per tale motivo, un agente di polizia si avvicina per sanzionarlo, come avverrebbe nello
stato di cose a cui siamo abituati.
La differenza, tuttavia, è che non era presente nessun guidatore umano all’interno e, di conseguenza, nessuna persona effettivamente da sanzionare, dal momento che non sono ancora presenti leggi che permettano alle figure pubbliche di sanzionare un artefatto.
Questa situazione, che potrebbe essere tranquillamente l’argomento di uno spettacolo
comico (o tragico, a seconda dei punti di vista), mi ha fatto capire l’impellenza del
problema, causata da un mismatch tra lo sviluppo tecnologico e la preparazione umana
nell’inglobarlo nei suoi schemi concettuali e sociali.
Ho deciso, dunque, di servirmi delle ampie possibilità, insite nel Trolley Problem, di estendere la problematica, di per sé già abbastanza autoevidente, in maniera iperbolica, immaginando scenari che hanno dei tratti quasi utopistici, ma che, se non esaminati con gli strumenti più consoni, potrebbero
verificarsi nella nostra società.
2. Nel valutare la Google Driverless Car dal punto di vista etico, quali sono le principali considerazioni che hai affrontato e come queste influenzano il dilemma etico del Trolley Problem?
Entrando maggiormente nel merito dell’esperimento mentale e, osservando anche la
copertina del libro, ho deciso di prendere in considerazione le due teorie morali che fanno
da cornice al Trolley Problem.
Da una parte, infatti, seguendo un’ideologia di tipo utilitaristico che valuta ogni vita umana
allo stesso modo in quanto segue una concezione quantitativa secondo cui bisogna
cercare di massimizzare il bene sociale, nell’analizzare la Google Driverless Car ciò
consiste nel salvare il maggior numero di persone in situazioni di pericolo.
Dall’altra, invece, vi è un’etica di tipo deontologico, che, al posto di porre attenzione al lato
meramente numerico, valuta le differenze morali dei termini “lasciar morire” e “uccidere
intenzionalmente”, ritenendo il secondo maggiormente deplorevole rispetto al primo anche
se magari il numero di persone coinvolte sia inferiore.
Questi due approcci etici che si pongono quasi agli antipodi faranno da sfondo alle diverse
scelte che dovrà compiere il veicolo automatico di Google.
3. Hai osservato cambiamenti nella percezione etica delle self-driving cars nel corso degli anni, specialmente considerando il rapido sviluppo della tecnologia?
Per fortuna qualche accorgimento è stato presa successivamente al primo test eseguito su
diverse strade nel 2014. Innanzitutto, sono stati presi degli accorgimenti dal punto di vista
legale, che hanno bloccato la commercializzazione di questi mezzi, evitando che
venissero resi pubblici fin da subito a tutti gli utenti che compongono le nostre società.
Allo stesso tempo, ho visto diversi stati, soprattutto americani, che utilizzano già prototipi
automatici per alcuni lavori, come, ad esempio, quello del tassista, anche se l’utilizzo è
ancora estremamente limitato.
Tuttavia, ritengo che la strada per far sì che questi nuovi compagni di viaggio vengano
integrati nella nostra società sia ancora agli albori e prima di vedere effettivamente questi
nuovi veicoli come dei mezzi a cui siamo fortemente abituati siano necessari degli
accorgimenti morali, sia per i programmatori sia per gli utenti che ne usufruiranno, oltre
che architettonici, in modo da sviluppare smart cities che permettano un utilizzo ancora più
accurato di quest’ultimi.
4. Come hai gestito la complessità del Trolley Problem nel contesto delle self-driving cars e hai individuato delle soluzioni praticabili o alternative?
Penso che proprio la complessità, come detto in precedenza, dell’esperimento mentale mi
abbia permesso di poter spaziare sui diversi scenari dipinti nel libro, tenendo sempre in
conto dei due apprrocci etici che fanno da cornice e, allo stesso tempo, degli elementi che
caratterizzano l’umanesimo digitale da una parte e il transumanesimo dall’altra.
Questo mi ha permesso di mettere in luce le diverse conseguenze a cui si giungerebbe a
seconda se si prende in considerazione un’ideologia piuttosto che un’altra, permettendo di
valutare in modo olistico gli approcci che stanno alla base di questo campo.
5. Nella seconda parte del libro, hai esplorato i punti di vista dei tecnofobici e dei tecnoentusiasti sull’intelligenza artificiale. Qual è la tua posizione personale rispetto a queste visioni contrastanti?
Sempre perseguendo l’intento alla base del libro, ossia quello di mostrare tutti i punti di
vista per quanto distanti possano essere, ho deciso di riprendere l’idea di Floridi secondo
cui ogni tipo di rivoluzione scientifica sia accompagnata da due sentimenti antitetici: da
una parte coloro che sostengono l’avvento del cambiamento, pienamente auspicato,
dall’altra invece quelli che hanno timore per qualcosa di nuovo che, non conoscendole,
incute in quest’ultimi un sentimento di sfiducia.
Questi due poli, rappresentati dall’umanesimo digitale e dal transumanesimo nel libro,
sono due posizioni estremiste e, in quanto tali, li ritengo non portatori della verità che,
molto spesso, sta nel mezzo: difatti penso che la soluzione non sia stare da una parte
piuttosto che dall’altra, quanto piuttosto accettare il cambiamento che porta con sé degli
elementi estremamente positivi i quali, però, per poter essere valorizzati necessitano di
essere compresi, valutando le insidie implicita che si possono celare dietro.
6. Come la tua formazione filosofica ha influito sulla tua analisi delle implicazioni etiche e morali dell’intelligenza artificiale, in particolare nel contesto delle self-driving cars?
Sicuramente tantissimo. Io sono un amante della filosofia e del pensiero critico, unico
strumento che possediamo per comprendere la complessità del mondo che ci circonda. È
un modo di vivere, un modus operandi che permette di essere un attore sociale
consapevole del teatro nel quale si trova a vivere: aspetto che permette di non essere
vittime di meccanismi che ci lasciamo sfuggire, a volte, solo per superficialità nell’analisi.
Quest’ideologia, a cui devo il merito di avermi reso chi sono oggi, ho provato a riportarla,
sebbene in parte, nel libro, in modo da vedere uno dei campi più in sviluppo oggi giorno e
cercando di raggiungere l’obiettivo di comprendere meglio i meccanismi soprattutto in
relazione all’essere umano e al suo aspetto sociale.
7. Rispetto all’evoluzione della tecnologia, pensi che la filosofia debba adattarsi costantemente per affrontare le nuove sfide etiche presentate all’intelligenza artificiale?
All’Università ho frequentato diversi corsi di storia della filosofia, ma per fortuna altrettanti
dove la filosofia rappresentava lo strumento che veniva usato per analizzare un
determinato campo. Sebbene sia innamorato di Kant e di altre figure del passato, sono un
sostenitore di un tipo di filosofia applicata, dove, attraverso la sua natura, può fornirci aiuto
nell’affrontare i problemi che interessano oggi l’essere umano. Penso che l’attualità della
filosofia stia proprio in questo, caratteristica che ha fatto sì che la sua storia sia
estremamente vasta e di lunga data.
8. Hai incontrato opinioni o argomenti inaspettati durante la ricerca che hanno contribuito a modellare la tua prospettiva filosofica?
Sicuramente nella ricerca che sta dietro il lavoro ho avuto modo di imbattermi in tantissimi
papers e articoli scientifici, ma vedevo che tutti rimanevano su un lato estremamente
descrittivo e teorico, non adatto, forse, alla divulgazione. Per tale ragione, una volta che mi
sono imbattuto in alcuni testi di Nida-Rumelin e di Bostrom ho deciso di usare tutte le
nozioni acquisite dando vita a degli esperimenti mentali che potessero accattivare anche
una persona non esperta di queste tematiche.
9. Come immagini che il potenziamento morale possa orientare in modo teleologico l’utilizzo dell’intelligence artificiale, e quali sono le sfide che potrebbe incontrare in pratica?
La mia anima sognatrice mi porta sempre un po’ a vagare con la mente e, dunque, mi
immagino delle realtà di ricerca, dove figure con backgrounds diversi, come informatici,
psicologi, filosofi, giuristi remino tutti nella stessa direzione, mettendo le proprie
competenze per lo sviluppo di tecnologie il più illuminate possibile.
Nel pratico questa condizione presuppone che tale sviluppo appartenga a tali contesti, ma
sappiamo benissimo che nella società in cui viviamo le cose non stanno così: individui,
con interessi economici, ne orientano teleologicamente lo sviluppo, a volte sottostimando
quanto detto in precedenza.
10. Infine, quale messaggio o considerazione chiave vorresti che i lettori traggano dal tuo libro riguardo all’integrazione dell’intelligenza artificiale nella società?
Mi piacerebbe venisse fuori come non si debba cercare di fermare questo processo, aspetto di per sé utopistico, quanto piuttosto accettarlo, vedendo al contempo le opportunità che ci possono garantire in termine di bene sociale, che sono certamente innumerevoli. Il futuro non è così pauroso come la maggior parte della gente può pensare se viene visto in maniera critica e si hanno gli strumenti per essere in grado di padroneggiarlo piuttosto che subirlo.
Grazie per la tua disponibilità, Mattia. È stato un piacere parlare con te.
Grazie a voi. È stato un piacere anche per me.