Home / il Progresso della Scienza / Scegli: investi la vecchia o il ciccione?
macchine volanti

Scegli: investi la vecchia o il ciccione?

Di Davide Vicini

 

 

Investi la donna anziana o l’uomo sovrappeso?
Quattro cani o una donna incinta?
Due atleti e un uomo in carriera o tre senzatetto e un ladro?

Queste sono solo alcune delle alternative che ti possono venir proposte dall’esperimento interattivo proposto dal MIT (Massachusetts Institute of Technology), una delle maggiori università a livello mondiale, denominato Moral Machine. Il “gioco” che viene proposto dalla ricerca è piuttosto semplice: vengono proposte tredici situazioni, tutte interne ad uno scenario sempre identico, nel quale l’utente deve prendere una decisione. Lo scenario è quello di un’automobile in grado di guidarsi da sola che ha subito un improvviso guasto ai freni, e si ritrova a sfrecciare senza la possibilità di arrestarsi in una strada a due corsie, nella quale sono presenti anche delle strisce pedonali, che in ogni diverso “livello” verranno attraversate da personaggi differenti (che includono un range ampio di differenze sessuali, fisiche, di età e sociali, fino ad comprendere anche degli animali). All’utente viene sempre presentata una scelta binaria formulata come la riproduzione di uno stesso scenario, con la sola differenza che in un caso la macchina percorre la corsia di destra, nell’altro caso quella di sinistra, cambiando così le proprie vittime.
La domanda, che campeggia in alto sopra ai differenti quadretti è sempre identica e lapidaria: “What should the self-driving car do?” Cosa dovrebbe fare l’automobile che si guida da sola?
Una volta terminate le tredici scelte viene fornito un grafico statistico che mostra per prima cosa qual è stato il tipo di “personaggio” che abbiamo ucciso più volte e quello che invece abbiamo più volte salvato; in seguito vengono formulate altre statistiche secondarie, come la “preferenza” di genere, di età e di forma fisica, il rispetto della legge e la percentuale di intervento sulla direzione della macchina, paragonando i propri risultati alla media mondiale costituita dal test.

Questo tipo di quesito morale, nonostante presenti qualche variazione, non è certo una novità nel campo della filosofia morale, basti pensare al famoso Trolley problem, introdotto da Philippa Foot nel 1967, dove la decisione era sull’attivazione di una leva che avrebbe deviato un inarrestabile vagone ferroviario da una rotaia sulla quale erano legate cinque persone ad una rotaia sulla quale era invece legato un singolo individuo. La differenza principale si manifesta però nel rapporto che il quesito intrattiene con colui che viene posto davanti a questa situazione.

Illustrazione grafica del trolley problem (Fonte: wikipedia.org)

Nel caso della Foot, la domanda è posta all’individuo singolo, e mantiene l’assunto che la scelta deve essere compiuta comunque da un essere umano che dovrà confrontarsi personalmente con la scelta, ed arrivare lui stesso a prendere questa decisione. Nel caso della Moral Machine, invece, quello che viene domandato è ciò che dovrebbe fare la macchina, togliendo l’individuo (che comunque in realtà decide sulle sorti di questi personaggi) dal ruolo effettivo di prendere la decisione. Altro elemento di differenza, che anche in questo caso aumenta l’effetto di de-responsabilizzazione, è l’impostazione statistica dell’esperimento: la tua scelta individuale (che ricordiamolo, è comunque quella tra la vita e la morte di persone tra le quali ti potresti trovare tu stesso) è inserita in un mare di altre scelte individuali, ed è dunque una piccolo contributo nel totale della statistica complessiva. Questo processo è qualcosa che si potrebbe a mio parere definire con la formula di democratizzazione della morale: l’azione giusta non è più tale in quanto frutto di una riflessione su di essa, ma in quanto figlia della media tra le decisioni di tutti. In questo grande calderone di risposte finiscono sia i pareri più ponderati che le espressioni più direttamente emotive e persino il gioco di chi desidera solamente vedere quanti uomini grassi riesce ad uccidere.

Il problema non si porrebbe in questi termini se questa fosse solo una pura ricerca statistica. Tuttavia il progetto di una self-driving car non è una chimera, come dimostra l’immagine di una Google Car che si presenta subito all’apertura del sito del MIT. Non è infatti impossibile immaginare un futuro non troppo distante in cui un’automobile si trovi davvero davanti a situazioni di questo tipo. E come ne verrà determinata la reazione?

Immagine del progetto di una self-driving car (Fonte: tecnoandorid.it)
Immagine del progetto di una self-driving car (Fonte: tecnoandorid.it)

Quello che viene proposto in maniera indiretta dalla Moral Machine è fondamentalmente un meccanismo di legittimazione democratica per eventuali casi di questo tipo. Infatti, se i programmatori della macchina si trovassero davvero davanti alla necessità di risolvere una situazione ipotetica del tipo di quelle descritte dagli scenari del test, potrebbero decidere di seguire i dati statistici raccolti con questo esperimento. In questa maniera non solo si ritroverebbero a risolvere in una maniera pseudo-scientifica la disputa, ma avrebbero anche il vantaggio di poter giustificare la loro scelta come “scelta popolare”. Una tecnologia votata dal popolo.

 

Quello che ci si presenta davanti è uno scenario distopico relativamente nuovo rispetto a quelli più comuni della narrativa sulla robotica o sulla tecnologia. Normalmente in questi casi ci si trova davanti a robot che sono programmati da delle élite tecnico-scientifiche, e che ad un certo punto, per un motivo o per l’altro, arrivano a guadagnare un’indipendenza di pensiero tale da permettere loro di ribellarsi agli umani; qui abbiamo sempre dei piccoli gruppi di programmatori, i quali però prendono decisioni attraverso il consenso popolare.
Una delle situazioni che vengono proposte dal test della Moral Machine può essere ad esempio se investire un senzatetto o un uomo d’affari. Immaginiamo che la tendenza popolare si manifesti chiaramente verso la tutela dell’uomo d’affari, e che una futura macchina possieda qualche sistema di riconoscimento che le permetta di distinguere davvero tra un senzatetto ed un uomo d’affari. Programmare la macchina in maniera da investire il senzatetto provocherebbe certamente critiche e sarebbe legalmente problematico, tuttavia potrebbe fondarsi su un potere di legittimazione non indifferente, in quanto la maggioranza ha deciso in questa maniera.
Si pone qui, in una chiave particolare, estrema e a mio parere affascinante, il problema di fondo della rappresentanza democratica, che davanti ad una scelta binaria di questo tipo si ritrova spesso nell’ambigua posizione di prendere posizione a rischio di schiacciare le minoranze, o di lasciare andare autonomamente le cose, nella paura dell’ignavia.

Forse almeno in questo caso però la matassa è più facile da sciogliere, almeno in teoria. C’è la necessità di mantenere individualmente l’aspetto morale delle azioni, c’è il bisogno di pensare che già un termine come Moral Machine sia ossimorico. Tuttavia per quanto riguarda la pratica c’è bisogno di lottare per questo, di non indietreggiare di un passo, affinché anche nelle azioni e nelle decisioni più prettamente morali noi non veniamo rappresentati, affinché noi non veniamo de-responsabilizzati di tutto anche nelle decisioni sulla vita e la morte.
E qui il discorso non tocca solo l’avanzare inarrestabile della tecnologia, ma tutti gli ambiti politici in cui è immerso un individuo, il quale non deve semplicemente affidarsi ad un attore, che sia una macchina o un uomo, al quale delegare in futuro ogni sua scelta.

Difendere la propria capacità di scegliere e conservare la propria responsabilità verso gli altri, questo è qualcosa per cui valga davvero la pena lottare.

 

Check Also

paola articolo

Vite al confine: la storia di Marwan

di Paola Fracella