blog

La sfida etica dell’auto a guida autonoma. Parte 2/2

A prescindere da quanto questi dati possano essere stati modificati a favore dei produttori di auto a guida autonoma, quello che possiamo dire è che i dati variano di paese in paese. In Svezia, per esempio, gli incidenti sono molto rari e uno studio canadese ha concluso che le macchina a guida autonoma, non solo non diminuiscono gli incidenti, ma addirittura li causano cinque volte di più di quanto non faccia la guida umana.

Le statistiche quindi non rispondono alla nostra domanda: cioè se le auto a guida autonoma migliorino la nostra vita o no. Inoltre la discussione sui dati è molto più complessa poiché dovremmo prendere in considerazione un numero di auto enorme e analizzare la strada percorsa da ognuna e in quali condizioni. Il dato va contestualizzato e per ora le macchine senza conducente sono minoritarie rispetto a quelle a guida umana; quindi il dato perde, almeno in parte, la sua oggettività e viene interpretato a seconda dei punti di vista. Dobbiamo allora basarci su altre considerazioni.

Supponiamo però che la risposta alla nostra domanda sia si, i veicoli a guida autonoma sono una valida opzione. Ebbene in un caso come questo colui che progetta l’auto deve avere degli obblighi di carattere etico e morale. Quindi dobbiamo ottenere la massimizzazione, in ciascuna situazione di guida, del benessere collettivo pur rispettando questi obblighi, ammesso che si possa fare.

Questa è la massima generale, ora però dobbiamo capire come calare questa massima nella concretezza della progettazione. Ogni situazione è diversa e va analizzato caso per caso. Ovviamente anche con una macchina senza conducente l’incidente è possibile, anche se meno probabile e potremmo dover affrontare casi di collisioni inevitabili.

Immaginiamoci una situazione come questa:

ci sono quattro pedoni che in curva, con il rosso, decidono di attraversare la strada e la macchina a guida autonoma non può fermarsi poiché come abbiamo detto la collisione è inevitabile (non c’è tempo per frenare). L’auto allora può solo andare a sinistra o a destra. L’ingegnere ha questo scenario in mente e deve scegliere che vincolo morale mettere sul controllore. A destra abbiamo una persona su una moto con il casco e a sinistra un uomo in moto ma senza casco. Da che parte dovrebbe andare la macchina?

Abbiamo detto che non possiamo farla andare contro i pedoni, nonostante non abbiamo rispettato le norme della strada poiché morirebbero quattro persone e questo andrebbe contro la massima generale che abbiamo posto come premessa. Se invece andiamo a sinistra il rischio di uccidere qualcuno è più alto che sterzare a destra, poiché il conducente del motorino di sinistra non indossa il casco. Per minimizzare i danni allora dovremmo andare verso destra.

Questo però crea qualche problema, perché potrebbe disincentivare l’uso del casco, visto che se indossi il casco, hai maggiori probabilità di essere investito. Ma allora cosa si fa? Il progettista sceglie casualmente? Immaginiamo allora che il nostro amico Andrea voglia comprare una macchina senza conducente e quando la compra firma un contratto e accetta una clausola che dice: colui che compra il mezzo accetta che la sua auto cerchi, in ogni situazione, di ridurre al minimo le conseguenze negative per tutti gli esseri umani coinvolti, senza preferenza.

Allora partendo da questa base facciamo un altro esempio, questa volta senza moto. Da una parte abbiamo un muro di cemento, dall’altra la famigliola felice e Andrea è solo nella sua automobile. In caso di collisione inevitabile, calcolando che l’obiettivo è quello di ridurre al minimo le conseguenze negative per gli esseri umani, la macchina di Andrea andrà contro il muro di cemento poiché così facendo il danno sarebbe minore. Ma va davvero bene? Andrea sarebbe d’accordo? Ovviamente no.. io non vorrei una macchina del genere. Perché mai dovrei comprare una cosa che in una situazione del genere mi fa morire?

Allora che cosa fa Andrea? Chiede di cambiare le condizioni per l’acquisto e richiede una clausola dove sì, Andrea accetta la minimizzazione dei danni, ma allo stesso tempo vuole una maggiore protezione dei passeggeri a bordo. Questa richiesta però è giustificata? Una macchina che tutela di più il passeggero piuttosto che i pedoni renderebbe la vita del proprietario di maggior valore rispetto a quella degli altri e la condizione di imparzialità iniziale verrebbe meno. Quindi dal punto di vista del pedone non sarebbe moralmente giusto avere per la strada una macchina del genere, mentre dal punto di vista di colui che la compra non sarebbe moralmente giusto il contrario.

Ma il problema è proprio questo: cioè che noi cambiamo schema morale a seconda dei ruoli che occupiamo in quel determinato momento. Fino a quando sono io in macchina voglio una maggiore tutela per il passeggero, ma quando sono a piedi o so che i miei figli camminano per strada preferirei che la macchina tutelasse maggiormente l’interesse dei pedoni in caso di incidente. Eppure non è possibile nemmeno creare delle clausole ad personam poiché così facendo avremmo a che fare con il farwest e “si salvi chi può”. Questo è un problema rilevante poiché il conflitto morale/etico può trasformarsi, rapidamente, in un conflitto di tipo sociale.

Immaginiamo infatti che Andrea compri l’auto a guida autonoma customizzata a suo piacimento e si sente deontologicamente giustificato a non sacrificare la propria vita. La sua amica Emilia però ha saputo che Andrea ha optato per una clausola in cui si dice che il conducente viene tutelato di più rispetto ai pedoni e agli altri in generale. Quindi l’auto non permetterà mai che il conducente muoia per salvare, per esempio, i bambini di Emilia che attraversano la strada. Ma allora Emilia non è d’accordo e non vuole che un’auto del genere circoli nelle sue strade.

Quindi quale è la soluzione? Cosa sceglie l’ingegnere?

  • Deontologica pura (tutti i doveri codificati e dove non c’è dovere puoi seguire la tua preferenza)

  • Deontologica con eccezioni supererogatorie (quando c’è un bambino o un ansiano cerchi di salvarlo)

  • Consequenzialismo dei singoli atti (ciò che va valutato sono le conseguenze dei singoli atti)

  • Consequenzialismo delle regole

  • Priorità deontologica a default consequenzialista (dove ho gli obblighi o i diritti allora valgono quelli mentre dove mi è permesso devo ragionare come un consequenzialista)

Un ingegnere, molto probabilmente, prenderà un dominio ristretto dove le due teorie etiche non confliggono l’una con l’altra, ma per fare questo cosa è necessario?

Ebbene a mio avviso è necessario, prima che macchine del genere possano funzionare ed essere realmente utili per il benessere dei cittadini, che le strade siano opportunamente modificate e che tutte le auto in circolazione siano solo quelle a guida autonoma.

Ma la mia domanda è: cosa è il benessere? Cosa si intende per benessere? Siamo davvero sicuri che una volta arrivati al punto di avere macchine in grado di fare tutto da sole, senza di noi, staremo meglio?

Ritengo che qualcuno di noi, se non la maggior parte, si troverà a rimpiangere la chiave che gira nella serratura all’accensione, il cambio manuale e la soddisfazione dopo un parcheggio ben riuscito. Siamo davvero sicuri di voler rinunciare alla “meccanica delle emozioni”, al “piacere di guidare”, al “born to performe”, al “motion & emotion”? Io non ne sono poi così convinta.. e voi?

Leggi anche