Auto a guida autonoma: la questione morale
In questi giorni, a causa di una notizia poco piacevole, testate giornalistiche, ma anche tanti utenti nei social hanno rianimato la discussione sulle auto a guida autonoma. Se da una parte è spiacevole che proprio una notizia di cronaca nera sia la motivazione per riprendere il dialogo e il confronto, è pur vero che se non fosse accaduto nulla molte persone non si sarebbero mai poste il problema di parlarne o, magari, di informarsi sul tema.
Per chi ha ancora qualche dubbio in merito, ma anche per chi vuole approfondire, inizio qui una prima analisi su tecnologie e innovazioni, ma anche su questioni etiche e sociali legate al mondo dell'automazione della guida.
Ci sono auto e auto
Come si progetta un'auto automatica/autonoma? Fortunatamente qualcuno si è preso la briga di definire uno standard, è proprio la SAE International (ente di normazione del settore automotive) che nel 2014 pubblica il documento J3016 dove vengono indicati chiaramente 6 livelli di implementazione:
- livello 0: Nessuna automazione, il guidatore si fa carico di ogni responsabilità nella guida della sua auto.
- Livello 1: Esistono della automazioni sotto forma di segnalazioni grafiche o acustiche, che supportano il guidatore nelle sue scelte, che comunque rimangono autonome.
- Livello 2: per supportare il guidatore in decisioni critiche e in situazioni di pericolo o emergenza, sono presenti automazioni che intervengono su componenti della guida ben definiti: accelerazione e frenata, ma non direzione e controllo del traffico.
- Livello 3: Le automazioni si spingono al controllo di direzione oltre che accelerazione e frenata in condizioni ambientali ordinarie.
- Livello 4: L'auto riesce a prendere decisioni in maniera autonoma, tranne in condizioni meteo critiche o situazioni particolarmente difficili dove il controllo è comunque demandato al guidatore.
- Livello 5: non è previsto l'intervento da parte del guidatore, l'auto gestisce autonomamente la guida in qualsiasi condizione meteo o di criticità.
Si vede, quindi, come non esiste una generalizzazione dell'auto a guida autonoma. Per questo motivo, quando ne parliamo, dobbiamo come prima cosa verificare almeno a quale livello appartiene l'oggetto della discussione. Consideriamo il livello 5 come un livello utopico, rappresenta la “visione” che ogni imprenditore nel settore dovrebbe avere e al quale dovrebbe aspirare.
L'auto a guida autonoma nei fatti di cronaca
Tornando al caso di cronaca, l'auto a guida autonoma di Uber, che ha causato la morte di un pedone in Arizona, è classificata come livello 4. Per poter circolare Uber ha richiesto, ed ottenuto, un permesso che prevedeva, ad ogni modo, la presenza di un supervisore umano all'interno. Per chi non avesse avuto modo di visionare l'incidente ecco il video ottenuto e rilasciato dalla polizia locale:
Lasciando ad ognuno le considerazioni personali su quanto mostrato dalle telecamere interne ed esterne, vorrei evidenziare due oggettività:
- Il pedone attraversa in una zona priva di strisce pedonali, di fatto infrangendo le regole. Ad aggravare la situazione l'attraversamento avviene in una zona priva di illuminazione
- Il guidatore si accorge solo all'ultimo istante della presenza del pedone, ed è impossibilitato ad intervenire forzando il sistema di guida autonoma.
La vera domanda che ci dovremmo porre, e qui introduciamo l'aspetto etico e morale, è: “Se l'auto non avesse avuto sistemi di guida autonoma - o se vogliamo essere conformi allo standard: di livello 0 - che probabilità avrebbe avuto il guidatore di evitare il pedone nelle stesse situazioni?
Da una prima analisi del filmato il pedone risulta visibile circa 1,5 secondi prima dell'impatto. Se è vero che i tempi di reazione tipica dell'uomo possono essere molto inferiori al secondo,è vero che l'auto verosimilmente non avrebbe frenato in tempo per cambiare le sorti dell'incidente.
La questione morale
Come prima mossa “politica”, Uber ha deciso di sospendere la sperimentazione della sua auto a guida autonoma in Arizona. Un passo dovuto per placare gli animi infuocati di chi, magari senza molta competenza in materia, avrebbe sparato a zero sull'azienda. Probabilmente nel paragonare un'auto di livello 4 ad un “robot supereroe” stiamo solo idealizzando qualcosa che è già stato inserito e collocato ad un livello superiore (e utopico) come il livello SAE 5. La cruda verità è che, a volte, il progresso tecnologico per essere tale ha bisogno di sacrifici dolorosi. Se si guarda, ad esempio, alle missioni Apollo, fallite e non, si scopre che il 43% degli astronauti è deceduto per problemi cardiovascolari dovuti all'elevata esposizione ai raggi cosmici.
Se questo non bastasse la questione morale gioca un ruolo fondamentale in questo settore. Facciamo un esempio banale: supponiamo che l'auto di Uber fosse stata in grado di percepire l'attraversamento del pedone ed avesse dovuto scegliere fra le uniche due possibilità:
- l'auto tenta la frenata, ma visto l'esiguo spazio si ha un'altissima probabilità di uccidere il pedone
- l'auto tenta di schivare il pedone, ma a causa della presenza di un ostacolo ha un'altissima probabilità di far schiantarsi uccidendo il guidatore
Quale algoritmo sarebbe stato quello “giusto”? Quale decisione sarebbe stata veramente morale o etica?
Sembrerà forse strano, ma è uno dei principali rompicapo che gli analisti del settore stanno cercando di risolvere. Non esiste un unico piano di azione ed è forse uno dei settori più affascinanti dove si mescolano tecnologia, informatica, intelligenza artificiale, sociologia e, chi più ne ha più ne metta.
E se i sistemi tecnologici fossero in grado di riconoscere in real-time età, etnia, stato sociale di un pedone? Ci si dovrebbe porre il problema di chi salvare da un incidente, a parità di situazioni, fra un anziano o un bimbo sul passeggino.
L'università MIT americana ha messo online un sondaggio per testare la sensibilità degli utenti internet su questo tema. Vengono mostrate 13 situazioni critiche e, attraverso spiegazioni dettagliate di ogni caso, viene proposto di scegliere la soluzione che più ci appare come accettabile. Al termine del sondaggio, vengono mostrati i risultati comparati con la media totale.
Provate anche voi: http://moralmachine.mit.edu/
A conclusione, pongo una domanda: dopo aver effettuato il test MIT, la vostra percezione dell'incidente Uber è rimasta la stessa, come prima della lettura di questo articolo?
Sarebbe più semplice se si obbligasse all'affitto, e non all'acquisto, l'auto a guida autonoma. Sollevando il fruitore da qualsiasi problematica legale.
Certo se la UE iniziasse a legiferare su questo sarebbe meglio che lasciare le scelte alle case automobilistiche, o agli USA.
La soluzione però non deriverà da un esame morale, ma da quello che diranno le società assicurative, che influiranno in modo non proprio banale anche sul lato legislativo. Oggi il maggiore freno a level 5 è appunto la legge e le materie assicurative. La prima si sta muovendo in modo esplorativo, la seconda è un capitolo ancora vergine.
Visto il video, che sconsiglio alle persone sensibili, quello che mi viene da dire è che gli incidenti capitano. Quell'impatto sarebbe stato inevitabile per chiunque, persino il guidatore con i tempi di reazione più bassi del mondo.
Solo che davanti all'innovazione e al progresso, c'è sempre il solito bigottismo. Non dimentichiamoci che Uber non è l'unica a lavorare su questo progetto, quindi la concorrenza va nozze su storie come questa.
Tempo fa, non ricordo quale casa automobilistica, fu coinvolta in uno scandalo dovuto a un incidente capitato ad un'auto a guida autonoma, nel quale morì quello che era il supervisore a bordo. In pratica la macchina non vide un tir che attraversava trasversalmente la strada, finendo per schiantarcisi sotto.. la spiegazione ufficiale fu che il forte sole che si rifletteva nel TIR, aveva causato un "illusione ottica" per i sistemi automatizzati di guida.