LE AUTO A GUIDA AUTONOMA AVRANNO UN’“ANIMA”?

LE AUTO A GUIDA AUTONOMA AVRANNO UN’“ANIMA”?

Quali devono essere i principi su cui impostare l’intelligenza elettronica di questi veicoli? E chi deve deciderli? Un dibattito solo all’inizio.

 

LE SFIDE DEL PROGRESSO – Nella storia dell’uomo ogni grande innovazione ha posto degli interrogativi etici e morali su come usare/applicare la novità in questione. Le situazioni di dubbi profondi sono state tante nel mondo della scienza e della tecnica. Un caso del genere si sta ponendo nel mondo dell’automobile con l’ipotesi ormai concretissima di avere dei veicoli che si guidano da soli, trasportando gli occupanti dell’auto da A a B limitando l’intervento umano alla impostazione della meta.

SCELTE VITALI – Con l’automobile a guida autonoma l’interrogativo che si pone è relativo al comportamento che “l’intelligenza” della vettura deve decidere in caso che si trovi di fronte a due ipotesi con alte probabilità (o addirittura la certezza) di avere delle vittime. Più in particolare: una scelta tra mettere in pericolo fisico chi è a bordo della vettura autonoma e chi è fuori da essa, come potrebbe essere un pedone, o magari un gruppo di pedoni, come una scolaresca…

I CASI DI ESEMPIO – La questione viene esemplificata ipotizzando che l’auto autonoma, che procede nel pieno rispetto delle norme stradali, si trovi davanti appunto a un gruppo di persone che occupa la sede stradale per incoscienza, imprudenza o irresponsabilità. L’ipotesi viene completata immaginando che ci siano due possibili comportamenti: con uno si metterebbe a repentaglio gli occupanti della vettura a guida autonoma, con l’altro la o le vittime sarebbero i pedoni incoscienti, imprudenti o irresponsabili. In un caso del genere, che cosa dovrebbe fare l’auto autonoma? Chi dovrebbe salvare e chi dovrebbe mettere in pericolo? La questione sta facendo discutere e riflettere gli ambienti tecnico-scientifici che si sono posti il problema in tutte le sue sfaccettature.

SCELTE COME DA PROGRAMMA – Dato che i cervelli elettronici non hanno coscienza o valori etici, ma soltanto una serie di opzioni su ciò che devono fare in base a quanto hanno rilevato e a come sono stati programmati. In pratica, la centralina elettronica di controllo passerà in rassegna i dati rilevati dai diversi sensori valutando quale sia il comando da impartire tenendo conto dalle opzioni che sono state caricate. Perché è evidente che il da farsi risponderà sempre a una programmazione fatta dall’uomo.

STUDIO UNIVERSITARIO – All’argomento è stato dedicato uno studio realizzato da tre autorevoli enti accademici: il MIT, Massachusetts Institute of Technology, l’Università dell’Oregon e la School of Economics di Tolosa (Francia). Lo studio è impostato sotto forma interrogativa, si pone cioè la domanda se si sia eticamente pronti per la soluzione della guida autonoma, e le risposte che emergono sono effettivamente aperte, segno che ci sono dubbi su quale debba essere il comportamento auspicabile.

ISTINTO DI SOPRAVVIVENZA – Lo studio ha infatti rilevato (mediante alcune centinaia di interviste) che l’opinione diffusa (75%) apparentemente è in favore della scelta meno dannosa (per tornare all’esempio fatto: se si tratta di investire un gruppo di persone l’auto autonoma dovrebbe scegliere di andare a sbattere contro un muro mettendo a repentaglio la vita degli occupanti dell’auto stessa che sono meno numerosi). Ma l’orientamento cambia sensibilmente se si ipotizza che l’occupante della vettura autonoma sia chi risponde. Insomma, l’istinto di sopravvivenza fa cambiare la visione etica del problema.

IL GRADO DI “INTELLIGENZA”! DEL SISTEMA – Forse la questione e il dibattito sono prematuri, in quanto sono determinanti le capacità del sistema informatico di rilevamento: più cose saprà rilevare e considerare, minori saranno le possibilità che il veicolo autonomo venga a trovarsi in una situazione di pericolo con necessità di scelta su chi salvare. Tanto per restare nell’esempio dei pedoni trovatisi improvvisamente davanti al veicolo autonomo, viene da pensare che il programma del “pilota automatico” potrà (o dovrà) escludere tale possibilità. Vale a dire che la velocità del veicolo potrà (dovrà?) essere commisurata alla “visibilità” che ha il mezzo in quel dato momento. Se cioè i sensori e rilevatori del veicolo riescono a “vedere” ciò che c’è nel raggio di 50 metri, l’auto autonoma potrà viaggiare a una velocità che consente di fermarsi in tale spazio. Non per nulla i sostenitori dell’auto autonoma sostengono che con l’avvento di questo tipo di veicolo, gli incidenti spariranno, o si ridurranno drasticamente.

CHI DECIDE COSA – Tutto ciò però introduce con forza l’interrogativo su chi dovrà stabilire quali sono i parametri tecnici di sicurezza che saranno da rispettare da parte dell’auto autonoma (per la precisione dal suo software che gestisce la guida). E qui il discorso è completamente aperto, che per essere affrontato richiederebbe forse più un Giulio Verne che non gli studi universitari. Al momento il pallino in mano lo hanno le case che stanno sperimentando questa tecnologia, ma evidentemente al momento dell’arrivo sulle strade pubbliche dell’auto a guida autonoma ci sarà una normativa delle autorità competenti che dovrà stabilire appunto le caratteristiche di sicurezza. Così come è possibile che i vari sistemi informatici lascino al proprietario della vettura qualche possibilità di scelta, ovviamente nell’ambito di quanto consentito dalle norme vigenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Superiore