Auto senza pilota, incidenti di percorso

Auto senza pilota, incidenti di percorso

Con le sperimentazioni su strada ci sono i primi incidenti. Anche se mancano i dettagli, e si tratta probabilmente di scontri con minimi danni, si torna a discutere di responsabilità e scelte morali
Con le sperimentazioni su strada ci sono i primi incidenti. Anche se mancano i dettagli, e si tratta probabilmente di scontri con minimi danni, si torna a discutere di responsabilità e scelte morali

In California sono stati registrati i primi incidenti che vedono coinvolte le automobili che si guidano da sole .

Da quando è stato dato il via, ufficialmente a maggio scorso ma effettivamente da settembre 2014, alla sperimentazione su strada delle vetture senza un umano al volante nello Stato USA, quattro delle 48 auto automatizzate autorizzate a circolare sulle strade californiane sono state coinvolte in incidenti: in tre dei casi si tratta delle Lexus di Google, mentre nel quarto di una del produttore Delphi Automotive.

In realtà si tratta per il momento di numeri assolutamente parziali, soprattutto andando nello specifico: in due dei casi erano i sistemi informatici a controllare la vettura, mentre nell’altra metà guidava ancora una persona fisica.

In tutti e quattro gli incidenti, inoltre, sia Google che Delphi riferiscono che la causa non sia da imputare loro: Delphi – che ha commentato spontaneamente i fatti – afferma che una delle sue vetture, ancora guidata da uno dei suoi autisti, è stata colpita sul fianco destro mentre aspettava di svoltare a sinistra.
In ogni caso, per giunta, si tratterebbe di scontri avvenuti a meno di 10 miglia all’ora e capaci di arrecare minimi danni: anche se non vi sono informazioni precise – i dettagli sugli incidenti per la normativa statunitense sono confidenziali – sembrerebbe trattarsi di piccoli scontri dalle minime ripercussioni .

Google, dal canto suo, attraverso le parole di Chris Urmson, a capo del progetto dedicato all’automotive, conferma che si tratti di incidenti irrilevanti: è impensabile che in un ambiente affollato come quello stradale non si verifichino degli impatti, seppure di minima entità. “Nei sei anni di progetto – ricorda – siamo stati coinvolti in 11 incidenti di poca rilevanza (danni lievi, nessun ferito) nel corso di questi 1,7 milioni di miglia percorse con guida automatica e manuale con i nostri piloti dietro al volante, e non una sola volta la macchina è stata responsabile dell’incidente”.

Nonostante questo restano paure e diffidenze nei confronti delle auto che si guidano da sole e della loro sperimentazione: se paesi come la California o il Regno Unito hanno dato luce verde alla sperimentazione, non mancano le perplessità. Il problema è che se da un lato eliminando il fattore umano si conta di limitare il traffico ed il problema della ricerca estenuante di un parcheggio, dall’altro occorre affidarsi completamente ad una macchina.

La paura è legata – in special modo – alle responsabilità in caso di incidenti: è la logica di un algoritmo a prendere una decisione, non l’etica di un pilota.
L’esempio che fa in questo senso Ian Robertson, responsabile delle vendite di BMW, è il caso di un bambino che salta all’improvviso davanti ad un’auto in corsa su una stretta strada di montagna: sia che la macchina svolti finendo nel crepaccio, sia che prosegua dritto investendo il bambino, la sua scelta porterà ad un evento drammatico. Una scelta che non può essere prevista in fase di sviluppo del software.

Claudio Tamburrino

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 mag 2015
Link copiato negli appunti