Tesla, Autopilot addestrato a infrangere il codice della strada

Tesla, Autopilot addestrato a infrangere il codice della strada

Tesla starebbe addestrando il sistema Autopilot a non seguire sempre il codice stradale per simulare una guida più umana, a scapito della sicurezza.
Tesla, Autopilot addestrato a infrangere il codice della strada
Tesla starebbe addestrando il sistema Autopilot a non seguire sempre il codice stradale per simulare una guida più umana, a scapito della sicurezza.

I progressi nella guida autonoma sono una priorità assoluta per Tesla. La casa automobilistica cerca costantemente di migliorare Autopilot, con aggiornamenti regolari del sistema Full Self-Driving (FSD). Questi miglioramenti mirano a rendere la guida assistita più fluida e naturale, facilitando il rilevamento degli ostacoli e la presa di decisioni. Tuttavia, recenti rivelazioni dimostrano che la sua formazione potrebbe non seguire sempre le rigide regole della strada, il che è sorprendente.

Sembra che Tesla voglia che il suo Autopilot adotti uno stile di guida più umano, piuttosto che seguire alla lettera tutte le regole del codice della strada. Questo approccio si basa su un’idea semplice: rendere la guida meno robotica. I dipendenti avrebbero affermato che alcune direttive interne prevedono di ignorare i cartelli, come quelli che vietano la svolta a destra con il semaforo rosso o l’inversione di marcia. L’obiettivo sarebbe quello di rendere il veicolo più flessibile e fluido nelle sue manovre.

Tesla addestra Autopilot a ignorare alcuni segnali stradali

Le testimonianze di ex dipendenti rivelano che Autopilot viene addestrato a ignorare specifici segnali stradali. Uno degli esempi più eclatanti riguarda la segnaletica comunemente presente negli Stati Uniti “divieto di svolta a destra con semaforo rosso”. Lo scopo è far sì che l’auto adotti uno stile di guida più naturale, come farebbe un guidatore umano, senza seguire ciecamente i segnali.

Sebbene questo approccio sia volto a rendere il viaggio più fluido, potrebbe comportare dei rischi per gli utenti, soprattutto in situazioni di traffico complesse o inaspettate.

I rischi per gli automobilisti

Anche altre pratiche di Tesla sono state criticate. Ad esempio, i dipendenti che si occupano di annotare e categorizzare i video catturati dalle telecamere delle auto, hanno dichiarato che Tesla dà spesso priorità all’analisi dei filmati relativi ai viaggi personali di Elon Musk o di video virali condivisi online. Questa modalità di dare precedenza a casi specifici e non rappresentativi della totalità degli utenti, potrebbe influenzare e distorcere il modo in cui il sistema Autopilot viene addestrato e ottimizzato.

Nel tentativo di rendere più “umano” il comportamento dell’intelligenza artificiale, Tesla potrebbe inavvertitamente esporre i suoi clienti a rischi imprevisti.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 set 2024
Link copiato negli appunti