Un’auto Tesla si è schiantata ad altissima velocità contro i divisori di cemento di un cantiere autostradale. Solo pochi giorni fa Elon Musk ha lanciato il robotaxi che si guida da solo e la gente si chiede se sia una rivoluzione o solo l’ennesima promessa a vuoto del magnate.
Uscito vivo dalla vettura, l’autista ha detto che aveva attivato il pilota automatico. Le immagini dell’impatto, avvenuto nella provincia cinese di Jiangxi, riaccendono il dibattito sulla sicurezza della tecnologia, il cui utilizzo è centrale nelle smart cities. Il video è stato ripreso da una telecamera di videosorveglianza (fonte video: Dailymotion)
Il pilota automatico non funziona in Cina
L’autista ha spiegato che la modalità “autopilota” non ha reagito in tempo ai segnali di pericolo. Ovviamente, le immagini hanno spaventato chi ha comprato una Tesla, ma secondo i media cinesi il problema sarebbe locale: la casa automobilistica di Elon Musk “non supporta la funzione Full Self-Driving (Fsd) in Cina”, almeno per ora. (Poca) ironia della sorte, la mancata integrazione di una casa automobilistica americana nel Paese Xi Jinping viene fuori in un contesto geopolitico tutt’altro che disteso.
Il conducente avrebbe utilizzato il sistema Autopilot, che offre un’assistenza di livello 2, che non equivale a un’automazione completa. In pratica, la responsabilità sarebbe stata dell’autista, che credeva di utilizzare una automazione completa.
La modalità pilota automatica è sicura?
L’autopilota di Tesla desta preoccupazioni già da qualche anno, e non in Cina. Nel 2019, solo negli Stati Uniti si sono verificati 736 incidenti con le Tesla in pilota automatico, una media di due sinistri al giorno.
Riguardo alle evidenze raccolte dalla National Highway Traffic Safety Administration, The Washington Post scriveva che: “Quando le autorità hanno pubblicato per la prima volta un resoconto parziale degli incidenti che hanno visto coinvolto il dispositivo di pilota automatico nel giugno 2022, hanno contato solo 3 morti legate con certezza alla tecnologia. I dati più recenti includono, tuttavia, almeno 17 incidenti mortali, 11 dei quali da maggio 2022, e 5 feriti gravi“.
Numeri che non hanno fatto cambiare idea a Elon Musk: il magnate provò subito a calmare le acque anticipando nuove integrazioni che avrebbero migliorato il sistema di auto-pilotaggio. Per il Ceo della casa automobilistica, “Tesla con il pilota automatico attivato si avvicina a una probabilità di incidente 10 volte inferiore rispetto a un veicolo normale”.
Eppure, secondo alcuni osservatori, sarebbero state proprio le decisioni di Elon Musk, come ampliare la disponibilità delle funzionalità del sistema di guida autonoma o privare i veicoli dei sensori radar, ad aver aumentato il numero di incidenti in guida automatica. In particolare, sembrerebbe che l’ampliamento dell’implementazione della tecnologia Full Self-Driving – che migliora la capacità dei veicoli di leggere quello che accade intorno a loro – sia da annoverare tra le cause dell’aumento di incidenti.
Il richiamo di 360.000 Tesla
Nonostante le parole del suo fondatore, a febbraio 2023 Tesla si è vista costretta a richiamare ben 360.000 veicoli dotati di Full Self-Driving per timore che il software li spingesse a “disobbedire” a semafori, segnali di stop e limiti di velocità. La National highway traffic safety administration (Nhtsa), l’ente del Dipartimento dei trasporti statunitense che si occupa di sicurezza stradale ha dichiarato che il software di guida autonoma completa è rischioso e può violare le regole del codice della strada.
Secondo la documentazione presentata dall’agenzia, tra le potenziali infrazioni rientrano il transito in presenza di un semaforo giallo che sta per diventare rosso, l’arresto non corretto a un segnale di stop, l’eccesso di velocità dovuto al mancato rilevamento di un segnale stradale o al fatto che il conducente ha impostato l’auto a una velocità predefinita, e l’inaspettato cambio di corsia per uscire dalle corsie di preselezione durante l’attraversamento di un incrocio.
Un altro pericolo sarebbe la cosiddetta “frenata fantasma”: il veicolo rallenta bruscamente per ostacoli o pericoli inesistenti.
Anche in ragione del primato nel mercato, Tesla è la prima casa automobilistica legata a incidenti causati dalla tecnologia della guida autonoma di livello 2, seguita da Subaru, a cui sono stati ricollegati soltanto 23 incidenti dal 2019 al giugno scorso.
Come funziona la funzione Full self-driving
Si parta col dire che la scelta del nome è fuorviante: il sistema Full self-driving di Tesla, in realtà, non è full. La tecnologia Fsdnonconsente la “guida autonoma” per come viene intesa dalla maggior parte delle persone, tanto la casa automobilistica americana, nella sua documentazione, spiega che i conducenti devono rimanere vigili e pronti ad assumere il controllo del veicolo in qualsiasi momento.
Il Full self-driving serve a:
- far restare le auto all’interno di una corsia;
- cambiarla automaticamente all’occorrenza;
- parcheggiare ‘a S’;
- rallentare e fermarsi ai segnali di stop e ai semafori.
La versione Beta della funzione Fsd è stata rilasciata per la prima volta nel 2020 ai clienti che, secondo l’azienda, avevano dimostrato di essere abbastanza prudenti e abili da testare il software sulle strade pubbliche. Il costo del sistema oscillava dai 5.000 ai 15.000 dollari.
A fine novembre 2022, Tesla ha distribuito la funzione a tutte le persone che l’avevano acquistata. I miglioramenti su questa tecnologia, però, sono stati molto più lenti delle promesse tanto che alcuni proprietari di Tesla hanno promosso una class action per frode contro la società, citando le tante promesse disattese da Musk sull’arrivo della tecnologia di guida autonoma. Gli avvocati della casa automobilistica hanno ribattuto dicendo che il progetto dell’auto-pilota non è una truffa, ma potrebbe essere un fallimento.
Intanto, l’incidente avvenuto in Cina ha riacceso il dibattito sul tema. Forse, prima delle città, è bene che anche l’essere umano inizi ad essere smart.