Tesla con FSD attivo provoca incidente frontale in diretta streaming

Tesla con FSD attivo provoca incidente frontale in diretta streaming

Un video mostra una Tesla che, con FSD attivo, invade la corsia opposta causando uno scontro frontale. E si riaccende il dibattito.
Tesla con FSD attivo provoca incidente frontale in diretta streaming
Un video mostra una Tesla che, con FSD attivo, invade la corsia opposta causando uno scontro frontale. E si riaccende il dibattito.

Il proprietario cinese di una Tesla Model 3 aveva deciso di mostrare su Douyin, il TikTok locale, quanto fosse straordinario il Full Self-Driving. Ma la dimostrazione si è rapidamente trasformata nel peggior incubo pubblicitario possibile. Il sistema si è immesso autonomamente nella corsia di marcia opposta e si è schiantato frontalmente contro un altro veicolo, il tutto ripreso in tempo reale davanti a un pubblico che probabilmente non si aspettava uno spettacolo del genere.

Tesla con FSD attivo causa scontro frontale

Nessun ferito grave per fortuna, ma un promemoria brutale di quanto il nome “Full Self-Driving” sia lontano dalla realtà. Perché dietro il marketing altisonante e le promesse di Elon Musk, la verità è che Tesla vende sistemi di assistenza alla guida avanzati, non auto autonome. Ma guai a dirlo agli utenti che si fidano del nome.

Tesla si difende dicendo che è tutto chiaro, l’Autopilot e il Full Self-Driving sono sistemi di Livello 2, cioè l’auto può gestire sterzo, accelerazione e freni ma solo se il conducente sta attento. Chi guida deve tenere le mani sul volante, guardare la strada ed essere pronto a prendere il controllo. La responsabilità legale è sua, non dell’auto né di Tesla. Ma qui sta il problema, chiamare un sistema “Full Self-Driving” quando serve una supervisione continua è fuorviante. Il nome fa credere che l’auto sia molto più autonoma di quanto sia davvero.

Musk invita a usare il telefono alla guida

L’ambiguità non è casuale, è parte della strategia. Elon Musk ha recentemente affermato che i conducenti potrebbero usare il telefono mentre il FSD è attivo. Frase che contraddice direttamente le linee guida di sicurezza di qualsiasi sistema di assistenza alla guida, ma che alimenta l’illusione che la macchina sia davvero autonoma. È un messaggio pericoloso che confonde ulteriormente le persone su cosa possano e non possano fare.

L’estate scorsa è arrivata la prima sentenza che ha ritenuto l’Autopilot di Tesla responsabile di un incidente mortale. Un caso che dimostra quanto possa essere pericoloso fidarsi troppo di questi sistemi. Eppure Tesla continua a spingere il Full Self-Driving come se fosse la soluzione definitiva alla guida, moltiplicando le iniziative per distribuirlo in Europa dove le autorità di regolamentazione, molto più prudenti degli enti americani, guardano con sospetto a un nome così fuorviante.

La Cina costringe Tesla a cambiare nome

Non è un caso che in Cina, Tesla abbia dovuto modificare il nome del sistema su richiesta esplicita delle autorità locali. Troppo ingannevole, hanno detto. Troppo ambiguo per un prodotto che è tutt’altro che completamente autonomo. Ma il danno comunicativo oramai è già fatto.

Il video dell’incidente mostra chiaramente che il Full Self-Driving era attivo al momento dei fatti e che ha iniziato autonomamente la manovra che ha portato allo scontro frontale. Nessun intervento del conducente, nessun segnale di allarme prima che fosse troppo tardi. Il sistema ha semplicemente deciso di immettersi nella corsia opposta, come se quella fosse la strada giusta da prendere.

Un errore che un essere umano attento non farebbe mai, ma che un sistema di intelligenza artificiale, per quanto sofisticato, può ancora commettere perché non “capisce” veramente cosa sta facendo. Vede sensori, elabora dati, prende decisioni sulla base di algoritmi, ma non ha il buonsenso di un conducente che sa riconoscere quando qualcosa non torna.

Il divario tra promesse e realtà

Tesla continua a confondere deliberatamente i confini tra assistenza alla guida e guida autonoma. L’uso reale del Full Self-Driving si discosta regolarmente dalla definizione normativa proprio perché il nome stesso crea aspettative sbagliate. Le persone si fidano troppo, abbassano la guardia, credono che la macchina possa davvero guidare da sola.

Finché Tesla si ostinerà a usare nomi come “Autopilot” e “Full Self-Driving” per sistemi che richiedono un controllo costante, continueranno a capitare incidenti come quello cinese. Perché alla fine, le parole contano. E chiamare qualcosa “completamente autonomo” quando non lo è, non è solo marketing aggressivo, ed è pericoloso.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
29 dic 2025
Link copiato negli appunti