Tesla, come ti confondo l'AutoPilot

Tesla, come ti confondo l'AutoPilot

Ricercatori cinesi sono riusciti a nascondere degli ostacoli ai sensori radar e ultrasuoni di una Tesla Model S, rendendo inaffidabile la funzione di guida autonoma. Tesla: nessun pericolo di attacchi reali
Ricercatori cinesi sono riusciti a nascondere degli ostacoli ai sensori radar e ultrasuoni di una Tesla Model S, rendendo inaffidabile la funzione di guida autonoma. Tesla: nessun pericolo di attacchi reali

La funzionalità di guida automatica in dotazione ai veicoli elettrici prodotti da Tesla è sotto i riflettori in seguito al primo incidente mortale avvenuto lo scorso 5 luglio. Gli ultimi a testare i limiti attuali del sistema sono stati alcuni ricercatori cinesi della Zhejiang University in collaborazione con gli esperti della compagnia di sicurezza informatica Qihoo 360, in uno studio presentato in occasione della conferenza DEF CON . Il risultato è stato quello di ingannare tutta la dotazione dei sensori di supporto al pilota automatico Tesla, portando alla mancata rilevazione degli ostacoli invece presenti di fronte al veicolo.

Le vulnerabilità identificate non sono affatto ad appannaggio esclusivo di Tesla: anche veicoli Audi, Volkswagen e Ford dotati di funzioni di guida automatica sono risultati attaccabili, ma i ricercatori si sono concentrati su una Tesla Model S perché ritenuta un test più probante in quanto dotata di sensori più sofisticati. La Tesla è dotata di sensori a ultrasuoni nei paraurti, un medium range radar montato all’interno della presa d’aria frontale, e telecamere su tutti e quattro i lati della vettura. I sensori svolgono funzioni differenti, ma operano tutti misurando la quantità di segnale riflesso dagli ostacoli .

La principale strategia di attacco adoperata è stata quella del jamming , ovvero la generazione di interferenze tramite segnali molto più forti di quelli elaborabili o correggibili dal sistema sotto attacco. Una scheda basata su Arduino (un elemento non nuovo nel car hacking ) accoppiata ad un generatore di segnali da 90.000 dollari è stata programmata e posta di fronte alla Model S, costituendo un ostacolo da rilevare per l’AutoPilot. Nella demo fornita dai ricercatori a Forbes si vede la voluminosa attrezzatura sparire e riapparire a intermittenza sullo schermo della dashboard.

Il test è stato effettuato a veicolo statico per salvaguardare la costosa attrezzatura e l’integrità della Model S, ma i ricercatori sono certi che il pilota automatico Tesla non avrebbe potuto evitare l’ostacolo in quelle condizioni. L’attacco ad ultrasuoni ha però una portata limitata ad un metro se privo di amplificazione, a causa dell’attenuazione dei segnali tra i 40 e i 50 KHz. Gli studiosi si sono pertanto affidati anche a tecniche di spoofing , generando segnali radar artificiali molto simili a quelli che il veicolo si aspetterebbe di vedere “riflessi” dall’ostacolo. La tecnica è stata utilizzata per far comparire un ostacolo inesistente e “fare arrestare una Tesla quando non avrebbe dovuto”, affermano i ricercatori. Molto più low-tech, ma ugualmente efficace, l’attacco portato alle telecamere in dotazione, con LED economici accuratamente puntati per accecarle .

Tesla è stata avvisata dei risultati, raggiunti già a marzo. L’azienda di Elon Musk non li ritiene meritevoli di particolari contromisure: “abbiamo analizzato la ricerca e non siamo riusciti a riprodurre l’attacco in uno scenario realistico nei confronti di un veicolo Tesla. Non sono previsti aggiornamenti software in risposta a questi attacchi”. I ricercatori confermano che per il momento non c’è alcun pericolo , visto che il setup di attacco era puramente da laboratorio e mai in movimento, ma sostengono che il potenziale c’è. “Solo attaccanti altamente motivati e con molte risorse a disposizione potrebbero lanciare questo tipo di attacchi al momento”, chiarisce Wenyan Xu, uno dei ricercatori dietro lo studio.

Pur apprezzando la ricerca come quella probabilmente più onnicomprensiva finora svolta, alcuni osservatori hannp sottolineato la banalità e l’inapplicabilità dei risultati. Tuttavia secondo Craig Smith, esperto di sicurezza automobilistica e autore di Car Hacker’s Handbook , degli spunti utili per Tesla ci sarebbero: “Per un veicolo rimane importantissimo rilevare conflitti fra i sensori e una discrepanza significativa dovrebbe portare ad un arresto di emergenza. Tesla dovrebbe concentrarsi sulla gestione degli attacchi jamming, molto meno sofisticati dello spoofing ma ugualmente pericolosi”.

Stefano De Carlo

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
8 ago 2016
Link copiato negli appunti