Il Tesla Full Self Driving System è sicuro? La domanda è lecita, dopo che uno youtuber ha pubblicato il video del dispositivo messo all’opera. La casa californiana ha da poco distribuito un aggiornamento software disponibile a pochi volontari, che fa aggiungere alle auto un sistema di guida automatica. Il risultato sulla strada lo illustra AI Addict, l’autore del video del test drive. Ed è sconcertante: tra errori banali e situazioni potenzialmente rischiose, l’FSD fallisce anche le prove più elementari. Un’altra gatta da pelare per Elon Musk, che nelle scorse settimane si sta facendo notare più per le grane legali e politiche che non per i successi della sua creatura che guarda al futuro (con i paraocchi?).
Accuse di spionaggio per Tesla di Elon Musk
Tesla, il Full Self Driving è davvero così pericoloso?
Il video pubblicato da Ai Addict non lascia troppo spazio alle interpretazioni. Durante il test drive, avvenuto per le strade di Oakland, in California, la Model 3 oggetto della prova mostra un’insieme di prestazioni imbarazzanti da parte del sistema FSD. Ad esempio, durante un cambio di corsia per svoltare, la macchina non riconosce bene i coni arancioni che delimitano le carreggiate e gli va contro. Solo l’intervento del conducente evita il disastro.
Un altro episodio riguarda un vicolo, dove ad un certo punto si deve girare a destra per evitare una recinzione. Il sistema non riconosce la curva e va dritto verso la rete, e anche qui, è il conducente ad evitare un potenziale disastro. Il video mostra inoltre altri orrori automobilistici, dagli attraversamenti degli incroci con il semaforo rosso, a varie collisioni sfiorate, all’invasione delle corsie altrui. C’è persino un momento in cui la Model 3 attraversa un incrocio ignorando lo stop, rischiando di farsi colpire dalle vetture che vengono dalla parte opposta! Una situazione estremamente grave, per la quale né la vettura né il tester intervengono. Il resto lo potete vedere nel video, che lascia aperte molte domande.
Costruttore irresponsabile
La prima domanda che viene in mente è perché Tesla abbia già messo in commercio un sistema, come il Full Self Driving, altamente impreparato. La guida autonoma serve a prevenire il rischio d’incidenti, ammesso che sia fattibile. Allo stato attuale, la tecnologia che la rende funzionante è ancora immatura, e dovrebbe essere sperimentata a dovere prima di metterla in mano all’utente della strada. Il fatto di trasformare il cliente in un beta tester, facendogli rischiare l’osso del collo, e per di più facendolo pagare, non è solo irresponsabile, è criminale.
Tesla, la guida autonoma ora è in…abbonamento
A proposito di mancanza di responsabilità, in caso d’incidente Tesla se ne lava spesso le mani. Lo abbiamo già visto con l’Autopilot, dispositivo spacciato spudoratamente per autonomo, e che ha mietuto decine e decine di vittime senza che la casa ne riconoscesse i limiti. Nel caso di FSD, Tesla lascia che sia il cliente ad assumersi i rischi del collaudo, proteggendosi con il fatto che la sperimentazione occulta è su base volontaria. Un’atteggiamento inaccettabile, che a parer nostro deve essere punito. perché va bene sognare e far evolvere la tecnologia, ma non a discapito della vita umana. Speriamo che la politica si svegli, e intervenga nel modo corretto. Nel frattempo, pensateci bene, prima di farvi affascinare da un futuro che non c’è (ancora).
Tesla ed FSD, la California vuole vederci chiaro