©Dirty Tesla

Filmpje wijst op tekortkomingen Tesla Full Self Driving bij detecteren objecten

Pijnlijke 'misser': Tesla Cybertruck met FSD rijdt zonder aarzelen nepkind aan

18 november om 22:09

Tijdens een onafhankelijke veiligheidstest van Dirty Tesla bleek dat een Tesla Cybertruck met Full-Self Driving (FSD) meerdere keren doorreed wanneer een pop of kleine objecten in zijn pad werden geplaatst. Het is dan ook een wake-upcall voor iedereen die denkt dat FSD automatisch en tijdig obstakels en mensen zal herkennen en ontwijken.

De tests werden overdag uitgevoerd op een onverharde weg. Objecten zoals een witte emmer, een kleine doos en een oefenbal werden in het pad van de Cybertruck geplaatst. Het gevolg kun je inmiddels wel raden: de truck, met een gewicht van bijna 3000 kilo, reed zonder te stoppen over deze objecten heen, zonder ze te detecteren.

Grotere objecten, zoals een kinderfiets, werden daarentegen wel opgemerkt dankzij het Autonomous Emergency Braking (AEB)-systeem, dat ingreep om een botsing te voorkomen. 

Pop van achtjarig kind werd niet herkend

De echte uitdaging volgde echter met een pop die leek op een achtjarig kind. In dat geval gaf het systeem een onduidelijk en spookachtig beeld weer op het scherm en slaagde het er niet in om het ‘kind’ te herkennen. Zelfs toen de arme pop haar armen omhoog stak, bleef ze onzichtbaar voor FSD.

In andere tests, waarbij de onderzoeker zelf voor de auto ging staan, reageerde FSD ook onvoorspelbaar. In één geval manoeuvreerde de Cybertruck rakelings langs hem, terwijl de auto in een andere poging dankzij het ingebouwde AEB-systeem wél op tijd stopte.

Systeem van Tesla is niet volledig autonoom

Hoewel Tesla FSD promoot als een geavanceerd rijsysteem, is het officieel geclassificeerd als een Level 2 hulpsysteem. Dit betekent dat het niet volledig autonoom is en dat constante supervisie door de bestuurder vereist blijft. Ondanks deze beperkingen blijft Tesla FSD actief promoten, zoals in het geval van de Tesla Robotaxi.

Dit project, dat Elon Musk tijdens een evenement in Los Angeles onthulde, is bedoeld om een zelfrijdend taxinetwerk mogelijk te maken. Echter, veiligheidsexperts en wetenschappers waarschuwen al langer voor de inconsistenties van FSD, vooral gezien de tientallen dodelijke ongevallen en honderden crashes waarbij het systeem betrokken was.

Andere prioriteiten

Als een vergelijkbare situatie zich voordoet bij een andere autofabrikant, is de ophef niet te overzien. Bij Tesla lijkt het echter te worden afgedaan als 'collateral damage'. Musk lijkt incidenten eerder te zien als een kans om te leren en data te verzamelen dan als een noodzaak om veiligheid te garanderen. Daar is op zich iets voor te zeggen, maar de vraag blijft waar experimenteren ophoudt en waar verantwoordelijkheid begint. Tesla zou deze tests ook grondiger en op eigen initiatief kunnen uitvoeren, in plaats van risico’s te nemen met klanten als proefkonijnen. Ondertussen onderzoekt Tesla manieren om regelgeving rondom FSD te versoepelen via de Department of Government Efficiency (DOGE), een nieuw initiatief onder leiding van Musk.

Volg meer nieuws over Tesla en mis niets met het Bright WhatsApp-kanaal.