Onderzoek: Tesla mede schuldig aan fataal ongeluk
Tesla is mede schuldig aan het dodelijke ongeluk met een Tesla in Florida, concludeert de Amerikaanse Onderzoeksraad voor de Veiligheid.
Het ongeluk met een Tesla die reed met de Autopilot-functie gebeurde op 7 mei 2016 toen een vrachtwagen op een tweebaansweg in de Amerikaanse staat Florida linksaf sloeg en de tegemoetkomende Tesla over het hoofd zag. Die auto werd op dat moment bestuurd door de automatische piloot. Het ongeluk was groot nieuws. De Tesla schoof onder de vrachtwagen, waarbij door de kracht van de botsing het dak van de auto werd gescheurd. De enige inzittende van de auto kwam om, de vrachtwagenchauffeur overleefde het ongeluk.
Extra onderzoek
De National Transportation Safety Board (NTSB, vergelijkbaar met de Nederlandse Onderzoeksraad voor de Veiligheid) stelde een onderzoek in naar het ongeluk en de resultaten daarvan werden eerder deze week bekend.
Allereerst concludeert de Amerikaanse overheidsinstantie dat vermoeidheid, telefoneren, alcohol- of drugsgebruik, een mechanisch defect of de staat van de weg het ongeluk niet veroorzaakt hebben. De vrachtwagenchauffeur had weliswaar marihuana gebruikt voor het ongeluk, maar het kon niet worden vastgesteld of dat zijn rijgedrag had beïnvloed.
'Autopilot zag vrachtwagen niet'
Wat er wel mis ging, is dat de automatische piloot de overstekende vrachtwagen niet zag en het dreigende ongeluk ook niet. Dat kon het systeem ook niet, schrijven de onderzoekers. Als gevolg daarvan verminderde de auto geen vaart, werd het alarm niet ingeschakeld en werd het noodstopsysteem niet geactiveerd.
En hier zit de verantwoordelijkheid voor makers van zelfrijdende auto's, vindt de NTSB. Als de automatische piloot zich niet automatisch aanpast aan gevaren, dan blijft de kans aanwezig dat bestuurders het systeem op de verkeerde manier gebruiken.
'Te veel vertrouwd op Autopilot'
De onderzoeksraad maakt verder gehakt van de manier waarop Tesla in de gaten houdt of de bestuurder nog wel enigszins bij de les blijft. Dat gebeurt door de kracht te meten waarmee de bestuurder aan het stuur draait, maar dat is een 'armzalige manier', aldus de onderzoekers.
Uit de data blijkt wel dat de bestuurder de automatische piloot regelmatig gebruikte en er te veel op vertrouwde. De onderzoekers schrijven dat de bestuurder niet goed wist wat het systeem wel en niet kon.
'Tesla was overambitieus'
Het ongeluk heeft ervoor gezorgd dat bedrijven veel voorzichtiger zijn geworden met de uitrol van techniek op het gebied van zelfrijdende auto's, zegt hoogleraar Maarten Steinbruch van de TU Eindhoven. "Tesla was overambitieus, maar ze hebben wel geleerd van het ongeluk." De autofabrikant heeft de automatische piloot na het ongeluk geüpdatet. Volgens hem zal de uitkomst van het onderzoek ertoe leiden dat fabrikanten kopers van zelfrijdende auto's zullen laten tekenen voor hun eigen verantwoordelijkheid.
Hij benadrukt dat op de lange termijn zelfrijdende auto's veel veiliger zijn. "Wereldwijd vallen er jaarlijks 1,2 miljoen doden in het verkeer, 95 procent daarvan worden veroorzaakt door menselijke fouten", plaatst hij het ongeluk in perspectief. "Als deze techniek 90 procent van de fouten voorkomt, scheelt dat enorm veel doden." Maar de techniek is niet onfeilbaar, vervolgt hij: "We moeten eraan wennen dat er nog wel vaker fouten in de techniek zitten, maar uiteindelijk is het veiliger."
Regelgeving
De onderzoeksraad roept de federale instantie die over de regels op snelwegen gaat op om snel met minimale eisen te komen waar zelfrijdende auto's aan moeten voldoen.
Over wetgeving voor zelfrijdende auto's breken beleidsbepalers zich op dit moment het hoofd. In Duitsland nam de regering onlangs regels aan over wat zelfrijdende auto's moeten doen in geval van een ongeluk. De belangrijkste: een mensenleven telt zwaarder dan dat van een dier of het voorkomen van materiële schade.