DETROIT – De verkeersveiligheidsdienst van de Amerikaanse overheid onderzoekt het “Full Self-Driving”-systeem van Tesla na meldingen te hebben ontvangen van ongevallen bij slecht zicht, waaronder een waarbij een voetganger om het leven kwam.
De National Highway Traffic Safety Administration zei in documenten dat het het onderzoek donderdag opende nadat het bedrijf vier crashes had gemeld waarbij Tesla’s te maken kregen met schittering van de zon, mist en stof in de lucht.
Aanbevolen video’s
Naast de dood van de voetganger was er bij een ander ongeval sprake van letsel, aldus de dienst.
Onderzoekers zullen onderzoeken of ‘Full Self-Driving’ in staat is om ‘verminderde zichtomstandigheden op de weg te detecteren en er op passende wijze op te reageren, en, zo ja, welke omstandigheden deze ongevallen hebben veroorzaakt.’
Het onderzoek heeft betrekking op ongeveer 2,4 miljoen Tesla’s uit de modeljaren 2016 tot en met 2024.
Er werd vrijdag een bericht achtergelaten waarin werd gevraagd om commentaar van Tesla, dat herhaaldelijk heeft gezegd dat het systeem niet zelf kan rijden en dat menselijke bestuurders te allen tijde klaar moeten staan om in te grijpen.
Vorige week hield Tesla een evenement in een studio in Hollywood om een volledig autonome robotaxi zonder stuur of pedalen te onthullen. Musk, die al eerder autonome voertuigen heeft beloofd, zei dat het bedrijf van plan is om volgend jaar de autonome modellen Y en 3 zonder menselijke bestuurders te laten rijden. Robotaxis zonder stuurwielen zou in 2026 beschikbaar zijn, te beginnen in Californië en Texas, zei hij.
De impact van het onderzoek op de zelfrijdende ambities van Tesla is niet duidelijk. NHTSA zou elke robotaxi zonder pedalen of stuur moeten goedkeuren, en het is onwaarschijnlijk dat dit zal gebeuren zolang het onderzoek nog gaande is. Maar als het bedrijf autonome voertuigen in zijn bestaande modellen probeert in te zetten, valt dat waarschijnlijk onder de nationale regelgeving. Er bestaat geen federale regelgeving die specifiek gericht is op autonome voertuigen, hoewel deze aan bredere veiligheidsregels moeten voldoen.
NHTSA zei ook dat het zou onderzoeken of er andere soortgelijke crashes met “Full Self-Driving” hebben plaatsgevonden bij slecht zicht, en dat het bij het bedrijf informatie zal inwinnen over de vraag of eventuele updates de prestaties van het systeem onder die omstandigheden hebben beïnvloed.
“In het bijzonder zal deze evaluatie de timing, het doel en de mogelijkheden van dergelijke updates beoordelen, evenals Tesla’s beoordeling van hun veiligheidsimpact”, aldus de documenten.
Tesla rapporteerde de vier crashes aan NHTSA in opdracht van de instantie die alle autofabrikanten bestrijkt. Volgens een database van het bureau werd de voetganger in november 2023 gedood in Rimrock, Arizona, nadat hij werd aangereden door een Tesla Model Y uit 2021. Rimrock ligt ongeveer 161 kilometer ten noorden van Phoenix.
Het Arizona Department of Public Safety zei in een verklaring dat de crash net na 17.00 uur op 27 november op de Interstate 17 plaatsvond. Twee voertuigen kwamen met elkaar in botsing op de snelweg en blokkeerden de linkerrijstrook. Een Toyota 4Runner stopte en twee mensen stapten uit om te helpen bij de verkeerscontrole. Een rode Tesla Model Y raakte vervolgens de 4Runner en een van de mensen die eruit stapten. Een 71-jarige vrouw uit Mesa, Arizona, werd ter plaatse dood verklaard.
De botsing gebeurde omdat de zon in de ogen van de Tesla-bestuurder scheen, dus de Tesla-bestuurder werd niet aangeklaagd, zei Raul Garcia, openbare voorlichter van de afdeling. Verblinding door de zon was ook een factor die bijdroeg aan de eerste botsing, voegde hij eraan toe.
Tesla heeft tweemaal ‘Full Self-Driving’ teruggeroepen onder druk van de NHTSA, die in juli informatie zocht bij de politie en het bedrijf nadat een Tesla die het systeem gebruikte een motorrijder in de buurt van Seattle had getroffen en gedood.
De terugroepacties vonden plaats omdat het systeem was geprogrammeerd om stopborden bij lage snelheden te laten verschijnen en omdat het systeem andere verkeersregels overtrad. Beide problemen zouden worden opgelost met online software-updates.
Critici hebben gezegd dat het systeem van Tesla, dat alleen camera’s gebruikt om gevaren te detecteren, niet over de juiste sensoren beschikt om volledig zelfrijdend te zijn. Bijna alle andere bedrijven die aan autonome voertuigen werken, gebruiken naast camera’s ook radar- en lasersensoren om beter te kunnen zien in het donker of bij slecht zicht.
Musk heeft gezegd dat mensen alleen met hun gezichtsvermogen rijden, dus auto’s moeten met alleen camera’s kunnen rijden. Hij heeft lidar (lichtdetectie en bereik), waarbij lasers worden gebruikt om objecten te detecteren, een ‘dwaze boodschap’ genoemd.
De ‘Full Self-Driving’-terugroepacties kwamen na een drie jaar durend onderzoek naar Tesla’s minder geavanceerde Autopilot-systeem dat crashte op noodgevallen en andere voertuigen die op snelwegen geparkeerd stonden, waarvan vele met knipperende waarschuwingslichten.
Dat onderzoek werd afgelopen april afgesloten nadat het bureau Tesla onder druk had gezet om zijn voertuigen terug te roepen om een zwak systeem te versterken dat ervoor zorgde dat bestuurders opletten. Een paar weken na de terugroepactie begon NHTSA te onderzoeken of de terugroepactie werkte.
NHTSA begon haar Autopilot-crashonderzoek in 2021, nadat ze elf meldingen had ontvangen dat Tesla’s die Autopilot gebruikten, geparkeerde hulpverleningsvoertuigen raakten. In documenten waarin wordt uitgelegd waarom het onderzoek werd beëindigd, zei NHTSA dat het uiteindelijk 467 crashes met Autopilot had gevonden, resulterend in 54 gewonden en 14 doden. Autopilot is een fraaie versie van cruise control, terwijl ‘Full Self-Driving’ door Musk is gefactureerd als in staat om te rijden zonder menselijke tussenkomst.
Het onderzoek dat donderdag werd geopend, betreedt nieuw terrein voor NHTSA, dat de systemen van Tesla eerder zag als hulp voor bestuurders in plaats van zelf te rijden. Met het nieuwe onderzoek concentreert het bureau zich op de mogelijkheden van ‘volledig zelfrijdend rijden’ in plaats van er simpelweg voor te zorgen dat bestuurders opletten.
Michael Brooks, uitvoerend directeur van het non-profit Center for Auto Safety, zei dat bij het vorige onderzoek naar Autopilot niet werd gekeken naar de reden waarom de Tesla’s geen hulpvoertuigen zagen en stopten.
“Vroeger legden ze de verantwoordelijkheid bij de bestuurder in plaats van bij de auto”, zei hij. “Hier zeggen ze dat deze systemen niet in staat zijn veiligheidsrisico’s op de juiste manier te detecteren, ongeacht of de chauffeurs opletten of niet.”