De NHTSA heeft een onderzoek afgerond naar crashes waarbij Tesla Autopilot betrokken is. De resultaten zijn redelijk ontluisterend.
Een van de vele mysterie’s van de moderne wereld is voor mij toch wel dat Tesla het Amerikaanse publiek blootstelt aan Autopilot. Het is immers het land waar je voor honderden miljoenen de bietenbrug op kan gaan als je te hete koffie in iemands schoot laat vallen. Dus wat voor een enorm pikante plaatjes moet Tesla hebben van alle rechters en politici dat ze het aandurven een robotische bestuurder los te laten op het verkeer?
Officieel is Autopilot (en Full Self Driving) een rijhulp. Maar Elon Musk heeft nooit echt veel moeite gedaan te verstoppen dat de (uiteindelijke) bedoeling is dat Tesla’s autonoom rijden. Helaas gebruiken veel bestuurders het ook al als zodanig. In drie jaar tijd onderzocht de National Highway Traffic Safety Association 956 ongelukken. Het stelde vast dat in maar liefst 467 daarvan Autopilot een rol speelde. 13 van de ongelukken hadden een dodelijke afloop.
De NHTSA gaat mee in de notie van Tesla dat deze ongelukken voorkomen hadden kunnen worden als bestuurders het systeem ‘correct hadden gebruikt’. Dat wil zeggen als rijhulp en niet als automatische piloot. Maar tegelijkertijd spreekt de NHSTA uit dat de bewoordingen door Tesla (Autopilot en Full Self Driving) niet correct zijn. Men spreekt van een ‘kritieke veiligheidskloof’ tussen de geschepte verwachtingen en de realiteit.
Tesla heeft inmiddels het systeem geupdated. Maar de NHTSA laat nu al weten dat dit waarschijnlijk het probleem niet heeft opgelost. Er zijn alweer nieuwe meldingen geweest sindsdien. De organisatie gaat ook die weer onderzoeken. Wordt dus vervolgd.
Dank aan Tesla afficionado @steephh voor de tip!
Johanneke zegt
De namen zijn idioot. Dat dit mag snap ik geen jota van. Als je een domme gans (m/v/x) in zo’n auto zet, en er is een functie die full self driving heet, dan is de kans nogal aanwezig dat diegene denkt dat het doet wat het zegt dat het doet, wat het dus niet doet.
Trojan zegt
Mensen die te dom zijn om zo’n naampje te interpreteren (en vergeet niet dat een Tesla je werkelijk bestookt met veiligheidswaarschuwingen) behoren uiteraard helemaal geen rijbewijs te hebben, daar ligt het werkelijke probleem. Maar ’t is makkelijker om met het vingertje naar Tesla te wijzen.
papa zegt
full self driving is niet mis te interpreteren… Je kan ook alles willen verdedigen
Paul58 zegt
Vandaar zijn er ook handleidingen en staat het in koeieletters als waarschuwing elke keer dat je het aan het uit zet. Maarja logisch nadenken zit er helaas niet meer in voor veel mensen. Mensen worden dommer met de tijd, doet me een beetje denken aan de film Idiocracy
Trojan zegt
Hou toch op man. Zodra je een paar seconden het stuur loslaat begint ie alweer te piepen en te zeuren dat je het stuur moet pakken en je aandacht erbij moet houden. Hoe duidelijk wil je het hebben dan? En dan toch nog blijven doorzeuren over het naampje, redelijk kansloos.
bitd zegt
Dit was voorheen, waar het onderzoek over gaat, niet het geval.
Johanneke zegt
Bedenk hoe dom de gemiddelde persoon (amerikaan) is, en bedenk dan dat de helft van de mensen nog dommer is.
moveyourmind zegt
Vervelend voor de betrokkenen, maar het helpt Tesla wel om bovenaan in het lijstje van auto’s met de laagste onderhoudskosten te eindigen.
Flutterbear zegt
Honderden auto’s op miljoenen gaat echt geen impact hebben..
Flutterbear zegt
FSD heeft monitoring via de cabine camera, Autopilot niet. Het feit dat niemand deze twee uit elkaar kan halen zegt genoeg over de expertise.
Autopilot is overigens per definitie niet automatisch, in een vliegtuig zitten geen twee piloten om elkaar gezelschap te houden hoor..
rwdftw zegt
Hier vergis je je. Ook de auto’s met alleen AutoPilot hebben een cabine camera en als je andere dingen doet dan opletten wordt je automatisch gestraft. Bij 5 straffen is het een weekje zonder AP. Daarna kan je het weer aanzetten.
Flutterbear zegt
Die zit er wel in maar wordt niet gebruikt. Autopilot kijkt alleen naar weerstand op het stuur.
1000bochten zegt
Nee er is meer, als ik naar mijn telefoon kijk vlak nadat ik autopilot heb aangezet, krijg ik een waarschuwing dat ik moet opletten. Dus kennelijk wordt er ook op je ogen gelet. Alleen met zonnebril op krijg j geen waarschuwing, omdat je kijkrichting niet goed te zien is.
mc96 zegt
Eigelijk zegt de NHTSA dus dat de systemen niet falen maar de benamingen valse verwachtingen . Voor FSD klopt dat volgens mij. Mbt autopilot zit het probleem is wat de leek verstaat onder autopilot en wat het werkelijk inhoudt (het is een term uit de luchtvaart). In een vliegtuig kunnen de piloten het vliegtuig bepaarde taken laten uitvoeren hetgeen de workload verminderd. Bijvoorbeeld een bepaalde koers of hoogte aanhouden. Dat betekent niet dat de piloten die systemen niet voortdurend moeten monitoren. In een auto is een eenvoudige cruizecontrol al een vorm van automatische piloot.
E-V8 zegt
Helaas is Autoblog de boel weer flink aan het opstoken. Goede journalistiek zou het hele verhaal vertellen en niet stukken weglaten, die het verhaal een stuk genuanceerder kunnen maken, maar ja, dat verkoopt niet zo lekker.
jaapiyo zegt
Tsja, wij zijn net The Verge wat dat betreft https://www.theverge.com/2024/4/26/24141361/tesla-autopilot-fsd-nhtsa-investigation-report-crash-death. Of engadget https://www.engadget.com/nhtsa-concludes-tesla-autopilot-investigation-after-linking-the-system-to-14-deaths-161941746. Of Wired https://www.wired.com/story/tesla-autopilot-risky-deaths-crashes-nhtsa-investigation/. Of het altijd kritische InsideEVs https://insideevs.com/news/671861/tesla-autopilot-736-crashes-17-deaths-nhtsa/amp/
nameel zegt
Om dan maar even redacteur voor autoblog te spelen. Volgens de NHTSA waren er;
956 crashes tot aug 30 2023
in 50% van de crashes (489) was er 1.) er onvoldoende gegevens waren om een beoordeling te maken; 2.) het andere voertuig maakte een fout; 3.) Autopilot bleek niet in gebruik te zijn; of 4.) de crash had verder geen verband met EA22002 (de standing order van de nhtsa over level2 adas).
Van de overgebleven 467 crashes, waren er;
211 crashes die voorkomen hadden kunnen worden als de tesla bestuurder beter op had gelet.
111 crashes waarbij autopilot uit stond terwijl de bestuurder dacht dat hij aan stond, en zo buiten de rijbaan terechtkwam.
145 buiten de rijbaan raken door omstandigheden met lage tractie, zoals natte wegen.
13 crashes waarbij “one or more fatalities and many more involving serious injuries, in which foreseeable driver misuse of the system played an apparent role.”
rwdftw zegt
En daarop moest er een softeware update overheen die pas aan het einde van het jaar werd doorgevoerd. Die update is nu 5 maanden oud en gegevens moeten nog geanalyseerd worden.
audirs3 zegt
dank voor deze toelichting!
Eigenlijk zijn die 145 crashes met ‘lage tractie’ de enige die je autopilot dan echt kan kwalijk nemen. Ik neem zelf altijd een beetje gas terug als er sneeuw ligt, kennelijk doet autopilot dat niet zo goed…
Joris24 zegt
Ik ga ervan uit dat Tesla ook wel machine learning in z’n autopilot heeft ingebouwd. Voorzichtige aanname, maar als er een crash gebeurt doordat de auto te hard gereden heeft bij bijv. water of sneeuw, zou een goed gebouwde autopilot een vergelijkbare situatie in de toekomst moeten herkennen en daar op letten. Terwijl een gewone automibilist niet leert van de fouten van een andere willekeurige automobilist. Eigenlijk zou je ook gewoon willen weten hoeveel crashes agv ‘lage tractie’ er gebeuren per gereden kilometers met menselijke automibilisten. Wellicht is die autopilot niet onfaalbaar, maar wel slimmer dan menselijke bestuurders.
mashell zegt
Maar kunnen nu nabestaanden met dit rapport in de hand Tesla kapot gaan procederen? Tegenvallende verkopen, paniek reacties daarop, Musk die vele miljarden aan bonus wil, een negatief NHTSA rapport, het is geen goede tijd voor Tesla.
Marco Pachen zegt
Ontluisterend maar niet onverwacht toch?
Ik rijd geen tesla en ben al zeker geen fan maar volgens mij kan je niet langs alle veiligheidswaarschuwingen kijken als je deze optie(s) aanvinkt of activeert.
Joris24 zegt
Eenzijdig. Wat natuurlijk niet onderzocht is, is hoeveel ongelukken agv menselijk handelen door de autopilot voorkomen zijn die anders wel tot ongelukken geleid hadden. Ik zou pleiten voor een aantal ongelukken per 1 miljoen gereden kilometers in bijv. drie categorieëen, licht / middel / zwaar, en dat afzetten tegen reguliere automobilisten.
Dat er ongelukken met een autopilot gebeuren is niet gek, maar ik sta ervan te kijken hoeveel mensen aannemen dat dat iets negatiefs is tov gewone menselijke bestuurders zonder vergelijkende cijfers. Een autopilot raakt niet vermoeid of agressief, gebruikt geen drugs of mobiele telefoon, maar heeft wel weer andere manco’s die met machine learning steeds minder zouden moeten worden. Mensen gaan niet beter autorijden, maar van elke fout leert een autopilot wél weer.
pomoek zegt
Het probleem zit er volgens de NHTSA vooral in de naam autopilot. Het zou beter “rij assistentie” kunnen worden genoemd.
Daarnaast, en ik geef toe een beetje flauw: hoeveel mensenlevens zijn er gered door dit soort rijhulpsystemen?
Joris24 zegt
Niet per se flauw. Ik had dat ook al gereageerd, maar wacht nog op moderatie. Hoeveel reacties zijn er niet gebeurd die wel gebeurd zouden zijn doordat mensen vermoeid, onoplettend, onder invloed, agressief of wat dan ook geweest waren?
mashell zegt
Inderdaad als het “rij assistentie” of James, Henry, Karen, Condoleezza of Joe geheten dan hadden er mensen minder op vertrouwd en waren er minder ongelukken gebeurd. Dat is het punt van de NHTSA. De huidige namen Autopilot en FSD scheppen verwachtingen die niet waar gemaakt worden.
Trojan zegt
Als je alleen maar de folder leest (en verder onder een steen hebt geleefd) kan je nog een andere verwachting hebben. Maar zodra je instapt en een paar seconden je stuur loslaat begint ie al te piepen en meldingen te tonen dat je je stuur moet vasthouden en moet opletten. Welke verkeerde verwachtingen hebben mensen dan tijdens het rijden nog precies?
pomoek zegt
Wat ik begrijp, en dat blijkt ook uit het onderzoek, hebben mensen dus nog steeds die verkeerde verwachtingen als ze in een Tesla rijden. Ik ben het met je eens, het is om al je haar van uit je kop te trekken, maar het gebeurt gewoon.