De Autopilot in de omvangrijke grey matter van de succesvolle visionair staat momenteel in volle verdedigingsmodus. De vraag is of dat zo’n goede zaak is.
Tesla staat momenteel onder hoogspanning. Naar aanleiding van een tragisch dodelijk ongeval zijn verschillende instanties ter wereld bezig met een onderzoek naar het bedrijf dat ambieert cutting edge technologie op de markt te brengen. Powerhouses zoals de National Highway Traffic Safety Administration (NHTSA), Securities and Exchange Commission (SEC), het Duitse Kraftfahrt-Bundesamt (KBA) en de Nederlandse Rijksdienst Wegverkeer (RDW) zitten de Amerikaanse elektro-gigant op de nek.
Na het bekend worden van het dodelijke ongeluk leidde dit al tot een enigszins potsierlijke reactie van Tesla. Daarin benadrukte Tesla vooral dat statistisch gezien één dodelijk ongeval op de 130 miljoen mijlen die er inmiddels in totaal afgelegd zijn door de Tesla’s Autopilot geen reden is om te stellen dat de Autopilot gevaarlijk is. Sterker nog, ze zetten dit af tegen het gemiddelde aantal fatale ongevallen per gereden kilometers in het conventionele verkeer, dat vooralsnog hoger ligt dan in ‘Autopilot-verkeer’. Technisch gezien wellicht de waarheid, maar op basis van één geval niet per se relevant en bovendien ook een tikje kil.
Inmiddels heeft de NHTSA ook een onderzoek aangekondigd naar een ander ongeluk waarbij een Tesla Model X over de kop sloeg in Pensylvania. De bestuurder van die auto gaf aan dat Autopilot aanstond en hij dus even niet de bestuurder was. Dankzij deze onderzoeken of wellicht dankzij de vloerverwarming op Tesla’s HQ wordt het eindbaas Elon kennelijk toch een beetje warm onder de voeten, getuige een recente tweet. Hij slaat namelijk weer van zich af:
“Onboard vehicle logs show Autopilot was turned off in Pennsylvania crash. Moreover, crash would not have occurred if it was on.”
Als we echter de volledige bevindingen lezen, komt er toch een iets ander beeld naar voren van de crash. Misschien komt het door die limiet van 140 karakters:
“We got access to the logs. Data from the vehicle shows that Autosteer was not engaged at the time of this collision. Prior to the collision, Autosteer was in use periodically throughout the approximately 50-minute trip. The most recent such use ended when, approximately 40 seconds prior to the collision, the vehicle did not detect the driver’s hands on the wheel and began a rapidly escalating set of visual and audible alerts to ensure the driver took proper control. When the driver failed to respond to 15 seconds of visual warnings and audible tones, Autosteer began a graceful abort procedure in which the music is muted, the vehicle begins to slow and the driver is instructed both visually and audibly to place their hands on the wheel. Approximately 11 seconds prior to the collision, the driver responded and regained control by holding the steering wheel, applying leftward torque to turn it, and pressing the accelerator pedal to 42%. Over 10 seconds and approximately 300m later and while under manual steering control, the driver drifted out of the lane, collided with a barrier, overcorrected, crossed both lanes of the highway, struck a median barrier, and rolled the vehicle.”
Autosteer stond dus af en toe uit en aan gedurende de reis en ‘seconds from disaster’ was er een aparte sequentie van gebeurtenissen waarbij de auto waarschuwde dat er manueel ingegrepen moest worden. Daar werd eerst niet aan voldaan. Vervolgens is er een tweede procedure ingezet waarin de auto de muziek lager draait en de bestuurder nógmaals aanspoort het wiel in handen te nemen. Daar is wel aan voldaan, maar 300 meter later maakte de auto een dubbele koprol. Linksom of rechtsom lijkt het dus toch dat de autonome piloot een rol heeft gespeeld in het ongeval, al is het indirect. De conclusie dat het ongeluk níet zou hebben plaatsgevonden als Autosteer geactiveerd was, lijkt daarbij een opportunistische te zijn. Dat kan je in principe net zo min vaststellen als dat Christopher Froome gisteren samen met Bauke Mollema naar de meet was gereden in de Tour nadat hij van zijn race een biathlon maakte.
Bedankt David voor de tip!
josxkrs zegt
Ik blijf het toch een beetje apart vinden, oké je hebt ‘autopilot’ op je auto zitten. Je weet dat dit nog maar in een, al dan niet ver gevorderd, ontwikkelingsproces zit en toch vertrouw je (kennelijk blind) op dat ding. Anders knal je nou eenmaal niet op een vrachtwagen. Mijn enige vraag is: kun je Tesla de schuld geven als je zelf ligt te slapen achter het stuur? Antwoord zal ongetwijfeld ‘ja’ zijn, maar het is in mijn ogen bijzonder onterecht.
martinus zegt
@josxkrs: Mensen zijn beter in actief iets besturen, dan in de gaten houden of een systeem dat meestal heel goed werkt, faalt. Onder auto-piloot, kun je soms als mens het gevoel/inzicht hebben.. dit gaat mis.. ik moet NU ingrijpen.. terwijl het systeem het pas later doet. Als dat later ingrijpen normaal altijd goed gaat, (miljoenen kilometers) is het voor een mens heel moeilijk of bijna onmogelijk het moment te kiezente handelen als het systeem wel echt faalt.
Tot nu toe maakt Tesla nog niet meer doden dan menselijke chauffeurs zelf.
Maar het is wel héél gek dat Tesla,als het dan wel fout gaat.. zich volledig schuilt achter het principe van[b] ‘het is een bèta’ wij hebben geen enkele verantwoordelijkheid. [/b]
JanJansen zegt
@josxkrs: daar komt nog bij dat die autopilot nu al statistisch veiliger is dan een gemiddelde automobilist. Dat er jaarlijks 1,24 miljoen doden in het verkeer vallen accepteren we, omdat het menselijke fouten zijn. Maar een (mogelijke?) fout van een computer niet?
Stel je het eens voor: dat is een Boeing 747 vol mensen die elk uur verongelukt, dit moeten we toch niet accepteren?
Statistieken zijn kil ja, maar moeten we niet gewoon zo snel mogelijk autonoom gaan rijden en ophouden met deze claim cultuur.
martinus zegt
@JanJansen: Ik denk dat we moeten accepteren dat ook computers fouten maken. Net als mensen.
Als een menselijke bestuurder terwijl hij de auto bestuurd een fout maakt, is hij verantwoordelijk. Dan is het heel gek te stellen dat wanneer een computer een fout maakt, terwijl hij stuurt ineens elke vorm van verantwoordelijkheid niet zou hebben.
pinut187 zegt
@martinus: computers zijngemaakt door mensen dus..
reactief zegt
@JanJansen: Die bewering komt van Tesla zelf.
Ik ben benieuwd of dat nog steeds opgaat als je specificeert naar dodelijk ongelukken waarbij (relatief) nieuwe auto’s bij betrokken zijn, in dezelfde afzetmarkten.
Ik vraag me af of Tesla er dan nog steeds beter uitkomt.
JanJansen zegt
@reactief: ook Google kampt met dit probleem. Hun auto is zelfs veel veiliger dan een menselijke bestuurder. Maar op de een of andere manier accepteren we geen fouten van machines. Wel van veel slechtere bestuurders, ik ben toch te veel wetenschapper om dat te moeten accepteren. We moeten niet een slecht geïnformeerde groep mensen deze ontwikkelingen tegen laten werken. Er komen jaarlijks 0,44 miljoen mensen om bij oorlogen en moorden, dit staat in schril contrast met de aantallen verkeersslachtoffers van 1,2 miljoen.
martinus zegt
@JanJansen: Niet gek dat we de fouten niet accepteren.
Een mens die een fout maakt, is verantwoordelijk.
Als de systemen van Musk & Google een fout maken, zijn ze niet verantwoordelijk.
JanJansen zegt
@martinus: de vraag is dan, accepteer jij zo een hoog dodental? Of gaan we Tesla hun pioniers rol nu ontnemen zodat het nog langer duurt voordat het verkeer veiliger wordt?
We praten nog steeds over een Boeing 747 vol mensen die elk uur verongelukt.
martinus zegt
@JanJansen:
Je kan helemaal niet zeggen dat Autopiloot veiliger is dan zelf rijden. Je hebt daar veel te weinig data voor. Tot nu toe heeft Autopiloot nog maar 208M KM gereden, en heeft dat voor zover bekend 1 leven gekost. In 2010 hadden we 650 verkeersdoden in NL dus 1 per 220M gereden kilometers. Wereldwijd kost verkeer elke 60 Miljoen KM een leven.
Ik zie wel in dat Autopiloot beter kan worden dan de mens op termijn. Maar dan nog, is het gek dat Autopiloot wel stuurt, maar niet verantwoordelijk is.
desjonnies zegt
@josxkrs:
Wij mensen zijn zoogdieren. omnivoren en zijn vaak een stuk debieler dan we zelf doen voorkomen.
We zien hetzelfde min of meer aan de reactie van Elon Musk.
Want wie zegt me dat dat auto-steer systeem werkelijk uit stond?
Ik kan me voorstellen dat er meer dingen elektronisch gezien fout kunnen gaan dan mechanisch, simpel en alleen omdat dit een bijzonder gecompliceerd elektronisch systeem zal zijn dunkt me
645cabrio zegt
@josxkrs: Ik snap je reactie, maar volgens mij gaat het om meer dan dit ongeluk. Als de techniek die Tesla aanbiedt wat ze noemen inherent onveilig is, dan kun je er niet mee wegkomen door te stellen dat de bestuurder moet opletten. Dat is namelijk altijd het geval. Door de inherent onveilige techniek die Tesla heeft gebruikt bij het automatisch van rijbaan wisselen, laden ze nu de verdenking op zich om te snel features in de markt te zetten. Ze gebruiken dan de gedachte uit de technologie, dat het steeds aan beter wordt. Ook spreekt men van Autopilot, terwijl anderen van Assistent systemen spreken.
Tesla wil zich graag profileren als een bedrijf die alles slimmer en beter doet dan de gevestigde orde. Daarom hebben ze nu een probleem. Als je dit dodelijk ongeluk doortrekt naar de verkoopaantallen van bijvoorbeeld Toyota dan ga je schrikken. Tesla heeft in drie jaar ongeveer 50.000 autos verkocht. De teller staat nu op 1 dode. Toyota heeft in drie jaar 24 miljoen autos verkocht. Dezelfde ratio zou meer dan 400 doden betekenen. Om die reden hebben de andere fabrikanten vaak veel hogere normen voor het op de markt zetten van een systeem. Tesla buit dit uit door te doen of zij slimmer zijn. De rest heeft echter gewoon een hogere foutnorm. Ook hier op autoblog zie je vaak de reactie: Tesla laat de gevestigde orde op zijn grondvesten schudden.
De actie van de toezichthouders is er dus op gericht om te kijken wat voor kwaliteit en veiligheidsmarges Tesla aanhoudt, alvorens een systeem op de markt te zetten.
martinus zegt
@645cabrio: Veiliger of niet veiliger is nu nog onduidelijk.
Tesla heeft nu 1 dode per 208M KM, Nederland had er in 2010 1 per 220M gereden KM, in Amerika ligt dat aantal kilometers lager, en wereldwijd nog veel lager.
josxkrs zegt
@645cabrio: thanks voor je reactie, noem mij kortzichtig, op die manier had ik het zelf nog niet gezien. Er zit een bijzonder grote kern van waarheid in je betoog.
Dizono zegt
Mja, het roept wel de vraag op hoe semi-autonome auto’s moeten reageren als blijkt dat de bestuurder zelf niet op zit te letten. Ik zou geen betere manier weten eerlijk gezegd…
knipperlichtje zegt
@Dizono: ik denk dat de Tesla er na een batterij waarschuwingen vanuit gaat dat de bestuurder onwel is geworden, langzaam stoppen is dan de beste oplossing.
mashell zegt
@dizono: het lijkt me dat uitschakelen van de auto piloot in zo’n geval de slechtste optie is. Want dan is er helemaal geen oplettende “bestuurder”. Dus menselijke bestuurder wakker proberen te maken en als dat dan niet lukt de wagen stil zitten op een parkeerplaats.
subaru555 zegt
-edit: dank u, is inmiddels gefixt-
trustmeiamanengineer zegt
Precies, gewoon de schuld van de bestuurder dus. Was vast iets anders aan het doen dan rijden en opletten.
martinus zegt
@trustmeiamanengineer: Waarom is een chauffeur volledig zelf verantwoordelijk.. terwijl hij niet hij, maar Musk’s Autopiloot volledig de auto bestuurd?
benzinehoofd zegt
@martinus: Net zoals je als ouder volledig verantwoordelijk bent voor je minderjarige kind dat zonder jouw bemoeienis een ongeval veroorzaakt of vernielingen aanricht en net zoals de Bolsius en Zwaluw niet verantwoordelijk zijn als jij een kaars aansteekt die vervolgens jouw huis in lichterlaaie zet. Over fabrikanten van vrachtauto’s zullen we het maar even niet hebben.
Kappen met al die automatische onzin! Als mensen te dom en/of te lui zijn om een auto te besturen dan zijn er voldoende alternatieven: thuisblijven, lopen, fietsen, OV gebruiken, taxi nemen, enz.
martinus zegt
@benzinehoofd:
Een kind mag geen auto besturen.
Waarom wordt Autopiloot wel toegestaan?
Ik snap dat bij rijden met hulpmiddelen de bestuurder verantwoordelijk blijft.
Maar bij een auto die autonoom rijdt niet. He tlijkt nu alsof de persoon op de bestuurdersstoel wordt neergezet, om altijd de schuld te krijgen voor als het systeem faalt, en de bestuurder dat niet tijdig doorheeft.
benzinehoofd zegt
@martinus: Goed punt, zij het niet meer helemaal waar: tegenwoordig kunnen minderjarigen ook een rijbewijs halen. Maar ik doelde eigenlijk op kinderen te voet of op de fiets.
V.w.b. autopilot: piloten en schippers blijven ook verantwoordelijk als ze in hun (lucht)vaartuig de automatische piloot activeren. En terecht i.m.o. want het blijft een (geavanceerd en uitgebreid) hulpmiddel…
645cabrio zegt
@trustmeiamanengineer: Het gaat om veel meer. Als Tesla lagere foutmarges aanhoudt om te scoren bij het publiek hebben ze echt een probleem. 1 dode op 55.000 autos, is gelijk aan meer dan 400 bij de 24 miljoen autos die Toyota in drie jaar verkoopt.
trustmeiamanengineer zegt
@645cabrio: Er vallen ongetwijfeld meer dan 400 doden in/met Toyota’s elke 3jaar wereldwijd.
Het is een hulpmiddel, en dat lijken de meeste mensen maar niet te willen begrijpen. Dat de mens heel slecht is in alleen maar observeren, en ingrijpen als het fout dreigt te gaan is weer een heel ander verhaal. Je kan, en je mag gewoon niet blind vertrouwen op zo’n systeem, en Tesla zegt dat ook.
BaRa zegt
Als chauffeur moet je zelf ten allen tijde de controle over je voertuig behouden. Dat betekent: twee handen op het stuur, tenzij je andere delen van de besturing aan het bedienen bent, dan mag het beperkt worden tot een hand. Iedereen die iets anders doet, is in overtreding met de wet. Het maakt daarbij niet uit welk gadget de autofabrikant in je voertuig heeft gemonteerd. Of ga je autofabrikanten ook met de vinger wijzen omdat je op cruise control in de achterkant van een file bent geknald?
BaRa zegt
@BaRa: Hoe Elon Musk daarbij uit de bocht vliegt (titel van het artikel), is me een raadsel.
peug206 zegt
Als de auto inderdaad signaal heeft gegeven dat de “passagier” weer bestuurder moest worden, en daar ook gehoor aan is gegeven, dan ligt de schuld bij de bestuurder.
Als echter autopilot tussentijds weer geactiveerd is, (en zichzelf weer heeft uitgezet) dan kan het nog wel eens een andere uitkomst zijn. Tenzij de melding is gegeven dat het niet vertrouwd is om autopilot aan te zetten.
bassx zegt
Toch lijkt het me dat er geen discussie over mogelijk is. Je moet autosteer hetzelfde zien als wanneer de bijrijder een stukje laat sturen. Mocht er wat fout gaan ben je als bestuurder verantwoordelijk en niet de bijrijder.
martinus zegt
@bassx: Ik zou het laten sturen van de bijrijder aan mijn stuur als gevaarlijk en ontoelaatbaar zien in de meeste gevallen. Als het zo gevaarlijk is, en de ‘bijrijder’ geen enkele verantwoordelijkheid neemt voor zijn stuurgedrag, dan lijkt mij het voor de wetgever [b]niet toelaatbaar[/b] om het toe te staan.
timoangelo zegt
Pfff kan iemand dit even samenvatten kort
fijnkonijn zegt
@timoangelo: samenvatting: meneer rijd af en toe met auto-steer aan. Vlak voor het ongeluk rook de auto onraad, ziet dat het niet goed gaat komen en begint luid alarm te slaan “neem over neem over”. Meneer negeert dat, tot op het laatste moment, grijpt in maar is een waardeloze chauffeur. Meneer veroorzaakt het ongeluk.
In true american style probeert meneer daarna de schuld op de auto af te schuiven…
Dat was het in een notedop.
frederik zegt
Klinkt alsof de bestuurder in slaap was gevallen en nog niet geheel wakker het stuur weer pakte. Het systeem dacht toen dat de bestuurder weer controle had maar feitelijk was dit niet zo.
frederik zegt
Elon heeft overigens een goede PR manager nodig, de communicatie van Tesla is nogal onhandig/arrogant/bot. Belachelijk ook om te beweren dat Autopilot statistisch veiliger is. Ja tot het volgende ongeluk, dan is het ineens veel onveiliger.
msb44 zegt
@frederik:
msb44 zegt
Cijfers liegen niet Frederik. Doe je huiswerk voor je iets roept.
frederik zegt
@msb44: Nou jij hebt je statistiek ook niet afgemaakt blijkbaar. :-)
frederik zegt
@msb44: Laat ik hier iets dieper op in gaan. In het persbericht van Tesla wordt benadrukt dat met dit eerste dodelijke ongeluk de “fatality rate” op 1 dode per 130 miljoen mijlen ligt. Gemiddeld in de VS is dat 1 op 94 miljoen. Daarom benadrukken zij dat Autopilot nog steeds veiliger is dan een menselijke bestuurder.
Echter, in de statistiek heet dit “n=1”, namelijk je bouwt je redenering op aan de hand van slechts een enkel voorbeeld. Aangezien toeval ook een rol speelt zegt dit niets over het gemiddelde. Morgen kan nog een dode vallen en dan is het ineens 1 op 65 miljoen mijlen, dus is Autopilot dan ineens minder veilig dan een menselijke bestuurder. Aangezien dus een enkel ongeluk de statistieken totaal verandert, is het gewoon te vroeg om een wetenschappelijk onderbouwde conclusie te trekken (in ieder geval aan de hand van de sterftecijfers) op dit moment.
Daarom vind ik deze uitspraak belachelijk: Elon Musk redeneert naar zichzelf toe in plaats van wetenschappelijk zuiver te zijn. Als ik Tesla was had ik deze cijfers uit het persbericht geschrapt.
lemster zegt
@frederik: Elon Musk staat erom bekend dat hij vaak zelf persberichten schrijft of z’n PR afdeling dicteert wat ze moeten zeggen. En laat Elon Musk nou net niet bekend staan om z’n fijnbesnaardheid.
mashell zegt
@frederik:Musk is een typische technocraat. Hij zou niet de CEO moeten zijn want hij mist duidelijk diplomatieke en communicative vaardigheden, hij zou de CTO moeten zijn en een CEO neer moeten zetten die PR en marketing begrijpt.
frederik zegt
@mashell: Aan de andere kant is Musk wel heel authentiek. In plaats van dat hij helemaal afgeschermd wordt door een typische “meel-in-de-mond” CEO, zou hij een sterke PR medewerker moeten hebben die hem een beetje tegen zichzelf beschermt.
msb44 zegt
Wat een slecht artikel, had zo van de Telegraaf kunnen zijn. Tesla biedt ondersteunende software inzake autopilot welke je zelf in de auto toestemming moet geven actief te kunnen zijn. Als je wil dat auto pilot activeert moet je het zelf aanzetten en zelf waken over de dienstbaarheid. Het is een uitgebreid veiligheidssysteem met de toevoeging een aantal rijeigenschappen over te kunnen nemen. Je blijft als mens bestuurder en verantwoordelijk over het weggedrag van jouw voertuig. Autopilot zorgt voor meer veiligheid. Dat de media een aantal ongelukkig zo enorm opblaast alsof de wereld vergaat staat los van de kwaliteit en werkbaarheid van het systeem.
poeperman zegt
Biathlon = langlaufen en schieten
Duatlon = fietsen en lopen
sracert zegt
Flut auto, Flut vent en dito gekopieerde technieken. Oh wacht we leven in een flut wereld dus zal deze rommel lekker blijven verkopen.
aadnus zegt
@sracert: Optimist!
aadnus zegt
Complotje tegen Tesla lijkt me. Die mafkees dringt de wereld van de grote jongens binnen. Laten ze niet toe.
banaan7 zegt
Zinloos onderzoek…
giulio zegt
Wanneer we fietsen, of lopen of autorijden dan gebruiken we een gedeelte voor de stamhersenen, genaamd kleine hersenen. Deze zijn niet heel actief en direct met met het limbisch systeem verbonden waarmee we onze spieren goed kunnen bewegen en tegelijkertijd tijd andere functies kunnen uitoefenen. Daardoor kunnen we dingen zoals praten maar ook fietsen en autorijden. Ik kan me voorstellen dat bij het leren autorijden de kleine hersenen minder actief zijn dan bij bijvoorbeeld volleerd autorijden.bij het leren autorijden ben je actief bezig met het beoordelen van elke handeling die je verricht. Dat gaat niet of is veel te vermoeiend met de kleine hersenen.
Bij het autopilot systeem kan ik mij voorstellen dat je hersenactiviteit met betrekking tot het beheersen van de wagen verplaatst van het gedeelte van de kleine hersenen naar het gedeelte van de grote hersenen waardoor we anders reageren op mogelijk gevaar. Net zoiets als dat je gedachteloos door een menigte kunt lopen zonder dat je iemand raakt maar op het moment dat je op de mensen (die je zou moeten ontwijken) voor je gaat focussen, het plotseling moeilijk wordt om mensen in de menigte te ontwijken.
Kortom, de omslag van autopilot naar gewoon rijden lijkt mij een gevaarlijke exercitie.
healey zegt
Het is ook geen autopilot, dat insinueert dat het een zelfstandig systeem is. Ander merken noemen zoals Mercedes noemen het een assistent.
camber24 zegt
Hebben we al een jankende @stfu gespot???
bitd zegt
Volgens mij zit de wet ook in de weg, want je mag helemaal niet autonoom rijden, slechts als assistent. Conclusie als je dus niet oplet en het stuur een tijd niet aanraakt stopt het autonoom rijden en schakelt het systeem zich uit. Dat is in EU verplicht, dus rij je lekker autonoom en negeer je de signalen beland je vanzelf in de berm/tegenligger. Systeem in huidige vorm slaat nergens op.