Nee, echt. Hij mist hem net! Deze Tesla mist de trein
FSD, of Full Self Driving. Die heerlijke naam die Tesla bedacht heeft voor de functie waarbij de auto ‘bijna’ zichzelf kan redden op de weg. Die functie waarbij je zelf altijd moet op blijven letten. Al was het maar omdat die Tesla nog niet alle verkeerssituaties altijd juist in schat.
Dat laatste zou hier nu gebeurd zijn. De bestuurder van deze Tesla Model 3 claimt dat hij de auto op deze mistige ochtend (Check de beelden) in FSD had staan. In de video kun je zien dat de auto op het laatste moment naar rechts weet af te buigen voordat hij de trein zou raken. Volgens gebruiker cdotyii op Teslamotorsclub kon hij nog net op tijd het stuur pakken en via een slagboom rechts afslaan.
Nou hebben we hier wel wat gedachten bij. Ten eerste is het natuurlijk de vraag of FSD inderdaad aanstond. Dat zal Tesla vast uit kunnen lezen. Daarnaast is het natuurlijk de vraag of het wel slim is om FSD aan te zetten op een provinciale weg met spoorwegovergangen. Zeker wanneer het mistig is en het zicht dus belemmerd is.
Ervan uitgaan dat FSD maar alles voor je oplost is, sowieso na alle crashvideo’s die we hier hebben langs zien komen, natuurlijk een utopie. Je had beter kunnen weten cdotyii! Vooralsnog lijkt alleen zijn Tesla Model 3 schade te hebben opgelopen door de actie rechtsaf. Leergeld voor bestuurder of voor Tesla? De bestuurder lijkt in ieder geval al druk bezig om een rechtszaak / claim voor te bereiden tegen Tesla. Je verwacht het niet.
Er is overigens een onderzoek uitgevoerd naar Tesla crashes, daar schreven we eerder over.
via: Carscoops
kniesoor zegt
Misschien een idee voor Musk om gewoon helemaal met die FSD-prullaria te stoppen. Er zijn alleen maar gadget-/kijk-mij-eens-interssant-zijn nerds in geïnteresseerd en daar zit kennelijk een (te) groot aantal talentlozen tussen, dat niet weet hoe ze er mee om moeten gaan. Met allerlei kostbare claims tot gevolg.
Trojan zegt
Als het spul ooit op het niveau komt dat het wel veilig zelf kan rijden is het natuurlijk prachtig en kan het ook vele levens redden. Tot die tijd zou het ideaal zijn als dit gewoon in ‘een laboratorium’ kan worden ontwikkeld tot het klaar is ipv getest op de openbare weg. Maarja, dan gaat het weer 10x langzamer omdat er geen real-world data wordt verzameld, lastig.
William zegt
FSD werkt slecht en leidt idd tot misbruik met zelfverrijking als uitgangspunt. Maar aangezien de meeste Amerikanen amper kunnen autorijden is het achterliggende idee zo gek nog niet.
Trojan zegt
De opmerking “zelfverrijking als uitgangspunt” is natuurlijk een beetje zinloos; want zonder geld is er geen technische vooruitgang. Wie zou er keihard investeren, zich kapotwerken en gigantische risico’s lopen als daar niet de kans tegenover zou staan om er goed aan te verdienen en succesvol mee te worden? Mensen die geld verdienen vies vinden zijn een beetje kortzichtig en kunnen hooguit lekker ergens vrijwilligerswerk gaan doen. Dit soort projecten zullen ze nooit opstarten want ze hebben het geld en de investeerders niet. Overigens doet Musk het natuurlijk allang niet meer voor het geld. Anders had hij zijn aandeeltjes al heel lang geleden verkocht en was hij als miljardair de rest van z’n leven op het strand gaan liggen.
Joris24 zegt
Even commentaar op de schrijfstijl… Leest heel onrustig.
“waarbij je zelf altijd moet op blijven letten” “Zeker wanneer het mistig is en het zicht dus belemmert.” “er van uit gaan dat FSD maar alles voor je oplost is sowieso na alle crashvideo’s die we hier hebben langs zien komen natuurlijk een utopie”? Ervan uitgaan – Is een utopie?
Afgezien daarvan blijf ik bij het standpunt dat je zonder vergelijkende cijfers niks kunt zeggen over de betrouwbaarheid of veiligheid van de autopilot. Als je fatsoenlijke statistiek wil toepassen moet je toch op zijn minst weten hoeveel ongelukken er gebeuren (bijv per 1 miljoen kilometers) met en zonder FSD. Je zou ook kunnen stellen dat wanneer de bestuurder oplet (zoals tesla vereist) elke ingreep van de FSD die de veiligheid bevordert er één meer is dan wanneer je alleen een menselijke bestuurder hebt, dus dat de FSD per definitie veiliger is. Dat bestuurders ervoor kiezen om minder of niet op te letten kun je het systeem niet verwijten.
potver7 zegt
FSD in de mist kan ik me nog wel wat bij voorstellen, mits in deze Tesla een systeem zit dat ook Lidar heeft (en niet een camera-only systeem waar Tesla een tijdje heilig in geloofde). Lidar kan in principe ‘door de mist’ kijken, dus zou in theorie veiliger moeten kunnen zijn, mits het systeem wel de mist herkent en de snelheid daarop aanpast.
Maar goed, ik denk dat de bestuurder van deze auto ruimschoots zelf de tijd heeft gehad om te remmen, zelfs op mijn tweedimensionale schermpje kan ik ruim van tevoren zien dat de auto niet gaat remmen.
rwdftw zegt
In de eerste serie zat inderdaad een radar. Ook parkeersensoren zaten erop. Er was teveel ruis om zowel camera als radar samen te gebruiken, en het kon goedkoper. Ergens in 2021 zijn met een update alle radar units uit het systeem geprogrammeerd. Met andere woorden, in ieder geval iedere Y en 3 werken alleen nog met cameras.
In principe werkt dat prima, maar alleen onder de juiste omstandigheden. Bij veel regen schakelt AP zichzelf al uit, of je snelheid wordt teruggeschroefd. Het probleem is dat Tesla niet restrictief genoeg is in het “toestaan om AP/FSD aan te zetten” en dat de bestuurders lui worden en denken dat de auto alles wel zelf kan. Dat de auto bij helder weer altijd stopt voor deze trein wil niet zeggen dat de auto dat ook doet als het mist. En dan gaat het mis zoals hier en dan is ineens Tesla schuldig. Als Tesla zou zeggen “het mist dus je mag je AP/FSD niet inschakelen” dan was er ook een shitstorm.
Uiteindelijk moet Tesla zich bedenken dat hun bestuurders kwalitatief ondermaats zijn en niet kunnen of willen lezen. Laat staan begrijpend lezen. Ze zouden bij mist de AP/FSD functies gewoon moeten blokkeren. En misschien ook wel op bepaalde lokaties. Zo is er een weg met een rots door Yellowstone. Die rots wint het geregeld van Tesla bumpers. Dus in plaats van proberen dat softwarematig op te lossen FSD uitzetten op die weg/lokatie.
Uiteindelijk zal de media shitstorm die dat veroorzaakt minder erg zijn dan de shitstorm waarbij Tesla iedere keer wordt verweten niet goed genoeg te zijn en ongelukken niet te voorkomen.
potver7 zegt
Volgens mij was de tekst van Tesla in de trant van dat camera’s veruit superieur waren boven Lidar.
Dat bestuurders van de auto’s denken dat de auto zelf alles kan is ook volledig toe te schrijven aan Tesla. Die noemt het systeem niet voor niks FULL SELF DRIVING, en blaast in alle marketing-blabla hoog van de toren over de capaciteiten van de systemen. En ja, het is raar: sommige mensen lezen dat… Dat er in de kleine lettertjes iets ander staat, en het systeem allerlei waarschuwingen geeft op het moment dat je het aanzet, doet daar niks aan af.
“Uiteindelijk moet Tesla zich bedenken dat hun bestuurders kwalitatief ondermaats zijn en niet kunnen of willen lezen.”
Pardon ?!?!?! Er bestaat zoiets als productaansprakelijkheid. Tuurlijk, mensen zijn lui, en dus ook de klanten van Tesla. Dat hoort Tesla te weten, en Tesla moet zijn producten daarop ontwerpen. En wat doet Tesla? Die bespaart op Lidar, dondersgoed wetende dat een systeem met alleen camera’s onder bepaalde omstandigheden ronduit onbetrouwbaar is, en legt de verantwoordelijkheid daarbij vol bij zijn klanten neer.
Je kunt bestuurders kwalitatief ondermaats noemen, maar wat is Tesla dan? Op z’n best gaat dat bedrijf op een uiterst cynische manier met verkeersveiligheid om, als je ’t mij vraagt. En afgaande op dit filmpje is het die kwalitatief ondermaatse automobilist die een veel ernstiger ongeluk weet te voorkomen, ook al reageert-ie wat traag.
rwdftw zegt
Bekijk het zo. Iedereen weet dat je je kat niet in de magnetron moet stoppen. Er staan voldoende waarschuwingen in de handleiding dat je dat niet moet doen maar toch he? Google het en je gaat gevallen vinden waarbij iemand dat gedaan heeft.
Een keukenmes is om een uitje te snipperen, maar je kan er ook iemand mee vermoorden. Is dan de messenfabrikant verantwoordelijk voor de moord? Of gelegenheid geven tot? Nee, er is nog altijd een mens die dat mes beetpakt en de moord pleegt.
Hetzelfde hier, Tesla geeft ruim voldoende waarschuwingen dat het systeem in beta is, dat je moet blijven opletten en dat je altijd “de bestuurder” blijft en daarmee verantwoordelijk. Het was in dit geval de bestuurder die meende dat de Tesla het ook in de mist wel zou doen want hij deed het altijd goed. Nee, je moet zelf beoordelen of het verstandig is om het systeem aan te zetten. En daar doet men soms veel te makkelijk over.
aerohead zegt
🎶ik wil van mijn Tesla aaffff !! 🎶
hoe doe je dat ?
Nou zo …
anthwan zegt
Het menselijke brein is ook niet meer wat geweest is.
Matc zegt
40 sec reclame op eem filmpje van 5 sec, niet gek Autoblog!