Tesla släpper ”självkörande” system till kunder – trots flera incidenter

Elbilstillverkaren Tesla planerar att lansera betaversionen av sin nya mjukvara ”Full Self-driving” redan i april. Detta trots flera videoklipp som testanvändare lagt ut på nätet visar att systemet är långt ifrån felfritt. Men namnet till trots hävdar Tesla att det inte handlar om ett självkörande system – åtminstone i sin kontakt med myndigheter.

I början av 2018 körde en Tesla Model S med Autopilot rakt in i en brandbil på Interstate 405 i Kalifornien.  Det är bara en av flera incidenter där Teslas system varit inblandat.
I början av 2018 körde en Tesla Model S med Autopilot rakt in i en brandbil på Interstate 405 i Kalifornien. Det är bara en av flera incidenter där Teslas system varit inblandat.Foto:TT

En testversion av Full Self-driving (FSD), en utveckling av Teslas system Autopilot, levererades till en utvald skara Tesla-ägare redan i oktober i fjol. Systemet gör, enligt uppgift, det mesta rätt – stannar för fotgängare, inväntar trafik i korsningar och bromsar in vid rödljus, gör felfria vänstersvängar och mycket mer – men videos som användare lagt upp på Youtube visar också att bilarna också gör misstag i helt vanliga trafiksituationer. 

Bland annat finns det exempel på när bilarna inte lyckas följa enkla trafikregler. I andra situationer har de varit nära att köra in i parkerade bilar och i andra stillastående element längs med vägen. Samtliga incidenter har dock undvikits genom att den mänskliga föraren tagit över styrningen. Information om i vilka situationer som systemet gör fel skickas sedan till Tesla.

Nu vill Teslas vd och grundare Elon Musk att cirka 2.000 av de kunder som har betalt för FSD ska få en betaversion. De kommer att erbjudas att ladda ner den nya mjukvaran redan denna månad.  Flera förare har dock diskvalificerat sig på grund av de inte haft tillräcklig uppmärksamhet på vägen, en slutsats bolaget kunnat ta genom att studera vart förarnas fokus legat via bilarnas interna kameror, skriver bland annat sajten Electrek.

Tesla har hamnat i blåsväder kring hur de namnger sina system. Själva uppger de att det inte handlar om ett självkörande system. 

I bolagets kontakt med Kaliforniens motsvarighet till svenska Transportstyrelsen DMV (Department of Motor Vehicles) till exempel:

”För närvarande är varken Autopilot eller FSD autonoma system”, skrev Teslas jurist Eric Williams i korrespondens med DMV i slutet av december i fjol. 

Systemet kommer vara på SAE nivå 2, vilket betyder att fordonet inte kan köra på egen hand utan konstant övervakning av föraren. Williams tillade dock att det kan ändras, enligt LA Times. 

Brevväxlingen mellan Tesla och DMV följer på att myndigheten ställt frågor kring Teslas påståenden om att bolaget har ett självkörande system. Om det nu handlar om ett självkörande system varför har då biltillverkaren inte ansökt om tillstånd för självkörande fordon, som sex andra tillverkare har, däribland Waymo och Cruise, undrar DMV.

”Det är ett konstigt dubbelspel de kör mellan myndigheter och kunder här”, säger Jan Hellåker, som är ordförande i det strategiska innovationsprogrammet Drive Sweden.

”Jag tror att hela branschen är överens om att Tesla är väldigt oförsiktiga med hur de marknadsför det de har att erbjuda egentligen, för det här är ju ingenting som ens är i närheten av en självkörande bil. Men det är så konsumenterna tolkar det. Och för de 10.000 dollar man betalar (för FSD) så tror man att man får en självkörande bil”, säger Hellåker. 

Att testa Teslas nya system i olika situationer har blivit något av en egen genre på Youtube. Ett klipp från mars visar hur en bil bland annat försöker svänga in på ett tågspår. Samma bil är nära att köra rakt igenom de avspärrningar som skiljer bilfältet från cykelvägen. I trafiken kan även små missar få stora konsekvenser. Tesla har fått mycket kritik för sitt förfarande, och många menar att bolaget använder människor som försöksdjur

”Och vad som är mer oroande, ärligt talat, är att de använder konsumenter, åskådare, andra passagerare, fotgängare och cyklister som laboratorieråttor för ett experiment som ingen av dessa människor registrerade sig för”, säger Jason Levine, på konsumentorganisationen Center for Auto Safety, till tidningen Insider.

Jonas Bärgman, docent i trafiksäkerhetsanalys på Chalmers i Göteborg, har också uttalat sig kritisk kring Teslas Autopilot, som är en mindre avancerad variant av FSD.

”Människor är inte gjorda för att sitta och titta på vägen utan att göra något, och vara redo att ta över på ett ögonblick om något går fel. Om man då sitter i en bil som har ett system som heter ’Autopilot’ så är risken uppenbar för att man har övertro på vad det klarar av”, säger han.

Redan innan FSD introducerades i höstas, granskades Teslas Autopilot. National Highway Traffic Safety Administration undersöker vilken roll Autopilot spelat i 23 krascher, inklusive flera där Teslas bilar kolliderat med räddningsfordon. Under åren har också många videor dykt upp på sociala medier där föraren sover medan bilen sköter körningen.

Googles ”robotförare” avstyrde 9 av 10 dödsolyckor 

 

 

 

 


Det verkar som att du använder en annonsblockerare

Om du är prenumerant behöver du logga in för att fortsätta. Vill bli prenumerant kan du läsa Di Digitalt för 197 kr inkl. moms de första 3 månaderna.

  • Full tillgång till di.se med nyheter och analyser

  • Tillgång till över 1100 aktiekurser i realtid

  • Innehållet i alla Di:s appar, tjänster och nyhetsbrev

3 månader för
197 kr
Spara 1000 kr

Prenumerera

Redan prenumerant?