I denna 8 juli, 2018, fil foto, molnen reflekteras ovanför företagets logotyp på huven på ett Tesla-fordon utanför ett utställningslokal i Littleton, Colo. National Highway Traffic Safety Administration undersöker kraschen av en fortkörande Tesla som dödade två personer i en förort till Los Angeles, byrån meddelade på tisdagen, 31 december, 2019. (AP Photo/David Zalubowski, Fil)
Tre krascher med Teslas som dödade tre personer har ökat granskningen av företagets Autopilot-körsystem bara månader innan vd Elon Musk har planerat att sätta helt självkörande bilar på gatorna.
På söndag, en Tesla Model S sedan lämnade en motorväg i Gardena, Kalifornien, i hög hastighet, körde mot rött ljus och körde på en Honda Civic, dödade två personer inuti, sa polisen.
På samma dag, en Tesla Model 3 körde på en parkerad brandbil på en motorväg i Indiana, dödade en passagerare i Tesla.
Och den 7 december, ännu en modell 3 slog en poliskryssare på en motorväg i Connecticut, även om ingen kom till skada.
Den särskilda olycksutredningsenheten vid National Highway Traffic Safety Administration undersöker kraschen i Kalifornien. Byrån har inte bestämt om dess speciella kraschenhet kommer att granska kraschen som inträffade i söndags nära Terre Haute, Indiana. I båda fallen, myndigheterna har ännu inte avgjort om Teslas autopilotsystem användes.
NHTSA utreder också Connecticut-kraschen, där föraren berättade för polisen att bilen körde på autopilot, ett Tesla-system designat för att hålla en bil i sin fil och på ett säkert avstånd från andra fordon. Autopiloten kan också byta fil på egen hand.
Tesla har upprepade gånger sagt att dess autopilotsystem endast är utformat för att hjälpa förare, som fortfarande måste vara uppmärksam och vara redo att ingripa hela tiden. Företaget hävdar att Teslas med autopilot är säkrare än fordon utan det, men varnar för att systemet inte förhindrar alla krascher.
Ändå, experter och säkerhetsförespråkare säger att en rad Tesla-krascher väcker allvarliga frågor om huruvida förarna har blivit alltför beroende av Teslas teknologi och om företaget gör tillräckligt för att säkerställa att förarna fortsätter att vara uppmärksamma. Vissa kritiker har sagt att det är dags för NHTSA att sluta utreda och vidta åtgärder, som att tvinga Tesla att se till att förare är uppmärksamma när systemet används.
NHTSA har startat undersökningar av 13 Tesla-krascher som går tillbaka till åtminstone 2016 där byrån tror att autopiloten fungerade. Myndigheten har ännu inte utfärdat några regler, även om den studerar hur den ska utvärdera liknande "avancerade förarassistans"-system.
"Vid något tillfälle, frågan blir:Hur mycket bevis behövs för att fastställa att sättet som denna teknik används är osäkert?" sa Jason Levine, verkställande direktör för det ideella Center for Auto Safety i Washington. "I det här fallet, förhoppningsvis kommer dessa tragedier inte att vara förgäves och kommer att leda till något mer än en utredning av NHTSA."
Levine och andra har uppmanat byrån att kräva att Tesla begränsar användningen av autopilot till huvudsakligen fyrfiliga motorvägar utan tvärtrafik. De vill också att Tesla ska installera ett bättre system för att övervaka förare för att se till att de är uppmärksamma hela tiden. Teslas system kräver att förarna placerar händerna på ratten. Men federala utredare har funnit att det här systemet låter förare zone utanför för länge.
Tesla planerar att använda samma kameror och radarsensorer, men med en kraftfullare dator, i sina helt självkörande fordon. Kritiker ifrågasätter om de bilarna kommer att kunna köra sig själva utan att utsätta andra bilister i fara.
Tvivel om Teslas autopilotsystem har länge kvarstått. I september, National Transportation Safety Board, som utreder transportolyckor, utfärdade en rapport som säger att ett designfel i autopiloten och förarens ouppmärksamhet kombinerat för att få en Tesla Model S att köra in i en brandbil parkerad längs en motorväg i Los Angeles-området i januari 2018. Styrelsen fastställde att föraren var alltför beroende av systemet och att Autopilotens design lät honom koppla från körningen för länge.
Förutom dödsfallen på söndagskvällen, tre dödsolyckor i USA sedan 2016 – två i Florida och en i Silicon Valley – involverade fordon som använde autopilot.
David Friedman, vice president för opinionsbildning för Consumer Reports och en tidigare tillförordnad NHTSA-administratör, sa att byrån borde ha förklarat autopiloten defekt och sökte återkallelse efter en krasch 2016 i Florida som dödade en förare. Varken Teslas system eller föraren hade bromsat innan bilen åkte under en semitrailer som svängt framför bilen.
"Vi behöver inte fler människor som skadas för att vi ska veta att det finns ett problem och att Tesla och NHTSA har misslyckats med att åtgärda det, sa Friedman.
Förutom NHTSA, stater kan reglera autonoma fordon, även om många har bestämt sig för att de vill uppmuntra testning.
I kraschen 2016, NHTSA avslutade sin utredning utan att begära ett återkallande. Friedman, som inte var på NHTSA vid den tiden, sa att byrån fastställde att problemet inte inträffade ofta. Men han sa att argumentet sedan dess har avfärdats.
Friedman sa att det är förutsägbart att vissa förare inte kommer att uppmärksamma vägen när de använder autopilot, så systemet är defekt.
"Allmänheten är skyldig en viss förklaring till bristen på åtgärder, "Sade han. "Säger bara att de fortsätter att undersöka - den linjen har slitit ut sin användbarhet och sin trovärdighet."
I ett påstående, NHTSA sa att de förlitar sig på data för att fatta beslut, och om den finner att något fordon utgör en orimlig säkerhetsrisk, "byrån kommer inte att tveka att vidta åtgärder." NHTSA har också sagt att de inte vill stå i vägen för teknik med tanke på dess livräddande potential.
Meddelanden lämnades på torsdagen för att söka kommentarer från Tesla.
Raj Rajkumar, professor i el- och datateknik vid Carnegie Mellon University, sa att det är troligt att Tesla i söndagens Kalifornien-krasch fungerade på autopilot, som tidigare har blivit förvirrad av körfältslinjer. Han spekulerade i att körfältslinjen var mer synlig för avfarten, så bilen tog rampen för det såg ut som en motorvägsfil. Han antydde också att föraren kanske inte var uppmärksam.
"Ingen normal människa skulle inte sakta ner i en utfartsfil, " han sa.
I april, Musk sa att han förväntade sig att börja konvertera företagets elbilar till helt självkörande fordon 2020 för att skapa ett nätverk av robottaxibilar för att tävla mot Uber och andra åktjänster.
Just då, experter sa att tekniken inte är redo och att Teslas kamera- och radarsensorer inte var tillräckligt bra för ett självkörande system. Rajkumar och andra säger att ytterligare krascher har visat att det är sant.
Många experter säger att de inte är medvetna om dödsolyckor med liknande förarassistanssystem från General Motors, Mercedes och andra biltillverkare. GM övervakar förare med kameror och kommer att stänga av körsystemet om de inte tittar på vägen.
"Tesla är inte i närheten av den standarden, " han sa.
Han förutspådde fler dödsfall som involverade Teslas om NHTSA inte vidtar åtgärder.
"Detta är mycket olyckligt, sa han. Bara tragiskt.
© 2020 The Associated Press. Alla rättigheter förbehållna.