• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Fråga och svar med en juridisk expert:När en Tesla på autopilot dödar någon, vem är ansvarig?

    Kredit:Unsplash/CC0 Public Domain

    I slutet av 2019 rusade Kevin George Aziz Riads bil av en motorväg i Kalifornien, körde mot rött ljus och kraschade in i en annan bil och dödade de två personerna inuti. Riads bil, en Tesla Model S, var på autopilot.

    Tidigare i år väckte åklagare i Los Angeles County två anklagelser om dråp i fordon mot Riad, nu 27, och fallet markerar det första åtalet i USA för en dödlig bilolycka som involverade ett förarassistanssystem. Det är också det första åtalet för en krasch som involverar Teslas autopilotfunktion, som finns på över 750 000 bilar i USA. Samtidigt driver de kraschoffrens familj civilrättsliga processer mot både Riad och Tesla.

    Tesla är noga med att skilja mellan dess autopilotfunktion och en förarlös bil, och jämför dess förarassistanssystem med tekniken som flygplanspiloter använder när förhållandena är klara. "Tesla Autopilot avlastar förare från de mest tråkiga och potentiellt farliga aspekterna av vägresor", säger Tesla online. "Vi bygger autopilot för att ge dig mer självförtroende bakom ratten, öka din säkerhet på vägen och göra motorvägskörning roligare... Föraren är fortfarande ansvarig för, och i slutändan kontrollen över, bilen."

    Tillverkaren av elbilar lägger tydligt säkerhetsbördan på föraren, men forskning tyder på att människor är mottagliga för automatiseringsbias, ett alltför beroende av automatiserade hjälpmedel och beslutsstödssystem. Nu är det upp till domstolarna att avgöra vem som är skyldig när användningen av dessa system resulterar i fatala fel.

    För närvarande är Riad ute på borgen och erkänner sig oskyldig till anklagelser om dråp. NYU News talade med Mark Geistfeld – NYU Law Sheila Lubetsky Birnbaum professor i civilrättsliga tvister och författaren till California Law Review paper "A Roadmap for Autonomous Vehicles:State Tort Liability, Automobile Insurance, and Federal Safety Regulation" – om betydelsen av dessa brottsanklagelser och vad de kan betyda för framtiden för konsumenternas förtroende för ny teknik.

    Kan du sprida lite ljus över det juridiska prejudikatet som åtal mot Kevin George Aziz Riad skapar? Vilket budskap sänder det till konsumenter och tillverkare av liknande teknik?

    För det första är anklagelserna för brott överraskande, baserat på vad vi vet – åtalshandlingarna ger som vanligt inga detaljer. Vanligtvis, om du inte var uppmärksam, körde mot rött ljus och slog någon – hur tragiskt det än är – skulle du inte få en brottsanklagelse av det beteendet i de allra flesta fall. Man ser verkligen inte många åtal för motorfordonsolyckor förutom rattfylleri.

    Om föraren befanns skyldig till dråp kan det här fallet verkligen bli det mest störande, det mest nya, det mest banbrytande prejudikatet. Det är ett starkt avsteg från det förflutna, om åtalet i själva verket helt enkelt bygger på att han förlitar sig på autopilot när han borde ha tagit över. Om det är det som pågår, kan du se att många fler åtal går framåt än vad vi gör idag.

    Skadeståndsansvar, eller civilrättsliga åtal, är däremot mycket vanligt. Det var då svaranden skulle betala skadestånd för skador som orsakats. Majoriteten av skadeståndsmålen i statliga domstolar över hela landet kommer från motorfordonsolyckor där en förare påstås ha orsakat kraschen av oaktsamhet, vilket uppenbarligen inträffade i detta fall eftersom föraren gick igenom ett rött ljus.

    Om det här fallet på något sätt signalerar att straffrättsligt ansvar är mer möjligt helt enkelt genom att förlita sig på tekniken, då kan det bli en djupgående förändring i karaktären av juridiska skyldigheter framåt.

    Vilken skyldighet har ett avancerad teknikföretag som Tesla att informera förare, antingen direkt eller genom reklam- och marknadsföringsmeddelanden, att de är ansvariga för alla skador, oavsett om bilen är på autopilot?

    De har uppenbarligen en skyldighet att varna den som sitter i förarsätet att ta över fordonet – att det inte kan göra allt på egen hand. Du ser den varningen i Tesla-fordon, och nästan alla fordon har den typen av varning. Till exempel, när du använder en kartfunktion när du kör, kommer många bilar att ge en varning:"Detta kommer att distrahera dig, var uppmärksam på vägen."

    Tillverkarna har också en skyldighet att tänka på känslan av självgodhet som följer med körtekniken när de designar bilen. Tesla eller någon annan tillverkare kan inte bara säga "Hej, var uppmärksam, det är ditt ansvar." De måste faktiskt försöka lägga in något i designen för att se till att förarna är uppmärksamma. Så olika tillverkare tar olika inställning till det här problemet – vissa bilar kommer att köra om du inte har händerna på ratten, och andra bilar har kameror som börjar pipa om du inte är uppmärksam.

    Enligt gällande lag, om föraren råkar ut för en krock och det fanns en adekvat varning, och själva designen är tillräcklig för att hålla föraren uppmärksam, kommer biltillverkaren inte att vara ansvarig. Men det finns ett möjligt undantag här:det finns en formulering av ansvarsregeln som är ganska allmänt antagen över hela landet, inklusive i Kalifornien, där detta fall kommer att äga rum. Enligt denna regel baseras förfrågan på vad konsumenterna förväntar sig att tillverkaren ska göra. Och konsumenternas förväntningar kan starkt påverkas av marknadsföring och reklam och så vidare.

    Till exempel, om Tesla skulle annonsera att autopilot aldrig råkar i en krasch, och sedan en konsument råkar ut för en krasch, skulle Tesla vara ansvarig för att ha frustrerat dessa förväntningar.

    I det här fallet åtalades föraren utifrån tanken att han var alltför beroende av sin bils autopilot. Vad säger detta om våra grundläggande antaganden om huruvida människor eller tekniker är mer pålitliga?

    Det finns en viktig skillnad mellan övertillit och självbelåtenhet. Jag tror att självgodhet bara är en naturlig mänsklig reaktion på bristen på stimulans - i det här fallet bristen på ansvar för att utföra alla köruppgifter. Du kan bli uttråkad och invaggad i en känsla av självbelåtenhet, men jag tror inte att det beteendet är alltför beroende av teknik.

    Idén om övertillit spelar in med den potentiella karaktären av felgörelsen här. Kanske kommer föraren i det här fallet att försvara sig med att säga att han rimligen trodde att bilen hade allt under kontroll, var fullt kapabel att lösa detta problem, och så att han inte behövde oroa sig för att reagera om det skulle visa sig annorlunda. Nu vid den tidpunkten skulle han tro på tekniken istället för på sin egen förmåga att stoppa fordonet och ta sig ur problemet på ett säkert sätt. Om det finns en blind tilltro till tekniken snarare än att ta över när du kunde ha gjort det, och om du är ansvarig som en konsekvens, blir det ett mycket djupgående, intressant slags budskap som lagen sänder.

    Tror du att denna förändring av ansvar kommer att skada företag som Tesla?

    Den stora frågan som tillverkare av autonoma fordon som Tesla står inför just nu är att få konsumenternas förtroende när de introducerar en ny teknik på marknaden. Behovet av förtroende i de tidiga stadierna av dessa produkter är enormt viktigt. Och alla tillverkare är oroliga för det problemet eftersom de vet att om det sker några fruktansvärda krascher kommer konsumenterna att förlora förtroendet för produkten. I slutändan kommer tekniken att ta över; det är bara en fråga om det är förr snarare än senare. Och tid är pengar i det här sammanhanget – så om du bara får en långsammare användning eftersom konsumenterna är mycket oroade över teknikens säkerhetsprestanda, kommer det att skada branschen. De vill uppenbarligen undvika det resultatet. Den här tekniken kommer fortfarande att ta över – det är bara en fråga om hur lång tid det tar för det att hända. Det finns så många fördelar med att använda autonoma fordon, inklusive säkerhetsdimensionen.

    Om dess autopilot och full självkörande förmåga säger Tesla:"Även om dessa funktioner är designade för att bli mer kapabla med tiden, gör de för närvarande aktiverade funktionerna inte fordonet autonomt." Vilka ansvarsproblem förutser du om/när dessa fordon blir autonoma?

    Det är en komplicerad fråga, och det är frågan som alla är intresserade av. När dessa fordon väl blir helt autonoma finns det bara bilen. Människan i bilen är inte ens ett inslag i situationen. Så den stora frågan är:när de fordonen kraschar, vem betalar? Man skulle kunna tro att tillverkaren skulle vara ansvarig - och det kommer att öka kostnaderna för dessa fordon och göra dem mycket svårare att distribuera. Det finns många som tror att i händelse av en krasch ska tillverkaren hela tiden vara ansvarig. Jag är starkt skeptisk till den slutsatsen, eftersom jag tror att det är ett mycket närmare samtal än vad de flesta gör det till.

    I slutändan beror dessa frågor på hur federala tillsynsmyndigheter som National Highway Traffic Safety Administration reglerar fordonet. De måste sätta en säkerhetsstandard som tillverkaren måste uppfylla innan den kommersiellt kan distribuera produkten som helt autonom. Frågan är var tillsynsmyndigheterna sätter den standarden, och jag tror inte att det är lätt att få rätt. Då kommer det att finnas en bra debatt att föra:Fick de rätt eller inte? Vi är fortfarande några år borta. Jag tror att vi alla kommer att ha dessa konversationer 2025.

    © Vetenskap https://sv.scienceaq.com