Kredit:Andrey_Popov/Shutterstock
Robotar dyker upp mer och mer i vårt dagliga liv. De kan vara otroligt användbara (bioniska lemmar, robotgräsklippare eller robotar som levererar mat till personer i karantän), eller bara underhållande (robothundar, dansleksaker och akrobatiska drönare). Fantasin är kanske den enda gränsen för vad robotar kommer att kunna göra i framtiden.
Men vad händer när robotar inte gör som vi vill att de ska – eller gör det på ett sätt som orsakar skada? Till exempel, vad händer om en bionisk arm är inblandad i en körolycka?
Robotolyckor blir ett problem av två skäl. För det första kommer ökningen av antalet robotar naturligtvis att se en ökning av antalet olyckor de är inblandade i. För det andra blir vi bättre på att bygga mer komplexa robotar. När en robot är mer komplex är det svårare att förstå varför något gick fel.
De flesta robotar körs på olika former av artificiell intelligens (AI). AI:er är kapabla att fatta mänskliga beslut (även om de kan fatta objektivt bra eller dåliga). Dessa beslut kan vara hur många saker som helst, från att identifiera ett objekt till att tolka tal.
AI:er är utbildade för att fatta dessa beslut för roboten baserat på information från stora datamängder. AI:erna testas sedan för noggrannhet (hur väl de gör vad vi vill att de ska) innan de sätts i uppgiften.
AI kan utformas på olika sätt. Som ett exempel, betrakta robotdammsugaren. Den skulle kunna utformas så att den omdirigerar i en slumpmässig riktning när den stöter från en yta. Omvänt skulle den kunna utformas för att kartlägga sin omgivning för att hitta hinder, täcka alla ytor och återgå till sin laddningsbas. Medan det första vakuumet tar in input från sina sensorer, spårar det andra insignalen till ett internt kartsystem. I båda fallen tar AI in information och fattar ett beslut kring den.
Ju mer komplexa saker en robot är kapabel till, desto fler typer av information måste den tolka. Det kan också vara att bedöma flera källor för en typ av data, till exempel, när det gäller ljuddata, en levande röst, en radio och vinden.
När robotar blir mer komplexa och kan agera på en mängd olika information, blir det ännu viktigare att avgöra vilken information roboten agerade på, särskilt när skada orsakas.
Olyckor inträffar
Som med alla produkter kan saker och ting gå fel med robotar. Ibland är detta ett internt problem, som att roboten inte känner igen ett röstkommando. Ibland är det externt – robotens sensor var skadad. Och ibland kan det vara både och, som att roboten inte är designad för att fungera på mattor och "snabblar". Robotolycksutredningar måste titta på alla potentiella orsaker.
Även om det kan vara obekvämt om roboten skadas när något går fel, är vi mycket mer oroliga när roboten orsakar skada på eller misslyckas med att mildra skada på en person. Till exempel, om en bionisk arm misslyckas med att greppa en varm dryck, slår den på ägaren; eller om en vårdrobot misslyckas med att registrera ett nödanrop när den svaga användaren har fallit.
Varför skiljer sig utredningen av robotolyckor från den för mänskliga olyckor? Speciellt har robotar inga motiv. Vi vill veta varför en robot fattade det beslut den gjorde baserat på den speciella uppsättning indata som den hade.
I exemplet med den bioniska armen, var det en felaktig kommunikation mellan användaren och handen? Förvirrade roboten flera signaler? Låsa oväntat? I exemplet med personen som faller omkull, kunde inte roboten "höra" ropet på hjälp över en högljudd fläkt? Eller hade den problem med att tolka användarens tal?
Den svarta lådan
Utredning av robotolyckor har en viktig fördel jämfört med utredning av mänskliga olyckor:det finns potential för ett inbyggt vittne. Kommersiella flygplan har ett liknande vittne:den svarta lådan, byggd för att motstå flygkrascher och ge information om varför kraschen inträffade. Denna information är oerhört värdefull inte bara för att förstå incidenter, utan för att förhindra att de händer igen.
Som en del av RoboTIPS, ett projekt som fokuserar på ansvarsfull innovation för sociala robotar (robotar som interagerar med människor), har vi skapat vad vi kallar den etiska svarta lådan:en intern registrering av robotens insatser och motsvarande handlingar. Den etiska svarta lådan är designad för varje typ av robot den lever i och är byggd för att registrera all information som roboten agerar på. Detta kan vara röst-, visuell- eller till och med hjärnvågsaktivitet.
Vi testar den etiska svarta lådan på en mängd olika robotar i både laboratorie- och simulerade olycksförhållanden. Målet är att den etiska svarta lådan ska bli standard i robotar av alla märken och applikationer.
Även om data som registrerats av den etiska svarta lådan fortfarande måste tolkas i händelse av en olycka, är det viktigt att ha dessa uppgifter i första hand för att vi ska kunna undersöka.
Utredningsprocessen ger möjlighet att säkerställa att samma fel inte inträffar två gånger. Den etiska svarta lådan är ett sätt att inte bara bygga bättre robotar, utan att förnya på ett ansvarsfullt sätt inom ett spännande och dynamiskt område.