• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Etiska algoritmer

    Duke Computer Science och ECE-professor Cynthia Rudin. Kredit:Duke University

    Nästan fyrtiotusen människor miste livet i bilolyckor förra året bara i USA. Vi kan bara anta att många av dessa dödsfall berodde på våra unika mänskliga svagheter:distraherad körning, köra påverkad, eller ren oerfarenhet. Det är vettigt att få mänskliga förare från vägarna så snabbt som möjligt, och låt maskiner köra.

    Det är ett argument, i alla fall. Det finns också ett övertygande argument för att stanna upp och överväga de etiska frågor som denna nya teknik tar upp. Oavsett om det är självkörande bilar eller en selfie-delningsapp med tvivelaktiga integritetsskydd, brådskan att leverera innovationer på marknaden tar ofta etiska överväganden åt sidan – men flera Duke ECE-professorer trycker tillbaka.

    Duke ECE professor Missy Cummings är en före detta stridspilot från marinen som nu leder Humans and Autonomy Lab, eller HAL. Hennes forskning fokuserar på att maximera samarbete mellan människor och maskiner för optimal prestanda och resultat, och hon är en uttalad "techno-realist" när det kommer till idén att vi nästan är redo för att mycket autonoma bilar ska ut på vägarna.

    "Förarlösa bilar kan dramatiskt minska antalet dödsfall på vägarna, men för närvarande, datorseende system på dessa bilar är extremt sköra, och inte redo för oövervakad körning, " sa Cummings. "Vi vet att långa skuggor, låga solvinklar, och till och med en kvarts tum snö kan få dessa system att misslyckas, ibland på katastrofala sätt – så vi är fortfarande 10 eller fler år ifrån att uppnå fullständiga förarlösa möjligheter."

    Tillverkare har spenderat omkring 80 miljarder dollar på forskning och utveckling av autonoma fordon hittills. Storleken på den investeringen kommer med ett tryck av samma storlek; investeringarna måste löna sig, och det finns ett tydligt intresse av att föra tekniken till en ivrig marknad. Än, bristerna med nuvarande AV-system är väl dokumenterade. De är sårbara för hackare. De är inte bra på slutledningsuppgifter – till exempel, att veta att en boll som rullar in på vägen förmodligen kommer att följas av ett barn som jagar den. Dessa typer av kunskaps- och färdighetsfel, noterade Cummings, skulle få en mänsklig förare att misslyckas med ett körkortsprov — men det finns för närvarande inget motsvarande "datorseende"-test som undersöker förarlösa bilars resonemangsförmåga.

    Trots den tvivelaktiga förmågan hos autonoma system och bristen på processer för att testa och certifiera mycket autonoma fordon, dock, de har redan tagit sig till våra vägar – i vad som i huvudsak är storskaliga experiment som involverar allmänheten utan dess uttryckliga medgivande.

    Cummings sa att det är nödvändigt att vilja uppnå helt autonoma fordon för att göra de stegvisa förbättringarna som kommer att ta oss dit, så småningom. Men att driva ut tekniken i världen innan den kan regleras effektivt, hon varnade, är både oansvarigt och farligt.

    Det är ett problem som sträcker sig långt utanför AV-sektorn.

    Professor Cynthia Rudin driver Duke's Prediction and Analysis Lab, och hon är en maskininlärningsexpert – specifikt, hon är expert på att bygga tolkbara maskininlärningsalgoritmer, i en värld som blir allt mer besatt av black box-modeller.

    "En svart låda förutsägande modell är en modell som är för komplicerad för en människa att förstå, eller en formel som är patentskyddad, vilket betyder att det är dolt av ett företag, " sa Rudin. Black box-algoritmer används ofta i låginsatsapplikationer som detaljhandel, var din ålder, inkomst, ockupation, köphistorik, och hundra andra bitar av data informerar beslutet om huruvida du vill visa dig en reklam för flygbiljetter eller vitaminer.

    Mer problematiska är black box-modeller som används i höginsatsbeslut, som att utvärdera kreditrisk och villkora villkorlig dom. Dessa beslut kan djupt påverka människors liv, betonade Rudin, och det är svårt för någon som har nekats villkorlig frigivning att överklaga beslutet om det är omöjligt att se hur beslutet togs.

    Rudins labb är specialiserat på att utveckla enkla, tolkbara modeller som är mer exakta än de svarta låda-modeller som för närvarande används av rättsväsendet. Enligt Rudin, du behöver inte ens en miniräknare för att beräkna dem.

    "Det finns en slags utbredd uppfattning att eftersom en modell är en svart låda, det är mer exakt, sade Rudin. Och det, så vitt jag vet, är fel. Jag har arbetat med många olika applikationer – inom sjukvård, i energi, i kreditrisk, i brottslig återfall i brott — och vi har aldrig hittat en applikation där vi verkligen behöver en svart låda. Vi kan alltid använda en tolkningsbar modell för ett beslutsproblem med hög insats."

    Entusiasmen för black box-modeller, sa Rudin, bör dämpas genom noggrant övervägande av de möjliga konsekvenserna.

    "Ofta utbildar det akademiska samfundet inte datavetare i rätt ämnen, sa Rudin. Vi tränar dem inte i grundläggande statistik, till exempel. Vi utbildar dem inte i etik. Så de utvecklar den här tekniken utan att oroa sig för vad den används till. Och det är ett problem."

    Det här året, Duke Engineering etablerade Lane Family Ethics in Technology Program, som kommer att integrera etikundervisning i alla läroplaner för teknik och datavetenskap. Programmet stöder fakultetsledda kursinnehåll, fritidsaktiviteter och ett årligt symposium med fokus på etik inom teknik.

    Stacy Tantum, the Bell-Rhodes Associate Professor of the Practice of Electrical and Computer Engineering, will lead one of the program's first courses this fall. Tantum will work with Amber Díaz Pearson, a research scholar at Duke's Kenan Institute for Ethics, to integrate ethics-focused modules into ECE 580, Introduction to Machine Learning.

    Three elements of ethical algorithm development will be emphasized in the course, said Tantum. First is transparency, or why others should be able to easily evaluate all aspects of algorithm design, from the input training data and algorithmic assumptions, to the selection of algorithmic parameters, to the process by which predicted performance is evaluated. Second is algorithmic bias—the conditions that are likely to result in bias, but which are often overlooked, or deemed unimportant. And third is unintended use-cases of algorithms—the potential pitfalls of re-purposing algorithms for use-cases other than those for which they were designed.

    "Our goal is to lead students to incorporate ethical considerations as a natural part of algorithm development, not an afterthought to be considered only after an unintended or unanticipated consequence arises, " said Tantum.


    © Vetenskap https://sv.scienceaq.com