Kredit:CC0 Public Domain
Från telekommunikation till vägtrafik, från sjukvård till arbetsplats - digital teknik är nu en inneboende del av nästan alla områden i livet. Men hur kan vi säkerställa att utvecklingen på detta område, särskilt de som förlitar sig på artificiell intelligens (AI), möta alla våra etiska, juridiska och tekniska problem? I ett projekt ledd av Fraunhofer Institute for Intelligent Analysis and Information Systems IAIS, och med deltagande av Tysklands federala kontor för informationssäkerhet (BSI), ett tvärvetenskapligt team av forskare från universiteten i Bonn och Köln håller på att utarbeta en inspektionskatalog för certifiering av AI-tillämpningar. De har nu publicerat en vitbok som presenterar den filosofiska, etisk, juridiska och tekniska frågor.
Artificiell intelligens förändrar vårt samhälle, vår ekonomi och vår vardag på grundläggande sätt. Och genom att göra det, det skapar några spännande möjligheter i hur vi lever och arbetar tillsammans. Till exempel, det hjälper redan läkare att bättre utvärdera röntgenstrålar, vilket ofta leder till en mer exakt diagnos. Det är basen för chatbots som ger användbara svar till människor som söker råd om, till exempel, försäkring. Och, innan alltför lång tid, det kommer att göra det möjligt för bilar att bli mer och mer autonoma. Aktuella prognoser indikerar att antalet AI-applikationer kommer att öka exponentiellt under de kommande åren. McKinsey, till exempel, projicerar ytterligare global tillväxt från AI på upp till 13 miljarder US-dollar till 2030.
På samma gång, det är klart att vi måste se till att vår användning av AI och de möjligheter som den medför förblir i harmoni med vårt samhälles åsikter och värderingar. Agerar under beskydd av Kompetenzplattform KI.NRW, en AI-kompetensplattform i delstaten Nordrhein-Westfalen, ett tvärvetenskapligt team har gått samman för att utveckla en certifieringsprocess för AI-ansökningar som ska utföras av ackrediterade examinatorer. Detta kommer att bekräfta överensstämmelse med en certifierad kvalitetsstandard som, i tur och ordning, kommer att göra det möjligt för teknikföretag att verifierbart designa AI-applikationer som är tekniskt tillförlitliga och etiskt acceptabla.
"Syftet med certifieringen är att hjälpa till att fastställa kvalitetsstandarder för AI tillverkad i Europa, att säkerställa ett ansvarsfullt förhållningssätt till denna teknik och att främja rättvis konkurrens mellan de olika aktörerna, " säger Prof. Dr. Stefan Wrobel, direktör för Fraunhofer IAIS och professor i datavetenskap vid universitetet i Bonn.
Med fokus på den mänskliga aspekten
Artificiell intelligens har potential att utöka vår förmåga och ge oss ny kunskap. Dock, när vi börjar basera våra beslut på maskininlärning som antingen är helt eller delvis automatiserad, vi kommer att möta en mängd nya utmaningar. Den tekniska genomförbarheten av sådana applikationer är en faktor. Först och främst, dock, vi måste lösa den grundläggande filosofiska, etiska och juridiska frågor. För att säkerställa att människors behov är fast förankrade i centrum för utvecklingen av denna teknik, nära dialog mellan områdena informationsteknologi, filosofi och juridik är nödvändigt.
Teamet av experter har nu publicerat en vitbok där de beskriver sin tvärvetenskapliga inställning till certifieringsprocessen. Till exempel, de förklarar de etiska principerna. "Alla som använder AI bör kunna agera korrekt i enlighet med sin moraliska övertygelse, och ingen ska inskränkas i sina rättigheter, frihet eller självständighet, " säger Prof. Dr. Markus Gabriel, professor i filosofi vid universitetet i Bonn. Även juridiska frågor har tagits upp. "Till exempel, vi måste bestämma hur AI-tillämpningar kan göras för att överensstämma med de grundläggande värderingarna och principerna i en rättsstat och som lyder under principerna om frihet, " förklarar prof. Frauke Rostalski, professor i juridik vid universitetet i Köln.
Prioriteringar för att bygga förtroende för användningen av AI
Detta tvärvetenskapliga tillvägagångssätt har identifierat ett antal etiska, juridiska och tekniska frågor av relevans för användningen av AI. Dessa granskas alla i vitboken. Kriterierna som används i en certifieringsprocess bör innefatta rättvisa, genomskinlighet, autonomi, kontrollera, dataskydd, säkerhet, säkerhet och tillförlitlighet. EU:s rekommendationer fungerar därmed också som vägledning för KI.NRW-certifieringsprojektet.
Certifieringsprocessen kommer att kretsa kring frågor som:Respekterar AI-applikationen samhällets lagar och värderingar? Behåller användaren full och effektiv autonomi över applikationen? Behandlar ansökan alla deltagare på ett rättvist sätt? Fungerar applikationen och fattar beslut på ett sätt som är transparent och begripligt? Är applikationen pålitlig och robust? Är det säkert mot attacker, olyckor och fel? Skyddar applikationen den privata sfären och annan känslig information?
Bygga in kontroller och kontroller i designstadiet
Enligt vitboken, det måste avgöras under den inledande designprocessen om ansökan är etiskt och juridiskt tillåten – och i så fall, vilka kontroller och kontroller som måste utformas för att styra denna process. Ett nödvändigt kriterium är att säkerställa att användningen av applikationen inte äventyrar någon som använder den i sin förmåga att fatta ett moraliskt beslut – som om möjligheten fanns att avböja användningen av AI – och att deras rättigheter och friheter inte inskränks på något sätt .
Öppenhet är ett annat viktigt kriterium:experterna betonar att information om korrekt användning av applikationen bör vara lätt tillgänglig, och resultaten som bestäms genom användning av AI i applikationen måste vara fullt tolkbara, spårbara och reproducerbara av användaren. Motstridiga intressen, såsom transparens och icke-röjande av affärshemligheter, måste balanseras mot varandra.
Planen är att publicera en första version av inspektionskatalogen i början av 2020 och sedan börja med certifieringen av AI-applikationer. Detta projekt inbegriper också deltagande av Tysklands förbundskontor för informationssäkerhet (BSI), som har lång erfarenhet av utveckling av säkra IT-standarder. Denna kunskap kommer att ingå i certifieringsprocessen. Till sist, med tanke på att AI ständigt utvecklas, själva inspektionskatalogen kommer att vara ett "levande dokument" i behov av kontinuerlig uppdatering.