Kredit:Pixabay/CC0 Public Domain
Allmänheten behöver inte veta hur artificiell intelligens fungerar för att lita på den. De behöver bara veta att någon med den nödvändiga kompetensen undersöker AI och har befogenhet att vidta sanktioner om det orsakar eller sannolikt kommer att orsaka skada.
Dr Bran Knowles, en universitetslektor i datavetenskap vid Lancaster University, säger:"Jag är säker på att allmänheten är oförmögen att avgöra tillförlitligheten hos enskilda AI:er... men vi behöver inte dem för att göra detta. Det är inte deras ansvar att hålla AI ärlig."
Idag (8 mars) presenterar Dr Knowles en forskningsartikel "The Sanction of Authority:Promoting Public Trust in AI" vid ACM Conference on Fairness, Ansvar och transparens (ACM FAccT).
Tidningen är medförfattare av John T. Richards, av IBM:s T.J. Watson Research Center, Yorktown Heights, New York.
Allmänheten är, pappersanteckningarna, ofta misstroende mot AI, som härrör både från hur AI har framställts under åren och från en växande medvetenhet om att det finns lite meningsfull tillsyn av den.
Författarna hävdar att större transparens och mer tillgängliga förklaringar av hur AI-system fungerar, uppfattas som ett sätt att öka förtroendet, inte ta upp allmänhetens oro.
Ett "reglerande ekosystem, " de säger, är det enda sättet att AI kommer att vara meningsfullt ansvarig inför allmänheten, förtjänar deras förtroende.
"Allmänheten bryr sig inte rutinmässigt om matens tillförlitlighet, flyg, och läkemedel eftersom de litar på att det finns ett system som reglerar dessa saker och straffar alla brott mot säkerhetsprotokoll, säger Dr Richards.
Och, tillägger Dr. Knowles:"Istället för att be att allmänheten skaffar sig färdigheter att fatta välgrundade beslut om vilka AI:er som är värda deras förtroende, allmänheten behöver samma garantier för att någon AI de kan stöta på inte kommer att skada dem."
Hon betonar den avgörande roll som AI-dokumentation spelar för att möjliggöra detta pålitliga regulatoriska ekosystem. Som ett exempel, tidningen diskuterar IBMs arbete med AI-faktablad, dokumentation utformad för att fånga nyckelfakta om en AI:s utveckling och testning.
Men, medan sådan dokumentation kan ge information som behövs av interna revisorer och externa tillsynsmyndigheter för att bedöma efterlevnaden av framväxande ramverk för pålitlig AI, Dr Knowles varnar för att förlita sig på det för att direkt främja allmänhetens förtroende.
"Om vi misslyckas med att inse att bördan för att övervaka tillförlitligheten av AI måste ligga på mycket skickliga tillsynsmyndigheter, då finns det en god chans att framtiden för AI-dokumentation är ännu en mekanism i stil med villkor och villkor – något som ingen riktigt läser eller förstår, " hon säger.
Tidningen kräver att AI-dokumentation ska förstås korrekt som ett sätt att ge specialister möjlighet att bedöma tillförlitlighet.
"AI har materiella konsekvenser i vår värld som påverkar verkliga människor; och vi behöver genuint ansvar för att säkerställa att den AI som genomsyrar vår värld hjälper till att göra den världen bättre, " säger Dr Knowles.