Kredit:Sigismund von Dobschütz/Wikimedia Commons, CC BY-SA 3.0
Forskare från University of Toronto och University of Cambridge undersöker hur ålderism – fördomar mot individer baserade på ålder – kan kodas in i teknologier som artificiell intelligens, som många av oss nu möter dagligen.
Denna åldersrelaterade snedvridning i AI, även kallad "digital ålderism", utforskas i en ny artikel som leds av Charlene Chu, en affilierad forskare vid Toronto Rehabilitation Institutes KITE-forskningsarm, en del av University Health Network (UHN), och en biträdande professor vid Lawrence S. Bloomberg Faculty of Nursing.
Tidningen publicerades nyligen i The Gerontologist .
"Covid-19-pandemin har ökat vår medvetenhet om hur beroende vårt samhälle är av teknik", säger Chu. "Enormt antal äldre vuxna vänder sig till teknik i sina dagliga liv, vilket har skapat en känsla av brådska för forskare att försöka förstå digital ålderism och riskerna och skadorna som är förknippade med AI-fördomar."
Chu och hennes forskargrupp bestående av juridiska forskare, datavetare, filosofer och samhällsvetare inom bioetik och gerontologi, noterar att stereotyper är djupt rotade i AI-algoritmer, med nyare forskning som fokuserar på exempel på ras- och könsbaserad fördom. Lösningar för att ta itu med AI-bias är dock inte enkla, säger Chu. Hon och hennes team föreslår att det finns serier av "cykler av orättvisa" som uppstår i teknikutvecklingen, från design i ett tidigt skede till testning och implementering.
"Kumulerat producerar dessa cykler en implicit fördom som är inbakad i teknikens funktion som exkluderar äldre vuxna på ett oproportionerligt sätt", säger hon.
Bloomberg Nursings Rebecca Biason pratade nyligen med Chu om hennes arbete och konsekvenserna av digital ålderism för äldre vuxna.
Hur kan teknik eller appar vidmakthålla digital ålderism?
Det finns flera sätt som AI-driven teknik kan anta åldersrelaterad fördom – vissa är mer uppenbara än andra. De flesta appar som skapas för äldre vuxna tenderar att fokusera på kroniska sjukdomar och hälsovårdshantering, och är sällan förknippade med nöje eller fritid. Istället tenderar teknik skapad för äldre vuxna att se dem med en biomedicinsk lins, vilket genererar teknik som är fokuserad på ett hälsorelaterat behov.
Denna ålderistiska representation av äldre vuxna sipprar in i designen av teknik. Normala aspekter av åldrande, såsom skillnader i motorisk funktion eller perception, beaktas inte. Detta är en av de "cykler av orättvisa" som vidmakthåller åldersrelaterad fördom som beskrivs i min artikel och som underbygger uteslutningen av äldre vuxnas röster och data.
Hur bidrar utestängning av äldre vuxna till digital ålderism?
Datan som används för att bygga olika modeller och algoritmer påverkar sedan algoritmens prestanda. Specifikt för åldersrelaterad partiskhet är äldre vuxna den snabbast växande gruppen individer som använder teknik, men mycket av den data som används för att bygga AI-system är baserad på yngre människor. Detta skapar i sin tur appar och tekniker som inte är designade för äldre vuxna, så de använder dem inte.
Denna bristande överensstämmelse i design och teknik bidrar till en brist på data från äldre vuxna, vilket förstärker deras uteslutning genom hela teknikutvecklingen.
Ålderism är den mest socialt accepterade fördomen trots att det är en eventualitet för oss alla. När befolkningens demografi börjar förändras kommer fler och fler äldre att vända sig till teknik som inte är avsedd för dem.
En del av vårt framtida arbete är att effektivt illustrera hur inbäddad ålderism är inom AI och teknikutveckling och föreslå sätt att mildra det.
Vilka är några av dina tidiga rekommendationer för att ta itu med digital ålderism för äldre vuxna?
Medvetenhet om digital ålderism är det första steget – och är avgörande för att gå vidare. Ålder korsar andra dimensioner av sårbarhet och bör åtgärdas. En strukturell rekommendation är att diskutera behovet av tvärvetenskaplig samdesign – det vill säga att inkludera äldre vuxna i teknisk design från början och inte i slutet, och datauppsättningar som är mer representativa för äldre vuxna.
En sak som mitt team gjorde var att kamma igenom The AI Ethics Guidelines Global Inventory, som är ett arkiv som sammanställer rekommendationsdokument om hur AI-system kan genomföra etiskt automatiserat beslutsfattande. Många av dessa riktlinjer lyfte fram rättvisa som en central styrande etisk princip, såväl som behovet av att minska partiskhet. Av dessa nästan 150 dokument som skapats av etablerade organisationer, regeringar och internationella grupper, hittade vi väldigt lite omnämnande av ålder, åldersfördom eller ålderism i jämförelse med ras- eller könsrelaterade fördomar.
Nu försöker mitt team fastställa de samhälleliga och etiska konsekvenserna, såväl som graden av skada som görs för närvarande med avseende på digital ålderism. Arbetet är grundläggande för att uppmärksamma denna fråga när vi bestämmer oss för att definiera problemet.