• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • AI som används av humanitära organisationer kan fördjupa neokoloniala tendenser

    Kredit:Liu zishan/Shutterstock.com

    Artificiell intelligens, eller AI, genomgår en period av massiv expansion. Detta beror inte på att datorer har uppnått mänskligt medvetande, men på grund av framsteg inom maskininlärning, där datorer lär sig från enorma databaser hur man klassificerar ny data. I framkant finns de neurala nätverk som har lärt sig att känna igen mänskliga ansikten eller spela Go.

    Att känna igen mönster i data kan också användas som ett prediktivt verktyg. AI används på ekokardiogram för att förutsäga hjärtsjukdomar, till arbetsplatsdata för att förutsäga om anställda kommer att sluta, och till sociala medier för att upptäcka tecken på begynnande depression eller självmordstendenser. Varje samhällsliv där det finns rikligt med data – och det betyder i stort sett alla aspekter av livet – uppmärksammas av myndigheter eller företag för tillämpningen av AI.

    En aktivitet som för närvarande verkar avlägsen från AI är humanitärism; organiserandet av bistånd på plats till medmänniskor i kris på grund av krig, svält eller annan katastrof. Men även humanitära organisationer kommer att anta AI. Varför? Eftersom det verkar kunna besvara frågor i hjärtat av humanitärism – frågor som vem vi ska rädda, och hur man är effektiv i skala. AI resonerar också starkt med befintliga sätt att tänka och göra humanitärt, i synnerhet principerna om neutralitet och universalitet. Humanitarism (tror man) tar inte parti, är opartisk i sin tillämpning och erbjuder stöd oberoende av detaljerna i en lokal situation.


    Sättet som maskininlärning konsumerar big data och producerar förutsägelser tyder verkligen på att det både kan förstå hur stor den humanitära utmaningen är och ge ett datadrivet svar. Men karaktären av maskininlärningsoperationer betyder att de faktiskt kommer att fördjupa några av problemen med humanitärism, och introducera nya egna.

    Matematiken

    Att utforska dessa frågor kräver en kort omväg in i maskininlärnings konkreta operationer, om vi ska kringgå den desinformation och mystifiering som är knuten till begreppet AI. För det finns ingen intelligens i artificiell intelligens. Det lär sig inte heller riktigt, även om dess tekniska namn är maskininlärning.

    AI är helt enkelt matematisk minimering. Kom ihåg hur du i skolan skulle passa en rak linje till en uppsättning punkter, välja den linje som minimerar skillnaderna totalt sett? Maskininlärning gör samma sak för komplexa mönster, anpassa ingångsfunktioner till kända utfall genom att minimera en kostnadsfunktion. Resultatet blir en modell som kan appliceras på ny data för att förutsäga resultatet.

    Alla data kan skickas genom maskininlärningsalgoritmer. Allt som kan reduceras till siffror och taggas med ett utfall kan användas för att skapa en modell. Ekvationerna vet inte eller bryr sig inte om siffrorna representerar Amazons försäljning eller jordbävningsoffer.

    Denna banalitet med maskininlärning är också dess kraft. Det är en generaliserad numerisk komprimering av frågor som betyder något – det finns inga förståelser inom beräkningen; mönstren indikerar korrelation, inte orsakssamband. Den enda underrättelsetjänsten kommer i samma mening som militär underrättelsetjänst; det är, inriktning. Verksamheten går ut på att minimera kostnadsfunktionen för att optimera resultatet.

    Och modellerna som produceras av maskininlärning kan vara svåra att omvandla till mänskligt resonemang. Varför valde den den här personen som en dålig risk för villkorlig frigivning? Vad representerar det mönstret? Vi kan inte nödvändigtvis säga. Så det finns en opacitet i hjärtat av metoderna. Det förstärker inte mänsklig handlingsfrihet utan förvränger den.

    De mäktigas logik

    Maskininlärning fattar inte bara beslut utan att ge skäl, det modifierar själva vår idé om förnuft. Det är, det förändrar vad som är kännbart och vad som förstås som verkligt.

    Till exempel, i vissa jurisdiktioner i USA, om en algoritm ger en förutsägelse om att en arresterad person sannolikt kommer att begå brott igen, den personen kommer att nekas borgen. Mönstersökning i data blir en kalkylerande auktoritet som utlöser betydande konsekvenser.

    Maskininlärning, sedan, är inte bara en metod utan en maskinfilosofi där abstrakt beräkning förstås för att få tillgång till en sanning som ses som överlägsen den vanliga perceptionens meningsskapande. Och som sådan, datavetenskapens beräkningar kan sluta räkna mer än vittnesmål.

    Självklart, det humanitära fältet är inte naivt när det gäller farorna med datafikation. Det är välkänt att maskininlärning kan sprida diskriminering eftersom den lär sig av sociala data som i sig ofta är partisk. Och så humanitära institutioner kommer naturligtvis att vara mer försiktiga än de flesta för att säkerställa alla möjliga skydd mot partisk utbildningsdata.

    Men problemet sträcker sig längre än uttryckliga fördomar. Den djupare effekten av maskininlärning är att producera de kategorier genom vilka vi kommer att tänka på oss själva och andra. Maskininlärning skapar också en övergång till företräde:utestängning av framtider på basis av korrelation snarare än orsakssamband. Detta skapar risk på samma sätt som Twitter bestämmer trendämnen, fördela och undanhålla resurser på ett sätt som algoritmiskt avgränsar de förtjänta och de oförtjänta.

    Vi borde kanske vara särskilt oroliga för dessa tendenser, för trots dess bästa avsikter, utövandet av humanitärism visar ofta neokoloniala tendenser. Genom att hävda neutralitet och universalitet, Algoritmer hävdar överlägsenheten hos abstrakt kunskap som genereras någon annanstans. Genom att bädda in de mäktigas logik för att avgöra vad som händer med människor i periferin, humanitär AI blir en neokolonial mekanism som agerar i stället för direkt kontroll.

    Som det ser ut, maskininlärning och så kallad AI kommer inte att vara någon form av räddning för humanitärism. Istället, det kommer att fördjupa den redan djupa neokoloniala och nyliberala dynamiken hos humanitära institutioner genom algoritmisk förvrängning.

    Men ingen apparat är ett slutet system; effekten av maskininlärning är villkorad och kan ändras. Detta är lika viktigt för humanitär AI som för AI i allmänhet – för, om en alternativ teknik inte mobiliseras av tillvägagångssätt som folkråd, nästa generation av humanitära skandaler kommer att drivas av AI.

    Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com