• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Att göra memes tillgängliga för personer med synnedsättning

    Ett team från Carnegie Mellon skapade en plattform för att översätta memes till ljud snarare än text som ett sätt att förmedla känslor genom musik och ljudeffekter för personer med synnedsättning. Kredit:Carnegie Mellon University

    Människor med synnedsättning använder sociala medier som alla andra, ofta med hjälp av skärmläsarprogram. Men den tekniken kommer till korta när den stöter på memes, som inte innehåller alternativ text, eller alternativ text, för att beskriva vad som avbildas på bilden.

    För att motverka detta, forskare vid Carnegie Mellon University har utvecklat en metod för att automatiskt identifiera memes och använda förskrivna mallar för att lägga till beskrivande alt-text, göra dem begripliga via befintliga hjälpmedelstekniker.

    Memes är bilder som kopieras och sedan överlagras med små variationer av text. De är ofta humoristiska och förmedlar en gemensam upplevelse, men "om du är blind, du missar den delen av konversationen, sa Cole Gleason, en Ph.D. student vid CMU:s Human-Computer Interaction Institute (HCII.)

    "Memes kanske inte verkar vara det viktigaste problemet, men en viktig del av tillgängligheten är inte att välja för människor det som förtjänar deras uppmärksamhet, " sa Jeff Bigham, docent i HCII. "Många människor använder memes, och därför bör de göras tillgängliga."

    Memes lever till stor del inom sociala medieplattformar som har hinder för att lägga till alt-text. Twitter, till exempel, låter människor lägga till alternativ text till sina bilder, men den funktionen är inte alltid lätt att hitta. Av nio miljoner tweets som CMU-forskarna undersökte, en miljon inkluderade bilder och, av dem, bara 0,1 procent inkluderade alt-text.

    Gleason sa att grundläggande datorseendetekniker gör det möjligt att beskriva bilderna som ligger bakom varje meme, oavsett om det är en kändis, en gråtande bebis, en seriefigur eller en scen som en buss som välte upp i ett slukhål. Optiska teckenigenkänningstekniker används för att dechiffrera den överlagrade texten, som kan ändras med varje iteration av meme. För varje memetyp, det är bara nödvändigt att göra en mall som beskriver bilden, och den överlagrade texten kan läggas till för varje iteration av det meme.

    Ett team från Carnegie Mellon skapade en plattform för att översätta memes till ljud snarare än text som ett sätt att förmedla känslor genom musik och ljudeffekter för personer med synnedsättning. Kredit:Carnegie Mellon University

    Men att skriva ut vad memen är tänkt att förmedla visade sig vara svårt.

    "Det berodde på meme om humorn översattes. Vissa av bilderna är mer nyanserade, " sa Gleason. "Och ibland är det explicit och du kan bara beskriva det." Till exempel, den kompletta alt-texten för det så kallade "success kid"-memet säger "Småbarn knyter näven framför självbelåtet ansikte. Överlagd text på toppen:Var en dålig pojke hela året. Överlagd text på botten:Fick fortfarande fantastiska presenter från tomten."

    Teamet skapade också en plattform för att översätta memes till ljud snarare än text. Användare söker igenom ett ljudbibliotek och drar och släpper element i en mall. Detta system gjordes för att översätta befintliga memes och förmedla känslan genom musik och ljudeffekter.

    "En av anledningarna till att vi provade ljudmemes var för att vi trodde att alt-text skulle döda skämtet, men folk föredrog ändå texten eftersom de är så vana vid det, " sa Gleason.

    Att implementera tekniken kommer att bli en utmaning. Även om det var integrerat i en meme-generatorwebbplats, att alt-text inte automatiskt skulle kopieras när bilden delades på sociala medier.

    "Vi måste övertyga Twitter att lägga till en ny funktion, " sa Gleason. Det kan vara något som lagts till i en personlig smartphone, men han noterade att det skulle lägga bördan på användaren. CMU-forskare arbetar för närvarande med relaterade projekt, inklusive ett webbläsartillägg för Twitter som försöker lägga till alt-text för varje bild och kan inkludera ett meme-system. Ett annat projekt strävar efter att integrera alt-text i metadata för bilder som skulle stanna med bilden var den än postades.

    Detta arbete presenterades tidigare i år på ACCESS-konferensen i Pittsburgh. Andra forskare som är involverade i forskningen inkluderar HCII postdoktor Amy Pavel, CMU grundexamen Xingyu Liu, HCII biträdande professor Patrick Carrington och Lydia Chilton vid Columbia University.


    © Vetenskap https://sv.scienceaq.com