Kredit:Unsplash/CC0 Public Domain
Den australiensiska regeringens senaste varning till Facebook för desinformation är bara den senaste salvan i den till synes ständiga kampen för att hålla sociala mediejätten till svars för innehållet som publicerats på dess plattform.
Det kom samma vecka som den amerikanska senaten hörde vittnesmål där den tidigare Facebook-chefen Frances Haugen påstod att företaget kände till skadliga konsekvenser för sina användare men valde att inte agera.
Regeringar över hela världen har i åratal drivit på för att göra sociala mediejättar mer ansvarsfulla, både när det gäller kvaliteten på informationen de är värd för och deras användning av användarnas data som en del av deras affärsmodeller.
Den australiska regeringens onlinesäkerhetslag kommer att träda i kraft i januari 2022, vilket ger eSafety Commissioner oöverträffade befogenheter att slå ner på kränkande eller våldsamt innehåll eller sexuella bilder som publiceras utan samtycke.
Men även om den lyckas kommer denna lagstiftning bara att hantera en liten del av de frågor som kräver reglering. I många sådana frågor har sociala medieplattformar försökt reglera sig själva snarare än att underkasta sig lagstiftning. Men oavsett om vi pratar om lagstiftning eller självreglering, väcker tidigare erfarenheter inte mycket förtroende för att tekniska plattformar framgångsrikt kan regleras och reglering enkelt sättas i verket.
Vår forskning har undersökt tidigare försök att reglera teknikjättar i Australien. Vi analyserade 269 medieartiklar och 282 policydokument och branschrapporter publicerade från 2015 till 2021. Låt oss diskutera ett par relevanta fallstudier.
1. Annonser och nyheter
Under 2019 beskrev den australiensiska konkurrens- och konsumentkommissionens (ACCC) utredning om digitala plattformar Facebooks algoritmer, särskilt de som bestämmer placeringen av annonsering på Facebook-sidor, som "ogenomskinliga". Den drog slutsatsen att medieföretag behövde mer säkerhet om användningen av deras innehåll.
Facebook välkomnade till en början utredningen, men motsatte sig sedan offentligt (tillsammans med Google) när regeringen hävdade att problemen relaterade till Facebooks betydande marknadsmakt inom displayannonsering och Facebook och Googles dominans av nyhetsinnehåll genererat av medieföretag var för viktiga för att vara lämnas till företagen själva.
Facebook hävdade att det inte fanns några bevis för en obalans i förhandlingsstyrka mellan det och nyhetsmedieföretag, och tillade att det inte skulle ha något annat val än att dra tillbaka nyhetstjänster i Australien om de tvingades betala utgivare för att vara värd för deras innehåll. Stödet resulterade i Facebooks ökända veckolånga embargo mot australiensiska nyheter.
Den reviderade och ändrade förhandlingskoden för nyhetsmedier antogs av parlamentet i februari. Både regeringen och Facebook utropade seger, den förra hade lyckats anta sin lagstiftning, och den senare slutade med att göra egna fynd med nyhetsutgivare utan att behöva hållas juridiskt fast vid koden.
2. Hatretorik och terrorism
Under 2015, för att hantera våldsbejakande extremism på sociala medier, arbetade den australiensiska regeringen till en början med teknikjätten för att utveckla gemensamma AI-lösningar för att förbättra de tekniska processerna för innehållsidentifiering för att hantera att motverka våldsbejakande extremism.
Denna frivilliga lösning fungerade strålande, tills den inte gjorde det. I mars 2019 liveströmmades masskjutningar vid moskéer i Christchurch på Facebook av en australiskfödd vit supremacist-terrorist, och inspelningarna cirkulerade därefter på internet.
Detta visade på oförmågan Facebooks artificiella intelligensalgoritmer att upptäcka och ta bort livefilmerna från skjutningen och hur snabbt de delades på plattformen.
Den australiensiska regeringen svarade 2019 genom att ändra strafflagen för att kräva att sociala medieplattformar tar bort avskyvärt eller våldsamt material "i rimlig tid" och, i förekommande fall, hänvisa det till den australiensiska federala polisen.
Vad har vi lärt oss?
Dessa två exempel, även om de var slående olika, utvecklades båda på ett liknande sätt:en första dialog där Facebook föreslår en intern lösning som involverar sina egna algoritmer, innan en efterföljande övergång mot obligatorisk statlig reglering, som möts av motstånd eller förhandlingar (eller båda) från Facebook, och det slutliga resultatet som är en bitvis lagstiftning som antingen är urvattnad eller bara täcker en undergrupp av specifika typer av skador.
Det finns flera uppenbara problem med detta. Den första är att bara teknikjättarna själva vet hur deras algoritmer fungerar, så det är svårt för tillsynsmyndigheter att övervaka dem ordentligt.
Sedan är det faktum att lagstiftning vanligtvis gäller på nationell nivå, men Facebook är ett globalt företag med miljarder användare över hela världen och en plattform som är integrerad i vårt dagliga liv på alla möjliga sätt.
Hur löser vi återvändsgränden? Ett alternativ är att regler utarbetas av oberoende organ utsedda av regeringar och teknikjättar för att driva samregleringsagendan globalt. Men att enbart förlita sig på reglering för att vägleda teknikjättars beteende mot potentiella övergrepp kanske inte är tillräckligt. Det finns också ett behov av självdisciplin och lämplig företagsstyrning – potentiellt upprätthållen av dessa oberoende organ.