• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Hur värdedriven artificiell intelligens kan omforma vårt sätt att kommunicera

    Kredit:Yale University Press

    Mike Ananny gick ut med sin hund i morse. Han gjorde det utan att förvänta sig integritet.

    "Jag vet att jag var utsatt för en mängd olika kameror, oavsett om det var ringklockor, bilar som körde med eller till och med stadstrafikkameror", sa han. "Jag valde inte att delta i hela den här mängden av videoövervakningssystem. Jag tog bara med min hund på en promenad."

    Ananny förstår att, vart han än går, samlas data om honom in, analyseras och tjäna pengar av artificiell intelligens (AI).

    Kate Crawford körde en skåpbil djupt in i det torra Nevada-landskapet för att få en bra titt på de förångande saltlakedammmarna i Silver Peak Lithium Mine.

    Dessa ödsliga delar av vätska är inte bara den största amerikanska litiumkällan – metallen som är avgörande för batterierna som driver allt från bärbara datorer till mobila enheter till elbilar – de är också en levande påminnelse om vilken inverkan AI har på den materiella världen .

    "Metaforer som folk använder för att prata om AI som "molnet" antyder något flytande och abstrakt, säger Crawford. "Men storskalig beräkning har ett enormt koldioxidavtryck och miljöpåverkan."

    Crawford vet att världens system för energi, gruvdrift, arbetskraft och politisk makt skrivs om av AI:s behov.

    När covid-19-pandemin började visste Ashley Alvarado att hennes stations lyssnare var rädda och förvirrade.

    På KPCC-FM och LAist har Alvarado använt en mängd olika kommunikationsverktyg för att få kontakt med publiken, men omfattningen av kommentarerna, frågorna och tipsen som stationen fick krävde en lösning som kunde bearbeta stora mängder data, snabbt.

    "Med COVID fanns det ett så stort behov av information i början av pandemin att det sätt vi kunde vara mest mänskliga för Angelenos var genom att utnyttja AI," sa Alvarado.

    Känd under många namn – algoritmer, bots, big data, naturlig språkbehandling, maskininlärning, intelligenta agenter – tekniker som faller under den breda definitionen av AI omformar inte bara kommunikationsvärlden utan världen som helhet. I hela USC Annenberg utforskar fakulteten, studenter och alumner både den enorma potentialen och de ofta mindre uppenbara fallgroparna som dessa teknologier ger.

    "Annenberg är unikt positionerad för att leda den här konversationen, eftersom dessa är sociotekniska och kommunikationsproblem," sa Ananny. "Jag vill inte att våra svar på dessa frågor bara ska vara tekniska. Jag vill ha ett svar som är djupt historiskt och rotat i kulturell förståelse."

    Söktermer

    I den populära fantasin kan AI betyda allt från bekvämligheten av att din telefon väljer låtar som den vet att du kanske gillar eller talar om för dig den bästa vägen till din väns hus, eller löftet om stora universalmedel för frågor som klimatförändringar eller Covid19 pandemi. Det är också näst intill omöjligt att diskutera AI utan att hänvisa till hur ofta AI kastas som science fiction-skurken:förbudet mot "tänkande maskiner" i Frank Herberts Dune, HAL 9000 i Arthur C. Clarkes 2001:A Space Odyssey, the Borg in Star Trek, Agent Smith i The Matrix.

    "Jag tror att de flesta tenderar att tänka på det som den här typen av sci-fi-teknik från Terminator eller Ready Player One", säger Fred Cook, chef för Center for Public Relations. "I verkligheten är det motorn bakom många av de saker som människor, särskilt inom PR-branschen, redan använder i sitt dagliga arbete."

    För att grovt förenkla, det mesta av det som vanligtvis anses vara AI beror på interaktionen mellan algoritmer – matematiska funktioner – som gör beräkningar baserade på enorma mängder data.

    "Algorithmer är instruktionerna och reglerna som styr datoranvändning", säger Marlon Twyman II, som forskar om hur teknik formar interaktioner mellan individer och team på arbetsplatsen. "Artificiell intelligens måste ha algoritmer som stöder de beslut och åtaganden den fattar."

    Twyman nämner exemplet med bildigenkänning:AI som försöker upptäcka om en bild av en katt är en katt eller en hund. Ju fler exempel algoritmerna utsätts för – desto mer data – desto bättre kan de göra dessa bestämningar.

    "Artificiell intelligens är när datorer börjar kunna svara på indata som de inte nödvändigtvis tränades på - eller utsatts för - när de programmerades", säger Twyman, biträdande professor i kommunikation.

    "Vad vi interagerar med är bara matematik", säger Ignacio Cruz, som tog sin doktorsexamen. i kommunikation 2021 och undervisar nu vid Northwestern University. Han betonar att, trots AI:s förmåga att känna igen trender och mönster, så är det inte så mystiskt. Teknik som har, om inte känsla, så åtminstone någon oberoende byrå – eller vad Cruz kallar "agentiska egenskaper" – är för närvarande till stor del sci-fi-grejen.

    "Algorithmer fungerar inte som den mänskliga hjärnan fungerar", konstaterade Lynn Miller, professor i kommunikation. "AI är egentligen bara en förutsägelsemaskin."

    Sådana maskiner möjliggör anmärkningsvärda tekniska landvinningar inom hälsovård, logistik, spel, underhållning, straffrätt, anställning och många andra områden – inklusive lokal journalistik – på oväntade sätt.

    AI och community

    KPCC-FM förväntade sig inte att använda AI för att bygga samhällsengagemang, men när pandemin slog till 2020 och de började bli översvämmade av panikslagna meddelanden om nedstängningen, visste den Pasadena-baserade offentliga radiostationens ledning att de måste göra något för att hjälpa sina lyssnare.

    "Det började med bara oro," sa Alvarado. "Och sedan blev det bara full panik – frågor om brist på Target, om man skulle ställa in ett bröllop, om det var olagligt att samlas med nära och kära för att sörja någon."

    De flesta av dessa frågor kom via ett verktyg som radiostationen hade bäddat in på sin hemsida som använder Hearken, en plattform för engagemang och organisatorisk stöd. "Vi fick ibland 10 meddelanden per minut genom det här verktyget", säger Alvarado, vice ordförande för samhällsengagemang och strategiska initiativ för KPCC-FM och LAist. "Vi var tvungna att tänka kreativt på hur vi kunde möta informationsbehoven hos tusentals och åter tusentals människor."

    Hon pratade med Paul Cheung, dåvarande chef för journalistik och teknologiinnovation vid John S. och James L. Knight Foundation, som frågade om hon hade tänkt på maskininlärning. "Och det hade jag inte," sa hon med ett skratt. Cheung kopplade dem till några journalister som arbetade med AI på onlinetidningen Quartz, och de hjälpte Alvarado och hennes team att utveckla ett naturligt språkbehandlingsverktyg som kunde analysera förfrågningarna de fick från lyssnare.

    "Med verktyget kunde vi identifiera teman som vi behövde fokusera på - inte bara för att svara på frågor, utan för vilka berättelser vi borde täcka och var," sa Alvarado, som tog sin kandidatexamen 2005 med en dubbel majoritet i tryckt journalistik och spanska .

    Alvarado ser en stor potential för denna teknik för att möjliggöra publikinput till ytmönster från andra snabbrörliga nyhetshändelser från skogsbränder till politiska debatter. "Vanligtvis måste du läsa igenom varje fråga när den kom in och hoppas att du observerade en trend, i motsats till att ha AI på plats för att säga:"Här är något som dyker upp om och om igen."

    Vissa publikationer använder redan direkt AI för att skriva berättelser, vanligtvis grundläggande, lättformaterade delar som aktierapporter, väderbulletiner och sportberättelser. Även om de här styckena slutar rädda en del reporter på nybörjarnivån från otippat slit, ser Twyman en potentiell nackdel.

    "Problemet är att detta tar bort möjligheten att förnya, även i dessa enkla uppgifter," sa han. "Om vi ​​fortsätter att ta bort människor från fler och mer komplexa skrivuppgifter kan vi hamna i en värld som ser väldigt annorlunda ut."

    Agenter med byrå

    Ibland är det nödvändigt att ta bort människor från ekvationen för deras säkerhet. I sin forskning om riskfylld sexuell aktivitet för mer än 25 år sedan stötte Miller på ett mycket grundläggande – och mycket mänskligt – problem. "Jag var intresserad av sexuellt beteende bland unga män som har sex med män", sa hon. "Jag gjorde mycket kvalitativt arbete med vad som ledde fram till dessa riskögonblick, men jag kunde uppenbarligen inte gömma mig under sängar för att ta reda på vad som pågick. Det var då jag började bli intresserad av att skapa virtuella miljöer."

    Miller ville skapa ett interaktivt spel där mänskliga försökspersoner kunde fatta beslut om huruvida de skulle engagera sig i riskfyllt sexuellt beteende eller inte, men hon var begränsad av den teknik hon hade tillgänglig för att skapa skriptade situationer.

    Svaret var en virtuell miljö befolkad av "intelligenta agenter", karaktärer vars beteende styrdes av algoritmer som satte deras preferenser och mål – med andra ord AI – snarare än av fasta skript. Genom att arbeta med ett team av USC-datavetare och psykologer utvecklade Miller karaktärer vars beteende var representativt för människor i det verkliga livet. Dessa karaktärer befolkade en virtuell värld och kunde interagera med mänskliga forskningsämnen på mer naturliga sätt som faktiskt skulle ge handlingskraftiga forskningsdata om riskfyllt sexuellt beteende utan risk.

    "Du kan ha en människa i slingan som svarar på vad den intelligenta agenten gör, som sedan formar dess beteende, eller så kan du låta alla agenter interagera och köra simuleringar," sa Miller. Hennes arbete hjälpte till att identifiera inte bara mönster av riskbeteende utan även sätt att effektivt ingripa och mildra den risken.

    I hennes prisbelönta forskning under det senaste och ett halvt decenniet som har byggt på dessa ursprungliga virtuella miljöer, har Miller och hennes team också lärt sig vilka typer av interventioner som fungerar bäst för att begränsa risken i sexuella situationer – ingen av dem skulle ha varit möjlig utan AI.

    Hennes nyare arbete har flyttat in i neurovetenskapens område och använder dessa intelligenta agenter för att modellera mer komplexa mänskliga processer, som kommunikationskompetens och hur människor skapar mening genom social interaktion.

    "Ett av problemen med nuvarande AI i allmänhet är att det bara kan komma upp till en viss punkt när det gäller att kunna härleda känslor," sa Miller. "När det är sagt finns det vissa sannolikheter och parametrar som vi kan programmera in i våra intelligenta agenter när det kommer till social interaktion som faktiskt gör ett ganska bra jobb med att modellera hur faktiska människor, i en mycket interaktiv och flexibel miljö, kommer att fatta beslut."

    Även om framtiden för AI är svår att förutsäga, sa Miller att banbrytande AI-forskare redan försöker utnyttja hur mänskliga hjärnor förstår världen. "Som med alla innovationer finns det risker som måste minskas," noterade Miller. "Men det finns också enorma möjligheter att förbättra interventioner och terapier för att dramatiskt förbättra kommunikationen och individuellt och samhälleligt välbefinnande."

    Parsing polarisation

    Som Miller påpekar är en av styrkorna med AI att hitta mönster bland enorma datamängder. Fred Cook ville ta en särskilt omtvistad datamängd – inlägg i sociala medier om kontroversiella politiska frågor – och ta reda på om AI kunde hjälpa till att mäta graden av polarisering i debatten kring dessa frågor.

    Processen började med en undersökning som Center for Public Relations genomförde för sin globala kommunikationsrapport 2021, som identifierade flera viktiga frågor som PR-proffs trodde att de skulle behöva ta itu med under det kommande året. Cook delade dessa frågor med chefer på PR-företaget Golin, där han hade varit VD (och fortfarande har ett ekonomiskt intresse), och delade dem sedan med mjukvaruföretaget Zignal Labs.

    "Med tanke på det enorma problem som den nuvarande nivån av polarisering orsakar för människor, myndigheter och företag, bestämde vi oss för att utveckla ett nytt verktyg som skulle mäta det – och förhoppningsvis hjälpa till att minska det," sa Cook.

    Deras tillvägagångssätt är baserat på Ad Fontes-grafen över mediabias, som kategoriserar media efter ett vänster-högerpolitiskt spektrum på en axel och tillförlitlighet på den andra axeln. Zignal AI-verktyget matar in de 10 heta politiska frågorna och korsrefererar dem med sociala inlägg som inkluderar länkar till artiklar från publikationer som finns på Ad Fontes-diagrammet. Baserat på publikationens position i diagrammet tilldelar verktyget en poäng som avgör hur vänster eller höger de flesta av delarna i sociala medier är i en viss fråga. Glappet mellan hur många höger/konservativa artiklar som delas om en fråga kontra hur många vänster/liberala publikationer som delas ger ett Polarization Index-poäng.

    Det stora antalet inlägg som är involverade i att skapa denna poäng – mer än 60 miljoner – kräver AI för att göra jobbet snabbt.

    "Polariseringsindexet ger en värmekarta över vilka frågor som är mest kontroversiella och de faktorer som bidrar till deras splittring," sa Cook. "Vi kan dra konsekvenser för människor, företag och kommunikatörer som kanske vill engagera sig i dessa ämnen."

    Cook säger också att PR-utövare måste fortsätta att ta itu med kritik av AI baserat på integritet, arbetskraft, partiskhet och social rättvisa, men tillägger att hans egen erfarenhet har visat att AI kan ha positiva effekter även på dessa områden.

    Med det sagt, tillade Cook, "Varje ny teknik har aspekter av det som är skrämmande, och AI är inte annorlunda än något annat. Medan vi använde AI för att göra ett riktigt viktigt arbete med vårt Polarisation Index, kan AI och har använts för att sprida desinformation och påverka politiska kampanjer genom bots. Varje gång det kommer en ny teknik kommer någon att använda den på ett skadligt sätt."

    Jakta AI med AI

    När det gäller att förhöra både de positiva och negativa aspekterna av AI, ligger USC Annenbergs doktorander i kommunikation i framkanten av den forskningen, och slår samman datavetenskap och samhällsvetenskap för att bygga djup insikt i både tekniska och kulturella implikationer av AI.

    Doktoranden Ho-Chun Herbert Chang säger att hans grundutbildningsår vid Dartmouth College var formativa. "Dartmouth var platsen där termen AI myntades 1952," noterade han. "Jag studerade matematik och kvantitativ samhällsvetenskap, och för mitt stipendieprogram gjorde jag ett fiktionsprojekt om artificiell intelligens. Det var början till att jag tittade på AI från både ett tekniskt och ett humanistiskt sätt."

    När hans akademiska karriär fortskred såg Chang en "avgrund" mellan hur utövare och allmänheten ser artificiell intelligens. "Från datavetenskapens sida är det mer betoning på de tekniska aspekterna av att designa algoritmer," sa han. "Från den humanistiska sidan finns fokus på samhälleliga värderingar som den primära principen när det gäller att organisera forskning."

    Ett av projekten Chang arbetat med under det senaste året visade potentialen hos AI för att undersöka mänskligt beteende – och beteendet hos andra AI-system. Genom att arbeta med Emilio Ferrara, docent i kommunikation och datavetenskap vars banbrytande forskning identifierade hur Twitter-bots påverkade den amerikanska presidentkampanjen 2016, hjälpte Chang till att bygga vidare på det arbetet inför valet 2020. Med hjälp av ett AI-verktyg kallat Botometer kunde teamet kvantifiera hur mycket Twitter-trafik kring konspirationsteorier som genererades och förstärktes av bots. "Botometern tittar på varje Twitter-kontos tidslinjedata och metadata, med hjälp av maskininlärning för att ta reda på om ett konto är en människa eller en bot," sa Chang.

    Chang arbetade också med Allissa Richardson, biträdande professor i journalistik, för att analysera rörelsen för rasrättvisa som följde efter mordet på George Floyd av Minneapolis-polisen. "A big part of communication research is about how users participate on social platforms—mediated by algorithms—and how they use these platforms to self-organize for democratic movements," he said. "That's the kind of work I want to do. I'm engaging holistically with AI, and Annenberg is the perfect place for that research."

    Ignacio Cruz focused his dissertation on the use of AI tools in workplace recruitment. Perhaps not surprisingly, he found that the human recruiters who used AI to sort and recommend applicants for positions had very polarized opinions about the effectiveness of the AI. "They often saw AI as either an adversary or an ally," said Cruz, now a postdoctoral fellow at Northwestern University. "Sometimes recruiters see these systems as a time-saver, as an ally. But the job candidates these systems surface often don't jibe with the recruiters' expertise."

    While acknowledging the power of AI to help people make meaning out of huge data sets, Cruz also cautions about many issues that can arise from uncritically accepting the outputs of such systems. Using AI as an intermediary for communication is such a new phenomenon, "We just need a lot more education and critical inquiry about how these technologies are developed before they are deployed to the masses," he said.

    Cruz's own research has shown that AI systems often reflect the biases of those who develop them, as they rely upon human intervention during their creation and implementation. "Artificial intelligence as it's being developed is scattered and largely unregulated," he said. "If these technologies really are going to help us create a better tomorrow, then they need to be designed with purpose, and they need to be continually audited—not only for efficiency, but for sustainability and ethics."

    The desert of AI

    For Kate Crawford, the problem with much of the public conversation around the potential of AI is the lack of any critical lens by which to monitor it in the meaningful ways Cruz suggests.

    "We are subjected to huge amounts of marketing hype, advertising and boosterism around artificial intelligence," said Crawford, research professor of communication. "Part of what I do is look at the way in which artificial intelligence is not just a series of algorithms or code … but to really look at this much bigger set of questions around what happens when we create these planetary-scale computational networks? Who gains, but also, who loses?"

    In the first chapter of her new book "Atlas of AI:Power, Politics and the Planetary Costs of Artificial Intelligence " (Yale University Press, 2021), Crawford begins with her journey to that lithium mine, setting the tone for an exploration of the planetary costs of AI. Her devastating critique frames AI as an extractive industry—both literally, in its reliance on finite resources and labor for its components and its power, and figuratively, in the amount of data it consumes, categorizes and monetizes.

    "Over the course of researching this book, I learned much more about the environmental harms of AI systems," Crawford said. "Servers are hidden in nondescript data centers, and their polluting qualities are far less visible than the billowing smokestacks of coal-fired power stations."

    Describing the amount of energy needed to power something like Amazon Web Services as "gargantuan," Crawford noted that the environmental impact of the AI systems that run on those platforms is continuing to grow. "Certainly, the industry has made significant efforts to make data centers more energy-efficient and to increase their use of renewable energy," Crawford said. "But already, the carbon footprint of AI has matched that of the aviation industry at its height."

    Crawford said that the entire model of AI is extractive and exploitative and would need to be "re-architected" to work differently. "We also need regulatory and democratic oversight," she added. "The proposed European Union AI regulations offer a good starting point, but that's just one effort—and we have yet to see something similar in the United States or China, the two largest producers of AI technologies."

    Working with her USC Annenberg colleagues, Crawford is hoping to contribute to what a reimagined AI would look like.Crawford has teamed up with Mike Ananny and a team of doctoral students and practitioners on a new research project that will analyze issues within the data sets used to train AI systems.

    "AI could help design a shipping system that would minimize the carbon imprint, rather than maximizing profit margin," said Ananny, associate professor of communication. "It's a question of, what do we want to maximize for in our AI systems? It pushes the problem back onto the people with power and it says, it's not a data problem. It's a values problem."

    Crawford said that USC Annenberg's combination of technical expertise with a deep understanding of human communication makes it the ideal place for that kind of reimagining of a less-harmful AI.

    "Our hope is that the research will contribute to how USC and the broader academic community thinks about the future of AI, in terms of how we build it, use it, and regulate it," she said.

    Toward an ethical AI

    As part of his studies of media and technology, Ananny is a scholar of, and a contributor to, the big conversations about how society can reap the benefits of big-data AI systems while still preserving (or better, reestablishing) something that might be recognized as ethics and privacy.

    While many critics and policymakers have proposed stronger tech company regulations that would force them to behave more like public utilities, with greater transparency, Ananny is among those who argue that regulatory reforms don't go far enough.

    "We've allowed capitalist institutions to have massive amounts of power for commodifying people, for allowing wealth inequalities and wealth concentrations—and data is just a part of that, and part of perpetuating that," Ananny said. "Honestly, until you solve this problem of late capitalism where individuals have zero power and companies have all the power, you can kind of nibble around the edges with regulations, but that won't have any real effect on the problem."

    Ananny echoes Crawford's work, asserting that the climate crisis is bringing increasing urgency to the problem of AI as an extractive industry.

    "We cannot allow the planet to burn because of the energy needs of Bitcoin's server farms," he said. "These AI systems are optimizing Amazon's ability to fly products all over the world, with a huge carbon footprint, so people can have a spatula delivered to their Amazon box."

    Ananny does note that some scholars, scientists, activists and politicians are looking for opportunities to leverage the positive impacts of AI's computing power in a way that doesn't exacerbate the climate emergency.

    "This is the language we're using to create a new kind of reality," Ananny said. "Data sets, statistical certainty, optimization, model-making, error detection—all those kinds of seemingly technical terms. But we also need to engage with questions of values. Is it worth it to have all of these things happening at such a huge scale? At what point, in terms of the human and material cost, do you tip too far over? We're going to have to be able to make these kinds of judgments about particular AI tools—including, "Don't build it.'"

    © Vetenskap https://sv.scienceaq.com