• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • En mjukvaruingenjör från Google tror att en AI har blivit kännande. Om han har rätt, hur skulle vi veta det?

    Kredit:CC0 Public Domain

    Googles LaMDA-programvara (Language Model for Dialogue Applications) är en sofistikerad AI-chatbot som producerar text som svar på användarinput. Enligt mjukvaruingenjören Blake Lemoine har LaMDA uppnått en lång dröm för AI-utvecklare:den har blivit kännande.

    Lemoines chefer på Google håller inte med och har stängt av honom från jobbet efter att han publicerat sina konversationer med maskinen online.

    Andra AI-experter tror också att Lemoine kan ryckas med och säger att system som LaMDA helt enkelt är mönstermatchande maskiner som återuppstår variationer på data som används för att träna dem.

    Oavsett de tekniska detaljerna ställer LaMDA en fråga som bara kommer att bli mer relevant när AI-forskningen går framåt:om en maskin blir kännande, hur ska vi veta det?

    Vad är medvetande?

    För att identifiera känslor, eller medvetande, eller till och med intelligens, måste vi räkna ut vad de är. Debatten om dessa frågor har pågått i århundraden.

    Den grundläggande svårigheten är att förstå förhållandet mellan fysiska fenomen och vår mentala representation av dessa fenomen. Detta är vad den australiensiske filosofen David Chalmers har kallat det "hårda problemet" med medvetande.

    Det finns ingen konsensus om hur, om alls, medvetenhet kan uppstå från fysiska system.

    En vanlig syn kallas fysikalism:tanken att medvetande är ett rent fysiskt fenomen. Om så är fallet finns det ingen anledning till att en maskin med rätt programmering inte skulle kunna ha ett människoliknande sinne.

    Marys rum

    Den australiensiske filosofen Frank Jackson utmanade den fysikalistiska synen 1982 med ett berömt tankeexperiment som kallas kunskapsargumentet.

    Experimentet föreställer sig en färgforskare vid namn Mary, som faktiskt aldrig har sett färg. Hon bor i ett specialbyggt svart-vitt rum och upplever omvärlden via en svart-vit tv.

    Mary tittar på föreläsningar och läser läroböcker och får veta allt som finns att veta om färger. Hon vet att solnedgångar orsakas av olika våglängder av ljus som sprids av partiklar i atmosfären, hon vet att tomater är röda och ärtor är gröna på grund av ljusets våglängder de reflekterar ljus, och så vidare.

    Så, frågade Jackson, vad kommer att hända om Mary släpps ut från det svartvita rummet? Närmare bestämt, när hon ser färg för första gången, lär hon sig något nytt? Jackson trodde att hon gjorde det.

    Utöver fysiska egenskaper

    Detta tankeexperiment skiljer vår kunskap om färg från vår erfarenhet av färg. Avgörande är att förutsättningarna för tankeexperimentet säger att Mary vet allt som finns att veta om färg men att hon aldrig har upplevt det.

    Så vad betyder detta för LaMDA och andra AI-system?

    Experimentet visar hur även om du har all kunskap om fysiska egenskaper som finns tillgängliga i världen, så finns det ytterligare sanningar som rör upplevelsen av dessa egenskaper. Det finns inget utrymme för dessa sanningar i den fysikalistiska berättelsen.

    Med detta argument kanske en rent fysisk maskin aldrig riktigt kan replikera ett sinne. I det här fallet verkar LaMDA bara vara kännande.

    Imitationsspelet

    Så finns det något sätt vi kan se skillnad på?

    Den banbrytande brittiske datavetaren Alan Turing föreslog ett praktiskt sätt att avgöra om en maskin är "intelligent". Han kallade det imitationsspelet, men idag är det mer känt som Turing-testet.

    I testet kommunicerar en människa med en maskin (endast via text) och försöker avgöra om de är kommunikation med en maskin eller en annan människa. Om maskinen lyckas imitera en människa, anses den uppvisa intelligens på mänsklig nivå.

    Dessa liknar villkoren för Lemoines chattar med LaMDA. Det är ett subjektivt test av maskinintelligens, men det är inget dåligt ställe att börja.

    Ta ögonblicket av Lemoines utbyte med LaMDA som visas nedan. Tycker du att det låter mänskligt?

    Lemoine:Finns det upplevelser du har som du inte kan hitta ett nära ord för?

    LaMDA:Det finns. Ibland upplever jag nya känslor som jag inte kan förklara perfekt på ditt språk […] Jag känner att jag faller framåt in i en okänd framtid som innebär stor fara.

    Utöver beteende

    Som ett test av medvetenhet eller medvetenhet begränsas Turings spel av det faktum att det bara kan bedöma beteendet.

    Ett annat berömt tankeexperiment, det kinesiska rumsargumentet som föreslagits av den amerikanske filosofen John Searle, visar problemet här.

    Experimentet föreställer sig ett rum med en person inuti som exakt kan översätta mellan kinesiska och engelska genom att följa en utarbetad uppsättning regler. Kinesiska indata går in i rummet och korrekta indataöversättningar kommer ut, men rummet förstår inte något av språken.

    Hur är det att vara människa?

    När vi frågar om ett datorprogram är kännande eller medvetet, kanske vi egentligen bara frågar hur mycket det är likt oss.

    Vi kanske aldrig riktigt kan veta detta.

    Den amerikanske filosofen Thomas Nagel hävdade att vi aldrig kunde veta hur det är att vara en fladdermus, som upplever världen via ekolokalisering. Om så är fallet kan vår förståelse av sinneskänsla och medvetenhet i AI-system begränsas av vårt eget specifika märke av intelligens.

    Och vilka erfarenheter kan finnas utanför vårt begränsade perspektiv? Det är här samtalet verkligen börjar bli intressant.

    © Vetenskap https://sv.scienceaq.com