Kredit:Unsplash/CC0 Public Domain
Från virtuella assistenter som Apples Siri och Amazons Alexa, till robotdammsugare och självkörande bilar, till automatiserade investeringsportföljförvaltare och marknadsföringsbotar, har artificiell intelligens blivit en stor del av vår vardag. Ändå, med tanke på AI, föreställer många av oss mänskliga robotar som enligt otaliga science fiction-historier kommer att bli oberoende och göra uppror en dag.
Ingen vet dock när människor kommer att skapa en intelligent eller kännande AI, säger John Basl, docent i filosofi vid Northeasterns College of Social Sciences and Humanities, vars forskning fokuserar på etiken i framväxande teknologier som AI och syntetisk biologi.
"När du hör Google prata pratar de som om det här är precis runt hörnet eller definitivt inom vår livstid", sa Basl. "Och de är väldigt kavaljera om det."
Kanske är det därför som en nyligen publicerad Washington Post-berättelse har fått så stor spridning. I berättelsen säger Googles ingenjör Blake Lemoine att företagets artificiellt intelligenta chatbot-generator, LaMDA, som han hade många djupa samtal med, kan vara känslig. Det påminner honom om ett 7- eller 8-årigt barn, sa Blake till Washington Post.
Basl anser dock att bevisen som nämns i Washington Post-artikeln inte räcker för att dra slutsatsen att LaMDA är medveten.
"Reaktioner som 'Vi har skapat kännande AI' tycker jag är extremt överdrivna", sa Basl.
Bevisen verkar vara grundad i LaMDA:s språkliga förmågor och de saker den talar om, sa Basl. Men LaMDA, en språkmodell, designades specifikt för att prata, och optimeringsfunktionen som används för att träna den att bearbeta språk och konversera stimulerar dess algoritm att producera detta språkliga bevis.
"Det är inte som att vi åkte till en främmande planet och en sak som vi aldrig gav några incitament att börja kommunicera med oss [började prata eftertänksamt]," sa Basl.
Det faktum att den här språkmodellen kan lura en människa att tro att den är kännande talar om dess komplexitet, men den skulle behöva ha några andra kapaciteter utöver vad den är optimerad för för att visa känsla, sa Basl.
Det finns olika definitioner av mening. Sentient definieras som att kunna uppfatta eller känna saker och jämförs ofta med sapient.
Basl tror att kännande AI skulle vara minimalt medveten. Den kan vara medveten om upplevelsen den har, ha positiva eller negativa attityder som att känna smärta eller att inte känna smärta och ha önskningar.
"Vi ser den typen av kapacitet i djurvärlden," sa han.
Till exempel sa Basl att hans hund inte föredrar att världen är på det ena sättet snarare än den andra i någon djup bemärkelse, men hon föredrar uppenbarligen sina kex framför att äta.
"Det verkar spåra något inre mentalt liv," sa Basl. "[Men] hon känner inte skräck över klimatförändringarna."
Det är oklart från Washington Post-berättelsen varför Lemoine jämför LaMDA med ett barn. Han kanske menar att språkmodellen är lika intelligent som ett litet barn eller att den har förmågan att lida eller önska som ett litet barn, sa Basl.
"Det kan vara olika saker. Vi skulle kunna skapa en tänkande AI som inte har några känslor, och vi kan skapa en känsla av AI som inte är riktigt bra på att tänka," sa Basl.
De flesta forskare inom AI-gemenskapen, som består av specialister på maskininlärning, specialister på artificiell intelligens, filosofer, tekniketiker och kognitiva vetenskapsmän, tänker redan på dessa långt framtida frågor och oroar sig för tänkandet, enligt Basl.
"Om vi skapar en AI som är supersmart kan det sluta med att den dödar oss alla", sa han.
Lemoines oro handlar dock inte om det, utan snarare om en skyldighet att behandla snabbt föränderliga AI-kapaciteter annorlunda.
"Jag är, i någon vid mening, sympatisk för den typen av oro. Vi är inte särskilt försiktiga med att det [är] möjligt", sa Basl. "Vi tänker inte tillräckligt mycket på de moraliska sakerna med AI, som, vad kan vi vara skyldiga en kännande AI?"
Han tror att människor med stor sannolikhet kommer att misshandla en kännande AI eftersom de förmodligen inte kommer att känna igen att de har gjort det, eftersom de tror att det är konstgjort och inte bryr sig.
"Vi är helt enkelt inte särskilt inställda på dessa saker," sa Basl.
Det finns ingen bra modell att veta när en AI har uppnått känsla. Vad händer om Googles LaMDA inte har förmågan att uttrycka sin känsla på ett övertygande sätt eftersom det bara kan prata via ett chattfönster istället för något annat?
"Det är inte så att vi kan göra hjärnskanningar för att se om det liknar oss", sa han.
En annan tankegång är att kännande AI kan vara omöjligt i allmänhet på grund av universums fysiska begränsningar eller begränsad förståelse för medvetandet.
För närvarande har inget av företagen som arbetar med AI, inklusive de stora aktörerna som Google, Meta, Microsoft, Apple och statliga myndigheter, ett uttryckligt syfte att skapa kännande AI, sa Basl. Vissa organisationer är intresserade av att utveckla AGI, eller artificiell allmän intelligens, en teoretisk form av AI där en maskin, intelligent som en människa, skulle ha förmågan att lösa ett brett spektrum av problem, lära sig och planera för framtiden, enligt IBM .
"Jag tror att den verkliga lärdomen av det här är att vi inte har den infrastruktur vi behöver, även om den här personen har fel", sa Basl och syftade på Lemoine.
En infrastruktur kring AI-frågor skulle kunna byggas på transparens, informationsdelning med statliga och/eller offentliga myndigheter och reglering av forskning. Basl förespråkar en tvärvetenskaplig kommitté som skulle hjälpa till att bygga en sådan infrastruktur och den andra som skulle övervaka de teknologer som arbetar med AI och utvärdera forskningsförslag och resultat.
"Bevisproblemet är verkligen svårt," sa Basl. "Vi har ingen bra teori om medvetande och vi har inte bra tillgång till bevis för medvetande. Och då har vi inte heller infrastrukturen. Det är de viktigaste sakerna."