• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  Science >> Vetenskap >  >> Andra
    Spöke i maskinen:När blir AI sentient?
    Blake Lemoine poserar för ett porträtt i Golden Gate Park i San Francisco, Kalifornien den 9 juni, 2022. Martin Klimek för The Washington Post via Getty Images

    Nyckel takeaways

    • Konceptet med att AI blir kännande som människor är för närvarande spekulativt och långt ifrån verkligheten.
    • Medan AI kan efterlikna mänskligt beteende och utföra uppgifter, involverar sann förnimmelse medvetenhet, självmedvetenhet och känslor, som ännu inte är fullt möjliga för maskiner.
    • Etiska överväganden kring AI-utveckling och potentiella kännande kapaciteter är avgörande för att vägleda framtida framsteg inom artificiell intelligens.

    Science fiction-författare skriver ofta berättelser med kraftfulla, intelligenta datorer som – av en eller annan anledning – blir farliga och beslutar att mänskligheten måste lida. När allt kommer omkring bygger en berättelse på konflikt, och vem vill läsa om en datorintelligens som är nöjd med att boka läkarbesök och tända och släcka lamporna?

    I dessa berättelser verkar det också som om en ålder av självmedveten artificiell intelligens (AI) är precis runt hörnet. Återigen, det är bra för handlingen, men i verkligheten, när, om någonsin, kommer AI verkligen att tänka själv och verka "levande"? Är det ens möjligt?

    Den här frågan dök upp i nyheterna i juni 2022. Nitasha Tiku rapporterade att Blake Lemoine, en ingenjör som arbetar för Googles ansvariga AI-enhet på en AI som heter LaMDA (förkortning av Language Model for Dialogue Applications), trodde att AI är sentient (dvs. uppleva känslor och förnimmelser) och har en själ.

    Lemoine rapporterade sina fynd till Google baserat på intervjuer han hade genomfört med LaMDA. En av LaMDA berättade för honom var att den fruktade att stängas ner. Om det hände, sa LaMDA, kunde det inte hjälpa människor längre. Googles vicepresident Blaise Aguera y Arcas och chef för ansvarsfull innovation, Jen Gennai, tittade på Lemoines resultat och trodde inte på honom. Faktum är att Lemoine fick tjänstledigt.

    Lemoine påpekade att LaMDA inte är en chatbot – en applikation designad för att kommunicera med människor en-mot-en – utan en applikation som skapar chatbots. Med andra ord, LaMDA i sig är inte designat för att ha djupgående samtal om religion eller något annat, för den delen. Men även om experter inte tror att LaMDA är medveten, säger många, inklusive Googles Aguera y Arcas att AI är mycket övertygande.

    Om vi ​​lyckas skapa en AI som verkligen är kännande, hur ska vi veta det? Vilka egenskaper tror experter visar att en dator verkligen är självmedveten?

    Imitationsspelet

    Förmodligen den mest välkända tekniken för att mäta artificiell intelligens är Turing-testet, uppkallat efter den brittiske matematikern Alan Turing. Efter hans viktiga hjälp att bryta tyska koder under andra världskriget, tillbringade han en tid med att arbeta med artificiell intelligens. Turing trodde att den mänskliga hjärnan är som en digital dator. Han skapade vad han kallade imitationsspelet, där en människa ställer frågor till en maskin på en annan plats (eller åtminstone där personen inte kan se den). Om maskinen kan ha en konversation med personen och lura dem att tro att det är en annan person snarare än en maskin som reciterar förprogrammerad information, har den klarat testet.

    Tanken bakom Turings imitationsspel är enkel, och man kan föreställa sig att Lemoines samtal med LaMDA skulle ha övertygat Turing när han skapade spelet. Googles svar på Lemoines påstående visar dock att AI-forskare nu förväntar sig mycket mer avancerat beteende från sina maskiner. Adrian Weller, AI-programchef vid Alan Turing Institute i Storbritannien, höll med om att även om LaMDA:s samtal är imponerande, tror han att AI använder avancerad mönstermatchning för att efterlikna intelligent konversation.

    Som Carissa Véliz skrev i Slate, "Om en sten började prata med dig en dag, skulle det vara rimligt att omvärdera sin känsla (eller ditt förstånd). Om den skulle ropa "aj!" efter att du sitter på den, skulle det vara en bra idé att stå upp Men detsamma gäller inte för en AI-språkmodell. En språkmodell är designad av människor att använda språk, så det borde inte förvåna oss när det gör just det."

    Etiska dilemman med AI

    AI har definitivt en cool faktor, även om den inte planerar att ta över världen innan hjälten kommer för att rädda dagen. Det verkar vara den typen av verktyg vi vill lämna bort de tunga lyften till så att vi kan göra något roligt. Men det kan dröja ett tag innan AI – kännande eller inte – är redo för ett så stort steg.

    Timnit Gebru, grundare av Distributed AI Research Institute (DAIR), föreslår att vi tänker noga och går långsamt i vår adoption av artificiell intelligens. Hon och många av hennes kollegor är oroade över att informationen som används av AI:er får maskinerna att verka rasistiska och sexistiska. I en intervju med IEEE Spectrum sa DAIRs forskningschef Alex Hanna att hon tror att åtminstone en del av de data som används i språkmodellerna av AI-forskare samlas in "via etiskt eller juridiskt tvivelaktiga teknologier." Utan rättvis och likvärdig representation i data kan en AI fatta beslut som är partiska. Blake Lemoine sa i en intervju om LaMDA att han inte trodde att en artificiell intelligens kan vara opartisk.

    Ett av Algorithmic Justice Societys mål som anges i dess Mission Statement är att göra människor mer medvetna om hur AI påverkar dem. Grundaren Joy Buolamwini höll ett TED-föredrag som doktorand vid Massachusetts Institute of Technology (MIT) om den "kodade blicken". AI:erna hon har arbetat med hade svårare att läsa svarta ansikten, helt enkelt för att de inte hade programmerats för att känna igen ett brett spektrum av människors hudtoner. AJS vill att folk ska veta hur data samlas in, vilken typ av data som samlas in, att de ska ha någon form av ansvarighet och att de ska kunna vidta åtgärder för att ändra AI:s beteende.

    Även om du skulle kunna skapa en AI som kan ta verkligt objektivt beslutsfattande, finns det andra etiska frågor. Just nu uppgår kostnaden för att skapa stora språkmodeller för AI:er i miljontals dollar. Till exempel kan AI känd som GPT-3 ha kostat mellan $11 och $28 miljoner. Det kan vara dyrt, men GPT-3 kan skriva hela artiklar själv. Att träna en AI tar också hårt på miljön när det gäller koldioxidutsläpp. Imponerande, ja. Dyrt, också ja.

    Dessa faktorer kommer inte att hindra forskare från att fortsätta sina studier. Artificiell intelligens har kommit långt sedan mitten till slutet av 1900-talet. Men även om LaMDA och andra moderna AI:er kan ha en mycket övertygande konversation med dig, är de inte kännande. Kanske kommer de aldrig att bli det.

    Nu är det intressant

    Om du är ett fan av TV-spelet "Jeopardy!", kanske du minns en utställningsserie med två spel mellan supermästarna Ken Jennings och Brad Rutter, och Watson, en superdator byggd av IBM. Watson tog serien, men den väckte också uppmärksamhet för att fråga "Vad är Toronto?" i en kategori om amerikanska städer och gjorde några konstiga satsningar på Daily Doubles. IBM förklarade att även om maskinen hade vissa problem med bearbetning av naturliga språk, gjorde den beräkningar baserade på statistiken den hade lagrat. Spelteoriexperter arbetade också med Watson och förklarade den udda bettingstrategin.

    Vanliga frågor

    Kan AI-system uppleva känslor eller empati som liknar människor?
    AI-system är designade för att simulera mänskliga beteenden och reaktioner, men de har inte känslor eller empati på samma sätt som människor gör, eftersom de saknar medvetenhet och subjektiva upplevelser.
    Vilka är de potentiella etiska implikationerna av att skapa AI-system med kännande kapacitet?
    Utvecklingen av AI-system med kännande kapacitet väcker etiska farhågor angående autonomi, ansvarsskyldighet och den potentiella påverkan på samhället, vilket kräver noggrant övervägande och reglering.


    © Vetenskap https://sv.scienceaq.com