• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Singularitet:Hur regeringar kan stoppa uppkomsten av ovänliga, ostoppbar super-AI

    Regeringar skulle kunna uppmuntra integrationen av mänsklig och artificiell intelligens. Kredit:sdecoret/Shutterstock

    Uppfinningen av en artificiell superintelligens har varit ett centralt tema inom science fiction åtminstone sedan 1800-talet. Från E.M. Forsters novell The Machine Stops (1909) till den senaste HBO-tv-serien Westworld, författare har tenderat att framställa denna möjlighet som en oförminskad katastrof. Men den här frågan handlar inte längre om fiktion. Framträdande samtida forskare och ingenjörer är nu också oroliga för att super-AI en dag kan överträffa mänsklig intelligens (en händelse som kallas "singulariteten") och bli mänsklighetens "värsta misstag".

    Aktuella trender tyder på att vi är inställda på att gå in i en internationell kapprustning för en sådan teknik. Vilket högteknologiskt företag eller statligt labb som än lyckas uppfinna den första super-AI kommer att få en potentiellt världsdominerande teknologi. Det är ett vinnare-tar-allt-pris. Så för de som vill stoppa en sådan händelse, frågan är hur man avskräcker den här typen av kapprustning, eller åtminstone uppmuntra tävlande lag att inte skära ner med AI-säkerhet.

    En super-AI väcker två grundläggande utmaningar för sina uppfinnare, som filosofen Nick Bostrom och andra har påpekat. Det ena är ett kontrollproblem, vilket är hur man ser till att super-AI har samma mål som mänskligheten. Utan detta, intelligensen kunde medvetet, av misstag eller av försummelse förstör mänskligheten – en "AI-katastrof."

    Det andra är ett politiskt problem, vilket är hur man säkerställer att fördelarna med en superintelligens inte bara går till en liten elit, orsakar massiva sociala och förmögenhetsskillnader. Om en super-AI-vapenkapplöpning inträffar, Det kan leda till att konkurrerande grupper ignorerar dessa problem för att snabbare utveckla sin teknik. Detta kan leda till en dålig eller ovänlig super-AI.

    En föreslagen lösning är att använda allmän policy för att göra det svårare att delta i tävlingen för att minska antalet tävlande grupper och förbättra kapaciteten för de som gör det. Ju färre som tävlar, desto mindre press kommer det att vara att skära hörn för att vinna. Men hur kan regeringar minska konkurrensen på detta sätt?

    Min kollega Nicola Dimitri och jag publicerade nyligen en artikel som försökte svara på denna fråga. Vi visade först att i en typisk vinnare tar alla lopp, som den som byggde den första super-AI, endast de mest konkurrenskraftiga lagen kommer att delta. Detta beror på att sannolikheten att faktiskt uppfinna super-AI är mycket liten, och att delta i loppet är mycket dyrt på grund av de stora investeringarna i forskning och utveckling som behövs.

    Verkligen, detta verkar vara den nuvarande situationen med utvecklingen av enklare "smal" AI. Patentansökningar för denna typ av AI domineras av ett fåtal företag, och den stora huvuddelen av AI-forskningen görs i bara tre regioner (USA, Kina och Europa). Det verkar också vara väldigt få, om någon, grupper som för närvarande investerar i att bygga en super-AI.

    Detta tyder på att minska antalet konkurrerande grupper inte är den viktigaste prioriteringen för tillfället. Men även med ett mindre antal tävlande i loppet, konkurrensens intensitet kan fortfarande leda till de ovan nämnda problemen. Så för att minska intensiteten i konkurrensen mellan grupper som strävar efter att bygga en super-AI och höja deras kapacitet, regeringar skulle kunna vända sig till offentlig upphandling och skatter.

    Offentlig upphandling avser allt som regeringar betalar privata företag för att tillhandahålla, från programvara för användning i statliga myndigheter till kontrakt för att driva tjänster. Regeringar skulle kunna införa begränsningar för alla super-AI-leverantörer som krävde att de skulle ta itu med de potentiella problemen, och stödja kompletterande teknologier för att förbättra mänsklig intelligens och integrera den med AI.

    Men regeringar kan också erbjuda att köpa en mindre än bästa version av super-AI, effektivt skapa ett "andra pris" i kapprustningen och stoppa det från att bli en vinnare-tar-allt-tävling. Med ett mellanpris, som kan vara för att uppfinna något nära (men inte exakt) en super-AI, konkurrerande grupper kommer att ha ett incitament att investera och samarbeta mer, minska konkurrensens intensitet. Ett andra pris skulle också minska risken för misslyckanden och motivera fler investeringar, hjälpa till att öka kapaciteten hos de tävlande lagen.

    När det gäller skatter, regeringar skulle kunna sätta skattesatsen på gruppen som uppfinner super-AI beroende på hur vänlig eller ovänlig AI är. En tillräckligt hög skattesats skulle i huvudsak innebära förstatligandet av super-AI. Detta skulle starkt avskräcka privata företag från att skära ner av rädsla för att förlora sin produkt till staten.

    Allmännytta inte privat monopol

    Denna idé kan kräva bättre global samordning av beskattning och reglering av super-AI. Men det skulle inte behöva alla regeringar vara inblandade. I teorin, ett enda land eller en region (som EU) skulle kunna bära kostnaderna och ansträngningarna för att ta itu med problemen och etiken kring super-AI. Men alla länder skulle gynnas och super-AI skulle bli ett allmänt bästa snarare än ett ostoppbart privat monopol.

    Naturligtvis beror allt detta på att super-AI faktiskt är ett hot mot mänskligheten. Och vissa forskare tror inte att det kommer att bli det. Vi kan naturligtvis ta bort riskerna med super-AI med tiden. Vissa tror att människor till och med kan smälta samman med AI.

    Hur det än är, vår planet och dess invånare kommer att dra enorm nytta av att se till att vi får det bästa av AI, en teknik som fortfarande är i sin linda. För detta, vi behöver en bättre förståelse för vilken roll regeringen kan spela.

    Denna artikel publiceras från The Conversation under en Creative Commons -licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com