• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • AI kan vara skyldig till att vi misslyckats med att få kontakt med främmande civilisationer

    Det finns ett häpnadsväckande antal planeter där ute. Kredit:NASA/James Webb-teleskopet

    Artificiell intelligens (AI) har utvecklats i en häpnadsväckande takt under de senaste åren. Vissa forskare tittar nu på utvecklingen av artificiell superintelligens (ASI) – en form av AI som inte bara skulle överträffa mänsklig intelligens utan inte vara bunden av människors inlärningshastigheter.



    Men vad händer om denna milstolpe inte bara är en anmärkningsvärd prestation? Tänk om det också representerar en formidabel flaskhals i utvecklingen av alla civilisationer, en så utmanande att den omintetgör deras långsiktiga överlevnad?

    Denna idé är kärnan i en forskningsartikel som jag nyligen publicerade i Acta Astronautica . Kan AI vara universums "stora filter" – en tröskel som är så svår att övervinna att den hindrar det mesta livet från att utvecklas till rymdfarliga civilisationer?

    Detta är ett koncept som kan förklara varför sökandet efter utomjordisk intelligens (SETI) ännu inte har upptäckt signaturerna från avancerade tekniska civilisationer någon annanstans i galaxen.

    Den stora filterhypotesen är i slutändan en föreslagen lösning på Fermi-paradoxen. Detta ifrågasätter varför vi, i ett universum som är tillräckligt stort och urgammalt för att hysa miljarder potentiellt beboeliga planeter, inte har upptäckt några tecken på främmande civilisationer. Hypotesen antyder att det finns oöverstigliga hinder i civilisationernas evolutionära tidslinje som hindrar dem från att utvecklas till rymdfarande enheter.

    Jag tror att uppkomsten av ASI kan vara ett sådant filter. AI:s snabba framsteg, som potentiellt leder till ASI, kan korsas med en kritisk fas i en civilisations utveckling – övergången från en enplanetart till en multiplanetär.

    Det är här många civilisationer kan vackla, med AI som gör mycket snabbare framsteg än vår förmåga att antingen kontrollera det eller på ett hållbart sätt utforska och befolka vårt solsystem.

    Utmaningen med AI, och specifikt ASI, ligger i dess autonoma, självförstärkande och förbättrande karaktär. Den har potentialen att förbättra sin egen kapacitet i en hastighet som överträffar våra egna evolutionära tidslinjer utan AI.

    Potentialen för att något ska gå snett är enorm, vilket leder till att både biologiska och AI-civilisationer faller innan de någonsin får chansen att bli multiplanetära. Till exempel, om nationer i allt högre grad förlitar sig på och överlåter makt till autonoma AI-system som konkurrerar mot varandra, kan militära förmågor användas för att döda och förstöra i en aldrig tidigare skådad omfattning. Detta kan potentiellt leda till att hela vår civilisation förstörs, inklusive själva AI-systemen.

    I det här scenariot uppskattar jag att den typiska livslängden för en teknisk civilisation kan vara mindre än 100 år. Det är ungefär tiden mellan att kunna ta emot och sända signaler mellan stjärnorna (1960) och den beräknade uppkomsten av ASI (2040) på jorden. Detta är oroväckande kort i förhållande till den kosmiska tidsskalan på miljarder år.

    Denna uppskattning, när den är kopplad till optimistiska versioner av Drake-ekvationen – som försöker uppskatta antalet aktiva, kommunikativa utomjordiska civilisationer i Vintergatan – tyder på att det vid varje given tidpunkt bara finns en handfull intelligenta civilisationer där ute. Dessutom, liksom vi, kan deras relativt blygsamma tekniska aktiviteter göra dem ganska utmanande att upptäcka.

    Väckning

    Denna forskning är inte bara en varnande berättelse om potentiell undergång. Det fungerar som en väckarklocka för mänskligheten att upprätta robusta regelverk för att vägleda utvecklingen av AI, inklusive militära system.

    Det här handlar inte bara om att förhindra den illvilliga användningen av AI på jorden; det handlar också om att se till att utvecklingen av AI överensstämmer med vår arts långsiktiga överlevnad. Det tyder på att vi måste lägga mer resurser på att bli ett multipanetärt samhälle så snart som möjligt – ett mål som har legat i dvala sedan Apollo-projektets livliga dagar, men som nyligen har återuppstått av framsteg från privata företag.

    Som historikern Yuval Noah Harari noterade, har ingenting i historien förberett oss för effekterna av att introducera omedvetna, superintelligenta enheter på vår planet. På senare tid har implikationerna av autonomt AI-beslut lett till krav från framstående ledare inom området om ett moratorium för utvecklingen av AI, tills en ansvarsfull form av kontroll och reglering kan införas.

    Men även om alla länder gick med på att följa strikta regler och förordningar, kommer oseriösa organisationer att vara svåra att tygla.

    Integreringen av autonom AI i militära försvarssystem måste vara ett område av särskilt intresse. Det finns redan bevis för att människor frivilligt kommer att avstå betydande makt till alltmer kapabla system, eftersom de kan utföra användbara uppgifter mycket snabbare och mer effektivt utan mänsklig inblandning. Regeringar är därför ovilliga att reglera på detta område med tanke på de strategiska fördelar som AI erbjuder, vilket nyligen och förödande har visat sig i Gaza.

    Det betyder att vi redan är farligt nära ett stup där autonoma vapen fungerar bortom etiska gränser och kringgår internationell lag. I en sådan värld kan ett överlämnande av makt till AI-system för att få en taktisk fördel oavsiktligt sätta igång en kedja av snabbt eskalerande, mycket destruktiva händelser. På ett ögonblick skulle vår planets kollektiva intelligens kunna utplånas.

    Mänskligheten befinner sig vid en avgörande punkt i sin tekniska bana. Våra handlingar nu kan avgöra om vi blir en bestående interstellär civilisation eller om vi ger efter för utmaningarna från våra egna skapelser.

    Att använda SETI som en lins genom vilken vi kan granska vår framtida utveckling ger en ny dimension till diskussionen om framtiden för AI. Det är upp till oss alla att se till att när vi sträcker oss efter stjärnorna gör vi det inte som en varning för andra civilisationer, utan som en ledstjärna av hopp – en art som lärt sig att frodas tillsammans med AI.

    Mer information: Michael A. Garrett, Är artificiell intelligens det stora filtret som gör avancerade tekniska civilisationer sällsynta i universum?, Acta Astronautica (2024). DOI:10.1016/j.actaastro.2024.03.052

    Journalinformation: Acta Astronautica

    Tillhandahålls av The Conversation

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com