• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Forskare studerar strömförbrukning av molninfrastrukturer

    Upphovsman:Victorgrigas/ Wikideia/ CC BY-SA 3.0

    I sin doktorsavhandling vid Umeå universitet, Jakub Krzywda har utvecklat modeller och algoritmer för att kontrollera avvägningar mellan energiförbrukningen i molninfrastrukturer och prestanda för värdprogram för att möjliggöra säker och effektiv drift under en begränsad energibudget.

    Cloud computing infrastruktur, som behåller majoriteten av internettjänster som Google, Facebook och Amazon igång, konsumerar enorma mängder energi, och därmed förvärra klimatförändringarna.

    Intressant, under vissa specifika förhållanden, ett datacenter skiljer sig i princip inte mycket från ett hus med en gammal elektrisk installation. De flesta människor kan nog komma ihåg ett fall när de slog på för många apparater samtidigt som en strömbrytare utlöste. Det händer eftersom den elektriska installationen inte var avsedd att upprätthålla en så hög strömspänning.

    I moderna datacenter, kraftleveransinfrastrukturen, som förser alla servrar med el, är ofta underprovisionerat med avsikt. I detta fall, det kan inte upprätthålla strömspänningen för alla servrar som körs i full hastighet. Vid första ögonkastet, det låter som en dålig planering, men i praktiken, det händer nästan aldrig att datorkraften för alla servrar behövs på en gång. Eftersom kostnaden för kraftleveransinfrastruktur är proportionell mot den toppeffekt den kan upprätthålla, att sätta ett tak på det hjälper datacenteroperatörerna att spara pengar som annars skulle spenderas på infrastruktur som nästan aldrig behövs.

    Dock, "nästan aldrig" är inte tillräckligt i molnindustrin. Många molnleverantörer lovar sina kunder att infrastrukturen kommer att finnas tillgänglig 99,99 procent av tiden - det tillåter bara 52 minuters stillestånd per år.

    Och det är här bidragen från denna avhandling kommer in:Vad är det bästa sättet att hantera datacenteroperationer när det inte finns tillräckligt med ström för att köra alla applikationer i full hastighet? Skulle operatörer stänga av mindre viktiga applikationer helt, eller tvinga dem alla att sakta ner? Är vissa typer av applikationer bättre kandidater för graciös prestandaförsämring? Vilka åtgärder bör vidtas för att säkerställa att energiförbrukningen minskar men applikationer fortfarande ger användbara resultat? Vilka tekniker ska användas för att genomdriva det?

    "För att svara på ovanstående frågor, i denna avhandling, Jag har utvecklat modeller för att fånga samband mellan strömförbrukning och applikationsprestanda, och föreslog en uppsättning kraftbudgetkontrollanter som fungerar vid ansökan, server, och hela datacenternivåer för att minimera prestandaförsämring samtidigt som effektgränser tillämpas, säger Jakub Krzywda.

    Fynden som ingår i avhandlingen har praktiska tillämpningar, till exempel, en uppsättning rekommendationer för användning av programvarutekniker som finns tillgängliga i moderna servrar som kan tillåta datacenteroperatörer att köra sina infrastrukturer med mindre ström samtidigt som de säkerställer att deras kunder är nöjda med applikationernas prestanda.

    Resultaten och analysen som presenteras i denna avhandling kan användas av datacenteroperatörer för att förbättra servrarnas energieffektivitet och minska de totala driftskostnaderna samtidigt som prestandaförsämring minimeras. All programvara som producerades under detta arbete, inklusive källkoder för modeller, kontroller, och simulatorer, har varit öppen och tillgängliggjord online för att underlätta distributionen i både forsknings- och industriella datacenter.


    © Vetenskap https://sv.scienceaq.com