Professor Margaret Martonosi svarar på frågor om hennes senaste artikel i Nature där hon och kollegor skisserar framtiden för kvantberäkning. Upphovsman:David Kelly Crow
När nya enheter flyttar kvantberäkningen närmare praktisk användning, journalen Natur frågade nyligen Princeton -datavetenskapsmannen Margaret Martonosi och två kollegor att bedöma tillståndet för programvara som behövs för att utnyttja detta kraftfulla beräkningssätt.
Förlitar sig på subtila kvantmekaniska effekter för datalagring och beräkning, kvantdatorer visar ett löfte om att snabba upp vissa typer av beräkningar. Martonosi, Hugh Trumbull Adams '35 professor i datavetenskap, förklarade i en intervju att även om kvantdatorer är fundamentalt annorlunda än klassiska, båda kräver en effektiv kedja av programvara för att fungera. Hennes medförfattare i Nature är datavetenskapsprofessorer Frederic Chong och Diana Franklin från University of Chicago.
Vad är kvantberäkning, och hur skiljer det sig från standard - eller klassisk - beräkning?
I klassisk databehandling, vi har byggt datorer i många år som bygger på binära värden för det vi kallar staten, eller lagringsdata, i maskinen. Så värdet kan antingen vara 0 eller 1. Och vi byggde upp förmågan att räkna eller göra logiska operationer baserade på 0 eller 1 värdena. I kvantdatorer, istället för dessa klassiska 0 eller 1 bitar, vi har vad som kallas kvantbitar eller qubits. Du kan tänka på en qubit som en probabilistisk fördelning av många möjliga värden. Så det är inte 0 eller 1, men en del "superposition" av olika tillstånd. Att kunna manipulera dessa komplexa tillstånd, man kan göra unika beräkningar som går utöver de enkla tilläggs- eller logikoperationerna hos en klassisk dator.
Quantum computing gör att man kan göra betydligt kraftfullare beräkningar, åtminstone konceptuellt, med relativt färre qubits än de bitar av tillstånd som krävs av ett klassiskt alternativ. Det finns några kvantalgoritmer som visar möjligheten till avsevärd snabbhet, ibland även exponentiell hastighet, över det klassiska tillvägagångssättet. Till exempel, det finns några storskaliga problem som det skulle ta tiotals eller hundratals år att beräkna på en klassisk maskin-att ge dem i huvudsak svårhanterliga-men om lämplig kvantmaskinvara fanns, motsvarande kvantalgoritm kan göra det möjligt att lösa dessa uppgifter på timmar istället för årtionden. Det är det faktum att vi kan göra saker potentiellt exponentiellt snabbare i en kvantdator som har lett till att världen är mycket fascinerad av möjligheterna.
Så en kvantdator är inte bara en snabbare version av en standarddator?
Det använder väldigt olika fysiska egenskaper för att göra beräkningarna. Och det gör att det går snabbare, potentiellt, vid vissa beräkningar, även om den fortfarande förlitar sig på klassisk sekvensering av operationerna och klassisk kontroll av operationerna. Så ett av de stora fokusområdena under de senaste 10 åren har varit att komma från kvantalgoritmer som visar teoretiskt exponentiell hastighet till att se hur dessa algoritmer verkligen kommer att kartläggas till verklig kvanthårdvara, och vilken typ av hastigheter kommer att vara möjliga när vi börjar bygga verklig kvantmaskinvara.
Din artikel i Natur säger att kvantberäkningen har nått ett kritiskt skede, som du kallar en '' böjningspunkt ''. Varför nu?
Det är en rad saker. Under många år hade vi kvantalgoritmer som teoretiskt skisserade hur de skulle kunna använda kvantöverlagring och intrassling (kvanttillståndens förmåga att interagera med varandra), men hade ingen hårdvara att kartlägga. Under tiden, det fanns fysiker som byggde individuella qubit -tekniker, men bygger så få qubits - en i taget, eller två åt gången - att du inte riktigt kunde få en känsla för hur du faktiskt kan beräkna dem.
Det som händer nu är att antalet qubits som kan byggas förutsebart snart blir tillräckligt stort för att man faktiskt behöver tänka praktiskt om hur man bygger system för att beräkna med dem. Så där det tidigare var OK att helt enkelt bygga enskilda qubits och testa deras egenskaper på ett engångs sätt, nu börjar människor fundera på hur man bygger riktiga datasystem av dem, inklusive förståelse för hur lagringen fungerar, hur kommunikationen kommer att fungera.
Så när vi pratar om att bygga kvantkompilatorer (programvara som kör programinstruktioner i maskinvaran) eller kvantverktygsflöden (programvara som optimerar applikationer), vi gör det av några skäl. En anledning är att när kvantdatorer av allt mer intressanta storlekar byggs, vi vill kunna sammanställa för dem. En annan anledning är att även innan maskinerna byggs, vi vill kunna bedöma olika designavvägningar bättre. Så verktyget flöden som tidningen diskuterar, den typ som mina medarbetare och jag har arbetat med, är ett sätt att göra några av de bedömningar som hjälper dig att se vilka algoritmer som gynnas av vilka teknikval, eller vilka organisatoriska val, som forskare bygger hårdvaran.
Den andra aspekten till böjningspunkten är vad gäller ränta och finansiering. Vi är nu på en punkt där du kan använda en 16-qubit kvantdator på webben. IBM, genom sin Quantum Experience -insats, har lagt ut en kvantdator för vem som helst att använda. Google, Microsoft, Intel och andra driver alla på att bygga betydligt större kvantdatorer än någonsin har byggts. Och det är lite av ett lopp på gång för att se vem som kommer hur långt och när. Så där industrin lägger stor vikt vid att bygga kvantdatorer, Jag tror att det har ökat trovärdigheten att det finns något här, det finns något att fokusera på. Och som resultat, Det har ökat takten i vilken andra delar av kvantforskningsutrymmet också har rört sig.
Kan kvantberäkning vara lika svepande som klassisk beräkning eller är det troligtvis mer specialiserat?
Om du tittar på de kvantalgoritmer som hittills har utvecklats, de är relativt fokuserade. Det finns några områden där kvant visar potentialen för snabbare, men det finns många områden där vi ännu inte har kvantalgoritmer som visar snabbhet. Så ingen ser kvantberäkning helt ersätta klassisk. Det kommer inte att användas på det sättet inom överskådlig framtid. Snarare, människor ser att kvantberäkning är användbart för några mycket fokuserade beräkningar. Du kan tänka på det som en specialiserad accelerator för dessa beräkningar.
Under många år, en viktig katalysator för intresse för kvantberäkning var det faktum att många av våra nuvarande krypteringsmetoder förlitar sig på antagandet att factoring av stora antal kommer att vara beräkningsmässigt svårt. Och kvantberäkning, särskilt något som kallas Shors algoritm, har visat ett sätt att påskynda den faktureringen dramatiskt. Så i många år, en av de viktigaste uppmärksammarna om kvantitet var frågan om huruvida kvantberäkning skulle-citat, offert - "bryt kryptering."
Det vi ser just nu är, för det första, krypteringsgemenskapen utvecklar nya algoritmer som är utformade för att vara kvantresistenta. Det går framåt på någon nivå. Samtidigt, vi ser att factoringalgoritmen som kan "bryta kryptering" faktiskt kräver så många qubits att det kommer att ta ett tag innan vi kan använda den för att faktorera de stora siffror som används i våra krypteringsalgoritmer. Så, av den anledningen, factoring är inte den största algoritmiska uppmärksammaren just nu inom själva kvantdatorgemenskapen.
Men hellre, det finns andra algoritmer som får uppmärksamhet när det gäller saker som att simulera molekyler. Så kallad kvantkemi är av intresse nuförtiden, och verkar vara ett applikationsområde som vi kunde komma till tidigare med de typer av maskiner vi tänker oss kunna bygga tidigare i tidslinjen.
Du nämner konceptet med hybridsystem som kombinerar klassisk och kvantberäkning i tidningen.
Det är oundvikligt. Du kommer inte att bygga kvantdator system som enbart är kvant. Och människor på fältet vet detta, men det har inte skildrats väl för omvärlden. För att få en kvantdator att fungera, och för att utföra en uppsättning kvantoperationer, du kommer fortfarande att ha en klassisk kontrollsekvenserare som går in genom en uppsättning fysiska manipulationer. Och så kommer du alltid att ha denna klassiska kontroll över kvantoperationer.
Så den dualiteten kommer att finnas där oavsett vad. Och det finns intressant arbete att göra när det gäller att bestämma hur man organiserar det, hur mycket klassisk kontroll går vart. Kvantoperationerna utförs ofta under mycket låga temperaturer, nära absolut noll. Frågan är, hur mycket av den klassiska kontrollen kan göras vid dessa temperaturer kontra hur mycket som ska göras vid rumstemperatur som vi är vana vid att göra klassisk dator? Och så förblir den typen av designavvägningar mestadels obesvarade.
Quantum computing är mycket spännande, men det finns ingen garanti för att kvantberäkning kommer att ha samma bana eller samma andetag som klassisk beräkning har haft. På många sätt, allt ser nu ut som om kvantberäkning kan vara smalare än klassiskt i dess applikationer. Men det är fortfarande användbart och lärorikt att försöka titta på olika innovationscykler och försöka se var du ser paralleller eller inte.
Kvantdata kan vara ett annat användbart sätt att göra datorer?
Förhoppningen är att det kommer att påskynda vissa saker ganska mycket. Så, till exempel, om kvantkemi blir den livskraftiga tillämpningen som det verkar vara, då kan man föreställa sig att det är djupt inflytelserikt för saker som jordbruk, förstå hur man bygger bättre gödningsmedel, och så vidare, och även för läkemedelsutveckling. Så även om det är något fokuserat på var det har tillämplighet, det kan fortfarande ha stor effekt på dessa områden.