Illustration av en tvådelad graf med begränsad Boltzmann Machine (RBM) där viviv_i är synliga noder, hjhjh_j är dolda noder och wijwijw_{ij} är vikterna som förbinder de dolda och synliga noderna.
En professor från Florida State University kan hjälpa kvantberäkningar att uppfylla sitt löfte som ett kraftfullt beräkningsverktyg.
William Oates, Cummins Inc. professor i maskinteknik och ordförande för avdelningen för maskinteknik vid FAMU-FSU College of Engineering, och postdoktorn Guanglei Xu hittade ett sätt att automatiskt härleda parametrar som används i en viktig Boltzmanns kvantmaskinalgoritm för maskininlärningstillämpningar.
Deras resultat publicerades i Vetenskapliga rapporter .
Arbetet kan hjälpa till att bygga konstgjorda neurala nätverk som kan användas för att träna datorer för att lösa komplicerade, sammankopplade problem som bildigenkänning, läkemedelsupptäckt och skapandet av nya material.
"Det finns en tro på att kvantberäkning, när den kommer online och växer i beräkningskraft, kan ge dig några nya verktyg, men att ta reda på hur man programmerar det och hur man använder det i vissa applikationer är en stor fråga, sa Oates.
Kvantbitar, till skillnad från binära bitar i en vanlig dator, kan existera i mer än ett tillstånd åt gången, ett koncept som kallas superposition. Att mäta tillståndet för en kvantbit – eller kvantbit – gör att den förlorar det speciella tillståndet, så kvantdatorer fungerar genom att beräkna sannolikheten för en qubits tillstånd innan den observeras.
Specialiserade kvantdatorer som kallas kvantglödgare är ett verktyg för att göra den här typen av beräkningar. De fungerar genom att representera varje tillstånd i en qubit som en energinivå. Det lägsta energitillståndet bland dess qubits ger lösningen på ett problem. Resultatet är en maskin som kan hantera komplicerade, sammankopplade system som skulle ta en vanlig dator mycket lång tid att beräkna — som att bygga ett neuralt nätverk.
Ett sätt att bygga neurala nätverk är att använda en begränsad Boltzmann-maskin, en algoritm som använder sannolikhet för att lära sig baserat på indata som ges till nätverket. Oates och Xu hittade ett sätt att automatiskt beräkna en viktig parameter förknippad med effektiv temperatur som används i den algoritmen. Begränsade Boltzmann-maskiner gissar vanligtvis på den parametern istället, som kräver testning för att bekräfta och kan ändras närhelst datorn uppmanas att undersöka ett nytt problem.
"Den parametern i modellen replikerar vad kvantglödgaren gör, " sa Oates. "Om du kan uppskatta det exakt, du kan träna ditt neurala nätverk mer effektivt och använda det för att förutsäga saker."