Kredit:CC0 Public Domain
Övning gör mester - det är ett ordspråk som har hjälpt människor att bli mycket fingerfärdiga och nu är det ett tillvägagångssätt som tillämpas på robotar.
Datavetare vid University of Leeds använder teknikerna artificiell intelligens (AI) för automatiserad planering och förstärkningslärning för att "träna" en robot för att hitta ett föremål i ett rörigt utrymme, till exempel en lagerhylla eller i ett kylskåp - och flytta den.
Syftet är att utveckla robotautonomi, så kan maskinen bedöma de unika omständigheterna i en uppgift och hitta en lösning - liknande en robot som överför färdigheter och kunskap till ett nytt problem.
Leeds-forskarna presenterar sina resultat idag (måndag, 4 november) vid den internationella konferensen om intelligent robotik och system i Macau, Kina.
Den stora utmaningen är att i ett begränsat område, en robotarm kanske inte kan greppa ett föremål uppifrån. Istället måste den planera en sekvens av rörelser för att nå målobjektet, kanske genom att manipulera andra saker ur vägen. Datorkraften som behövs för att planera en sådan uppgift är så stor, roboten pausar ofta i flera minuter. Och när det gör flytten, det kommer ofta att misslyckas.
Att utveckla idén om praktik ger färdighet, datavetenskapsmännen i Leeds sammanför två idéer från AI.
En är automatiserad planering. Roboten kan "se" problemet genom ett synsystem, i själva verket en bild. Programvara i robotens operativsystem simulerar den möjliga sekvensen av rörelser den kan göra för att nå målobjektet.
Men de simuleringar som har "repeterats" av roboten lyckas inte fånga komplexiteten i den verkliga världen och när de implementeras, roboten misslyckas med att utföra uppgiften. Till exempel, det kan slå föremål från hyllan.
Så Leeds-teamet har kombinerat planering med en annan AI-teknik som kallas förstärkningsinlärning.
Förstärkningsinlärning involverar datorn i en sekvens av trial and error-försök – runt 10, 000 totalt – för att nå och flytta objekt. Genom dessa försök och misstag, roboten "lär sig" vilka åtgärder den har planerat är mer benägna att sluta i framgång.
Datorn utför själva inlärningen, börja med att slumpmässigt välja en planerad flytt som kan fungera. Men eftersom roboten lär sig av försök och misstag, det blir skickligare på att välja de planerade drag som har större chans att bli framgångsrika.
Dr Matteo Leonetti, från School of Computing, sa:"Artificiell intelligens är bra på att göra det möjligt för robotar att resonera - till exempel, vi har sett robotar som deltar i schackspel med stormästare.
"Men robotar är inte särskilt bra på vad människor gör särskilt bra:att vara mycket rörliga och skickliga. Dessa fysiska färdigheter har kopplats in i den mänskliga hjärnan, resultatet av evolutionen och hur vi övar och övar och övar.
"Och det är en idé som vi tillämpar på nästa generation av robotar."
Enligt Wissam Bejjani, en doktorsexamen student som skrev forskningsuppsatsen, roboten utvecklar en förmåga att generalisera, att tillämpa vad den har planerat på en unik uppsättning omständigheter.
Han sa:"Vårt arbete är viktigt eftersom det kombinerar planering med förstärkningslärande. Mycket forskning för att försöka utveckla denna teknik fokuserar på bara ett av dessa tillvägagångssätt.
"Vårt tillvägagångssätt har validerats av resultat vi har sett i universitetets robotlabb.
"Med ett problem, där roboten var tvungen att flytta ett stort äpple, det gick först till vänster om äpplet för att flytta bort röran, innan du manipulerar äpplet.
"Det gjorde det utan att röran ramlade utanför hyllans gräns."
Dr Mehmet Dogar, Docent i dataskolan, var också involverad i studien. Han sa att tillvägagångssättet hade påskyndat robotens "tänkande" tid med en faktor tio - beslut som tog 50 sekunder tar nu 5 sekunder.