Ett team av forskare inklusive Princetons datavetare har utvecklat ett nytt verktyg som förenklar processen att animera stillbilder, som detta diagram över en extern förbränningsmotor. Kredit:Neil Adelantar
Det är ofta lätt att föreställa sig ballonger som skjuter i höjden eller fjärilar fladdra över en stillbild, men att förverkliga denna vision genom datoranimering är lättare sagt än gjort. Nu, ett team av forskare har utvecklat ett nytt verktyg som gör det mycket enklare att animera sådana bilder.
Verktyget är utformat för att animera liknande element i en bild, som ballonger eller regndroppar, sa Nora Willett, en doktorand vid Princetons institution för datavetenskap och huvudförfattare till en artikel som presenterar forskningen. Att göra så, användaren väljer manuellt en delmängd av de upprepande objekten, ritar sedan rörelselinjer och anger frekvensen och hastigheten med vilken objekten ska röra sig. Verktygets algoritm extraherar liknande objekt i bilden och separerar dem i ett eget lager för animering.
"Den största utmaningen i detta system var att designa ett gränssnitt som gör att personen och datorn kan arbeta tillsammans för att skapa en trolig animation, " sa medförfattaren Adam Finkelstein, en Princeton-professor i datavetenskap. "Personen ger ledtrådar om vilka aspekter av scenen de skulle vilja animera, och datorn tar bort mycket av svårigheterna och tröttheten som skulle krävas för att skapa animationen helt för hand."
Det nya verktyget bygger på de befintliga funktionerna i Autodesk SketchBook Motion-animationsappen. För att animera en stillbild med den för närvarande tillgängliga versionen av appen, en användare måste antingen producera bilden helt från början, eller arbeta med en befintlig bild med hjälp av ett program som Adobe Photoshop för att välja olika objekt och dela upp dem i lager innan animeringen genereras.
Att utveckla en algoritm som framgångsrikt kunde identifiera upprepande objekt var överraskande svårt, sa Willett. Medan maskininlärningsmetoder på ett tillförlitligt sätt kan göra detta med fotografier, att träna datorer för att känna igen element i teckningar eller målningar är mindre enkelt. "Det finns ett så stort utbud av ritstilar, och människor kan skapa så fantastiska saker, att det inte finns tillräckligt med data för att träna en maskin för att känna igen varenda fantastisk teckning, " Hon sa.
För att förbättra användargränssnittet, forskarna arbetade med sex användare som representerade en rad erfarenhetsnivåer med digital animation. Två användare valde att animera sina egna konstverk:Den ena skapade ett långsamt svängande ljus i ett fotografi, medan en annan animerade en ring av avokadobitar som cirkulerade runt annan mat i en teckning.
Willetts andra projekt på Princeton har fokuserat på att skapa metoder för att förbättra liveanimering av karaktärer genom att lägga till sekundär rörelse, såsom rörelser av hår eller kläder; och snabbt byta delar av en levande animerad karaktär för att ändra handgester eller tillbehör. Hon diskuterade sin bakgrund och demonstrerade dessa metoder under ett Facebook Live-event 2017 för Princeton Engineering.
Willett presenterade teamets resultat den 16 oktober på Association for Computing Machinery's Symposium on User Interface Software and Technology. Hon började arbeta med verktyget under en praktik på Autodesk Research i Toronto. Förutom Finkelstein, andra medförfattare var Rubaiat Kazi, Michael Chen och George Fitzmaurice från Autodesk Research; och Tovi Grossman från Autodesk Research och University of Toronto.