Oskurad uppsättning bilder som produceras av den stilbaserade generatorn (config F) med FFHQ-datasetet. Upphovsman:arXiv:1812.04948 [cs.NE]
En ny typ av Generative Adversarial Network -tillvägagångssätt får teknikobservatörer att klia sig i huvudet:Hur kan bilder vara falska och ändå se så verkliga ut?
"Vi kom med en ny generator som automatiskt lär sig skilja åt olika aspekter av bilderna utan någon mänsklig övervakning, "sa forskarna i en video. De sa i sin tidning, "Den nya arkitekturen leder till en automatiskt inlärd, oövervakad separation av attribut på hög nivå. "
Att få falska bilder att se verkliga ut är en konstnärlig insats som knappast är ny, men dessa tre forskare lyfte ansträngningen till nästa nivå.
De stavade sin teknik i sitt papper, "En stilbaserad generatorarkitektur för generativa kontradiktoriska nätverk." Papperet finns på arXiv och det har väckt stor uppmärksamhet.
Stephen Johnson in Stort tänk sa att resultaten var "ganska häpnadsväckande". Kommer Knight in MIT Technology Review sa att det vi tittar på utgör "bedövande, nästan kuslig realism. "
Forskarna, Tero Karras, Samuli Laine, och Timo Aila, är från Nvidia. Deras tillvägagångssätt fokuserar på att bygga ett generativt kontradiktoriskt nätverk, eller GAN, där lärande sker för att generera helt nya bilder som härma utseendet på riktiga foton.
Författarna sa att alla bilder i den här videon producerades av deras generator. "De är inte fotografier av riktiga människor."
Deras papper, "sa Knight, visade hur tillvägagångssättet kan användas för att leka med, och remixa element som ras, kön, eller till och med fräknar.
Den magiska såsen är deras stilbaserade generator. Stort tänk förklarade detta som en modifierad version av den konventionella tekniken som används för att automatiskt generera bilder.
Deras teknik bråkar med huvudet och får det sista skrattet (eller ordet, hur du än ser på det).
Du som människa tänker "bilder". Generatorn, dock, tänker "stilkollektion".
Visualisera effekten av stilar i generatorn genom att ha stilarna som produceras av en latent kod (källa) åsidosätter en delmängd av stilarna i en annan (destination). Upphovsman:arXiv:1812.04948 [cs.NE]
Varje stil styr effekter i en viss skala. Det finns grova stilar, mellanstilar, fina stilar. (Grova stilar hänvisar till pose, hår, ansiktsform; mellanstilar hänvisar till ansiktsdrag; ögon. Fina stilar hänvisar till färgschemat.)
Will Knight, under tiden, gjorde några observationer om GAN:"GAN använder två duellerande neurala nätverk för att träna en dator för att lära sig en datamängds natur tillräckligt bra för att generera övertygande förfalskningar. När de tillämpas på bilder, detta ger ett sätt att generera ofta mycket realistiskt fakery. "
Johnson gav en bakgrund till GAN -konceptet:
"Under 2014, en forskare vid namn Ian Goodfellow och hans kollegor skrev ett papper som beskriver ett nytt maskininlärningskoncept som kallas generativa kontradiktoriska nätverk. Idén, i förenklade termer, innebär att man sätter två neurala nätverk mot varandra. En fungerar som en generator som tittar på, säga, bilder på hundar och gör sedan sitt bästa för att skapa en bild av hur den tycker att en hund ser ut. Det andra nätverket fungerar som en diskriminator som försöker berätta falska bilder från riktiga.
"I början, generatorn kan producera några bilder som inte ser ut som hundar, så diskrimineraren skjuter ner dem. Men generatorn vet nu lite om var det gick fel, så nästa bild den skapar är något bättre. Denna process fortsätter tills, i teorin, generatorn skapar en bra bild av en hund. "
Nvidias team lade till stilöverföringsprinciper till GAN -mixen.
Devin Coldewey in TechCrunch :"Bilar, katter, landskap - allt detta passar mer eller mindre in i samma paradigm av små, medelstora och stora funktioner som kan isoleras och reproduceras individuellt. "
Ur teknisk synvinkel, deras arbete har hyllats för imponerande resultat i bilder av människor som ser verkliga ut. Ur en populär syn, skärpt av prat om falska nyheter, framstegen ses som farlig. "Möjligheten att skapa realistiska konstgjorda bilder, kallas ofta fördjupningar när bilder är avsedda att se ut som igenkännbara människor, har väckt oro under de senaste åren, "sa Johnson.
Tekniskt bevakade sajter fylldes med kommentarer om hur "läskigt" det här var, och några kommentarer var helt enkelt frågor:"Varför gör vi det här?" "Vem betalar för det?" "Om vi inte skapar regleringsgränser, Jag tror att nästa stora strid i mänsklighetens historia kommer att utkämpas (och möjligen förloras) mot AI vi skapar, "sa ett svar.
Ändå, inte alla kommentarer återspeglade oro. Detta är ett teknologiskt framsteg och några kommentarer påpekade att applikationer kan vara till hjälp inom vissa sektorer. Formgivare, reklambyråskapare, och även videospelskapare kan använda denna teknik steg framåt.
"Dessa AI-genererade ansikten lovar att inleda en ny generation fotorealistiska människor i videospel och filmer utan att det behövs mänskliga skådespelare eller statister, "sa HotHardware .
© 2018 Science X Network