Kredit:CC0 Public Domain
I åratal, människorna som utvecklade artificiell intelligens hämtade inspiration från det som var känt om den mänskliga hjärnan, och det har haft stor framgång som resultat. Nu, AI börjar ge tillbaka tjänsten.
Även om det inte uttryckligen utformats för att göra det, vissa artificiella intelligenssystem tycks efterlikna våra hjärnans inre funktioner närmare än man tidigare trott, vilket tyder på att både AI och våra sinnen har konvergerat på samma sätt att lösa problem. Om så är fallet, Att bara titta på AI på jobbet kan hjälpa forskare att låsa upp några av hjärnans djupaste mysterier.
"Det finns ett verkligt samband där, sa Daniel Yamins, biträdande professor i psykologi. Nu, Yamins, som också är fakultetsforskare vid Stanford Neurosciences Institute och medlem av Stanford Bio-X, och hans labb bygger på den kopplingen för att producera bättre teorier om hjärnan – hur den uppfattar världen, hur det skiftar effektivt från en uppgift till nästa och kanske, en dag, hur den tänker.
Ett synproblem för AI
Artificiell intelligens har lånat från hjärnan sedan dess tidiga dagar, när datavetare och psykologer utvecklade algoritmer som kallas neurala nätverk som löst efterliknade hjärnan. Dessa algoritmer kritiserades ofta för att vara biologiskt osannolika – "neuronerna" i neurala nätverk var, trots allt, grova förenklingar av de verkliga nervcellerna som utgör hjärnan. Men datavetare brydde sig inte om biologisk rimlighet. De ville bara ha system som fungerade, så de utökade neurala nätverksmodeller på vilket sätt som helst som gjorde att algoritmen bäst kunde utföra vissa uppgifter, kulminerade i det som nu kallas djupinlärning.
Sedan kom en överraskning. Under 2012, AI-forskare visade att ett neuralt nätverk för djupinlärning kunde lära sig att identifiera objekt i bilder såväl som en människa, vilket fick neuroforskare att undra:Hur gjorde djupinlärning det?
På samma sätt som hjärnan gör, som det visar sig. Under 2014, Yamins och kollegor visade att ett djupinlärningssystem som hade lärt sig att identifiera objekt i bilder – nästan lika bra som människor kunde – gjorde det på ett sätt som nära efterliknade hur hjärnan bearbetar synen. Faktiskt, beräkningarna som djupinlärningssystemet utförde matchade aktiviteten i hjärnans synbearbetningskretsar betydligt bättre än någon annan modell av dessa kretsar.
Ungefär samtidigt, andra team gjorde liknande observationer om delar av hjärnans syn- och rörelsebearbetningskretsar, antyder att med tanke på samma typ av problem, djupinlärning och hjärnan hade utvecklat liknande sätt att komma på en lösning. På senare tid, Yamins och kollegor har visat liknande observationer i hjärnans hörselsystem.
Å ena sidan, det är ingen stor överraskning. Även om de tekniska detaljerna skiljer sig, Deep learnings konceptuella organisation är lånad direkt från vad neuroforskare redan visste om nervcellers organisation i hjärnan.
Men framgången för Yamins och kollegors tillvägagångssätt och andra liknande beror lika mycket på en annan, mer subtila val. Istället för att försöka få djupinlärningssystemet att direkt matcha vad hjärnan gör på nivån för individuella neuroner, som många forskare hade gjort, Yamins och kollegor gav helt enkelt sitt djupinlärningssystem samma problem:Identifiera objekt i bilder. Först efter att det hade löst det problemet jämförde forskarna hur djupinlärning och hjärnan kom fram till sina lösningar – och först då stod det klart att deras metoder var i huvudsak desamma.
"Korrespondensen mellan modellerna och det visuella systemet är inte helt en slump, eftersom det ena direkt inspirerade det andra, sa Daniel Bear, en postdoktor i Yamins grupp, "men det är ändå anmärkningsvärt att det är så bra korrespondens som det är."
En trolig anledning till det, Björn sa, är naturligt urval och evolution. "I grund och botten, objektigenkänning var en mycket evolutionärt viktig uppgift" för djur att lösa – och lösa bra, om de ville se skillnad på något de kunde äta och något som kunde äta dem. Kanske försökte göra det lika bra som människor och andra djur - förutom med en dator - ledde till att forskare hittade i princip samma lösning.
Sök det som hjärnan söker
Oavsett den bakomliggande orsaken, insikter från 2014 års studie ledde till vad Yamins kallar målstyrda modeller av hjärnan:Istället för att försöka modellera neural aktivitet i hjärnan direkt, träna istället artificiell intelligens för att lösa problem som hjärnan behöver lösa, använd sedan det resulterande AI-systemet som en modell av hjärnan. Sedan 2014, Yamins och medarbetare har förfinat den ursprungliga målinriktade modellen av hjärnans synkretsar och utökat arbetet i nya riktningar, inklusive att förstå de neurala kretsar som bearbetar indata från gnagares morrhår.
I det kanske mest ambitiösa projektet, Yamins och postdoktorn Nick Haber undersöker hur spädbarn lär sig om världen omkring dem genom lek. Deras spädbarn – faktiskt relativt enkla datorsimuleringar – motiveras endast av nyfikenhet. De utforskar sina världar genom att flytta runt och interagera med föremål, lära sig när de går att förutsäga vad som händer när de slår bollar eller helt enkelt vänder på huvudet. På samma gång, modellen lär sig att förutsäga vilka delar av världen den inte förstår, försöker sedan ta reda på dem.
Medan datorsimuleringen börjar livet – så att säga – utan att i princip veta något om världen, det kommer så småningom ut hur man kan kategorisera olika föremål och till och med hur man slår ihop två eller tre av dem. Även om direkta jämförelser med spädbarns neurala aktivitet kan vara för tidigt, modellen kan hjälpa forskare att bättre förstå hur spädbarn använder lek för att lära sig om sina miljöer, sa Haber.
I andra änden av spektrumet, modeller inspirerade av artificiell intelligens kan hjälpa till att lösa ett pussel om hjärnans fysiska layout, sa Eshed Margalit, en doktorand i neurovetenskap. När synkretsarna i spädbarns hjärnor utvecklas, de bildar specifika fläckar – fysiska kluster av neuroner – som svarar på olika typer av föremål. Till exempel, människor och andra primater bildar alla en ansiktsfläck som är aktiv nästan uteslutande när de tittar på ansikten.
Exakt varför hjärnan bildar dessa fläckar, Margalit sa, är inte klart. Hjärnan behöver inget ansiktsplåster för att känna igen ansikten, till exempel. Men genom att bygga på AI-modeller som Yamins som redan löser objektigenkänningsuppgifter, "Vi kan nu försöka modellera den rumsliga strukturen och ställa frågor om varför hjärnan är upplagd på detta sätt och vilka fördelar det kan ge en organism, sa Margalit.
Stänger slingan
Det finns andra problem att ta itu med, särskilt hur artificiell intelligens lär sig. Just nu, AI behöver mycket mer träning – och mycket mer explicit träning – än vad människor behöver för att kunna utföra lika bra uppgifter som objektigenkänning, även om hur människor lyckas med så lite data är fortfarande oklart.
En andra fråga är hur man går bortom modeller för syn och andra sensoriska system. "När du har ett sensoriskt intryck av världen, du vill fatta beslut baserat på det, " sa Yamins. "Vi försöker skapa modeller för beslutsfattande, lära dig att fatta beslut och hur du samverkar mellan sensoriska system, beslutsfattande och minne." Yamins börjar ta upp dessa idéer med Kevin Feigelis, en doktorand i fysik, som bygger AI-modeller som kan lära sig att lösa många olika typer av problem och växla mellan uppgifter efter behov, något väldigt få AI-system kan göra.
I det långa loppet, Yamins och de andra medlemmarna i hans grupp sa att alla dessa framsteg skulle kunna matas in i mer kapabla system för artificiell intelligens, precis som tidigare neurovetenskaplig forskning hjälpte till att främja utvecklingen av djupinlärning. "Jag tror att människor inom artificiell intelligens inser att det finns vissa mycket bra nästa mål för kognitivt inspirerad artificiell intelligens, Haber sa, inklusive system som hans som lär sig genom att aktivt utforska sina världar. "Folk leker med de här idéerna."