Kredit:New Jersey Institute of Technology
Ett av de bestående pusslen med hörselnedsättning är nedgången i en persons förmåga att avgöra var ett ljud kommer från, en viktig överlevnadsförmåga som tillåter djur – från ödlor till människor – att lokalisera faran, bytesdjur och gruppmedlemmar. I modern tid, hitta en förlorad mobiltelefon genom att använda applikationen "Hitta min enhet, "bara för att upptäcka att den hade glidit under en soffkudde, förlitar sig på små skillnader i ringljudet som når öronen.
Till skillnad från andra sensoriska uppfattningar, som att känna var regndroppar träffar huden eller att kunna skilja höga toner från låga på pianot, riktningen för ljud måste beräknas; hjärnan uppskattar dem genom att bearbeta skillnaden i ankomsttid över de två öronen, den så kallade interaurala tidsskillnaden (ITD). En långvarig konsensus bland biomedicinska ingenjörer är att människor lokaliserar ljud med ett schema som liknar en rumslig karta eller kompass, med neuroner inriktade från vänster till höger som avfyrar individuellt när de aktiveras av ett ljud som kommer från en given vinkel – säg, 30 grader åt vänster från mitten av huvudet.
Men i forskning publicerad denna månad i tidskriften eLife , Antje Ihlefeld, chef för NJIT:s Neural Engineering for Speech and Hearing Laboratory, föreslår en annan modell baserad på en mer dynamisk neural kod. Upptäckten ger nytt hopp, hon säger, att ingenjörer en dag kan tänka ut hörapparater, nu notoriskt dålig på att återställa ljudriktningen, för att korrigera detta underskott.
"Om det finns en statisk karta i hjärnan som försämras och inte kan fixas, som utgör ett skrämmande hinder. Det betyder att folk sannolikt inte kan "lära sig om" att lokalisera ljud väl. Men om denna perceptuella förmåga är baserad på en dynamisk neural kod, det ger oss mer hopp om att omskola människors hjärnor, " Ihlefeld noterar. "Vi skulle programmera hörapparater och cochleaimplantat inte bara för att kompensera för en individs hörselnedsättning, men också baserat på hur väl den personen kunde anpassa sig till att använda signaler från sina enheter. Detta är särskilt viktigt för situationer med bakgrundsljud, där ingen hörapparat för närvarande kan återställa förmågan att peka ut målljudet. Vi vet att det verkligen skulle hjälpa att ge signaler för att återställa ljudriktningen."
Det som ledde henne till denna slutsats är en resa av vetenskapligt detektivarbete som började med ett samtal med Robert Shapley, en framstående neurofysiolog vid NYU som anmärkte på en egenhet hos människans binokulära djupuppfattning – förmågan att bestämma hur långt bort ett visuellt objekt är – som också beror på en beräkning som jämför input från båda ögonen. Shapley noterade att dessa avståndsuppskattningar är systematiskt mindre exakta för stimuli med låg kontrast (bilder som är svårare att särskilja från omgivningen) än för högkontrast.
Ihlefeld och Shapley undrade om samma neurala princip gällde för ljudlokalisering:om den är mindre exakt för mjukare ljud än för starkare. Men detta skulle avvika från den rådande rumsliga kartteorin, känd som Jeffress-modellen, som hävdar att ljud från alla volymer bearbetas – och därför uppfattas – på samma sätt. Fysiologer, som föreslår att däggdjur förlitar sig på en mer dynamisk neural modell, har länge varit oense med det. De hävdar att däggdjursneuroner tenderar att skjuta i olika takt beroende på riktningssignaler och att hjärnan sedan jämför dessa hastigheter över uppsättningar av neuroner för att dynamiskt bygga upp en karta över ljudmiljön.
"Utmaningen med att bevisa eller motbevisa dessa teorier är att vi inte kan titta direkt på den neurala koden för dessa uppfattningar eftersom de relevanta neuronerna finns i den mänskliga hjärnstammen, så vi kan inte få högupplösta bilder av dem, " säger hon. "Men vi hade en aning om att de två modellerna skulle ge olika ljudpositionsförutsägelser vid en mycket låg volym."
De sökte efter bevis i litteraturen och hittade bara två papper som hade registrerats från neural vävnad vid dessa låga ljud. En studie var på kattugglor - en art som tros förlita sig på Jeffress-modellen, baserad på högupplösta inspelningar i fåglarnas hjärnvävnad – och den andra studien var på ett däggdjur, rhesusmakaken, ett djur som troddes använda dynamisk hastighetskodning. De rekonstruerade sedan noggrant avfyrningsegenskaperna hos neuronerna som registrerats i dessa gamla studier och använde deras rekonstruktioner för att uppskatta ljudriktningen både som en funktion av ITD och volym.
"Vi förväntade oss att för kattuggledata, det borde egentligen inte spela någon roll hur hög en källa är – den förutsagda ljudriktningen borde vara riktigt exakt oavsett ljudvolymen – och det kunde vi bekräfta. Dock, vad vi hittade för apdata är att förutspådd ljudriktning berodde på både ITD och volym, " sa hon. "Vi sökte sedan i den mänskliga litteraturen efter studier om upplevd ljudriktning som en funktion av ITD, som inte heller ansågs bero på volym, men hittade överraskande nog inga bevis för att stödja denna långvariga tro."
Hon och hennes doktorand, Nima Alamatsaz, värvade sedan volontärer på NJIT campus för att testa sin hypotes, använda ljud för att testa hur volymen påverkar var människor tror att ett ljud kommer fram.
"Vi byggde en extremt tyst, ljudavskärmat rum med specialiserad kalibrerad utrustning som gjorde att vi kunde presentera ljud med hög precision för våra volontärer och spela in var de uppfattade ljudet ha sitt ursprung. Och visst, människor felidentifierade de mjukare ljuden, " konstaterar Alamatsaz.
"Hittills, vi kan inte beskriva ljudlokaliseringsberäkningar i hjärnan exakt, " tillägger Ihlefeld. "Men, de nuvarande resultaten är oförenliga med föreställningen att den mänskliga hjärnan förlitar sig på en Jeffress-liknande beräkning. Istället, vi verkar förlita oss på en något mindre exakt mekanism.
Mer allmänt, forskarna säger, deras studier pekar på direkta paralleller i hörsel och visuell perception som har förbisetts tidigare och som tyder på att hastighetsbaserad kodning är en grundläggande underliggande operation när man beräknar rumsliga dimensioner från två sensoriska input.
"Eftersom vårt arbete upptäcker förenande principer mellan de två sinnena, vi räknar med att intresserade publik kommer att inkludera kognitionsforskare, fysiologer och beräkningsmodelleringsexperter inom både hörsel och syn, ", säger Ihlefeld. "Det är fascinerande att jämföra hur hjärnan använder informationen som når våra ögon och öron för att förstå världen omkring oss och för att upptäcka att två till synes osammanhängande uppfattningar – syn och hörsel – faktiskt kan vara ganska lika trots allt. ."