Kredit:CSIRO, författare tillhandahållen
Vi tänker ofta på astronomi som en visuell vetenskap med vackra bilder av universum. Men astronomer använder ett brett utbud av analysverktyg utöver bilder för att förstå naturen på en djupare nivå.
Datasonifiering är processen att omvandla data till ljud. Den har kraftfulla tillämpningar inom forskning, utbildning och uppsökande verksamhet, och gör det också möjligt för blinda och synskadade samhällen att förstå plotter, bilder och annan data.
Dess användning som ett verktyg inom vetenskapen är fortfarande i ett tidigt skede - men astronomigrupper leder vägen.
I en artikel publicerad i Nature Astronomy , mina kollegor och jag diskuterar det nuvarande tillståndet för datasonifiering inom astronomi och andra områden, ger en översikt över 100 ljudbaserade projekt och utforskar dess framtida riktningar.
Cocktailpartyeffekten
Föreställ dig den här scenen:du är på en fullsatt fest som är ganska bullrig. Du känner ingen och de talar alla ett språk du inte kan förstå – inte bra. Sedan hör du bitar av en konversation i ett bortre hörn på ditt språk. Du fokuserar på det och går över för att presentera dig själv.
Även om du kanske aldrig har upplevt en sådan fest, är tanken på att höra en igenkännbar röst eller ett språk i ett bullrigt rum bekant. Förmågan hos det mänskliga örat och hjärnan att filtrera bort oönskade ljud och hämta önskade ljud kallas "cocktailparty-effekten".
På samma sätt tänjer vetenskapen alltid på gränserna för vad som kan detekteras, vilket ofta kräver att man extraherar mycket svaga signaler från bullriga data. Inom astronomi trycker vi ofta på för att hitta de svagaste, längsta eller flyktigaste signalerna. Datasonifiering hjälper oss att flytta dessa gränser ytterligare.
Videon nedan ger exempel på hur sonifiering kan hjälpa forskare att urskilja svaga signaler i data. Den innehåller sonifiering av nio skurar från en upprepad snabb radioskur som heter FRB121102.
Snabba radioskurar är millisekunders skurar av radioemission som kan detekteras halvvägs över universum. Vi vet ännu inte vad som orsakar dem. Att upptäcka dem i andra våglängder är nyckeln till att förstå deras natur.
För mycket av det goda
När vi utforskar universum med teleskop, upptäcker vi att det är fullt av katastrofala explosioner inklusive stjärnors supernovadöd, sammanslagning av svarta hål och neutronstjärnor som skapar gravitationsvågor och snabba radioskurar.
Här kan du lyssna på sammanslagning av två svarta hål.
Och sammanslagning av två neutronstjärnor.
Dessa händelser tillåter oss att förstå extrem fysik vid de högsta kända energierna och tätheterna. De hjälper oss att mäta universums expansionshastighet och hur mycket materia det innehåller och att bland annat avgöra var och hur grundämnena skapades.
Kommande anläggningar som Rubin Observatory och Square Kilometer Array kommer att upptäcka tiotals miljoner av dessa händelser varje natt. Vi använder datorer och artificiell intelligens för att hantera dessa enorma antal upptäckter.
Men de flesta av dessa händelser är svaga skurar, och datorer är bara så bra på att hitta dem. En dator kan plocka ut en svag skur om den får en mall för den "önskade" signalen. Men om signaler avviker från detta förväntade beteende går de förlorade.
Och det är ofta just dessa händelser som är de mest intressanta och ger den största insikten om universums natur. Att använda dataljud för att verifiera dessa signaler och identifiera extremvärden kan vara kraftfullt.
Mer än vad man ser
Datasonifiering är användbart för att tolka vetenskap eftersom människor tolkar ljudinformation snabbare än visuell information. Dessutom kan örat urskilja fler tonhöjdsnivåer än ögat kan urskilja färgnivåer (och över ett bredare intervall).
En annan riktning vi undersöker för datasonifiering är multidimensionell dataanalys – vilket innebär att förstå sambanden mellan många olika egenskaper eller egenskaper i ljud.
Att plotta data i tio eller fler dimensioner samtidigt är för komplext och att tolka det är för förvirrande. Men samma data kan förstås mycket lättare genom sonifiering.
Det visar sig att det mänskliga örat kan se skillnaden mellan ljudet av en trumpet och en flöjt omedelbart, även om de spelar samma ton (frekvens) med samma ljudstyrka och varaktighet.
Varför? Eftersom varje ljud innehåller övertoner av högre ordning som hjälper till att bestämma ljudkvaliteten eller klangfärgen. De olika styrkorna hos övertonerna av högre ordning gör det möjligt för lyssnaren att snabbt identifiera instrumentet.
Föreställ dig nu att placera information – olika egenskaper hos data – som olika styrkor hos övertoner av högre ordning. Varje föremål som studeras skulle ha en unik ton, eller tillhöra en klass av toner, beroende på dess övergripande egenskaper.
Med lite träning kunde en person nästan omedelbart höra och känna igen alla objektets egenskaper, eller dess klassificering, från en enda ton.
Utöver forskning
Sonifiering har också stor användning inom utbildning (Sonokids) och uppsökande verksamhet (till exempel SYSTEM Sounds och STRAUSS), och har utbredda tillämpningar inom områden inklusive medicin, ekonomi och mer.
Men dess kanske största kraft är att göra det möjligt för blinda och synskadade samhällen att förstå bilder och intriger för att hjälpa till med vardagen.
Det kan också möjliggöra meningsfull vetenskaplig forskning, och göra det kvantitativt, eftersom sonifieringsforskningsverktyg ger numeriska värden på kommando.
Denna förmåga kan hjälpa till att främja STEM-karriärer bland blinda och synskadade. Och genom att göra det kan vi utnyttja en enorm pool av briljanta vetenskapsmän och kritiska tänkare som annars kanske inte hade föreställt oss en väg mot vetenskap.
Vad vi behöver nu är statligt och branschstöd för att vidareutveckla ultraljudsverktyg, för att förbättra åtkomst och användbarhet, och för att hjälpa till att etablera sonifieringsstandarder. + Utforska vidare
Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.