Vana fågelskådare kan ofta identifiera arter genom sina rop. Föreställ dig att göra samma sak för fisk.
Ny forskning från University of Victoria visar att närbesläktade fiskarter producerar distinkta ljud som kan separeras av AI. Detta öppnar dörren till övervakningsprogram som förlitar sig på akustiska signaler snarare än visuella iakttagelser.
Studien, ledd av doktoranden Darienne Lancaster, publicerades i Journal of Fish Biology.
Fiskvokaliseringar har länge varit kända, men att särskilja dem i det vilda var en utmaning. Som Lancaster förklarade, "Vi visste inte vilka ljud som hörde till vilken art, eller om det ens var möjligt att skilja dem åt."
Med hjälp av passiv akustisk övervakning samlade teamet in undervattensinspelningar samtidigt som de verifierade arter med visuella data.
De tränade sedan en maskininlärningsmodell som korrekt matchade ljud till arter med 88 % noggrannhet, och identifierade åtta fiskarter från brittisk-Columbia.
Datauppsättningen avslöjade också beteendeinsikter, som klippfiskens snabba grymtande när den förföljdes – troligen ett defensivt svar.
"Det är spännande att se hur många arter som använder ljud och i vilka sammanhang de gör det", sa Lancaster.
Utöver grundläggande vetenskap erbjuder modellen ett mindre invasivt sätt att studera fiskbeteende och övervaka populationer.
Framtida arbete kommer att utöka databasen till att omfatta fler arter och utforska regionala variationer inom arter, vilket understryker den stora mångfalden av marint liv.