Kredit:CC0 Public Domain
Användningen av djur för att testa kemikaliers toxicitet kan en dag bli föråldrad tack vare en låg kostnad, höghastighetsalgoritm utvecklad av forskare vid Rutgers och andra universitet.
Toxicitetstester - att bestämma mängden exponering för en kemikalie som är osäker för människor - är avgörande för säkerheten för miljontals arbetare i olika industrier. Men av de 85, 000 föreningar som används i konsumentprodukter, majoriteten har inte blivit heltäckande säkerhetstestade. Djurförsök, utöver dess etiska problem, kan vara för kostsamt och tidskrävande för att möta detta behov, enligt studien publicerad i Miljöhälsoperspektiv .
"Det finns en akut världsomspännande behov av en korrekt, kostnadseffektivt och snabbt sätt att testa kemikaliers toxicitet, för att säkerställa säkerheten för de människor som arbetar med dem och för de miljöer där de används, ", sa huvudforskaren Daniel Russo, en doktorand vid Rutgers University-Camden Center for Computational and Integrative Biology. "Enbart djurförsök kan inte tillgodose detta behov."
Tidigare försök att lösa detta problem använde datorer för att jämföra oprövade kemikalier med strukturellt liknande föreningar vars toxicitet redan är känd. Men dessa metoder kunde inte bedöma strukturellt unika kemikalier - och förvirrades av det faktum att vissa strukturellt liknande kemikalier har mycket olika nivåer av toxicitet.
Den Rutgers-ledda gruppen övervann dessa utmaningar genom att utveckla en första i sitt slag algoritm som automatiskt extraherar data från PubChem, en National Institutes of Health-databas med information om miljontals kemikalier. Algoritmen jämför kemiska fragment från testade föreningar med de från oprövade föreningar, och använder flera matematiska metoder för att utvärdera deras likheter och skillnader för att förutsäga en oprövad kemikalies toxicitet.
"Algorithmen som utvecklats av Daniel och Zhu-laboratoriet bryter enorma mängder data, och urskiljer samband mellan fragment av föreningar från olika kemiska klasser, exponentiellt snabbare än en människa kunde, " sa medförfattaren Lauren Aleksunes, en docent vid Rutgers Ernest Mario School of Pharmacy och Rutgers Environmental and Occupational Health Sciences Institute. "Den här modellen är effektiv och ger företag och tillsynsmyndigheter ett verktyg för att prioritera kemikalier som kan behöva mer omfattande tester på djur innan de används i handeln."
För att finjustera algoritmen, forskarna började med 7, 385 föreningar för vilka toxicitetsdata är kända, och jämförde det med data om samma kemikalier i PubChem. De testade sedan algoritmen med 600 nya föreningar. För flera grupper av kemikalier, den Rutgers-ledda algoritmen hade en framgångsfrekvens på 62 till 100 procent i att förutsäga deras nivå av oral toxicitet. Och genom att jämföra samband mellan uppsättningar av kemikalier, de belyser nya faktorer som kan avgöra en kemikalies toxicitet.
Även om algoritmen endast var inriktad på att bedöma kemikaliernas toxicitetsnivå när de konsumerades oralt, de Rutgers-ledda forskarna drar slutsatsen att deras strategi kan utvidgas till att förutsäga andra typer av toxicitet.
"Även om det fortfarande inte är möjligt att ersätta djurförsök helt, denna modell tar ett viktigt steg mot att möta industrins behov, där nya kemikalier ständigt utvecklas, och för miljömässig och ekologisk säkerhet, " sa motsvarande författare Hao Zhu, en docent i kemi vid Rutgers-Camden och Rutgers and Environmental and Occupational Health Sciences Institute.