I den här bilden gjordes tillgänglig tisdagen den 16 april, 2019 lågor och rök stiger från branden när spiran börjar välta på Notre Dame -katedralen i Paris, Måndag, 15 april kl. 2019. Ett inferno som rasade genom Notre Dame -katedralen i mer än 12 timmar förstörde dess spir och tak men skonade sina dubbla medeltida klocktorn, och en häftig räddningsinsats räddade monumentets "mest värdefulla skatter, "inklusive tornkronan som påstås ha bärts av Jesus, sa tjänstemän på tisdagen. (AP Photo/Thierry Mallet)
YouTube kan behöva några fler människor. Maskinerna vars jobb är att tämpa ner konspirationsteorier skär inte av det ännu.
När människor runt om i världen vände sig till YouTube för att se Notre Dame -katedralen brinna i Paris, ett automatiserat system bifogade bakgrundsinformation om terrorattackerna den 11 september i New York till livestream -videor av branden.
Orsaken till branden har inte fastställts, men myndigheterna sa att det verkade vara oavsiktligt, inte mordbrand eller terrorism.
Bakgrundsanteckningen publicerades av ett system som YouTube nyligen införde för att bekämpa välkända konspirationer om sådana händelser som månlandningen eller 11 september. I detta fall, algoritmen kan ha haft motsatt effekt, bränna spekulationer om orsaken till branden och vilka som kan ligga bakom den.
Det är det senaste exemplet på att artificiell intelligens misslyckas - och ett tecken på att vi har en lång väg att gå innan AI blir tillräckligt smart för att förstå nyanser och sammanhang.
I ett påstående, YouTube förklarade att bakgrundsinformationen - ett inlägg från Encyclopedia Britannica - felaktigt placerades där av algoritmer avsedda att skydda användare från falskt material som sprids i kölvattnet av vissa nyhetshändelser.
YouTubes algoritmer har en historia av felaktiga och märkning av videor på ett olämpligt sätt. Joshua Benton, chef för Nieman Journalism Lab vid Harvard University, noterade flera i ett blogginlägg i måndags.
Förra hösten, till exempel, YouTube märkte en video av en professors pensionering från Michigan State University med Encyclopedia Britannica -posten för "Jew, "tillsammans med en Davidstjärna placerad under bilden. Professorn, Ken Waltzer, hade varit chef för universitetets judiska studier, men Benton noterade att ingenting i videon titel eller beskrivning nämnde något judiskt.
YouTubes algoritm, som förmodligen är grundad för att slå ner antisemitiska konspirationer, på något sätt gjorde det på egen hand.
När YouTube meddelade sina insatser mot konspiration i somras, den sa att den skulle motverka falsk information med källor som folk allmänt litade på, som Wikipedia och Encyclopedia Britannica. Den sa att den skulle lägga till bakgrund från dessa källor till videor som innehåller vanliga konspirationsämnen (till exempel vaccinationer, skottskjutningar eller bombningen i Oklahoma City 1995), oavsett om videorna stödde en konspirationsteori.
Videor av Notre Dame -branden visades av stora, pålitliga nyhetsorganisationer. YouTubes artificiella intelligens, dock, gjorde inga undantag.
På måndag, företaget fixade snabbt Notre Dame -felet och sa att dess system "ibland ringer fel". Det stängde av informationspanelerna för videorna från branden men sa inte om det tittade mer på praxis.
"Jag tror att de är ungefär fram och tillbaka om hur mycket bra det här gör, "Benton sa." Det kommer till kärnfrågan som vi ser med Facebook och YouTube och alla andra tekniska plattformar som strävar efter global skala. Det finns för mycket innehåll att övervaka och man kan inte låta människor övervaka varje video. "
Istället, vi har maskiner som helt klart fortfarande lär sig på jobbet.
"Det är en sak att få något fel när insatserna är låga, "Sa Benton." När det är världens största nyhetsberättelse, det verkar som om de kan få fler att titta på det. "
© 2019 Associated Press. Alla rättigheter förbehållna.