• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Falska nyheter via OpenAI:vältaligt osammanhängande?

    Kredit:CC0 Public Domain

    OpenAI:s textgenerator, maskininlärningsdriven – så kraftfull att den ansågs vara för farlig att släppa till allmänheten, har, gissa vad, släppts.

    OpenAI publicerade ett blogginlägg som tillkännagav sitt beslut att släppa algoritmen i sin helhet eftersom det "inte har sett några starka bevis för missbruk hittills."

    Väl, det var en vändning.

    Det var först i februari när OpenAI pratade om en språkmodell som heter GPT-2 som genererar textstycken.

    Engadget :"AI, GPT-2, var ursprungligen utformad för att svara på frågor, sammanfatta berättelser och översätta texter. Men forskare kom att frukta att det skulle kunna användas för att pumpa ut stora mängder desinformation."

    Tom McKay in Gizmodo noterade hur textgeneratorn var "tränad på cirka 40 gigabyte data som hämtades från åtta miljoner webbplatser" och bra på att generera text från en given prompt.

    Gränsen James Vincent pratade också om det. "Systemet tränades på åtta miljoner textdokument som skrapats från webben och svarar på textutdrag från användare. Mata in det med en falsk rubrik, till exempel, och det kommer att skriva en nyhet; ge den första raden i en dikt så kommer den att ge en hel vers."

    Så varför har deras algoritm släppts i sin helhet? Har inte allmänheten tillräckligt med att oroa sig för falska nyheter, falsk kritik, politisk propaganda?

    Förutom, blogginlägget i februari tog vad som verkade vara en så imponerande väg för att visa världens etiska överväganden.

    "Vår modell, kallas GPT-2 (en efterföljare till GPT), tränades helt enkelt för att förutsäga nästa ord i 40 GB Internettext. På grund av vår oro över skadliga tillämpningar av tekniken, vi släpper inte den utbildade modellen. Som ett experiment i ansvarsfullt avslöjande, vi släpper istället en mycket mindre modell för forskare att experimentera med, samt ett tekniskt papper."

    Katyanna Quach in Registret gav en tidslinje över OpenAI-teknikens framträdanden i etapper. "Det San Francisco-baserade forskningslabbet testade preliminärt vattnet genom att släppa större och större modeller, från bara några hundra miljoner parametrar.

    "Den minsta versionen innehöll 117 miljoner parametrar, den andra hade 345 miljoner parametrar, den tredje bestod av 774 miljoner parametrar, och den största, släpptes på tisdag, har hela 1,5 miljarder parametrar. Ju fler parametrar, ju mer kraftfull och kapabel modell, generellt."

    Så, vad övertygade dem att ta avfarten från huvudvägen? Vilken anledning hade de att tro att nu var en säkrare tid än någonsin tidigare? Vad hände med positionen att den var för farlig att dela?

    "Vi har hittills inte sett några starka bevis på missbruk, ", sade de i sitt inlägg den 5 november. "Medan vi har sett en del diskussion kring GPT-2:s potential att argumentera för operationer med hög volym/låg avkastning som skräppost och nätfiske, vi har inte sett bevis för att skriva kod, dokumentation, eller fall av missbruk."

    Under tiden, James Vincent in Gränsen vågade lufta möjligheten att denna "farliga" föreställning var just det, en föreställning om att, vad gäller deras fake-news-modell, kanske inte var påkallad i första hand.

    Det fanns oro för att enkel tillgång till ett sådant AI-verktyg skulle kunna tillfredsställa planerna för illvilliga aktörer, och det ansvarsfulla sättet att hantera detta var att släppa modellen på ett begränsat sätt. Ett bra tillvägagångssätt? Eller hindrade det ytterligare forskning? "

    Du kan nu prova det på en webbplats, som kör den fullstora GPT-2-modellen, kallas 1558M. Webbgränssnittet byggdes av Adam King med den fullständiga GPT-2-versionen från OpenAI, sa Registret .

    Den här skribenten försökte utforska vad den kan göra med en startmening "Bebisar kan tvätta disken." Det som följde var ett galet mix av logik och ämnessprång. Ändå bar meningarna respektabel grammatik, röst och stil. Några utdrag:

    "Och så, denna idé att barn inte kan använda en tvättmaskin är löjlig.

    "När det gäller tanken att ditt barn är en handfatskran, det är en idé som jag personligen inte tror att jag kan stå ut med. Jag har varit känd för att använda en diskbänksblandare när jag lagar mat. Jag kan diska i ett handfat.

    "När ditt barn sitter i ditt knä och du håller i tvättlappen och använder vattnet för att diska, du gör förmodligen ingenting."

    James Vincent träffade målet med en treordsbedömning:"kusligt övertygande skrivande."

    Quach gjorde också en poäng värd att upprepa. "Ibland, den spottar ur sig meningar som är förvånansvärt bra, men när det fortsätter att slänga ut text, det blir osammanhängande."

    Quach hade en uppfriskande anledning till varför OpenAI har bidragit till mänskligheten. "Vi har en sista tanke om denna fascinerande AI-forskning:den har åtminstone satt en ribba för mänskliga författare. Om du vill skriva nyheter eller artiklar, blogginlägg, marknadsföringsmeddelanden, och liknande, vet att du nu måste vara bättre än GPT-2:s halvkoherenta utgång. Annat, människor kan lika gärna bara läsa en bots utdata än din egen."

    © 2019 Science X Network




    © Vetenskap https://sv.scienceaq.com