• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Fake news-modell i etappvis release men två forskare eldar upp replikering

    Kredit:CC0 Public Domain

    Inte den mest tröstande nyheten i teknikvärlden:Laboratoriet för artificiell intelligens (OpenAI) som grundades av Elon Musk sa att dess mjukvara alltför lätt kunde anpassas för att få ut falska nyheter. "Två akademiker återskapade det ändå." Det var Trådbunden s bevakning den 26 augusti av en berättelse om två nyligen utexaminerade masterexamen i datavetenskap som har släppt vad de sa var "en återskapande av OpenAI:s undanhållna programvara" för alla att ladda ner och använda.

    undanhållen? Varför? Den hade undanhållits på grund av oro över samhällspåverkan.

    I februari, OpenAI tillkännagav sin modell, GPT-2, och sa att den var tränad att förutsäga nästa ord i 40 GB Internettext.

    De förklarade sin releasestrategi:"På grund av oro över att stora språkmodeller används för att generera vilseledande, partisk, eller grovt språk i stor skala, vi släpper bara en mycket mindre version av GPT-2 tillsammans med samplingskod. Vi släpper inte datamängden, träningskod, eller GPT-2 modellvikter." I maj sa MIT-teknik Recension , "några månader efter GPT-2:s första debut, OpenAI reviderade sin ståndpunkt om att undanhålla den fullständiga koden till vad den kallar en "stegad release."

    Charanjeet Singh in Fossbytes sa att programvaran analyserade språkmönster och kunde användas för uppgifter som chatbots och att komma med oöverträffade svar, men "den mest alarmerande oro bland experter har varit skapandet av syntetisk text."

    Väl, de två akademiker i nyheterna släppte en återskapande av OpenAI-mjukvaran på Internet men de två forskarna, Aaron Gokaslan ad Vanya Cohen, ville aldrig dränera hav eller få himlen att falla.

    Tom Simonite, som skrev den mycket citerade artikeln i Trådbunden , sa de två forskarna, 23 och 24 år, var inte ute efter att orsaka förödelse men sa att deras utgivning var avsedd att visa att du inte behöver vara ett elitlabb rikt på dollar och doktorer för att skapa den här typen av programvara:De använde uppskattningsvis 50 $, 000 värde av gratis molnberäkning från Google.

    Sissi Cao, Observatör :I likhet med OpenAIs process, Gokaslan och Cohen tränade sin språkmjukvara med hjälp av webbsidor med text "skriven av människor (genom att skörda länkar som delas på Reddit) och cloud computing från Google.

    Vad är mer, att forskarnas agerande är potentiellt farligt skulle kunna diskuteras.

    Simonite påpekade detta:"Mjukvara för maskininlärning tar upp språkets statistiska mönster, inte en sann förståelse av världen. Text från både original- och wannabe-mjukvaran gör ofta orimliga språng. Inte heller kan riktas till att inkludera särskilda fakta eller synpunkter."

    Provutdata tillhandahölls av Gokaslan och Cohen in Medium och, Säkert, det är en huvudskrapa när man försöker hitta något logiskt flöde från en mening till en annan.

    Den artikeln hade titeln "OpenGPT-2:We Replicated GPT-2 because you Can Too." De sa att de trodde att släppa sin modell var ett rimligt första steg mot att motverka potentiellt framtida missbruk av dessa typer av modeller. Han sa att de modifierade sin kodbas för att matcha utbildningsmålet för språkmodellering av GPT-2. "Eftersom deras modell tränades på en liknande stor korpus, mycket av koden och hyperparametrarna visade sig vara lätta att återanvända."

    Eftersom Open-AI inte hade släppt sin största modell vid denna tidpunkt [datumet för hans inlägg var den 22 augusti], han sa att de två forskarna försökte replikera sin 1.5B-modell för att låta andra bygga vidare på sin förutbildade modell och förbättra den ytterligare.

    Spola framåt till 29 augusti. Var lämnar allt detta OpenAI:s GPT-2? Karen Hao in MIT Technology Review sa att hans policyteam har publicerat ett papper, inlämnad den 24 aug, som nu finns uppe på arXiv, och "vid sidan av det, labbet har släppt en version av modellen, känd som GPT-2, det är hälften så stort som hela, som fortfarande inte har släppts."

    Haos artikel var särskilt användbar för att förstå detta falska text-drama när hon rapporterade om hur metoden med stegvis utgivning togs emot utanför OpenAI.

    En djupinlärningsingenjör på Nvidia sa att han inte tyckte att en stegvis release var särskilt användbar i det här fallet eftersom arbetet var lätt att replikera, "Men det kan vara användbart på det sättet att det skapar ett prejudikat för framtida projekt. Folk kommer att se stegvis release som ett alternativ."

    Hon citerade också Oren Etzioni, VD för Allen Institute for Artificiell Intelligens. "Jag applåderar deras avsikt att designa en tankeväckande, gradvis releaseprocess för AI-teknik men ifrågasätter om all fanfar var berättigad."

    © 2019 Science X Network




    © Vetenskap https://sv.scienceaq.com