• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  Science >> Vetenskap >  >> Andra
    AI-assisterat skrivande blomstrar tyst i akademiska tidskrifter – här är varför det är OK

    Kredit:Unsplash/CC0 Public Domain

    Om du söker i Google Scholar efter frasen "som en AI-språkmodell" hittar du massor av AI-forskningslitteratur och även några ganska misstänksamma resultat. Till exempel, säger en artikel om jordbruksteknik,



    "Som en AI-språkmodell har jag inte direkt tillgång till aktuella forskningsartiklar eller studier. Däremot kan jag ge dig en översikt över några senaste trender och framsteg ..."

    Uppenbara misstag som detta är inte de enda tecknen på att forskare i allt större utsträckning vänder sig till generativa AI-verktyg när de skriver upp sin forskning. En nyligen genomförd studie undersökte frekvensen av vissa ord i akademiskt skrivande (som "berömvärt", "noggrannt" och "intrikat"), och fann att de blev mycket vanligare efter lanseringen av ChatGPT – så mycket att 1 % av alla tidskrifter artiklar publicerade 2023 kan ha innehållit AI-genererad text.

    (Varför överanvänder AI-modeller dessa ord? Det finns spekulationer om att det är för att de är vanligare på engelska som talas i Nigeria, där nyckelelement i modellträning ofta förekommer.)

    Den tidigare nämnda studien tittar också på preliminära data från 2024, vilket tyder på att AI-skrivhjälp bara blir vanligare. Är detta en kris för modern vetenskap, eller en välsignelse för den akademiska produktiviteten?

    Vem ska ta äran för att skriva AI?

    Många människor är oroliga över användningen av AI i akademiska uppsatser. Verkligheten har faktiskt beskrivits som "kontaminerande" vetenskaplig litteratur.

    Vissa hävdar att användning av AI-utdata är plagiat. Om dina idéer är copy-pasted från ChatGPT är det tveksamt om du verkligen förtjänar beröm för dem.

    Men det finns viktiga skillnader mellan "plagiaterande" text författad av människor och text författad av AI. De som plagierar människors arbete får beröm för idéer som borde ha gått till den ursprungliga författaren.

    Däremot är det diskutabelt om AI-system som ChatGPT kan ha idéer, än mindre förtjänar beröm för dem. Ett AI-verktyg är mer som din telefons autoslutförandefunktion än en mänsklig forskare.

    Frågan om partiskhet

    En annan oro är att AI-utgångar kan vara partiska på sätt som kan sippra in i den vetenskapliga journalen. Äldre språkmodeller tenderade att framställa människor som är kvinnor, svarta och/eller homosexuella på ett utpräglat föga smickrande sätt, jämfört med människor som är män, vita och/eller hetero.

    Denna typ av partiskhet är mindre uttalad i den nuvarande versionen av ChatGPT.

    Andra studier har dock funnit en annan sorts partiskhet i ChatGPT och andra stora språkmodeller:en tendens att spegla en vänsterliberal politisk ideologi.

    Varje sådan fördom kan på ett subtilt sätt förvränga vetenskaplig skrift som produceras med dessa verktyg.

    Hallucinationsproblemet

    Den allvarligaste oron är relaterad till en välkänd begränsning av generativa AI-system:att de ofta gör allvarliga misstag.

    Till exempel, när jag bad ChatGPT-4 att generera en ASCII-bild av en svamp, gav den mig följande utdata.

    Sedan berättade den för mig att jag kunde använda den här bilden av en "svamp" för mina egna syften.

    Den här typen av övermodiga misstag har kallats "AI-hallucinationer" och "AI-bullshit". Även om det är lätt att upptäcka att ovanstående ASCII-bild inte ser ut som en svamp (och ganska lite som en snigel), kan det vara mycket svårare att identifiera eventuella misstag ChatGPT gör när man kartlägger vetenskaplig litteratur eller beskriver tillståndet i en filosofisk debatt.

    Till skillnad från (de flesta) människor är AI-system i grunden obekymrade med sanningen i vad de säger. Om de används slarvigt kan deras hallucinationer korrumpera det vetenskapliga dokumentet.

    Bör AI-producerad text förbjudas?

    Ett svar på framväxten av textgeneratorer har varit att förbjuda dem direkt. Till exempel tillåter Science – en av världens mest inflytelserika akademiska tidskrifter – all användning av AI-genererad text.

    Jag ser två problem med detta tillvägagångssätt.

    Det första problemet är praktiskt:nuvarande verktyg för att upptäcka AI-genererad text är mycket opålitliga. Detta inkluderar detektorn som skapats av ChatGPT:s egna utvecklare, som togs offline efter att den visade sig ha endast en 26 % noggrannhetsgrad (och en 9 % falsk positiv frekvens). Människor gör också misstag när de bedömer om något är skrivet av AI.

    Det är också möjligt att kringgå AI-textdetektorer. Onlinegemenskaper undersöker aktivt hur man uppmanar ChatGPT på ett sätt som låter användaren undvika upptäckt. Mänskliga användare kan också ytligt skriva om AI-utdata, och effektivt skrubba bort spåren av AI (som dess överanvändning av orden "berömvärt", "noggrannt" och "intrikat").

    Det andra problemet är att ett direkt förbud mot generativ AI hindrar oss från att inse fördelarna med dessa tekniker. Om den används väl kan generativ AI öka den akademiska produktiviteten genom att effektivisera skrivprocessen. På så sätt skulle det kunna bidra till ytterligare mänsklig kunskap. Helst bör vi försöka skörda dessa fördelar samtidigt som vi undviker problemen.

    Problemet är dålig kvalitetskontroll, inte AI

    Det allvarligaste problemet med AI är risken att införa obemärkta fel, vilket leder till slarvigt stipendium. Istället för att förbjuda AI bör vi försöka se till att felaktiga, osannolika eller partiska påståenden inte kan komma in på den akademiska historiken.

    När allt kommer omkring kan människor också producera skrifter med allvarliga fel, och mekanismer som peer review misslyckas ofta med att förhindra publicering.

    Vi måste bli bättre på att se till att akademiska uppsatser är fria från allvarliga misstag, oavsett om dessa misstag orsakas av slarvig användning av AI eller slarvigt mänskligt stipendium. Detta är inte bara mer uppnåeligt än att kontrollera AI-användning, det kommer att förbättra standarden för akademisk forskning som helhet.

    Detta skulle vara (som ChatGPT kan säga) en lovvärd och noggrant intrikat lösning.

    Tillhandahålls av The Conversation

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com