AI-assisterat skrivande blomstrar tyst i akademiska tidskrifter – här är varför det är OK
Om du söker i Google Scholar efter frasen "som en AI-språkmodell" hittar du massor av AI-forskningslitteratur och även några ganska misstänksamma resultat. Till exempel, säger en artikel om jordbruksteknik,
"Som en AI-språkmodell har jag inte direkt tillgång till aktuella forskningsartiklar eller studier. Däremot kan jag ge dig en översikt över några senaste trender och framsteg ..."
Uppenbara misstag som detta är inte de enda tecknen på att forskare i allt större utsträckning vänder sig till generativa AI-verktyg när de skriver upp sin forskning. En nyligen genomförd studie undersökte frekvensen av vissa ord i akademiskt skrivande (som "berömvärt", "noggrannt" och "intrikat"), och fann att de blev mycket vanligare efter lanseringen av ChatGPT – så mycket att 1 % av alla tidskrifter artiklar publicerade 2023 kan ha innehållit AI-genererad text.
(Varför överanvänder AI-modeller dessa ord? Det finns spekulationer om att det är för att de är vanligare på engelska som talas i Nigeria, där nyckelelement i modellträning ofta förekommer.)
Den tidigare nämnda studien tittar också på preliminära data från 2024, vilket tyder på att AI-skrivhjälp bara blir vanligare. Är detta en kris för modern vetenskap, eller en välsignelse för den akademiska produktiviteten?
Vem ska ta äran för att skriva AI?
Många människor är oroliga över användningen av AI i akademiska uppsatser. Verkligheten har faktiskt beskrivits som "kontaminerande" vetenskaplig litteratur.
Vissa hävdar att användning av AI-utdata är plagiat. Om dina idéer är copy-pasted från ChatGPT är det tveksamt om du verkligen förtjänar beröm för dem.
Men det finns viktiga skillnader mellan "plagiaterande" text författad av människor och text författad av AI. De som plagierar människors arbete får beröm för idéer som borde ha gått till den ursprungliga författaren.
Däremot är det diskutabelt om AI-system som ChatGPT kan ha idéer, än mindre förtjänar beröm för dem. Ett AI-verktyg är mer som din telefons autoslutförandefunktion än en mänsklig forskare.
Frågan om partiskhet
En annan oro är att AI-utgångar kan vara partiska på sätt som kan sippra in i den vetenskapliga journalen. Äldre språkmodeller tenderade att framställa människor som är kvinnor, svarta och/eller homosexuella på ett utpräglat föga smickrande sätt, jämfört med människor som är män, vita och/eller hetero.
Denna typ av partiskhet är mindre uttalad i den nuvarande versionen av ChatGPT.
Andra studier har dock funnit en annan sorts partiskhet i ChatGPT och andra stora språkmodeller:en tendens att spegla en vänsterliberal politisk ideologi.
Varje sådan fördom kan på ett subtilt sätt förvränga vetenskaplig skrift som produceras med dessa verktyg.
Hallucinationsproblemet
Den allvarligaste oron är relaterad till en välkänd begränsning av generativa AI-system:att de ofta gör allvarliga misstag.
Till exempel, när jag bad ChatGPT-4 att generera en ASCII-bild av en svamp, gav den mig följande utdata.