Jakten på AI-fusket – varför AI-detektorer inte räcker till

Peter Hellman

2025-10-15

Innehållsförteckning

Elever kan idag använda AI-verktyg som ChatGPT för att skriva uppgifter, vilket gör det svårare för lärare att avgöra om texten är elevens egen eller genererad av AI. AI-genererat innehåll kan vara av hög kvalitet och unikt, så traditionella metoder för att upptäcka plagiat räcker inte längre till. Detta har lett till en ökad efterfrågan på så kallade AI-detektorer – verktyg som ska kunna känna igen om en text är skriven av en människa eller av en AI.

Teknikens snabba utveckling av generativ AI har skapat nya utmaningar för skolan. Allt från grundskolans elevers hemuppgifter till universitetsstudenters uppsatser kan idag potentiellt hjälpas på traven av chatbottar som ChatGPT. Som lärare uppstår frågan hur man kan upprätthålla akademisk integritet när elever enkelt kan få texter författade av en AI. Ett av de första svaren på denna utmaning har varit AI-detektorer – program som säger sig avslöja om en text är AI-skriven. I denna artikel går vi igenom vad AI-detektorer är, om de verkligen fungerar, för- och nackdelar, samt hur lärare i Sverige och internationellt kan förhålla sig till dem. Vi tar även upp juridiska och etiska aspekter som är viktiga att känna till.

Vad är AI-detektorer?

AI-detektorer är verktyg (ofta webbaserade tjänster) som analyserar en given text och bedömer sannolikheten för att texten är genererad av artificiell intelligens eller skriven av en människa. Bakgrunden till deras framväxt är den explosionsartade spridningen av språkmodeller som OpenAIs ChatGPT under 2023, vilket möjliggjorde för studenter att snabbt producera uppsatser och svar med hjälp av AI. Traditionella plagiatkontroller, som söker efter kopierade fraser på internet, räcker inte till för AI-genererad text eftersom sådana texter vanligtvis är unika och inte kopierade från en källa. Med andra ord, en chatbot skapar originaltext som inte går att spåra via en Googlesökning eller databaser som Urkund/Ouriginal. Detta har gjort det svårare för lärare att upptäcka fusk enbart genom plagieringsverktyg.

För att möta denna nya typ av utmaning har flera företag och utvecklare lanserat AI-detektorer för att bistå lärare och examinatorer. Internationellt finns verktyg som GPTZero, Turnitin’s AI Writing Detector (integrerat i plagieringssystemet Turnitin) samt fristående tjänster som ZeroGPT, Winston AI, m.fl. I Sverige har det också dykt upp alternativ, till exempel har den svenska AI-plattformen Studera.AI sin egen detektor, som i likhet med de internationella verktygen utlovar möjlighet att analysera texter på svenska och andra språk. Tanken är att läraren ska kunna klistra in eller ladda upp en elevtext och inom sekunder få en indikation på om texten bedöms vara maskinskriven eller ej.

Hur fungerar AI-detektorer?

AI-detektorer använder olika tekniska metoder för att försöka urskilja AI-genererat språk från mänskligt språk. Ofta handlar det om att leta efter statistiska mönster eller språkliga egenskaper som anses typiska för AI. Exempelvis kan detektorn beräkna textens "perplexity" – ett mått på hur förutsägbar texten är för en språkmodell. En AI-modell (särskilt äldre eller enklare modeller) tenderar att skriva texter med relativt jämn fördelning av ord och fraser, vilket kan göra texten för perfekt eller monoton i sin struktur. Människoskrivna texter kan ha mer variation, oväntade formuleringar och inkonsekvenser som reflekterar personlig stil. Vissa detektorer använder även maskininlärning: de har tränats på stora mängder exempel av både AI-skrivna och människoskrivna texter för att lära sig skillnaderna. När läraren kör en text genom detektorn jämförs textens egenskaper mot dessa inlärda mönster, och verktyget returnerar t.ex. en procentsiffra eller färgmarkering som anger hur stor del (eller sannolikhet) av texten som anses AI-genererad.

En del moderna AI-detektorer markerar specifika meningar som misstänkta. Till exempel kan verktyget markera meningar med färger – grönt för "troligen människa", gult för "osäker/blandad", rött för "troligen AI". Tanken är att ge läraren inblick i varför texten bedöms som AI-skriven, till exempel att många meningar är formulerade på ett sätt som AI ofta gör. Sådana analyser kan ge viss vägledning. Det är dock viktigt att understryka att dessa analyser inte är några facit. AI-detektorer kan egentligen inte "läsa elevens tankar" eller avgöra ursprunget med säkerhet – de gör bara mer eller mindre kvalificerade gissningar baserat på mönster.

Hur tillförlitliga är AI-detektorer?

En kritisk fråga är om AI-detektorer verkligen fungerar pålitligt. Kort sagt har forskare och erfarenheter visat att dessa verktyg har stora brister i träffsäkerhet. OpenAI själva (företaget bakom ChatGPT) lanserade i början av 2023 en egen AI-detektor som snabbt drogs tillbaka eftersom den visade sig vara otillförlitlig. Faktum är att OpenAI:s verktyg ofta pekade ut oskyldiga texter som AI-genererade, och missade dessutom många AI-texter – något som ledde till att företaget offentligt erkände att de inte kunde tillhandahålla en pålitlig detekteringstjänst i nuläget.

Oberoende tester och studier förstärker bilden av bristande precision. En färsk svensk studie vid KTH (2024) undersökte tre olika AI-detektorer genom att mata in 20 human- och 20 AI-skrivna texter (genererade av ChatGPT 4). Resultatet visade att detektorerna i snitt bara bedömde rätt i omkring hälften av fallen. Den genomsnittliga träffsäkerheten för de tre testade detektorerna blev 40%, 55% respektive 55%, vilket ledde forskarna till slutsatsen att AI-detektorer är för opålitliga för att ha en roll inom universitetet. En träffprocent runt 50% kan liknas vid att singla slant – knappast ett underlag att basera allvarliga beslut på.

Även erfarenheter från internationella universitet pekar på problem. När företaget Turnitin lanserade sin AI-detektering i sitt plagieringsverktyg våren 2023 hävdade de initialt en falskpositiv-frekvens under 1% (d.v.s. att mindre än 1% av helt mänskliga texter felaktigt skulle markeras). I praktiken innebär dock även 1% en hel del potentiellt fel – på 75 000 inlämnade uppsatser skulle ca 750 elevarbeten felaktigt kunna anklagas för AI-fusk. Mycket riktigt började snart rapporter dyka upp om fall där studenter felaktigt anklagats, och Turnitin tvingades medge att deras detektor inte var felfri. Ett allvarligt problem som uppdagats är också att AI-detektorer tenderar att missta vissa genuina texter för AI oftare än andra. Till exempel har en studie vid Stanford visat att texter skrivna av icke-engelska modersmålstalare oftare flaggas som AI-genererade. Språkliga egenheter hos flerspråkiga elever kan alltså trigga detektorn, vilket väcker bekymmer om jämlikhet och bias.

En annan akilleshäl är att det är förhållandevis enkelt för elever att manipulera AI-genererade texter för att undvika upptäckt. Om en elev vill använda ChatGPT men ändå klara sig genom en detektor, finns det strategier: man kan till exempel omskriva vissa meningar, ändra några ord här och där, infoga medvetna stavfel eller helt enkelt be en annan AI (eller omformuleringsverktyg som QuillBot) att "människoanpassa" texten. Sådana små justeringar kan kraftigt sänka detektorers utslag utan att det kräver mycket ansträngning. Det finns alltså inga garantier för att en AI-skriven text fastnar i nätet – särskilt inte om eleven känner till hur detektorn fungerar och aktivt försöker vilseleda den.

Sammanfattningsvis är konsensus bland många experter att nuvarande AI-detektorer inte håller måttet som ett rättvisande verktyg. Flera ledande detektorföretag har själva börjat ändra inriktning eller tona ned sina påståenden om träffsäkerhet. Som nämnts har OpenAI lagt ned sin tjänst. Andra populära verktyg som GPTZero har breddat sitt fokus (t.ex. mot att erbjuda textanalys och andra tjänster) istället för att enbart marknadsföra AI-avslöjande. Universitet som Harvard och Vanderbilt (USA) har efter tester beslutat att inte använda AI-detektering på bred front; Vanderbilt University stängde av Turnitins AI-funktion med motiveringen att tekniken varken är tillräckligt pålitlig eller transparent och dessutom kan innebära integritetsproblem. I sin kommunikation betonade de att AI-detektion i grunden är ett mycket svårt (kanske omöjligt) problem att lösa med tekniska medel, särskilt i takt med att AI-modellerna blir allt mer sofistikerade.

Fördelar med AI-detektorer

Trots begränsningarna finns det skäl att förstå varför många lärare ändå tittar på AI-detektorer som ett potentiellt hjälpmedel. Några möjliga fördelar med dessa verktyg:

  • Tidsbesparing vid misstanke: En detektor kan snabbt ge en indikation på om en text kan vara AI-genererad. Istället för att en lärare manuellt ska försöka analysera språket i varje uppsats, kan verktyget fungera som en första screening. Detta kan vara värdefullt när man har många inlämningar att kontrollera. Om detektorn flaggar en text med hög AI-sannolikhet, vet läraren att just den texten förtjänar extra uppmärksamhet.
  • Avskräckande effekt: Om elever vet att skolan använder AI-detekteringsverktyg, kan det avhålla en del från att fuska med AI överhuvudtaget. Även om tekniken inte är perfekt, kan blotta vetskapen om dess existens verka som en psykologisk tröskel – lite som att ha övervakningskameror som till viss del hindrar snatteri trots att de inte fångar alla. (Här bör dock läraren vara försiktig så det inte skapas en misstroendekultur; mer om det under etik.)
  • Integrerat i befintliga system: Stora plagiatkontrollsystem som Turnitin och Ouriginal har börjat integrera AI-detektering. För lärare innebär detta att i samma rapport som visar plagieringsprocent kan man även få en AI-analys. Det gör att verktyget finns lättillgängligt i arbetsflödet, utan att man behöver klistra in text på externa sajter. En allt-i-ett-lösning kan underlätta det praktiska arbetet (förutsatt att detektorn kan stängas av eller ignoreras vid behov).
  • Pedagogisk insikt om textkvalitet: Vissa förespråkare menar att AI-detektorer inte bara avslöjar fusk, utan också kan belysa hur en AI-text skiljer sig från en elevs text. Genom att se vilka delar som markeras kan en lärare få upp ögonen för vilka aspekter av elevens text som verkar avvikande. Det kan i sin tur leda till samtal med eleven om deras skrivprocess och källor. (Observera att detta kräver en nyanserad användning – markeringar är inte bevis för fusk utan underlag för frågor.)

Nackdelar och risker med AI-detektorer

Mot bakgrund av den forskning och de exempel som finns, behöver lärare vara medvetna om betydande nackdelar och risker med att lita på AI-detektorer:

  • Hög risk för felaktiga utslag: AI-detektorer kan ge falska positiv – dvs. identifiera en text som AI-skriven fast den är genuint skriven av en elev. Det har funnits flera uppmärksammade fall där oskyldiga studenter blivit anklagade baserat på detektor-rapporter. För läraren innebär detta en risk att orsaka stor skada: att felaktigt anklaga en elev för fusk är allvarligt och kan underminera elevens förtroende för skolan. Som vi såg är detektorernas träffsäkerhet långt ifrån 100%, i vissa tester runt 50% – alltså är sannolikheten stor att minst varannan markering kan vara felaktig.
  • Lätt att kringgå för den som vill fuska: Medan detektorn ibland kan fela åt strängt håll (felmarkera äkta arbete), kan den också fela åt andra hållet – missa AI-text. Genom små justeringar eller användning av AI-parafraseringstjänster kan en elev relativt lätt göra en AI-genererad text “detektorvänlig”. Således kan en resursstark eller kunnig fuskare ofta ligga steget före verktyget. Detta innebär att detektorn ger en falsk trygghet: man kanske tror att en text som inte flaggas är “säker”, trots att den faktiskt kan vara AI-hjälpt.
  • Bias och orättvisa bedömningar: Algoritmerna bakom vissa detektorer är inte öppna med hur de fungerar, men oberoende granskningar tyder på att språklig bias förekommer. Som nämnts kan texter av elever med annat modersmål flaggas oftare, troligen för att deras språk skiljer sig från den språkliga norm som AI:n tränats på. Det här är djupt problematiskt – verktyget riskerar att missgynna vissa grupper av elever oförtjänt. Även elever som skriver för korrekt och formellt (kanske högpresterande elever) har rapporterats kunna bli felaktigt misstänkta eftersom deras text liknar AI:s stil.
  • Integritets- och datasäkerhet: Många AI-detektorer är molntjänster där elevens text laddas upp till ett företagets servrar för analys. Detta väcker juridiska och etiska frågor om GDPR och sekretess. I Sverige/eu finns strikta regler kring personuppgifter och studentdata. Ett elevarbete kan innehålla personliga uppgifter eller i alla fall anses tillhöra elevens integritetssfär. Att som lärare utan tillstånd skicka upp texten till en extern tjänst (särskilt om servrarna ligger utanför EU) kan strida mot dataskyddsregler. Dessutom är det ofta oklart hur dessa företag lagrar och använder texten; vissa kan potentiellt spara elevens text i sina databaser eller till och med använda den för att vidareutveckla sina AI-modeller, vilket knappast är förenligt med god forskningsetik eller studenternas rättigheter.
  • Bristande transparens: Verktygens inre logik är ofta en “svart låda”. Till exempel har Turnitin inte offentligt förklarat exakt vilka mönster deras AI-detektor letar efter. Det gör att lärare och elever har svårt att värdera vad ett visst procenttal faktiskt betyder. En text som får "20% AI-genererad" – ska det tolkas som fusk? Ingen utanför företaget vet hur den siffran kom fram. Denna avsaknad av insyn innebär att det är svårt att använda detektorernas resultat som rättssäkert underlag.
  • Osäker framtid för tekniken: AI-utvecklingen fortsätter i snabb takt. Det som idag kanske går att upptäcka kan imorgon bli omöjligt när språkmodellerna blir ännu mer människolika. Experter påpekar att om dagens detektorer har det svårt med GPT-4, hur ska de då klara framtidens GPT-5 eller liknande modeller? Redan nu kan AI efterlikna olika stilar, göra felstavningar på kommando, och variera sin output. Utan inbyggda vattenmärken (något som hittills inte implementerats brett) är det troligt att automatiserad detektering bara blir svårare. Att bygga mycket av examinationens säkerhet kring ett verktyg som kanske är verkningslöst inom något år framstår som riskabelt.

Juridiska och etiska aspekter

När det gäller användningen av AI-detektorer i skolan finns det flera juridiska och etiska överväganden som lärare och institutioner bör ha i åtanke:

  • Personuppgifter och GDPR: Elevers texter kan betraktas som personuppgifter eller åtminstone upphovsrättsligt elevens egen information. En lärare som vill använda en AI-detektor måste säkerställa att detta sker i linje med dataskyddslagar. Om skolan eller kommunen inte har ett personuppgiftsbiträdesavtal med leverantören av det detektorverktyg som används, kan uppladdning av elevens text vara otillåten. Särskilt om tjänsten är baserad utanför EU (många populära AI-detektorer är amerikanska) finns risk för att man bryter mot GDPR genom överföring av data. Ett råd är att alltid kolla med skolledningen eller jurister innan man använder nya digitala verktyg för studentmaterial.
  • Rättssäkerhet i bedömning: I högre utbildning (högskolor/universitet) finns formaliserade processer för disciplinärenden vid fusk. Där gäller att bevisningen ska vara stark och rättssäker. Att enbart luta sig på ett osäkert AI-utlåtande skulle sannolikt inte hålla som bevis för fusk i en disciplinnämnd. Göteborgs universitet påpekar i sina riktlinjer att misstanke om otillåten AI-användning ska hanteras som andra disciplinärenden, vilket innebär noggrann utredning och inte förhastade enskilda beslut. För lärare innebär detta att om en AI-detektor ger utslag, måste man samla annan stödjande evidens (t.ex. jämföra med tidigare arbeten, ställa frågor till studenten, granska källor etc.) innan man kan anklaga för fusk. I grund- och gymnasieskolan, där disciplinhanteringen ser annorlunda ut, gäller det etiska ansvaret att inte döma en elev ohörd eller på lösa grunder.
  • Etik: förtroende och pedagogik: Från ett etiskt perspektiv behöver lärare balansera förtroendet för eleverna med behovet att upprätthålla rättvisa. Om varje inlämning bemöts med misstänksamhet och scannas av en AI-detektor kan det skapa en negativ lärandemiljö. Studenter vittnar om att det känns kränkande att bli falskt utpekade av algoritmer. Lärare har ett ansvar att inte låta tekniken undergräva relationen till eleverna. Öppen kommunikation är viktigt – om skolan använder detektorer bör eleverna informeras om detta och om syftet (att värna rättvisa, inte att ”sätta dit” någon). Samtidigt bör man framhålla för eleverna etiken i att inte fuska: att lärares skepticism mot AI-användning bottnar i en vilja att de faktiskt lär sig och utvecklar egna färdigheter.
  • Rättvis tillgång och bias: Ett etiskt dilemma är också att AI-detektorer inte är felfria och kan slå fel mot vissa elever. Att använda ett potentiellt partiskt verktyg i bedömning kan strida mot principen om likvärdig bedömning. Tills verktygen är pålitliga (om någonsin), bör de därför hanteras med stor försiktighet så att ingen elev behandlas orättvist bara för att en algoritm påstår något.
  • Elevskydd och dataanvändning: Som nämnts bör man också tänka på elevens rättigheter kring hur deras arbete används. Om en elevs text laddas upp till en tjänst, har eleven gett samtycke till det? Vet eleven hur texten kan komma att lagras? I värsta fall skulle elevens originalarbete kunna spridas eller användas för att träna AI-modeller utan att de vet om det. Detta väcker frågor om upphovsrätt och elevens kontroll över sitt eget material. Att involvera eleverna i diskussionen om dessa aspekter kan i sig bli lärorikt – det tangerar digital kompetens och medvetenhet om hur AI-system fungerar.

I Sverige har myndigheter börjat uppmärksamma frågan om AI och fusk. Skolverket gick redan våren 2023 ut med rådet att undvika betygsgrundande hemuppgifter/inlämningar utan kontroll eftersom AI-verktyg gör det svårt att säkert veta vem som författat en text. Istället uppmuntras lärare att tänka i nya banor kring examination – t.ex. använda mer muntliga redovisningar, prov under uppsikt eller successiva inlämningar där processen kan följas. Detta är ett tecken i tiden: lösningen på AI-fusk kanske snarare ligger i pedagogisk anpassning än i teknisk detektion. Vi ser också att universitet som Göteborgs universitet betonar att det är viktigt med tydliga regler i varje kurs om AI-användning, så att studenter vet vad som är tillåtet och inte, samt att lärarna informerar om konsekvenserna av fusk på samma sätt som med annan plagiering. Generativ AI i sig är inte förbjudet, men måste hanteras inom ramen för befintliga regelverk.

Rekommendationer för lärare och hantering av AI-texter

Givet den nuvarande osäkerheten kring AI-detektorer, hur kan då lärare praktiskt gå tillväga? Här är några rekommendationer och tankesätt för att hantera AI-skrivet innehåll på ett ansvarsfullt sätt:

  • Använd AI-detektorer med stor försiktighet: Om du väljer att använda en AI-detektor, se den endast som ett preliminärt indikationsverktyg – inte som facit. Ett utslag (speciellt om det inte är väldigt entydigt) bör aldrig automatiskt leda till anklagelse. Låt det snarare vara en signal för dig att granska just det arbetet närmare.
  • Jämför med elevens tidigare arbeten: Ett av de bästa ”verktygen” är lärarens egen kännedom om elevernas förmåga och stil. Om en elev plötsligt lämnar in en text på en språklig nivå som skiljer sig markant från tidigare prestationer, kan det vara skäl till fördjupad dialog. AI-detektorn kan peka ut misstänkta passager, men du som lärare kan titta på dessa passager i ljuset av vad du vet om elevens sätt att uttrycka sig.
  • Samtala med studenten: Istället för att direkt anklaga en elev som du misstänker använt AI, ta ett enskilt samtal. Fråga eleven om hur den gick tillväga med uppgiften. Ibland kan en öppen fråga leda till att eleven erkänner användning av otillåten hjälp – eller så kanske det framkommer legitima skäl till textens utformning. Genom dialog visar du också att det i slutändan är det mänskliga omdömet som avgör, inte bara en automatisk rapport.
  • Tydliga policies och förväntningar: Förebygg problem genom att i förväg klargöra kursens eller klassens regler kring AI-användning. Definiera vad som räknas som fusk respektive tillåtet stöd. Till exempel kan du i kursplan eller uppgiftsbeskrivning ange om elever får använda stavningskontroll, grammatikverktyg, översättningstjänster eller AI-chattbotar – och i så fall till vilken grad. Om du tillåter visst användande (kanske för idéer eller språkgranskning), uppmuntra eleverna att redovisa detta i en kommentar eller fotnot. Då blir användning av AI något transparent, istället för skamfyllt.
  • Utforma ”AI-resistenta” uppgifter: Överväg att justera dina uppgifter för att göra dem mindre triviala för AI att lösa. Det kan vara genom att koppla frågorna till personliga reflektioner, lokala företeelser eller nyligen diskuterat material i klassen – sådant som inte finns i AI:ns träningsdata. En annan metod är att dela upp större skrivuppgifter i flera steg (t.ex. först synopsis, sen utkast, sen slutversion) och låta eleverna ge insyn i sitt arbetsflöde. Ju mer processen synliggörs, desto svårare blir det att bara lämna in en färdig AI-skriven produkt utan att det märks.
  • Håll dig uppdaterad och nätverka: AI-området utvecklas ständigt. Ta del av fortbildningar, seminarier eller kollegiala samtal om AI i undervisningen (många skolor och lärosäten har nu interna workshops om generativ AI). Dela erfarenheter med kollegor – har någon upptäckt fusk, hur gjordes det, vilka verktyg användes? Tillsammans kan lärarkåren bättre navigera det nya landskapet.
  • Överväg alternativ till detektorer: Kom ihåg att teknik inte är det enda svaret. Traditionella metoder som munta (muntlig examination), överraskande uppföljningsfrågor, eller att be eleverna försvara sin text muntligt kan avslöja om de verkligen kan sitt ämne. Dessa metoder kan med fördel användas selektivt om något arbete verkar misstänkt. Även peer-review och diskussioner i klassrummet om inlämnade arbeten kan ge insikter i vem som verkligen skrivit vad.
  • Involvera eleverna i etiken: Slutligen, ta detta som ett tillfälle att diskutera varför fusk är problematiskt och hur AI kan användas på ett ansvarsfullt sätt. Istället för en katt-och-råtta-lek mellan lärare och elever, försök skapa en förståelse hos eleverna att skolan värdesätter deras eget tänkande. Om de använder AI, låt dem fundera på hur det påverkar deras lärande. Denna meta-diskussion kan minska viljan att fuska och öka elevernas digitala kompetens.

Avslutande tankar

AI-detektorer kan vid en första anblick verka som räddningen för lärare som oroar sig för AI-fusk. Men som vi sett finns det betydande begränsningar i om och hur de fungerar. I nuläget bör de betraktas mer som experimentella stödverktyg än som sanningens uttolkare. Både svenska och internationella erfarenheter pekar mot att mänsklig klarsyn och pedagogisk strategi är viktigare än tekniska genvägar för att hantera den AI-drivna förändringen inom utbildning.

Samtidigt är det förståeligt att lärare känner en viss stress inför utvecklingen. Det viktiga att komma ihåg är att varje ny teknologisk revolution (miniräknare, internet, Wikipedia, osv.) har krävt en anpassning i utbildning, men kärnan – att hjälpa elever att tänka kritiskt och självständigt – kvarstår. AI är här för att stanna, både som potentiellt fuskverktyg och som pedagogiskt hjälpmedel. Genom att hålla sig informerad, förhålla sig kritisk till verktyg som AI-detektorer, och samtidigt vara öppen för att utveckla undervisningsmetoder, kan lärare navigera denna nya verklighet.

Slutsats: Använd gärna AI-detektorer om de finns till hands, men gör det med förnuft och skepsis. Låt dem aldrig ersätta ditt eget omdöme. Och framför allt – fortsätt främja en kultur av ärlighet, nyfikenhet och lärande. Det är trots allt i det mänskliga mötet mellan lärare och elev som utbildningens verkliga värde ligger, även i en tid av AI.

Källor:

  • Göteborgs universitet, PIL-enheten – Inverkan på examination och bedömning (Generativ AI) pil.gu.se
  • KTH (2024) – AI-detektorers förmåga att särskilja AI-genererade texter kth.diva-portal.org
  • MIT Sloan (2023) – AI Detectors Don’t Work. Here’s What to Do Instead. mitsloanedtech.mit.edu
  • Vanderbilt University (2023) – Guidance on AI Detection and Why We’re Disabling Turnitin’s AI Detector vanderbilt.edu
  • Skolverket/Sveriges Radio (2023) – Skolverket avråder från inlämningsuppgifter p.g.a. AI-fusk sverigesradio.se

Skrivet av Peter Hellman

2025-10-15
Relaterade artiklar
Kan en AI sätta betyg? Möjligheter och fallgropar i automatisk bedömning

Betygssättning och respons på elevuppgifter är bland de mest tidskrävande sysslorna för en lärare. Tänk om en AI kunde ta över en del av det arbetet – skulle det vara en revolution eller en risk? Redan idag experimenterar många lärare...

Bedömning med AI – revolution eller risk?

Betygssättning och respons på elevtexter är bland de mest tidskrävande sysslorna för en lärare. Tänk om en AI kunde ta över en del av det arbetet – skulle det spara tid eller riskera rättvisan?

AI i skolan 2025 – möjligheter och utmaningar

Artificiell intelligens (AI) håller på att förändra skolans värld i grunden. Både i Sverige och globalt har AI-verktyg snabbt gått från nyhet till vardag i klassrummet...