ChatGPT: hoe gaan we er als faculteit mee om?
ChatGPT en vergelijkbare tools zijn in grote opkomst. Hoe gaan we hier als universiteit en faculteit mee om? Binnen het onderwijs zijn er zorgen over fraude door studenten. Wanneer zij vertrouwen op kunstmatige intelligentie ontwikkelen zij niet de vaardigheden die nodig zijn om af te studeren. Het raakt echter niet alleen onderwijs maar ook andere onderdelen van de universiteit en de samenleving. Naast het kijken hoe we fraude kunnen voorkomen, onderzoeken we ook hoe we op langer termijn juist wel kunnen werken met toepassingen als ChatGPT. Hieronder leggen we uit wat het is en wanneer iets precies fraude is. Daarbij is het vooral belangrijk hoe je ervoor kunt zorgen dat studenten blijven leren van hun schrijfopdrachten en hun benodigde vaardigheden blijven ontwikkelen.
Wat kun je met ChatGPT?
ChatGPT genereert teksten als reactie op een ‘prompt’ (vraag of commando van een gebruiker) op basis van een enorme dataset aan tekstmateriaal (onder andere afkomstig van het internet). De gebruiker kan aangeven hoe lang de tekst moet zijn en in welke vorm je het wilt. Het programma genereert deze teksten door een statistische voorspelling te doen op wat het meest waarschijnlijke volgende woord in de tekst zou zijn. Die voorspelling is gebaseerd op zinsdelen of eerder gebruikte zinnen.
Wanneer is het fraude?
Hoewel AI-programma’s een handig hulpmiddel kunnen zijn, vergelijkbaar met spellingcontrole of Wikipedia, zijn ze geen vervanging van het eigen werk van een student. Het is fraude wanneer de student ChatGPT gebruikt voor een schrijfopdracht en dat er niet bij vermeldt.
Hoe voorkom je fraude met ChatGPT?
Geheel voorkomen kun je het niet, want AI is in constante ontwikkeling. De volgende zeven tips helpen om de student vooral te laten leren van hun schrijfopdrachten en het gebruik van een programma als ChatGPT daarbij moeilijker te maken.
Denk aan Brightspace, syllabus, artikelen achter een betaalmuur etc. die ChatGPT niet kan bereiken en deze informatie dus niet kan raadplegen.
ChatGPT maakt geen onderscheid tussen bronnen: wetenschappelijk artikel, satirische column van een cabaretier of blog van een complotaanhanger. Het wordt allemaal door elkaar gebruikt. Omdat er geen directe link is tussen de gegenereerde tekst en de verzameling van teksten op basis waarvan ChatGPT de voorspelling maakt, kan het programma geen bronvermelding geven.
De hoeveelheid en breedte van het tekstmateriaal in de dataset zorgt ervoor dat ChatGPT op een eenvoudige open vraag vaak met een op het oog redelijk antwoord komt. ChatGPT is echter (nog) niet zo goed in het maken van een afweging tussen standpunten of het geven van een gedegen onderbouwing.
Bijvoorbeeld: ‘Wat klopt er niet in deze argumentatie?’
In principe kan ChatGPT alleen stukken tekst uitwerken. Als je vraagt om een ander soort product zal de bot onbruikbaar blijken.
De dataset van ChatGPT reikt op dit moment niet verder dan 2021.
Tot slot
Het is niet de bedoeling dat docenten halsoverkop schriftelijke opdrachten, take-home tentamens en dergelijken gaan vervangen door een schriftelijk tentamen op locatie. Hiervoor is logistiek geen ruimte. Bovendien maken de toetsvormen zoals ze zijn opgenomen in de e-Studiegids deel uit van het OER. Deze kunnen dus niet zomaar worden gewijzigd tijdens het studiejaar. Zoals eerder genoemd kijken we ook naar mogelijkheden om samen met dergelijke AI-programma’s te gaan werken.