Bias i ChatGPT kan undersøges i matematiktimen
Forskningsprojektet Albatros inviterer til nyt event om at inddrage algoritmisk bias i matematiktimen.
Sprogmodellen bag ChatGPT er mere tilbøjelig til at tro, at en stewardesse styrer et fly, end at en kvinde er pilot.
Det viser forskning fra DTU-studerende Sara Sterlie, der har demonstreret, at AI-modellens stereotype køns-forestilling går langt ud over, hvad man logisk kunne forvente.
“Det er nemt at tænke, at sprogmodellen blot reflekterer kønsuligheder i de forskellige professioner, når den fx gætter på, at en mekaniker er en mand,” fortæller hun.
“Men vores forskning viser, at sprogmodellens kønsbias er så stærk, at den kan trumfe modellens forståelse af verden ellers – som fx at stewardesser ikke styrer fly og sygeplejersker ikke udfører operationer.”
Fra frontforskning til undervisning
Forskningen fra Sara Sterlie viser en vej for lærere og elever, der gerne vil gå kritisk til generativ AI i undervisningen for at forstå dens begrænsninger og potentielle slagsider.
Det mener Andreas Lindenskov Tamborg, adjunkt på Institut for Naturfagenes Didaktik og leder af forskningsprojektet Albatros.
“Saras forskning viser med al tydelighed, hvordan algoritmisk bias kan påvirke vores dagligdag og demokrati, og hvordan matematik er afgørende for at vores evne til kritisk at vurdere de digitale teknologier,” siger han.
“Det er derfor vi arbejder med at udvikle nye tilgange til at arbejde med digitale dilemmaer i matematikundervisningen."
Debatevent: Autentiske teknologiske problemstillinger i matematik i grundskolen
- Velkomst og rammesætning af samarbejde på dagen
v. Mathias Lund, faglig direktør EdTalk - Præsentation af autentisk teknologisk problemstilling med algoritmisk bias og køn v. Sara Sterlie "Hvordan skaber ChatGPT bias ift. kønsopfattelser?” - et studie i åbne og lukkede prompts
- Workshop: Hvordan kan undervisningen i matematik i grundskolens 7.-10. klasse undersøge f.eks. kønsbias ift. generativ AI og store sprogmodeller (LLM’s) som ChatGPT med statistik og matematisk modellering?
- Afrunding og indblik i hvordan pointerne fra workshoppen informerer den videre udvikling af udvikling af konkrete undervisningsforløb og forskningsbidraget fra projektet v. Andreas L. Tamborg, forskningsleder, ph.d. og tenure track adjunkt IND Københavns Universitet.
Generativ AI i matematik
Den 18. september inviterer forskningsprojektet Albatros igen til debat om, hvordan autentiske teknologiske problemer kan bruges i matematiktimen. Og her kan du høre meget mere om Sara Sterlies forskning og den test, der med forskellige slags prompts får sprogmodellen til at afsløre indbyggede kønsstereotyper.
“Mere klassiske klassificerings modeller, er trænet til et specifikt formål, f.eks at tildele lån eller forudsige risiko for diabetes. De bliver brugt indenfor bestemte områder hvilket skaber et udgangspunkt for, hvor vi skal kigge efter bias.” forklarer Sara Stelie.
“Men GPT-modellerne er ikke lavet til nogen bestem opgave, og du kan bede dem om hvad som helst. Derfor har vi måtte skabe den her nye måde at teste modellerne på.”
Som en del af eventet kan du også selv prøve kræfter med, hvordan grundskolens 7.-10. klasse kan undersøge f.eks. kønsbias i generativ AI og store sprogmodeller som ChatGPT med statistik og matematisk modellering.
Kontakt
Kontakt
Andreas Lindenskov Tamborg
Adjunkt, Institut for Naturfagenes Didaktik
Email: andreas_tamborg@ind.ku.dk
Telefon: 35325223
Mathias Lund Schjøtz
Stifter og faglig direktør, EdTalk
Email: mathias@edtalk.dk
Telefon: 31721836