9. august 2024

Bias i ChatGPT kan undersøges i matematiktimen

Event

Forskningsprojektet Albatros inviterer til nyt event om at inddrage algoritmisk bias i matematiktimen. 

ChatGPT er mere tilbøjelig til at tro, at en stewardesse styrer et fly, end at en kvinde er pilot.
ChatGPT er mere tilbøjelig til at tro, at en stewardesse styrer et fly, end at en kvinde er pilot

Sprogmodellen bag ChatGPT er mere tilbøjelig til at tro, at en stewardesse styrer et fly, end at en kvinde er pilot.  

Det viser forskning fra DTU-studerende Sara Sterlie, der har demonstreret, at AI-modellens stereotype køns-forestilling går langt ud over, hvad man logisk kunne forvente.  
 
“Det er nemt at tænke, at sprogmodellen blot reflekterer kønsuligheder i de forskellige professioner, når den fx gætter på, at en mekaniker er en mand,” fortæller hun.  
 
“Men vores forskning viser, at sprogmodellens kønsbias er så stærk, at den kan trumfe modellens forståelse af verden ellers – som fx at stewardesser ikke styrer fly og sygeplejersker ikke udfører operationer.”

Fra frontforskning til undervisning 

Forskningen fra Sara Sterlie viser en vej for lærere og elever, der gerne vil gå kritisk til generativ AI i undervisningen for at forstå dens begrænsninger og potentielle slagsider.  

Det mener Andreas Lindenskov Tamborg, adjunkt på Institut for Naturfagenes Didaktik og leder af forskningsprojektet Albatros

“Saras forskning viser med al tydelighed, hvordan algoritmisk bias kan påvirke vores dagligdag og demokrati, og hvordan matematik er afgørende for at vores evne til kritisk at vurdere de digitale teknologier,” siger han.  

“Det er derfor vi arbejder med at udvikle nye tilgange til at arbejde med digitale dilemmaer i matematikundervisningen." 

 

Generativ AI i matematik 

Den 18. september inviterer forskningsprojektet Albatros igen til debat om, hvordan autentiske teknologiske problemer kan bruges i matematiktimen. Og her kan du høre meget mere om Sara Sterlies forskning og den test, der med forskellige slags prompts får sprogmodellen til at afsløre indbyggede kønsstereotyper.

“Mere klassiske klassificerings modeller, er trænet til et specifikt formål, f.eks at tildele lån eller forudsige risiko for diabetes. De bliver brugt indenfor bestemte områder hvilket skaber et udgangspunkt for, hvor vi skal kigge efter bias.” forklarer Sara Stelie.  

“Men GPT-modellerne er ikke lavet til nogen bestem opgave, og du kan bede dem om hvad som helst. Derfor har vi måtte skabe den her nye måde at teste modellerne på.” 

Som en del af eventet kan du også selv prøve kræfter med, hvordan grundskolens 7.-10. klasse kan undersøge f.eks. kønsbias i generativ AI og store sprogmodeller som ChatGPT med statistik og matematisk modellering.

Kontakt

Kontakt

Andreas Lindenskov Tamborg
Adjunkt, Institut for Naturfagenes Didaktik
Email: andreas_tamborg@ind.ku.dk
Telefon: 35325223

Mathias Lund Schjøtz
Stifter og faglig direktør, EdTalk
Email: mathias@edtalk.dk
Telefon: 31721836

Emner

Læs også