’Klart under middel, middel, over middel’ – om data­vi­su­a­li­se­rin­gers betydning for syn­lig­gø­rel­sen af fol­ke­sko­lens kvalitet

Grafiske visninger af data – data­vi­su­a­li­se­rin­ger – er ikke neutrale repræ­sen­ta­tio­ner af data, men udgør i sig selv en for­tolk­ning. Denne artikel under­sø­ger Under­vis­nings­mi­ni­ste­ri­ets visu­a­li­se­rin­ger af nationale test med henblik på at analysere, hvordan for­skel­lige visu­a­li­se­rin­ger skaber fol­ke­sko­lens kvalitet som et fænomen, der kan gøres til genstand for pæda­go­gisk og sty­rings­mæs­sig inter­ven­tion. Teoretisk anvendes begre­berne ”infra­struk­tu­rel inversion” og ”kon­fi­gu­ra­tion” fra Science and Tech­no­logy Studies (STS). Begre­berne giver blik for, hvordan tekniske entiteter som visu­a­li­se­rings­type kon­fi­gu­re­rer fol­ke­sko­lens kvalitet ved enten at fremhæve elev­dyg­tig­hed eller elevlæ­ring som et udtryk herfor. Data­vi­su­a­li­se­rin­ger indebærer således en infra­struk­tu­rel politik og er ikke blot en neutral teknisk baggrund for politiske og pæda­go­gi­ske kampe om ”fol­ke­sko­lens kvalitet”. Dette har impli­ka­tio­ner for lærerens rolle som data­a­na­ly­ti­ker i en tid, hvor læring og databrug i stigende grad erstatter et historisk fokus på undervisning.

Klart under middel, Middel og Over middel. Dette er et udsnit af de til­ba­ge­mel­din­ger, som elever, deres forældre og lærere i fol­ke­sko­len kan få, når de har gen­nem­ført nationale test. De nationale test er com­pu­ter­ba­se­rede, adaptive og selv­ret­tende tests i fol­ke­sko­lens 2. – 8. klasse. Det er samtidigt et af de mest omstridte store datasæt i den danske fol­ke­skole, og i skrivende stund afventer vi Under­vis­nings­mi­ni­ste­ri­ets udvikling af et nyt eva­lu­e­rings- og bedømmelsessystem.

Selvom nationale test har nydt stor opmærk­som­hed, så har betyd­nin­gen af, hvor­dan­te­stre­sul­ta­ter visu­a­li­se­res grafisk, ikke været genstand for dis­kus­sion. Hvordan data visu­a­li­se­res er dog særdeles vigtigt, da lærere tilgår nationale testdata gennem visu­a­li­se­rin­ger, og visu­a­li­se­rin­gerne i sig selv udgør en for­tolk­ning af data. Data­vi­su­a­li­se­rin­ger har altså stor betydning for, hvordan nationale test gør et fænomen som fol­ke­sko­lens kvalitet synligt. Som er tilfældet med andre kvan­ti­ta­tive indi­ka­to­rer, er visu­a­li­se­rin­ger af nationale test ikke en neutral repræ­sen­ta­tion af skolens kvalitet, men bidrager med at skabeden som genstand for pæda­go­gi­ske og sty­rings­mæs­sige inter­ven­tio­ner (Dahler-Larsen, 2014). På den måde giver nationale test det ellers svært defi­ner­bare begreb ”kvalitet” et særligt udtryk og kan virke kon­sti­tu­e­rende for, hvordan vi forstår og inter­ve­ne­rer i denne. Spørgs­må­let om, hvordan visu­a­li­se­rin­ger af data gør kvalitet synlig, er således både relevant for de aktuelle nationale test og for det frem­ti­dige bedøm­­mel­­ses- og evalueringssystem. 

I denne artikel under­sø­ger jeg, hvordan skala- og visu­a­li­se­rings­ty­per skaber et for­tolk­nings­rum for lærerens for­stå­else af kvalitet. Selvom kvan­ti­ta­tive målinger ofte sigter mod at skabe gen­nem­sig­tig­hed, er deres visu­a­li­se­rin­ger aldrig neutrale, og forskere har karak­te­ri­se­ret data­vi­su­a­li­se­rin­ger som vær­di­la­dede for­tæl­lin­ger, der pri­vil­e­ge­rer nogle syns­punk­ter på bekost­ning af andre[1] (Kennedy et al., 2016). Når vi har med kvan­ti­ta­tive data at gøre, har skalaer ydermere stor betydning for, hvilke sta­ti­sti­ske bereg­nin­ger man kan udføre, og hvordan resul­ta­terne kan vises (Bert­hel­sen & Øster­gaard, 2017). Derfor er de vigtige at inddrage i analyse. Artiklen har ikke til formål at afskrække den pæda­go­gi­ske brug af data­vi­su­a­li­se­rin­ger. Visu­a­li­se­rin­ger kan formidle mønstre i data og gøre data til­gæn­ge­lige for for­tolk­ning. De kan med fordel indgå i samspil med andre former for viden, erfaring og data. Ved at forholde os analytisk til data­vi­su­a­li­se­rin­ger kan vi begynde at diskutere de syns­punk­ter, værdier og for­tæl­lin­ger, der er indlejret i visu­a­li­se­rin­ger. Det skaber mulighed for, at vi kan reflek­tere kritisk over, hvad de gør synligt og usynligt, og hvad dette betyder for lærerens fortolkningsrum.

Jeg indleder artiklen med en intro­duk­tion til analysens teo­re­ti­ske res­sour­cer, som hentes fra de såkaldte Science and Tech­no­logy Studies (STS). Med en analytisk sen­si­ti­vi­tet over for mate­ri­a­li­te­tens rolle i fæno­me­ners til­bli­velse er STS særligt velegnet til at undersøge, hvordan tekniske anord­nin­ger som testska­laer og visu­a­li­se­rings­ty­per medvirker til at kon­stru­ere et fænomen som kvalitet. Konkret anvender jeg begre­berne ”infra­struk­tu­rel inversion” og ”kon­fi­gu­ra­tion” til at få blik for mate­ri­a­li­te­tens rolle heri. Disse begreber intro­du­ce­res i næste afsnit, der også redegør for artiklens empiriske grundlag. Herefter følger to ana­ly­ti­ske nedslag, som tager udgangs­punkt i de nationale tests to skalaer og deres respek­tive visu­a­li­se­rin­ger: Norm­ska­laen, der anvender ben­ch­mar­king til at afrap­por­tere data, og kri­te­ri­eska­laen, der kan vise elevers pro­g­res­sion. Analysen viser, hvordan de to visu­a­li­se­rin­ger kon­stru­e­rer kvalitet som et spørgsmål om hen­holds­vis elev­dyg­tig­hed (i form af høje testre­sul­ta­ter) og elevlæ­ring (i form af elevers pro­g­res­sion). Afslut­nings­vist dis­ku­te­res, hvad dette betyder for aktuelle dis­kus­sio­ner om ”læri­fi­ce­ring” af uddan­nelse (Biesta, 2009) og for lærerens rolle i en stadig mere digi­ta­li­se­ret skole.

Infra­struk­tu­rel inversion: Et analytisk blik for tek­no­lo­gi­er­nes politik

Som ana­ly­se­stra­tegi er ”infra­struk­tu­rel inversion” særligt velegnet til at undersøge, hvordan infor­ma­tions­tek­no­logi virker ind i vores sociale og politiske vir­ke­lig­he­der (Bowker og Star, 1994). Infra­struk­tu­rel inversion impli­ce­rer, at man gør op med en grund­læg­gende skelnen mellem ”det tek­no­lo­gi­ske” og ”det sociale” (Callon, 1986). I stedet for at antage, at (informations-)teknologi og dens sociale verden er adskilte stør­rel­ser, under­sø­ger man med infra­struk­tu­rel inversion, hvordan mennesker og teknologi gensidigt påvirker hinanden. Hermed får vi som noget nyt øje på den agens, eller hand­le­kraft, som teknologi har, og hvordan denne virker ind i den kon­ti­nu­er­lige skabelse af vores samfund.

Som ”inversion” angiver, så bytter begrebet ”infra­struk­tu­rel inversion” om på tekst og kontekst. I stedet for at lade ”kon­tek­sten” (fx ideologi, politiske reformer eller over­ord­nede logikker) forklare infra­struk­tu­ren (som i dette tilfælde er nationale test), så under­sø­ger man politiske, orga­ni­sa­to­ri­ske og sociale vir­ke­lig­he­der med udgangs­punkt iin­fra­struk­tu­ren. Det betyder, at vi ikke kan reducere nationale test til en sty­rings­fi­lo­sofi som New Public Mana­ge­ment eller kon­kur­ren­ce­stat. Infra­struk­tu­rel inversion åbner i stedet op for at forstå, hvordan klas­si­fi­ce­rin­ger, normer og stan­dar­der former vor tids digi­ta­li­se­rede og data­in­for­me­rede prak­sis­ser. Dermed er politik og teknologi ikke adskilte men sam­men­væ­vede og gensidigt påvir­kende størrelser.

Lucy Suchman (2007) har udviklet begrebet ”menneske-maskine kon­fi­gu­ra­tion” til at studere sam­men­væv­ning af for­skel­lige typer agens i socio-tekniske systemer. ”Kon­fi­gu­ra­tion” betegner en rela­tio­nel orga­ni­se­ring, der er bygget ind i maskinens design. Denne orga­ni­se­ring til­skri­ver og delegerer agens til hen­holds­vis menneske og maskine (Suchman, 2012, s. 49). At nationale test er com­pu­ter­ba­se­rede, adaptive og selv­ret­tende indebærer fx, at en række af lærerens tidligere opgaver er auto­ma­ti­se­rede. Læreren deltager fx hverken i udvæl­gelse af testop­ga­ver (items) eller i bedøm­melse af elev­præ­sta­tio­ner, da testen auto­ma­tisk beregner elevens dygtighed efter et endt test­for­løb. Til gengæld har læreren fået nye opgaver såsom afvikling af test­for­løb (Maguire, 2019) samt didaktisk for­tolk­ning og anven­delse af testresultater.

I denne artikel anvender jeg kon­fi­gu­ra­tions­be­gre­bet til at spørge, hvordan data­vi­su­a­li­se­rin­ger definerer, muliggør og begrænser lærerens mulige for­tolk­nin­ger af nationale testdata. Hermed kan jeg undersøge, hvordan visu­a­li­se­rin­ger skaber (for­skel­lige) genstande for pæda­go­gisk inter­ven­tion. Når jeg i analysen bruger begrebet ”infra­struk­tu­rel politik”, er det netop for at fremhæve, at nationale tests politik også pro­du­ce­res af infra­struk­tu­ren. Infra­struk­tur (databaser, stan­dar­der, algo­rit­mer) er altså ikke et neutralt fundament, oven på hvilket politik foregår, men derimod et aktivt element, der virker ind i det levede liv. At nationale test også bruges som per­for­mance indikator i kom­mu­ner­nes mål- og resul­tat­sty­ring af fol­ke­sko­ler under­stre­ger, at de ikke er tek­ni­ka­li­te­ter. I Peter Dahler-Larsens ord er per­for­mance indi­ka­to­rer ”i sandhed politiske fordi de definerer kate­go­rier, som er kol­lek­tivt betyd­nings­fulde i samfundet” (Dahler-Larsen, 2014, s. 976, egen over­sæt­telse). I dette tilfælde er der tale om defi­ni­tio­nen af fol­ke­sko­lens kvalitet. Heri spiller data­vi­su­a­li­se­rin­ger en vigtig rolle, idet de omsætter store mængder data til ”for­tol­ke­lige billeder af den sociale verden, som orga­ni­se­rer brugeres opmærk­som­hed og giver dem brugbare empiriske sen­si­ti­vi­te­ter” (Madsen, 2013, s. 11, egen over­sæt­telse). Som jeg vil vise, har for­skel­lige visu­a­li­se­rin­ger dog betydning for, hvordan kvalitet kon­stru­e­res som et iagt­ta­ge­ligt og inter­ve­ner­bart fænomen.

Visu­a­li­se­rin­ger er kun sidste led i en lang kæde af processer, der pro­du­ce­rer, sorterer og laver bereg­nin­ger på data. Nationale tests data­vi­su­a­li­se­rin­ger er betinget af andre elementer som item databaser, testens måle­e­gen­ska­ber, test software samt lærernes og elevernes test­prak­sis­ser (Bunds­gaard og Kreiner, 2019; Kousholt, 2015, 2016; Maguire, 2019). Disse går forud for selve visu­a­li­se­rin­gen af data og ligger uden for denne artikels fokus. Hertil er det natur­lig­vis vigtigt at indskyde, at visu­a­li­se­rin­ger aldrig deter­mi­ne­rer lærer­nes­for­tolk­nin­ger, og at lærere kan misforstå eller bruge dem på andre måder end inten­de­ret (Bunds­gaard og Puck, 2016). Lærernes konkrete brug af data­vi­su­a­li­se­rin­ger ligger også uden for denne artikels fokus.

Doku­ments­tu­die

Artiklens analyser er baseret på et doku­ments­tu­die af nationale test fra 2006 – 2019. Doku­men­tar­ki­vet omfatter Under­vis­nings­mi­ni­ste­ri­ets hjem­mesi­der omhand­lende nationale test samt bekendt­gø­rel­ser, bru­ger­vej­led­nin­ger, rapporter (fx Den nationale præ­sta­tions­pro­fil), fol­ke­tings­de­bat­ter og andre politiske doku­men­ter (fx politisk aftale vedr. fol­ke­sko­lere­form), debatter i tids­skrif­tet Fol­ke­sko­len, private virk­som­he­ders brug af nationale test (fx Nor­di­c­Me­trics) samt eksterne rapporter (fx Damvads PISA-rela­te­ring af de kri­te­ri­e­ba­se­rede nationale tests). Jeg har endvidere anvendt ”wayback machine” (http://​web​.archive​.org/), en inter­ne­tar­ki­ve­rings­side, til at fremsøge mini­ste­ri­ets tidligere vej­led­nin­ger til test­sy­ste­met, herunder vej­led­nin­ger til deres visu­a­li­se­rin­ger af nationale tests, for at kunne følge udvik­lin­gen i visu­a­li­se­rin­ger siden første vej­led­ning i 2010. 

Da analysen fokuserer på udvalgte aktuelle data­vi­su­a­li­se­rin­ger af nationale tests, danner stør­ste­delen af dette materiale en kon­tek­stuel baggrund for nær­væ­rende analyse (se dog Ratner et al., 2019; Ratner, 2020 for rela­te­rede forsk­nings­re­sul­ta­ter). I stedet for at afrap­por­tere doku­ments­tu­diet i bredden, fokuserer jeg i denne artikel på to for­skel­lige visu­a­li­se­rin­ger med henblik på at vise, hvordan tekniske detaljer såsom skala og visu­a­li­se­rings­type har betydning for syn­lig­gø­relse af kvalitet. Kriteriet for at vælge disse to eksempler er 1) at de anvender to for­skel­lige skalaer (norm- og kri­te­ri­eskala) og 2) anvender for­skel­lige visu­a­li­se­rings­for­mer (hen­holds­vis et søj­le­di­a­gram, der ben­ch­mar­ker en klasse, og en tabel der visu­a­li­se­rer pro­g­res­sion).[2] Ved at sam­men­ligne for­skel­lige visu­a­li­se­rin­ger bliver deres centrale rolle i skabelsen af kvalitet tydelig.

Hvad er nationale test?

Nationale test blev indført ved en ændring i fol­ke­sko­le­loven i 2006 i kølvandet på en række inter­na­tio­nale målinger af elevers læse- og reg­ne­fær­dig­he­der, hvor danske elever klarede sig lavere end forventet. Det var dog først efter et OECD-review af det danske sko­le­sy­stem i 2004, at nationale test kom på den politiske dagsorden (Egelund, 2008). Dette review anbe­fa­lede bl.a. ”fær­dig­heds­stan­dar­der” og ”objektive eva­lu­e­rin­ger” (Ekholm et al., 2004, s. 129). Nationale test blev herefter intro­du­ce­ret med to formål: At udgøre 1) et pæda­go­gisk redskab til lærere og 2) et nationalt moni­to­re­rings­værk­tøj til poli­ti­kerne. Siden fol­ke­sko­lere­for­men i 2014 har nationale test også været et centralt værktøj i mål- og resul­tat­sty­ring af fol­ke­sko­len. Reformen indførte nationale resul­tat­mål for fol­ke­sko­len, hvoraf flere måles via nationale test. Fx ope­ra­tio­na­li­se­res mål­sæt­nin­gen om, at ”Fol­ke­sko­len skal udfordre alle elever, så de bliver så dygtige, de kan” gennem måltallet “Mindst 80 procent af eleverne skal være gode til at læse og regne i de nationale test.” I for­læn­gelse heraf opfordrer Under­vis­nings­mi­ni­ste­riet kommuner og skoler til at spørge, ”Hvordan (…) elevens og klassens resul­ta­ter [er] sam­men­lig­net med landets udvikling henimod de nationale resul­tat­mål?” (Under­vis­nings­mi­ni­ste­riet, 2018b). Resul­tat­mål medfører øget acco­un­ta­bi­lity, hvor skoler og kommuner holdes ansvar­lige for deres resul­ta­ter i nationale test. Dette gør det ekstra vigtigt at undersøge de nationale tests data­vi­su­a­li­se­rin­ger og det for­tolk­nings­rum, de skaber for skolens lærere og ledere.

Nationale test har været obliga­to­ri­ske siden 2010, og de obliga­to­ri­ske test omfatter læsning (2., 4. 6. og 8. klasse), matematik (3., 6. og 8. klasse), engelsk (4. og 8. klasse) og fysik/kemi (8. klasse). Dertil kan kommuner og skoler anvende de obliga­to­ri­ske test som fri­vil­lige nationale test en gang før og efter de obliga­to­ri­ske test. Alle test måler tre pro­fi­l­om­rå­der (fx sprog­for­stå­else, afkodning og tekst­for­stå­else i læsning). Nationale test måler elevers fær­dig­he­der via den psy­ko­me­tri­ske Rasch-model, også kendt som item response theory. Rasch er en sand­syn­lig­heds­ba­se­ret test­til­gang, der beregner sand­syn­lig­he­den for, at elever med en given dygtighed vil besvare en opgave (item) med en given svær­heds­grad korrekt (Kreiner, 2009). At testen er adaptiv betyder, at elever gennemgår for­skel­lige test­for­løb. En adaptiv algoritme udvælger løbende nye test items baseret på elevens beregnede dygtighed, således at højere dygtighed medfører sværere opgaver, mens en lavere dygtighed medfører lettere opgaver. Hvor dette i prin­cip­pet skaber mere ret­vi­sende testre­sul­ta­ter, fordi testen løbende tilpasses den enkelte elevs esti­me­rede dygtighed, har det også medført, at elevers test­for­løb bliver sværere for lærere at gen­nem­skue, da de skal klikke sig ind på hver enkelt elevs unikke test­for­løb for at få adgang til opgaver.

Rasch måler elev­fær­dig­he­der på en logit-skala, men af for­mid­lings­mæs­sige hensyn har Under­vis­nings­mi­ni­ste­riet valgt at vise elev­re­sul­ta­ter ved hjælp af to andre skalaer: en normskala og en kri­te­ri­eskala (se Ratner, 2020 for analyse af denne udvikling).[3] Det er dem og deres til­hø­rende visu­a­li­se­rin­ger, som jeg vil fokusere på i de følgende analyser med det formål at undersøge, hvordan de kon­fi­gu­re­rer kvalitet samt hvilke for­tolk­nings­rum dette skaber.

Norm­vi­su­a­li­se­rin­gens kon­fi­gu­ra­tion af den for­ven­te­lige og accep­table præstation

Da nationale test blev obliga­to­ri­ske i 2010 valgte Under­vis­nings­mi­ni­ste­riet at afrap­por­tere elev­re­sul­ta­ter på en normskala. Norm­ska­laen består, som det også fremgår af figur 1, af to til­ba­ge­mel­din­ger. Kigger vi fx på den første (fiktive) elev Hampus Bachs resultat i pro­fi­l­om­rå­det ”Tal og algebra”, bedømmes han både med et tal (98) og en kategori (klart over middel)[4].

Grafisk visning på elevniveau fordelt på tre profilområder og som en samlet vurdering
Figur 1: Grafisk visning på elev­ni­veau fordelt på tre pro­fi­l­om­rå­der og som en samlet vurdering (Under­vis­nings­mi­ni­ste­riet, 2017a, s. 58).

Norm­ska­laen er en selv­re­fe­ren­tiel skala, hvor elever figurerer som et tal mellem 1 – 100 per­cen­ti­ler, og hvor deres placering refererer til deres rang i gruppen af elever, der tog testen i 2010. Det betyder, at hvis en elev får ”33”, så er denne mindst lige så dygtig som 33% af de elever, der tog testen i 2010.Normskalaen inddeler percentil-værdierne i fem kate­go­rier: Klart under middel (1 – 10), Under middel (11 – 35), Middel (36 – 65), Over middel (66 – 90), Klart over middel (91 – 100) (Under­vis­nings­mi­ni­ste­riet, 2018b). Det er altså selve for­de­lin­gen og ran­ge­rin­gen af elever på en skala fra 1 – 100, der pro­du­ce­rer norm­ska­laen, og den enkelte elevs præ­sta­tion får sin værdi i kraft af dens position i forhold til andre elevers præ­sta­tio­ner. Hermed kon­fi­gu­re­rer norm­ska­laen kvalitet som et spørgsmål om den beregnede elev­dyg­tig­hed, der afrap­por­te­res som en rangeret position.

Hvordan kon­fi­gu­re­rer den norm­ba­se­rede visu­a­li­se­ring så læreren til at fortolke elevens præ­sta­tion? Og hvilken infra­struk­tu­rel politik impli­ce­rer en skala, hvor elever scores i forhold til deres distance fra skalaens middelværdier?

Kate­go­ri­er­nes numeriske værdier er fastlagt, så de matcher ECTS karak­ter­ska­laen (European Credit Transfer System grading scale[5]), der igen bygger på den sta­ti­sti­ske nor­mal­for­de­ling. I en nor­mal­for­de­ling vil de fleste resul­ta­ter ligge omkring midten (50) og de færreste i skalaens to yder­punk­ter, hvilket giver nor­mal­for­de­lin­gen den velkendte klok­ke­form, der er høj i midten og flader sym­me­trisk ud i ”enderne”. Normen fast­læg­ges således af skalaens mid­del­vær­dier (36. – 65. percentil).[6] Norm­ska­laen gør elev­præ­sta­tio­ner synlige i forhold til, hvor tætte de er på disse mid­del­vær­dier, hvilket de fem kate­go­rier også afspejler med deres reference til (klart) over/under middel. Denne skabelse af mid­del­præ­sta­tio­nen som det normale har således en ”nor­ma­li­se­rende” virkning, idet den skaber for­vent­nin­ger til, hvad der udgør den normale og dermed accep­table præstation.

Den elev­ba­se­rede norm­vis­ning (figur 1) gør først og fremmest elevers præ­sta­tio­ner synlige og sam­men­lig­ne­lige. Denne sam­men­lig­ne­lig­hed kon­fi­gu­re­rer læreren til at undersøge, hvordan elever fordeler sig i de fem kate­go­rier og måske endda rangordne elever i forhold til deres per­cen­ti­ler (den numeriske til­ba­ge­mel­ding), da elever både kan være i bunden og toppen af en kategori[7]. Visu­a­li­se­rin­gen kon­fi­gu­re­rer yder­li­gere læreren til at fortolke elev­re­sul­ta­ter omkring mid­del­vær­di­erne som ”normale” og andre resul­ta­ter som positive eller negative afvi­gel­ser fra denne norm.

Det er dog ikke kun norm­ska­laen, der har en nor­ma­li­se­rende virkning. En over­bliks­vis­ning (figur 2) giver læreren et sup­ple­rende sam­men­lig­nings­grund­lag. Her vises elevernes fordeling på tværs af de fem kate­go­rier i forhold til det aktuelle landsgennemsnit.

[indsæt figur 2 her]

Figur 2: Grafisk oversigtsvisning af normbaserede resultater.
Figur 2: Grafisk over­sigts­vis­ning af norm­ba­se­rede resul­ta­ter. De røde søjler viser elev­grup­pens resultat på de tre pro­fi­l­om­rå­der og som en samlet vurdering. De blå søjler viser lands­gen­nem­snit­tet fra seneste gen­nem­førte obliga­to­ri­ske test (Under­vis­nings­mi­ni­ste­riet, 2017a, s. 51).

I mod­sæt­ning til den elev­ba­se­rede visning (figur 1) har vi ikke elevernes navne med her. I stedet fremtoner eleverne som en homogen ”elev­gruppe” (det vil typisk være en klasse) i røde søjler, sam­men­lig­ne­lige med det aktuelle lands­gen­nem­snit, der figurerer som blå søjler. Denne visu­a­li­se­ring skaber en ny form for nor­ma­li­se­ring: Det er ikke blot skalaens kate­go­rier, men det nuværende lands­gen­nem­snit, de blå søjler, der mani­feste­rer, hvad der er den normale og accep­table elev­dyg­tig­hed i en klasse. Denne type sam­men­lig­ning kan tilskynde til at ville performe bedre end lands­gen­nem­snit­tet (cf. Staunæs, 2018; Kousholt & Andreasen, 2015).

De norm­ba­se­rede visu­a­li­se­rin­gers infra­struk­tu­relle politik indebærer således en for­stå­else af kvalitet som elev­dyg­tig­hed. Elev­dyg­tig­hed visu­a­li­se­res som værende på samme niveau som, over eller under lands­gen­nem­snit­tet. Ved at forstå elever – og klassen – i forhold til en norm omkring elev­dyg­tig­hed, pro­du­ce­rer visu­a­li­se­rin­gen dog ikke kun en for­stå­else af status quo. Det fordrer samtidigt over­vej­el­ser omkring, hvordan man kan forbedre præ­sta­tio­ner hos den enkelte elev eller klassen fremover. Som andre teknikker til at ben­ch­marke orga­ni­sa­tio­ner kan den norm­ba­se­rede visning tilskynde lærere til at forbedre testre­sul­ta­ter, så man ligger på ”den rigtige” side af lands­gen­nem­snit­tet (cf. Tri­an­ta­fil­lou, 2006).

Kri­te­ri­e­vi­su­a­li­se­rin­gens kon­fi­gu­ra­tion af kvalitet som elevers progression

I for­læn­gelse af fol­ke­sko­lere­for­men (Rege­rin­gen et al., 2013) intro­du­ce­rede Under­vis­nings­mi­ni­ste­riet en kri­te­ri­eskala med nye resul­tat­vis­nin­ger. Kri­te­ri­eska­laen omfatter seks niveauer, ran­ge­rende fra ”Ikke til­stræk­ke­lig præ­sta­tion” til ”Frem­ra­gende præ­sta­tion”, hvor hvert niveau er ”et udtryk for elevernes faglige niveau i de dele af fagene, som testes” (Under­vis­nings­mi­ni­ste­riet, 2017b).  I mod­sæt­ning til norm­ska­la­ens niveauer, som er fastlagt i forhold til 2010-elev­po­­pu­la­tio­­nens spredning, udtrykker kri­te­ri­eska­laen en for­vent­ning til, hvad elever skal kunne. Kri­te­ri­erne er fastlagt med reference til Fælles Mål, PISA-skalaen og eksi­ste­rende testre­sul­ta­ter på norm­ska­laen (Ratner, 2020).

I det følgende vil jeg argu­men­tere for, at en af kri­te­ri­eska­la­ens visu­a­li­se­rin­ger kon­fi­gu­re­rer kvalitet ander­le­des end norm­ska­laen. Figur 3 er en kri­te­ri­e­ba­se­ret resul­tat­vis­ning med titlen ”Klassens pro­g­res­sion”, og her kan læreren hurtigt danne sig et overblik over, hvilke elever der er gået frem eller tilbage siden sidste test.[8]

“Klassens progression fra tidligere test” bruger farvekoder til at vise, hvilke elever, ”der fagligt er gået frem eller tilbage sammenlignet med tidligere test”, hvor blå farve indikerer et dårligere resultat på kriterieskalaen, hvid farve markerer samme resultat og grøn farve et bedre resultat
Figur 3: “Klassens pro­g­res­sion fra tidligere test” bruger far­ve­ko­der til at vise, hvilke elever, ”der fagligt er gået frem eller tilbage sam­men­lig­net med tidligere test”, hvor blå farve indikerer et dårligere resultat på kri­te­ri­eska­laen, hvid farve markerer samme resultat og grøn farve et bedre resultat (Under­vis­nings­mi­ni­ste­riet, 2017c, s. 6).

”Klassens pro­g­res­sion fra tidligere test” er en tabel, der formidler klassens samlede pro­g­res­sion i en over­sigts­vis­ning. Dens far­ve­ko­der kon­fi­gu­re­rer læreren til at undersøge, hvordan eleverne har udviklet sig siden sidste test, fx hvilke elever har opnået et bedre eller dårligere resultat siden sidste test.  Visu­a­li­se­rin­gen gør det først og fremmest muligt for læreren at forholde sig til en enkelt elevs udvikling. Hvor visu­a­li­se­ring af elev­dyg­tig­hed på norm­ska­laen sker i relation til skalaens mid­del­vær­dier, som udtrykker den gen­nem­snit­lige præ­sta­tion, så folder denne visu­a­li­se­ring sam­men­lig­nin­gen ind i eleven selv, hvor eleven splittes op i et tidligere og et nutidigt testre­sul­tat: Eleven trackes over tid og ”disaggregere[s] (…) i mønstre af adfærd eller præ­sta­tion over tid” (Sellar & Thompson 2016, 493). Det vigtigste i visu­a­li­se­rin­gen er ikke skalaens niveauer, men farven, der indikerer, hvorvidt og hvordan de har flyttet sig på tværs af skalaens kategorier.

Visu­a­li­se­rin­gen kon­fi­gu­re­rer således læreren til at undersøge, hvad der i under­vis­nin­gen flytter elever mod et højere niveau, og dens far­ve­ko­der kan ”skabe og bevare en for­nem­melse af pro­g­res­sion” (Finn, 2016). Dette medfører nye idealer for både elev og klasse: Hvor norm­ska­laen, med sin reference til den sta­ti­sti­ske nor­mal­for­de­ling, skaber for­vent­nin­ger til at flest scorer i midten samt inci­ta­ment til at score over middel, bliver bevægelse mod et højere niveau den nye markør for kvalitet med kri­te­ri­eska­la­ens pro­g­res­sions­vis­ning. Pro­g­res­sions­vis­nin­gen kon­fi­gu­re­rer med andre ord kvalitet som et spørgsmål om læring – og skolens løfteevne – frem for elev­dyg­tig­hed. Vej­led­nin­gen til den kri­te­ri­e­ba­se­rede til­ba­ge­mel­ding anbefaler netop også læreren at bruge visu­a­li­se­rin­gen til at undersøge: ”Hvordan er elevens og klassens udvikling sam­men­lig­net med tidligere test?” (Under­vis­nings­mi­ni­ste­riet, 2017c).

Den temporale sam­men­lig­ning udgør ikke blot et ”før” (tidligere test) og ”efter” (aktuelle test), men kon­sti­tu­e­rer også et ”ikke endnu”. Som Matt Finn skriver: ”Data gør pro­g­res­sion synlig (…) [ved at] ind­rul­lere og sam­men­holde elevers fortidige, nutidige og frem­ti­dige selv som for­tæl­lin­ger om for­bed­rin­ger og løfteevne” (2016, s. 32). Visu­a­li­se­rin­gen impli­ce­rer altså også en poten­ti­a­litet (Hamre et al., 2015; Staunæs, 2011): Elever, der optræder i blå eller hvide kate­go­rier, kan i fremtiden også blive grønne. Visu­a­li­se­rin­gen er således både indi­vi­du­a­li­se­rende, i og med eleven får sin far­ve­ko­dede værdi ift. et tidligere selv, og poten­ti­a­li­se­rende, da den instal­le­rer et håb om frem­ti­dige grønne farver.

Syn­lig­gø­rel­sen af elevers pro­g­res­sion i forhold til hinanden betyder endvidere, at visu­a­li­se­rin­gen kon­fi­gu­re­rer pro­g­res­sion som et kol­lek­tivt fænomen: Hvor mange har under­vis­nin­gen løftet mod det bedre? Igen er det vigtigste ikke deres præ­sta­tion forstået som niveau eller rang, men netop deres bevægelse mod det bedre. Den grønne farve kon­fi­gu­re­rer kvalitet som elevers læring mod det bedre – som et spørgsmål om løfteevne.

Data­vi­su­a­li­se­rin­gers kon­fi­gu­ra­tio­ner af kvalitet og deres kon­se­kven­ser for lærerens rolle

Selve kvan­ti­fi­ce­rin­gen og syn­lig­gø­rel­sen af indi­vi­ders og insti­tu­tio­ners præ­sta­tio­ner kan motivere aktører til at forbedre deres præ­sta­tio­ner (Brøgger, 2016). Derfor er det ikke lige­gyl­digt, hvordan data visu­a­li­se­res, idet visu­a­li­se­rin­gen ram­me­sæt­ter brugerens opmærk­som­hed og dermed også hvad, der tæller som høj kvalitet. Dette har både kon­se­kven­ser for vores for­stå­else af samtidens skole, for vores for­stå­else kvalitet og for lærerens rolle.

For det første bidrager studiet af data­vi­su­a­li­se­rin­ger med en spe­ci­fi­ci­tet i den over­ord­nede ”Zeit-diagnose” om et større historisk skifte i uddan­nelse fra et fokus på under­vis­ning til læring. Uddan­nel­ses­fi­lo­sof­fen Gert Biesta (2009) taler om en ”læri­fi­ce­ring” (”lear­ni­fi­ca­tion”) af uddan­nelse, som indebærer en for­skyd­ning fra input (lærerens under­vis­ning) til output (elev­re­sul­ta­ter). Biesta fokuserer på den sproglige trans­for­ma­tion, men argu­men­te­rer for, at dette skifte er tæt forbundet med målinger og kvan­ti­fi­ce­ring af uddan­nelse. Denne iagt­ta­gelse peger mod vig­tig­he­den af at studere disse målingers spe­ci­fi­ci­tet – og ikke mindst, hvordan de gør læring synlig. Finn ser fx brugen af data som udtryk for en ny lærer­rolle: ”Læreren bliver i mindre grad en infor­ma­tions­kilde [der qua sin praksis kender til elevers dygtighed og læring] og i højere grad en data­pro­du­cent og –ana­ly­ti­ker. (…) Læreren holdes ansvarlig for at producere læring” (2016, s. 44). Netop fordi data­vi­su­a­li­se­rin­ger allerede udgør en analyse og for­tolk­ning af data, er det vigtigt ikke blot at forstå læreren som en data-ana­ly­ti­ker – men netop at undersøge, hvordan selve for­tolk­nin­gen og analysen af data er distri­bu­e­ret på tværs af lærer og testap­pa­rat i visu­a­li­se­rin­ger­nes kon­fi­gu­ra­tio­ner. I denne artikel har jeg netop vist, at for­skel­lige data­vi­su­a­li­se­rin­ger kon­fi­gu­re­rer lærerens opmærk­som­hed på for­skel­lige måder.

Der ligger altså en politik i infra­struk­tu­relle kom­po­nen­ter som testskala og visu­a­li­se­rings­type, idet de gør kvalitet synlig på for­skel­lig vis. Når visu­a­li­se­rin­ger kon­fi­gu­re­rer kvalitet som hen­holds­vis elev­dyg­tig­hed (norm­ska­la­ens benchmark-visning) og elevlæ­ring (kri­te­ri­eska­la­ens pro­g­res­sions­vis­ning), så under­stre­ger det, at skalaerne og visu­a­li­se­rin­gerne ikke er neutrale repræ­sen­ta­tio­ner af data. Visu­a­li­se­rin­ger­nes politik ligger i, at de i sig selv udgør en for­tolk­ning af data, og at for­tolk­nings­ar­bej­det ikke er for­be­holdt lærerens pro­fes­sio­nelle skøn. Data­vi­su­a­li­se­rin­gers for­tolk­ning skabes bl.a. i desig­ne­res beslut­nin­ger om, hvilke data, der gøres sam­men­lig­ne­lige: Ved at sam­men­holde den indi­vi­du­elle elevs resul­ta­ter med hen­holds­vis lands­gen­nem­snit­tet (norm­vis­nin­gen) og egne tidligere testre­sul­ta­ter (pro­g­res­sions­vis­nin­gen) skabes dermed også for­skel­lige elev­kon­struk­tio­ner: Eleven som højt præ­ste­rende versus eleven som lærende. Visu­a­li­se­rin­ger indebærer således en infra­struk­tu­rel politik. Testap­pa­ra­tet er ikke blot et teknisk bagtæppe eller et teknisk udtryk for sociale og politiske kampe om kvalitet. De går aktivt ind og inter­ve­ne­rer med lærings­for­stå­el­ser og evalueringspraksisser.

Kon­klu­sion

Data­vi­su­a­li­se­rin­ger – den grafiske for­mid­ling af data – er slut­pro­duk­tet af en lang række akti­vi­te­ter, der omfatter pro­duk­tio­nen af data (elevers inter­ak­tion med en computer, test items og algoritme) og bereg­nin­gen af elev­dyg­tig­hed. Disse processer er først og fremmest per­for­ma­tive: De skaber elev­dyg­tig­hed og elevlæ­ring som fænomener, der kan sam­men­lig­nes og gøres til genstand for pæda­go­gisk og sty­rings­mæs­sig inter­ven­tion. Således er de ikke neutrale repræ­sen­ta­tio­ner, men har betydning for, hvad læring og dygtighed kan være, når fol­ke­sko­lens kvalitet tema­ti­se­res med udgangs­punkt i nationale test.

Ved at undersøge for­skel­lige visu­a­li­se­rin­ger af data i nationale test har jeg demon­stre­ret, at tekniske anord­nin­ger som testskala og visu­a­li­se­rings­type spiller en central rolle i testap­pa­ra­tets kon­struk­tion af kvalitet. Hvor visu­a­li­se­rin­ger baseret på nationale tests normskala kon­fi­gu­re­rer skolens kvalitet som et spørgsmål om høje versus lave præ­sta­tio­ner, set ift. en elev­po­pu­la­tions mid­del­vær­dier, vær­di­sæt­ter visu­a­li­se­rin­ger baseret på nationale tests kri­te­ri­eskala elevers pro­g­res­sion, dvs. deres bevægelse mod det bedre. Gennem begrebet kon­fi­gu­ra­tion har jeg argu­men­te­ret for, at de for­skel­lige visu­a­li­se­rin­ger orga­ni­se­rer lærerens opmærk­som­hed mod disse for­skel­lige for­stå­el­ser af kvalitet. Artiklens analyser viser hermed, at visu­a­li­se­rin­ger af store datasæt poten­ti­elt kan virke ind i pæda­go­gi­ske for­stå­el­ser af elev­præ­sta­tio­ner ved at udgøre en selv­stæn­dig for­tolk­ning af testdata. Den har også demon­stre­ret, at samme data kan visu­a­li­se­res på meget for­skel­lige måder, med for­skel­lige kon­fi­gu­ra­tio­ner af lærerens opmærk­som­hed som konsekvens.

Jeg har i dis­kus­sio­nen udfoldet analysens impli­ka­tio­ner. For det første har jeg argu­men­te­ret for, at de empiriske fund – som består i at samme data kan visu­a­li­se­res på for­skel­lige måder –  bidrager med en vigtig spe­ci­fi­ci­tet i aktuelle dis­kus­sio­ner om uddan­nel­ses­sy­ste­mets histo­ri­ske skifte fra under­vis­ning til læring. For det andet har jeg argu­men­te­ret for, at dette skifte ikke blot impli­ce­rer en ny lærer­rolle, hvor læreren i højere grad er ana­ly­ti­ker af data. Kon­fi­gu­ra­tions­be­gre­bet og mine analyser af data­vi­su­a­li­se­rin­ger under­stre­ger netop, at den ana­ly­se­rende og for­tol­kende kom­pe­tence ikke er for­be­holdt lærerens pro­fes­sio­nelle skøn, men i høj grad varetages af visu­a­li­se­rings­software, der gennem en æstetisk orga­ni­se­ring af data tilbyder særlige for­tolk­nin­ger af data.

Afslut­nings­vist er det vigtigt atter at under­strege, at analysen kun har behandlet nationale tests data­vi­su­a­li­se­rin­ger, og derfor ikke kan kon­klu­dere på, hvordan de sætter sig igennem i praksis, når lærerne inter­a­ge­rer med test­sy­ste­mets visu­a­li­se­rin­ger. Men da lærerne primært tilgår nationale testdata gennem dets visu­a­li­se­rin­ger, er det plau­si­belt at antage, at de spiller en væsentlig rolle i læreres for­tolk­nings­pro­ces­ser. Videre empiriske studier kan med fordel undersøge, hvordan lærere og andre aktører (fx ledere, forældre og elever) i praksis inter­a­ge­rer med de for­skel­lige data­vi­su­a­li­se­rin­ger, og hvordan andre faktorer end de ind­lej­rede for­tolk­nings­mu­lig­he­der spiller ind (fx tid, ledelse, de nationale måltal, orga­ni­sa­to­ri­ske rutiner som klassekonferencer).

I en tid hvor skolens aktører i stigende grad konsu­me­rer infor­ma­tion om elevers læring og skolers kvalitet gennem data­vi­su­a­li­se­rin­ger, og hvor over­bliks­ska­bende data­vi­su­a­li­se­rin­ger er blevet almin­de­lige anord­nin­ger i orga­ni­sa­to­ri­ske land­ska­ber, er det af yderste vigtighed at skabe reflek­sion over data­vi­su­a­li­se­rin­gers ind­lej­rede for­tolk­nin­ger. Aktuelle dis­kus­sio­ner om læreres ”data literacy” kan med fordel omfatte et fokus på data­vi­su­a­li­se­rin­ger, såvel deres mulig­he­der som begræns­nin­ger. Ved at skabe viden om datas begræns­nin­ger, hvordan data pro­du­ce­res, hvordan de trans­for­me­res til grafiske visninger, samt hvilke for­tæl­lin­ger og syns­punk­ter, der er indlejret i populære visu­a­li­se­rings­ty­per, kan vi begynde en vigtig kritisk dis­kus­sion om såvel kon­struk­tiv som ukon­struk­tiv konsump­tion af data­vi­su­a­li­se­rin­ger i hver­da­gens didak­ti­ske og pæda­go­gi­ske beslutninger.

Refe­ren­cer

Bert­hel­sen, U. D., & Øster­gaard, M. K. (2017). Om learning analytics og data­vi­su­a­li­se­ring: Intro­duk­tion og lit­te­ra­tur­re­view (Data om Elevers Læring og Pro­g­res­sion, s. 1 – 34). DPU, Aarhus Universitet.

Biesta, G. (2009). Good education in an age of mea­su­re­ment: On the need to reconnect with the question of purpose in education. Educa­tio­nal Asses­sment, Eva­lu­a­tion and Acco­un­ta­bi­lity, 21(1), 33 – 46.

Brøgger, K. (2016). The rule of mimetic desire in higher education: Governing through naming, shaming and faming. British Journal of Sociology of Education, 37(1), 72 – 91.

Bunds­gaard, J. (2018). Pæda­go­gisk brug af test. Sakprosa, 10(2), 1 – 40.

Bunds­gaard, J. & Kreiner, S. (2019). Under­sø­gelse af De Nationale Tests måle­e­gen­ska­ber. Aarhus Uni­ver­sity Library. https://​doi​.org/​1​0​.​7​1​4​6​/​a​u​l​.​3​1​9​.​217

Bunds­gaard, J., & Puck, M. R. (2016). Nationale test: Danske lærere og skole­le­de­res brug, hold­nin­ger og viden. DPU, Aarhus Universitet.

Callon, M. (1986). Some elements of a sociology of trans­la­tion: Domesti­ca­tion of the scallops and the fishermen of St Brieuc Bay. In J. Law (Ed.), Power, action and belief: A new sociology of knowledge? (s.  196 – 223). Routledge.

Dahler-Larsen, P. (2014). Con­sti­tu­tive Effects of Per­for­mance Indi­ca­tors: Getting beyond unin­ten­ded con­sequen­ces. Public Mana­ge­ment Review, 16(7), 969 – 986.

Damvad (2014). PISA-rela­te­ring af de kri­te­ri­e­ba­se­rede nationale test. Del­rap­port 1 – for­mid­ling af resul­ta­ter. København: Damvad.

Egelund, N. (2008). The value of inter­na­tio­nal com­pa­ra­tive studies of achie­ve­ment – a Danish per­spective. Asses­sment in Education: Prin­cip­les, Policy & Practice, 15(3), 245 – 251.

Ekholm, M., Mortimore, P., David-Evans, M., Laukkanen, R., & Valijarvi, J. (2004). OECD-rapport om grund­sko­len i Danmark. Under­vis­nings­mi­ni­ste­riet.

Finn, M. (2016). Atmosp­he­res of progress in a data-based school. Cultural Geo­grap­hies, 23(1), 29 – 49.

Hamre, B., Kousholt, K., Staunæs, D. & Krejsler, J. (2015). Eleverne, der skulle blive så dygtige, som de kunne – Kate­go­ri­se­ring og poten­ti­a­litet i skolens lærings- og testar­ran­ge­men­ter. Pæda­go­gisk Psy­ko­lo­gisk Tids­skrift, 52(3), 21 – 43.

Kennedy, H., Hill, R. L., Aiello, G., & Allen, W. (2016). The work that visu­a­li­sa­tion con­ven­tions do. Infor­ma­tion, Com­mu­ni­ca­tion & Society, 19(6), 715 – 735.

Kousholt, K. (2015). Børns gætterier ved nationale test. CEPRA-striben. Tids­skrift for Eva­lu­e­ring i Praksis, 18, 46 – 57.

Kousholt, K. (2016). Testing as social practice: Analysing testing in classes of young children from the children”s per­spective. Theory & Psy­cho­logy, 26(3), 377 – 392.

Kousholt, K. & Andreasen, K.E. (2015). De nationale test som ny praksis i den danske fol­ke­skole – betyd­nin­ger i klassens sociale fæl­les­skab. I: K.E. Andreasen, M. Buchardt, A. Rasmussen & C. Ydesen (red.), Test og prøvelser – Oprin­delse, udvikling, aktu­a­li­tet. Aalborg: Aalborg Uni­ver­si­tets­for­lag. (s. 29 – 49).

Kreiner, S. (2009). Om udvikling og afprøv­ning af pæda­go­gi­ske test. In C. Bendixen & S. Kreiner (Eds.), Test i fol­ke­sko­len (s. 43 – 82). Hans Reitzels Forlag.

Madsen, A. K. (2013). Web-Visions: Repur­po­sing digital traces to organize social attention [Copen­ha­gen Business School]. PhD Series 26.2013.

Maguire, L. H. (2019). Adapting to the test: Per­for­m­ing algo­rit­h­mic adap­ti­vity in Danish schools. Discourse: Studies in the Cultural Politics of Education, 40(1), 78 – 92.

Porter, T. M. (1994). Making Things Quan­ti­ta­tive. Science in Context, 7(3), 389 – 407. https://​doi​.org/​1​0​.​1​0​1​7​/​S​0​2​6​9​8​8​9​7​0​0​0​0​1​757

Power, M. (2015). How acco­un­ting begins: Object formation and the accretion of infra­struc­ture. Acco­un­ting, Orga­niza­tions and Society, 47, 43 – 55. https://​doi​.org/​1​0​.​1​0​1​6​/​j​.​a​o​s​.​2​0​1​5​.​1​0​.​005

Ratner, H. (2020). Euro­pe­a­nizing the Danish School through National Testing: Stan­dar­dized Asses­sment Scales and the Anti­ci­pa­tion of Risky Popu­la­tions. Science, Tech­no­logy, & Human Values, 45(2), 212 – 234.

Ratner, H., Andersen, B. L., & Madsen, S. R. (2019). Con­fi­guring the teacher as data user: Public-private sector medi­a­tions of national test data. Learning, Media and Tech­no­logy, 44(1), 22 – 35.

Rege­rin­gen, Venstre, & Dansk Fol­ke­parti. (2013). Aftale mellem rege­rin­gen (Soci­al­de­mo­kra­terne, Radikale Venstre og Soci­a­li­stisk Fol­ke­parti), Venstre og Dansk Fol­ke­parti om et fagligt løft af fol­ke­sko­len.

Staunæs, D. (2011). Governing the poten­ti­als of life itself? Inter­ro­gat­ing the promises in affective educa­tio­nal lea­ders­hip. Journal of Educa­tio­nal Admi­ni­stra­tion and History, 43(3), 227 – 247.

Staunæs, D. (2018). ”Green with envy:” affects and gut feelings as an affir­ma­tive, immanent, and trans-corporeal critique of new moti­va­tio­nal data visu­a­liza­tions. Inter­na­tio­nal Journal of Qua­li­ta­tive Studies in Education, 31(5), 409 – 421. https://​doi​.org/​1​0​.​1​0​8​0​/​0​9​5​1​8​3​9​8​.​2​0​1​8​.​1​4​4​9​983

Suchman, L. (2007). Human-Machine Recon­fi­gu­ra­tions: Plans and Situated Actions (2nd ed.). Cambridge Uni­ver­sity Press.

Suchman, L. (2012). Con­fi­gu­ra­tion. In C. Lury & N. Wakeford (Eds.), Inventive methods: The happening of the social (s.  48 – 60). Routledge.

Tri­an­ta­fil­lou, P. (2006). Ben­ch­mar­king som nor­ma­li­se­rende sty­rings­tek­no­logi. Politica, 38(1), 22 – 39.

Under­vis­nings­mi­ni­ste­riet. (2017a). Test- og prø­ve­sy­ste­met — De nationale test: Bru­ger­vej­led­ning for skoler. https://​www​.stil​.dk/​s​u​p​p​o​r​t​/​t​e​s​t​ – ​o​g​ – ​p​r​o​e​v​e​r​/​n​a​t​i​o​n​a​l​e​ – test

Under­vis­nings­mi­ni­ste­riet. (2017b). Vej­led­ning om de nationale test — Til skole­le­dere. Under­vis­nings­mi­ni­ste­riet. https://​www​.uvm​.dk/​ – ​/​m​e​d​i​a​/​f​i​l​e​r​/​u​v​m​/​u​d​d​/​f​o​l​k​e​/​p​d​f​1​7​/​m​a​r​/​1​7​0​3​1​5​ – ​v​e​j​l​e​d​n​i​n​g​ – ​t​i​l​ – ​s​k​o​l​e​l​e​d​e​r​e​.​p​d​f​?​l​a​=da

Under­vis­nings­mi­ni­ste­riet. (2017c). Vej­led­ning til nye resul­tat­vis­nin­ger i de nationale test – til lærere i alle fag. Under­vis­nings­mi­ni­ste­riet. https://​uvm​.dk/​f​o​l​k​e​s​k​o​l​e​n​/​e​l​e​v​p​l​a​n​e​r​ – ​n​a​t​i​o​n​a​l​e​ – ​t​e​s​t​ – ​o​g​ – ​t​r​i​v​s​e​l​s​m​a​a​l​i​n​g​/​n​a​t​i​o​n​a​l​e​ – ​t​e​s​t​/​v​e​j​l​e​d​n​i​n​ger

Under­vis­nings­mi­ni­ste­riet. (2018a). Fælles Mål på lærings­plat­forme (s.  1 – 12). Under­vis­nings­mi­ni­ste­riet. https://​uvm​.dk/​ – ​/​m​e​d​i​a​/​f​i​l​e​r​/​u​v​m​/​u​d​d​/​f​o​l​k​e​/​p​d​f​1​8​/​j​u​n​i​/​1​8​0​6​2​0​ – ​f​m​ – ​l​a​e​r​i​n​g​s​p​l​a​t​f​o​r​m​e​ – ​a​n​b​e​f​a​l​i​n​g​e​r​.​p​d​f​?​l​a​=da

Under­vis­nings­mi­ni­ste­riet. (2018b, January 31). Nationale test: Bru­ger­vej­led­nin­ger til de nationale test. https://​www​.stil​.dk/​s​u​p​p​o​r​t​/​t​e​s​t​ – ​o​g​ – ​p​r​o​e​v​e​r​/​n​a​t​i​o​n​a​l​e​ – test

Under­vis­nings­mi­ni­ste­riet. (2018c, August 13). Om Fælles Mål. Om Fælles Mål. https://​uvm​.dk/​f​o​l​k​e​s​k​o​l​e​n​/​f​a​g​ – ​t​i​m​e​t​a​l​ – ​o​g​ – ​o​v​e​r​g​a​n​g​e​/​f​a​e​l​l​e​s​ – ​m​a​a​l​/​o​m​ – ​f​a​e​l​l​e​s​ – maal

Wandall, J. (2016). Appendiks 2: Om norm­ska­laer, kri­te­ri­eska­laer og pro­g­res­sion i de nationale test. Nor­di­c­Me­trics. http://www.nordicmetrics.com/beregneren/vejl_mat_app2_v2‑3 – 2/


[1] Hvordan nationale test skaber kvalitet afhænger natur­lig­vis ikke kun af visu­a­li­se­rin­ger, men også af fx hvilke fær­dig­he­der, elever testes (eller ikke testes) i. Nationale test er fx kri­ti­se­ret for primært at teste tekniske fær­dig­he­der af læsning og dermed ikke dække alle de fær­dig­he­der, der er i Fælles Mål (Bunds­gaard, 2018).

[2] Det er også muligt at lave en benchmark visning af de kri­te­ri­e­ba­se­rede testresultater.

[3] Logit-skalaen er en inter­valskala (dvs. en skala, hvor afstanden mellem dens enheder er konstant) og går fra minus til plus uendeligt. Norm­ska­laen er en ordi­nalskala (dvs. en skala, hvor resul­ta­ter kan rang­ord­nes, men hvor afstanden mellem enheder ikke er konstant). Som fem-trin­s­skala (fra ”Klart under middel” til ”Klart over middel”) er det en forenklet percentil-skala, der går fra 1 – 100 point, og hvor eleverne er rang­ord­net ift. deres præ­sta­tion i 100 grupper. Kri­te­ri­eska­laen vurderer en elevs resul­ta­ter ift. fagligt fastsatte kriterier (her er det fælles mål) (Damvad, 2014; Ratner, 2020; Wandall, 2016).

[4] Kun kate­go­rien formidles til elev og forældre.

[5] ECTS-skalaen, et ”over­før­bart kre­dit­sy­stem”, blev udviklet som led i Bolog­na­pro­ces­sen med henblik på at skabe sam­men­lig­ne­lig­hed og over­før­bar­hed på tværs af euro­pæ­i­ske karak­ter­ska­laer og dermed øge studentermobilitet.

[6] Test­sy­ste­met anvender den første obliga­to­ri­ske måling (2010) som normskala. Det betyder, at eleverne scores i forhold til 2010-for­­de­lin­­gen, selvom mid­del­vær­dien er forbedret væsent­ligt siden 2010. Fx har mid­del­vær­dien for 8. Klasses læse­for­stå­else ændret sig fra 50. percentil til 61. percentil (Under­vis­nings­mi­ni­ste­riet, 2018a).

[7] Dog vil den sta­ti­sti­ske usik­ker­hed ofte være så stor, at vari­a­tio­ner i få per­cen­ti­ler ikke er udtryk for en forskel i elevdygtighed.

[8] Det er også muligt at få vist pro­g­res­sion på individniveau.

Artiklen er skrevet med støtte fra en FKK-bevilling (Data Visions: Education in the age of digital data visu­a­liza­tions) fra Danmarks Frie Forskningsfond.

  • Lektor, DPU – Danmarks Institut for Pædagogik og Uddan­nelse, Aarhus Universitet 

Giv et bidrag

Værsgo’ – du kan frit læse
Dansk pæda­go­gisk Tidsskrift!

Hvis du synes om det, du læser, og gerne vil have, at tids­skrif­tet bliver ved med at eksistere, håber vi, at du vil give et bidrag.

STØT VIA MOBILEPAY VED AT SCANNE HER

Scan med dit mobilkamera
Klip på knappen for at støtte