Begrebet risiko har fået en central betydning i den socialpædagogiske tidlige indsats. Denne artikel undersøger prædiktive algoritmer som ny teknik til beregning og synliggørelse af børns risiko for mistrivsel. Prædiktive algoritmer anvendes internationalt til at beregne og forudse børns ukendte fremtider på baggrund af store datasæt. Empirisk sammenligner vi to ikke-implementerede danske forsøg med at udvikle algoritmer til at forudsige børns mistrivsel: Gladsaxe kommune og forskningsprojektet Underretninger i Fokus. Vi analyserer de to projekters forskellige risiko-konstruktioner ved at undersøge (1) projekternes problematiseringer af eksisterende (algoritme-fri) praksisser, og (2) hvordan de registre, som algoritmerne er trænet på, har afgørende betydning for, hvordan børn og/eller familier konstrueres som risiko-objekter. Afslutningsvist diskuterer vi de to forskellige risikokonstruktioners betydning for, hvad ’tidlig indsats’ kan være.
Risikokonstruktion, prædiktive algoritmer, tidlig opsporing, data, maskinlæring.
Introduktion
Begrebet “tidlig indsats” nyder politisk opmærksomhed på tværs af pædagogiske og sociale velfærdsområder. Der er udviklet adskillige metoder til at identificere og vurdere børns risici så tidligt som muligt, og begrebet afspejler mere overordnet en politisk interesse for at identificere udsatte børn så tidligt som muligt med henblik på at understøtte deres uddannelse og fremtidige selvforsørgelse (Ejrnæs & Monrad, 2022; Wishart, Taylor, & Shultz, 2006). Både i Danmark og internationalt er myndigheder begyndt at udvikle prædiktive algoritmer som et led i opsporing og/eller tildeling af velfærdsydelser til udsatte familier (Cuccaro-Alamin et al., 2017; Eubanks, 2018; Meilvang & Dahler, 2022). Da prædiktive algoritmer bl.a. anvendes til at ”risiko-score” børn ift. fremtidig mistrivsel, er det interessant at undersøge dem som en ny metode i arbejdet med tidlig indsats. Som Amoore (2013, s. 7) påpeger: ”Risiko-teknologier [som prædiktive algoritmer] har i deres kerne et særlig forhold til fremtiden. De lover at kunne håndtere usikkerhed og gøre en ukendt og ubestemmelig fremtid kendt og beregnelig”.
Prædiktive algoritmer er ofte udviklet ved hjælp af ”maskinlæring” på store mængder historiske data. I maskinlæring lærer computeren af mønstre og sammenhænge i store datasæt, hvilket udmøntes i en algoritme, der konstruerer fremtiden som et ”outcome”, der med stor sandsynlighed kan forudsiges (Ratner, 2021). I forlængelse heraf undersøger vi i denne artikel, hvordan prædiktive algoritmer forestilles at bidrage til arbejdet med at identificere ”risikable” børn og familier i den tidlige indsats navn. Her er det vigtigt at understrege, at vi ser den algoritmiske identifikation, eller profilering, af familier som performativ snarere end repræsentativ. Det betyder, at vi ikke forholder os til algoritmernes validitet eller præcision, men derimod ser dem som teknologier, der indgår i en bredere styringsmæssig kontekst og derigennem bliver en del af det offentliges teknikker til at begribe og arbejde med tidlig indsats.
Empirisk sammenligner vi to danske projekter: Gladsaxe kommunes ”Tidlig databaseret opsporing” og forskningsprojektet ”Underretninger i fokus” (UiF) (cf. Ratner & Elmholdt, 2023). Begge projekter har forsøgt at udvikle algoritmiske modeller, der kan forudsige børns risiko for alvorlig mistrivsel. Hvor Gladsaxes projekt blev centrum for en data-etisk kontrovers og efterfølgende lukket ned (Kristensen, 2022), tester UiF efter ikke deres model på virkelige sager. Således er ingen af projekterne implementeret eller anvendt i danske kommuner. Teoretisk analyserer vi de to projekter ved (1) at undersøge projekternes ”problematiseringer” som et udtryk for en særlig styringslogik (Foucault, 1980), og (2) at undersøge sammenhængen mellem datagrundlag og konstruktionen af børn og familier som ”risikable” subjekter (Amoore, 2013). Selvom man kan blive fristet til at antage, at der eksisterer en overordnet ”algoritmisk risikologik”, konkluderer vi, at prædiktive algoritmer indenfor socialområdet operationaliserer forskellige forståelser af ”tidlig indsats”. I konklusionen diskuterer vi implikationerne af dette fund, og hvilke spørgsmål det rejser for prædiktive algoritmers potentielle indtog i velfærdsstatens bestræbelser på tidlig indsats.
Baggrund
Maskinlæring bygger på statistiske metoder og principper såsom sandsynlighedsteori, inferens og datamodellering. Der er både vigtige kontinuiteter og brud ift. statens anvendelse af statistik til at ’normalisere’ og ’disciplinere’ befolkningen (Desrosiéres, 1998; Hacking, 1990). Staten har traditionelt set anvendt statistik til at undersøge og klassificere befolkningen ift. dens regulariteter, normer og afvigelser (Ewald, 1990; Foucault, 1980). Statistik gjorde det med andre ord muligt for staten at identificere og kategorisere borgere samt placere dem i velfærdsstatens mange institutioner. Foucaults begreb om ”sikkerhed” beskriver en udvikling mod et sandsynlighedsbaseret og temporalt blik på befolkningen, der ses som en række differentierede og potentielle elementer, ”der skal reguleres inden for et mangfoldigt og foranderligt rammeværk” (Foucault 2009, 35). Dette ses fx i uddannelse, hvor etniske minoriteter gennem prædiktion identificeres som værende i særligt behov for uddannelsesmæssige interventioner (Ratner, 2019).
Således fortsætter brugen af maskinlæring i den offentlige forvaltning en allerede eksisterende bevægelse, hvor statistik, data, og kvantificering spiller en væsentlig rolle (Birk og Elmholdt, 2020). I de seneste år har maskinlæring vundet indpas inden for en række offentlige områder, eksempelvis skat, recidivisme, og vurdering af risiko for potentiel kriminalitet (AI Now Institute, 2018). Dunleavy og Margetts (2023) foreslår at forstå dette som en ny bølge af, hvad de kalder ”digital era governance”, som udspiller sig i digitale dataintensive miljøer. Cevolini og Esposito (2020) påpeger videre, at brugen af algoritmisk prædiktion medfører en overgang fra populationsbaseret risikovurdering til individualiserede risikovurderinger baseret på individuel adfærd. Det betyder, at enkeltpersoner konstrueres som risikoobjekter igennem maskinlæringsteknologier, og at en åben og usikker fremtid transformeres til et kalkuleret risikoobjekt i den tidlige opsporings navn. Dette betegner Amoore (2013) ”mulighedernes politik”, da maskinlæringsteknologier gør individet styrbart ved at ”’[bryde det ned] i et sæt målbare risikofaktorer’ ” (Valverde og Mopas i Amoore, 2013, s. 8). Disse observationer bliver centrale i forståelsen af, hvordan maskinlæring bruges i den offentlige sektor i forlængelse af Foucaults udlægning af sikkerhed. Her bliver risiko-scoring og prædiktion nøgleelementer i den offentlige sektors bestræbelse på tidlig intervention (Ratner, 2020).
Mens der er knyttet mange forhåbninger til algoritmiske beslutningssystemers præcision og hastighed, har systemerne i international sammenhæng dog ofte vist sig at være fejlbehæftede samt at forstærke ulighed og øge overvågningen af marginaliserede befolkningsgrupper (Eubanks, 2018; Leslie et al., 2020). I en dansk kontekst har lignende pointer været fremhævet i forhold til algoritmer på udsatte børn og på ungeområdet (Høybye-Mortensen og Kjeldsen, 2021; Jørgensen, 2023; Jørgensen og Nissen, 2022). I Danmark er algoritmiske beslutningssystemer inden for udsatte børn og ungeområdet imidlertid kontroversielle og er dags dato ikke nået videre end til udviklings- og testfasen (Ratner & Schrøder, 2023).
En analytik til at undersøge algoritmiske risiko-konstruktioner
Nedenfor udlægger vi, hvordan vi analyserer algoritmiske risiko-konstruktioner som en del af (1) et bredere styringsapparat (jf. Foucault 1980) og (2) som afhængige af de datasæt, der bruges til deres udvikling (Amoore, 2013). Ved at undersøge disse to aspekter kan vi forstå de prædiktive algoritmer som en del af bredere sociale og styringsmæssige praksisser. Derudover tillader denne analysestrategi os at identificere, hvordan de to projekter operationaliserer ”tidlig indsats” som en algoritmisk risiko-konstruktion med forskellige implikationer for, hvilke familier og børn, der kategoriseres som ”risikable”, og hvornår det offentlige kan arbejde med ”tidlig indsats”.
Vi forstår her prædiktive algoritmer som en del af et bredere styringsapparat, der skal ”beregne og intervenere i individers og populationers præstationer” (Ruppert, 2012: 120). Således er prædiktive algoritmer en del af et bredere landskab af reguleringer, procedurer, instrumenter og institutioner. Derfor undersøger vi, hvordan prædiktive algoritmer ledsages af specifikke problematiseringer (jf. Foucault, 1980), dvs. konstruktionen af et problem samt en række teknikker til at løse dette problem. Problematisering sætter altså fokus på, hvordan et problem artikuleres inden for en bestemt styringsmæssig kontekst. Med dette begreb kan vi identificere, hvordan de to projekter formulerer børns ”risikable” fremtid som et problem, der kan identificeres tidligt med hjælp fra en prædiktiv algoritme.
For det andet undersøger vi, hvordan de to projekters valg af datasæt og registre har betydning for, hvilke børn og/eller familier, der konstrueres som risikable (cf. Amoore, 2013). Prædiktive algoritmer udleder fremtider fra mønstre og korrelationer fundet i datasæt. Derfor er de datasæt, der bruges til at træne algoritmen, afgørende for, hvilke variabler der får stor vægt, når risikable fremtider attribueres til børn og familier. Som Amoore påpeger: “I isolation tilbyder hvert dataelement kun lidt til beregningen af sandsynlige risici. Når de forbindes, er det imidlertid vigtigt at kunne lave slutninger på tværs af data, således at risikoderivater kan genkendes, deles og gøres håndgribelige” (2013, s. 63). Det er således vigtigt at undersøge, hvilke overvejelser, der går ind i projekternes valg af datasæt, og hvordan disse datasæt gør særlige risiko-konstruktioner – og dermed former for tidlig indsats – mulige. Analysestrategisk har vi arbejdet med både problematiseringer og datasæt i kodningen af vores empiri.
Casepræsentation og metode
Underretninger i Fokus (UiF) startede op i 2017 som et tværfagligt samarbejde mellem socialforskere på VIA University College og statistikere ved Trygfondens Børneforskningscenter på Aarhus Universitet (BSS). UiF har udviklet en prædiktiv algoritme, der kan beregne børns sandsynlighed for alvorlig mistrivsel. Forskningsprojektets formål er at undersøge, om den som beslutningsstøtte kan styrke socialrådgiveres beslutningsgrundlag ved vurderinger af underretninger, herunder undersøge dette tværfagligt fra et statistisk, familie- og socialrådgiverperspektiv. Projektet har valgt underretninger, da socialforvaltninger landet over er udfordrede af en stigning i underretninger på 40% i perioden 2015 – 19 (Rosholm et al., 2021).
Både fagpersoner og private har pligt til gennem underretninger at rette henvendelse til de sociale myndigheder vedrørende bekymring for et barns eller en ungs trivsel og udvikling. Netop kommunikationen mellem socialområdet og andre forvaltningsområder er central i den tidlige indsats, da særligt ”fagprofessionelle i børn og forældres hverdag spiller en central rolle i forhold til at opfange tegn på mistrivsel” og forventes at lave ”en rettidig og kvalificeret underretning til kommunens myndighedsafdeling” (Social- og boligstyrelsen, 2022). UiF’s prædiktive algoritme skal således understøtte en eksisterende praksis for tidlig indsats, nemlig opsporingen af børn i behov for både akut og ikke-akut hjælp gennem underretninger.
UiF’s prædiktive algoritme tildeler det underrettede barn en risikoscore (1 – 10), og denne skal støtte socialrådgiverne i deres vurdering af underretningen. Projektet har i dag gennemført første pilotundersøgelse (Søbjerg, 2022), men også været udsat for en del offentlig kritik (Ratner & Schrøder, 2023). Som følge heraf har projektet ændret forskningsdesign, så beslutningsstøtten ikke afprøves på faktiske sager, men derimod testsager (Trygfondens Børneforskningscenter & VIA, 2022). UiFs prædiktive algoritme er udviklet ved hjælp af superviseret maskinlæring på data fra Danmarks Statistik, og projektet anvender anbringelse inden for et år efter modtagelsen af underretningen som proxy for alvorlig mistrivsel. UiFs algoritme er udviklet til at udelukkende at trække data fra socialområdet (Trygfondens Børneforskningscenter & VIA, 2021).
Gladsaxe begyndte som et udviklingsprojekt i 2016 og udgør det første danske forsøg på at udvikle en prædiktiv algoritme inden for børneområdet. I 2017 søgte kommunen som en del af Regeringens ”Frikommuneforsøg” om undtagelse for udvalgte paragraffer vedrørende databeskyttelse i persondataloven og sundhedsloven (Kristensen, 2022). Formålet var at opspore udsatte børn og familier før professionelles mistanke om mistrivsel blev indberettet via underretninger. Således operationaliserer projektet ”tidlig indsats” på en anden måde end Underretninger i Fokus. Modellen skulle kombinere data fra flere registre i kommunen, herunder: beskæftigelseshistorik, bopæl; information om stofmisbrug, handicap, tandpleje, sundhedsdata, specialundervisning, dagpleje og socialforvaltningen (internt dokument, Social- og indenrigsministeriet, 2017). Såfremt de fik godkendt deres ansøgning, ville kommunen anvende maskinlæring til at sammenkøre disse registre og herigennem identificere højrisiko-familier, som en socialrådgiver ville kontakte og tilbyde frivillig hjælp. Projektet blev dog skrinlagt efter en omfattende medie-kontrovers, der kritiserede Gladsaxe for uproportionel overvågning og stigmatisering af borgerne (Ratner & Schrøder, 2023).
Empirien består af dokumenter, mediedækning og interviews. Dokumenter omfatter både offentligt tilgængelige (fx projektbeskrivelser og kommunale strategier på projekternes hjemmeside) og interne dokumenter (fx frikommuneansøgning, mødereferater, powerpoint-præsentationer, mailkorrespondance – i alt 20 dokumenter). Begge cases har været genstand for omfattende debat i offentligheden. Vi undersøgte også disse debatter som en del af datamaterialet (26 artikler fremsøgt på Infomedia). Vi har gennemført et eller flere interviews med i alt 9 personer, herunder projektledere, kommunale ledere, dataanalytikere, socialforskere og statistikere. Alle interviews er transskriberet ordret. Jf. vores teoriafsnit, der betoner analysen af algoritmer som en del af en styringsmæssig kontekst og som afhængige af projektejernes valg af datasæt, er empirien således indsamlet og analyseret med henblik på at kunne skabe viden om disse elementer af de to algoritme-projekter. Vi analyserede og kategoriserede begge cases med fokus på problematiseringer af eksisterende praksis og begrundelser for valg af datasæt.
UiF: Når prædiktive algoritmer skal forbedre faglige risikovurderinger af underretninger
UiF’s prædiktive algoritme skal fungere som beslutningsstøtte ifm. socialrådgiveres risikovurderinger af underretninger. Socialrådgivere har 24 timer til at lave en risikovurdering af en indkommen underretning, i forhold til hvor akut og alvorlig den er (Lov om Social Service §155(2)). Det skal sikre hurtigst mulig indgriben ved overgreb, vold, eller andre former for akut fare. Men som UiF anfører, ”så omhandler socialrådgiveres beslutning (…) i de allerfleste tilfælde den mindre akutte risiko (…) Det er netop [socialrådgiveres] beslutningen om risiko, vi med dette projekt har fokus på” (Rosholm et al, 2021, 113). Projektets fokus på risiko betoner en støtte til at klassificere underretninger, hvor barnet ikke er i umiddelbar fare, men i risiko. Dette kan omvendt underbygge, at den rette (tidlige) indsats sættes i værk.
UiF problematiserer socialrådgivernes forudsætninger for at foretage disse risikovurderinger. Forskerne fra VIA havde forud for Underretninger i Fokus forestået en kvalitativ undersøgelse af socialrådgiveres risikovurderinger af underretninger. Undersøgelsen dokumenterede, at denne praksis er præget komplekse dilemmaer, forskellige kommunale procedurer for ikke-akutte underretninger samt betydelige variationer i socialrådgivernes praksis i forhold til, hvor meget information, der indgår i risikovurderinger (Villumsen og Søbjerg, 2020). Undersøgelsen konkluderede, at et statistisk værktøj “potentielt [kan] være hjælp i relation til både at afklare, hvor hurtigt der egentlig bør handles, og potentielt også guide til, hvad der bør undersøges nærmere i relation til, hvilke faktorer der giver risiko for markant mistrivsel senere hen” (Gjedde et al., 2017, s. 3).
Denne problematisering træder igen i UiF’s projektbeskrivelse:
Når en socialrådgiver står over for at skulle træffe en beslutning vedrørende en borger, konfronteres hun/han i nogle sager med en stor mængde af information om barnet og dets familie, der skal tilgås i forskellige fagsystemer. Dette kan være en omfattende proces, og der er risiko for, at vigtige oplysninger måske overses, eller at informationerne vægtes forskelligt fra sag til sag eller fra rådgiver til rådgiver (Trygfondens Børneforskningscenter og VIA, 2021b, s. 4).
Adspurgt om socialrådgiveres udfordringer i forbindelse med risikovurdering af underretninger, forklarede en af UiF’s forskere, at det er svært at anvende generel viden om risiko- og beskyttelsesfaktorer på den konkrete sag:
Med et pænt ord kalder vi (…) [sagsbehandlernes vurderinger] skøn, men jeg mener, i virkeligheden er det gætværk. Jeg mener, det er gætværk, fordi der intet er at guide dem her. For eksempel ved vi selvfølgelig, at det ikke er sundt at vokse op i et miljø med alkoholmisbrug – det ved vi godt. Men vi ved ikke præcis, hvad risikofaktoren er i forhold til dette specifikke barn, under disse specifikke omstændigheder, i denne præcise institutionelle sammenhæng. (Forsker, VIA, maj 2021).
Arbejdet med at beskytte børn beskrives generelt som ’kompleks’, da børns udsathed ikke skyldes kausale årsager, men derimod non-lineære dynamikker (Munro, 2010). Det er disse ikke-lineære dynamikker, der beskrives som svære at kortlægge i en kontekst af risikovurderinger af underretninger. Den prædiktive algoritme, derimod, kan ifølge en af UiF’s statistikere potentielt hjælpe med at analysere ikke-lineære sammenhænge i kraft af den maskinlæring, den er udviklet på baggrund af:
I det mindste forestiller jeg mig, at mistrivsel ikke kan reduceres til individuelle faktorer (…). Så det handler ikke om, om du f.eks. har syv søskende eller om du er flyttet otte gange inden for to år. I stedet kan det være samspillet mellem nogle af disse input, der forudsiger børns fremtidige mistrivsel. (…) Vi kan modellere komplekse relationer i data (…) vi kan modellere ikke-lineære forhold mellem variabler (forsker, BSS, oktober 2021).
Som citatet illustrerer, anser forskerne maskinlæringsmetoder som egnede til at kortlægge komplekse sammenhænge mellem risikofaktorer, her forstået som data med høj prædiktionsværdi i historiske datasæt.
Som beslutningsstøtte skal den prædiktive algoritme således bidrage med større præcision i det faglige skøn.
Den kan dog aldrig erstatte det. Som projektdeltagerne beskriver i en videnskabelig artikel, så ønsker de ”at belyse, hvordan vi sikrer, at socialrådgiveren kan forholde sig kritisk til Beslutningsstøtten og udfordre den, således at den ikke får for stor indflydelse, og at socialrådgiveren samtidig kan bevare sit socialfaglige skøn.” (Rosholm et al 2021, 113). Den gode risikovurdering af underretninger bliver derfor fremstillet som en kombination af den algoritmiske risikoscore og socialrådgivernes faglige ekspertise. På denne måde udpeger UiF’s problematisering således både et problem (professionelles betingelser for at foretage risikovurderinger af underretninger) og en løsning (en beslutningsstøtte, der kan modellere ikke-lineære sammenhænge derigennem prædiktere børns risiko for alvorlig mistrivsel).
Valg af datasæt blev foretaget med et dobbelt hensyn til maskinlæringsprocessens behov for store datasæt og nødvendigheden af kun at træne den på data, som den også lovligt ville kunne trække i en evt. kommunal praksis efter forskningsprojektet. I forhold til førstnævnte udviklede UiF algoritmen på 173,044 underretninger (90.644 børn). I Danmark må kommuner ikke sammenkøre data fra forskellige velfærdssektorer (f.eks. på tværs af skole og socialforvaltning) uden samtykke. Modellen blev derfor kun trænet på data, som socialrådgivere også har adgang til – og som de lovligt kan bruge – inden for deres egne administrative systemer (Trygfondens Børneforskningscenter og VIA, 2021b). En juridisk analyse konkluderede endvidere, at modellen ikke måtte anvende data om børnenes etniske herkomst eller køn som input-data, da disse variable kan medføre diskrimination (Poul Schmidt, 2021).
Algoritmen har været igennem flere iterationer, hvor præcision, lovlighed, fairness og dataminimering har været i fokus. Det endte ud i en algoritme, der beregner børns risiko for alvorlig mistrivsel ved automatisk at trække 66 variabler fra forskellige systemer i socialforvaltningen og på den baggrund tildele barnet en risikoscore mellem 1 – 10. Algoritmen beregner denne risiko-score på baggrund af:
data om barnets alder, flyttehistorik, antal søskende og antallet af tidligere underretninger, forebyggende foranstaltninger og anbringelser inden for de seneste to år. For forældrene til det barn, underretningen vedrører, inddrages data om deres alder ved barnets fødsel, civilstand, antal partnere de har børn med, samt en indikator for om de er afgået ved døden før underretningstidspunktet. Sluttelig indeholder modellen information om antallet af tidligere underretninger, forebyggende foranstaltninger og anbringelser inden for de seneste to år for det underrettede barns søskende (Trygfondens børneforskningscenter og VIA, 2021a, 7).
Mange variable handler om barnet eller dets søskendes tidligere underretninger, foranstaltninger og anbringelser. Men vi ser også, hvordan andre variable, fx forældres civilstand, anvendes prædiktivt i kombination med andre variable. Barnets risiko for mistrivsel beregnes i en ikke-lineær kombination af disse data. Barnets risikoscore – som skal hjælpe socialrådgivere med at bestemme dets evt. behov for akut eller tidlig indsats – bliver med andre ord konstrueret gennem maskinlæringsprocessens konfiguration af disse variabler som risikofaktorer.
Gladsaxe: Prædiktion til at foregribe symptomer på mistrivsel
Gladsaxe kommune sigtede mod at bruge algoritmiske prædiktioner til at identificere mistrivsel før underretninger blev sendt afsted til socialforvaltningen. Ønsket om at sætte ind før underretninger afspejler kommunens daværende strategi med at arbejde med forældre som både ressourcer og potentielle risikofaktorer. Den prædiktive algoritmiske teknologi var derfor en af mange initiativer, hvormed Gladsaxe Kommune ønskede at fokusere på tidlig opsporing med fokus på “forældrene, som er dem, der skal skabe de rette livsbetingelser og udviklingsmuligheder for deres børn” (Gladsaxe Kommune, 2016). Denne tilgang implicerer, som vi vil vise, en anden konstruktion af ”risiko” – og dermed en anden operationalisering af ”tidlig indsats” – end vi ser med UiF’s prædiktive algoritme.
Gladsaxe problematiserede selve underretningen som en procedure til at opspore børn i behov for tidlig indsats – som værende for sent. Nedenfor begrunder projektlederen beslutningen om at inddrage en algoritme til tidlig databaseret opsporing på følgende vis:
Selvom vi godt kunne se at de var udsatte som små – fx ved udeblivelse fra tandlæge, skilsmisse, psykisk sygdom mm. Du ved (…) Så gjorde vi ikke noget før de blev 8 år [når en underretning blev sendt til kommunen]. Når nu vi ved noget om, at de første tre år af et barns levetid er de aller-allervigtigste (…) hvorfor er det så, at vi ikke handler på det… (Projektleder, interview, 29. juni 2021).
Behovet for en algoritme hviler således på en problematisering af den tidlige indsats, underretninger potentielt skulle opstarte. Denne problematisering blev understøttet med henvisning til James Heckmans økonomiske studier om effekten af investeringer i den tidlige barndom. Her fremhævede kommunens strategi bl.a., at “Forskning har vist, at det er en langt bedre investering og giver en væsentlig større effekt at sætte ind over for de yngste børn” (Gladsaxe kommune, 2016). Ikke overraskende førte dette til ambitionen om at gribe ind før en underretning blev sendt afsted. Som kommunen beskrev det: “Vi ønsker således fremadrettet at agere mere proaktivt ved at handle på risikoindikatorer hos forældrene, inden der er symptomer på mistrivsel hos barnet, for dermed at sikre en tidligere og mere effektiv indsats mod udsathed” (internt dokument, Social- og indenrigsministeriet, 2017). En leder for indsatsen i Gladsaxe kommune uddybede i et interview:
Vi ønskede at være mere proaktive (…) det vi gerne ville undgå, var at de [børnene] overhovedet kom i mistrivsel, at vi for eksempel kunne se, at deres sprog ikke udviklede sig, eller at de udeblev fra skole eller lignende […] vores pointe var at forudsige det, før det kom dertil (Leder, interview, 6. maj 2021).
Ideen om at handle “proaktivt” gennem algoritmisk prædiktion udtrykker et andet forhold til fremtiden end det, vi ser, hos UiF. I stedet for at øge præcisionen i risikovurderinger af allerede identificerede symptomer på mistrivsel, ser vi her et ønske om at gribe ind, før der opstår en bekymring. Her kan spores en risikologik, der søger at foregribe problemer ved at udvide grænsen for, hvad man opsporer som risikofaktor.
Hvilke data kan forudse mistrivsel, før symptomer herpå opstår? Hvor mange af UiFs variabler handler om eksisterende eller tidligere sociale foranstaltninger, har Gladsaxe brug for data, der kan foregribe disse. Gladsaxes leder for børne- og familieområdet forklarede, at denne ambition krævede en øget informationsdeling på tværs af kommunens forvaltninger:
Vores beskæftigelseschef siger på et eller andet tidspunkt, at i virkeligheden, så er de jo ovre i jobcenteret de første der ved, når en langtidsledig mor bliver gravid […] Problemet er bare, at den viden den bliver i jobcenteret. Fordi der findes ikke sådan en ”tryk-videre-knap”. (Leder af børne og familieindsatser, interview, 29. Juni 2021).
Lederen uddyber i interviewet, at de skulle gøre op med at tænke i individuelle indikatorer og den enkelte fagprofessionelles respons herpå gennem underretninger og i stedet tænke i sammenhænge mellem indikatorer, som for den enkelte fagperson kan virke ubetydelige:
De [indikatorer] er nogle gange så små, at når man ser dem enkeltvis, er det ikke sikkert, at der er nogle, der reagerer på dem (…) Men vi har allerede data liggende i forskellige fagsystemer (…) og det, at vi kombinerer data [fra forskellige forvaltninger] kan muligvis hjælpe med tidligere hjælp (…) Hvis nu man vidste, at sundhedsplejen var bekymret, at tandplejen var bekymret, at beskæftigelseskonsulenten eller vuggestuepædagogen var bekymret (…) så ville vi jo simpelthen kunne kontakte den her familie (…) og fortælle dem, at det her var det vi havde fundet og så ville vi kunne tilbyde dem en samtale og se om der er noget, vi kan gøre for at hjælpe. (Leder, interview, 29. juni 2021)
Som citatet illustrerer, problematiserede kommunen en forvaltningsinddelt silostruktur, hvor forskellige fagsystemer ikke taler sammen. Hvor denne organisering af information på den ene side hindrer data i ulovligt at vandre på tværs af forvaltningsområder, hindrer den ifølge projektlederen også en tidlig opsporing af udsatte familier, som ellers er mulig ved at sammenkøre data. Det algoritmiske værktøj skulle derfor overskride denne infrastrukturelle (og juridiske) begrænsning ved at forbinde data fra forskellige forvaltningsområders fagsystemer og generere et mere ”komplet” billede af risici ved at “bruge de data, som vi rent faktisk har som mulighed” (Kommunal direktør, interview, 21. april 2021).
Med denne problematisering af den eksisterende datainfrastruktur søgte Gladsaxe kommune Indenrigsministeriet om tilladelse til at påbegynde en systematisk “samkøring af data” på tværs af forskellige faglige områder (Social- og indenrigsministeriet, 2017). Som de beskrev i en intern redegørelse: “Data indhentes fra relevante fagsystemer både på gruppen af udsatte børn og vores kontrolgruppe samt forældre. Der opereres på nuværende tidspunkt med 44 potentielle risikoindikatorer fordelt på 9 datakilder” (Gladsaxe kommune, 2018). Indikatorer kunne omfatte ting som “udeblivelse fra tandpleje”, “beskæftigelses-/ledighedshistorik”, “misbrugsdata”, “sundhedsplejens data” osv. Nogle af disse data kunne indsamles allerede ved moderens graviditet. Data, der blev set som afgørende for tidlig opsporing, blev prioriteret. For eksempel fremhævede kommunen vigtigheden af at inkludere sundhedsdata, da denne data registreres fra barnets fødsel (Gladsaxe kommune, 2018), og “data der bistår i identificeringen af børn/unge i Gladsaxe kommune som placerer sig i risikozonen” (Social- og indenrigsministeriet, 2017).
Kommunen understregede nødvendigheden af et fortsat fagligt skøn: “Vi ønsker derfor at modellen skal ligge til grund for en tidlig opmærksomhed, hvor en faglig vurdering altid vil begrunde en videre behandling” (Gladsaxe kommune, 2018). På samme måde forklarede direktøren for børne- og ungeområdet i et interview: “outputtet er beregnet til at blive brugt af fagpersoner, før de kontakter familierne”. I modsætning til UiF, der ville anvende algoritmisk prædiktion til beslutnings-støtte på en allerede fagprofessionelt genereret underretning, medfører Gladsaxes algoritme, hvad vi kan kalde beslutnings-generering: Den identificerer en familie først vha. værktøjet, hvorefter en socialrådgiver (sammen med familien) tager beslutning om det videre forløb i forhold til en tidlig indsats, der foregriber symptomer på mistrivsel.
Konklusion
I denne artikel har vi sammenlignet to ikke-implementerede forsøg på at bruge maskinlæring til at forudsige børns risiko for alvorlig mistrivsel. Begge projekters prædiktive algoritmer ligger i forlængelse af eksisterende styringslogikker, hhv. lovpligtige risikovurderinger af underretninger og en kommunal strategi om tidlig indsats. Vi har undersøgt algoritmiske risikokonstruktioner ved at analysere de to projekters (1) problematiseringer af eksisterende praksisser, og (2) data der anvendes til at udvikle algoritmen. Som det fremgår af Tabel 1, så indebærer dette forskellige konfigurationer af den tidlige indsats, selvom de to algoritmer ved første øjekast ligner hinanden. Prædiktive algoritmers operationalisering af risiko har således implikationer for, hvordan behovet for tidlig indsats identificeres, og hvornår den forestilles at skulle starte.
Hos UiF skal den prædiktive algoritmer understøtte socialrådgiveres risikovurderinger ved, at algoritmen udvælger og evaluerer data fra socialforvaltningens fagsystemer og transformerer dem til en risikoscore. Gladsaxe derimod stræbte efter at forudsige børns risiko for mistrivsel så tidligt som muligt, potentielt allerede fra moderens graviditet. UiF’s algoritme er reaktiv i den forstand, at den først anvendes efter, en underretning er modtaget. På samme måde afspejler en stor andel af algoritmens variabler netop tidligere eller igangværende sociale foranstaltninger. Gladsaxes algoritme tager derimod en proaktiv form og profilerer borgere som risikoobjekter, inden symptomer, der kan føre til en underretning, opstår. Tilsvarende er datasammenkørslen mere omfattende, idet data om forældrene fra forskellige forvaltninger anvendes af algoritmen. Dette illustrerer to forskellige forhold til fremtiden: UiF’s beregning af risiko ved en begrundet bekymring overfor Gladsaxe, der ser alle familier som potentielle risici.
UiF | Gladsaxe | |
Problematisering | Faglige vurderinger af underretninger er for usikre. | Den offentlige sektors datainfrastruktur hindrer tidlig opsporing af børn. |
Datagrundlag | Data om familien fra socialforvaltning. | Data om forældre og børn fra forskellige forvaltningsområder |
Formål med algoritmisk prædiktion | At øge præcisionen i socialrådgiveres risikovurderinger af underretninger. | At forudsige mistrivsel, før symptomer opstår og før underretninger indsendes. |
Risiko-objekt | Børn med underretninger. | Profilering af samtlige familier i kommunen |
Tidlig indsats | Den rette risiko-klassifikation af ikke-akutte underretninger | Opsporing af familier, der befinder sig i en såkaldt ”risiko-zone”. |
Den algoritmiske prædiktion af mistrivsel er hverken apolitisk eller neutral, men kan intensivere risikologikker. I Gladsaxes tilfælde kan den gøre familier, der ellers ikke er i kontakt med socialforvaltningen, synlige som ”risikable” og i behov for tidlig intervention. I UiFs tilfælde betyder det mere begrænsede valg af variable omvendt, at alene det, at man allerede har modtaget hjælp fra socialforvaltningen, bliver set som en risikofaktor. Valg af algoritmens data har således afgørende betydning for, hvad der kan iagttages som risiko og dermed blive anledning til tidlig indsats.
De prædiktive algoritmer går naturligvis ikke forud de styringslogikker, de udspringer af. Ikke desto mindre bør vi forstå algoritmers risiko-scoring af børn som en ny governmental taktik ift. at kende og intervenere i fremtiden. Som Amoore (2013: 9) påpeger, medfører introduktionen af prædiktive algoritmer, at vi forstår risiko som et kalkulerbart og dermed håndterbart element. Det betyder også, at alene løftet om algoritmiske beregninger af risici, også ved underretninger der i forvejen er underlagt en risiko-logik, har konsekvenser. Munro (2010) anfører fx, at metoder til beregning af risiko som regel medfører en øget ansvarliggørelse af socialforvaltninger for begivenheder og livsforløb, der finder sted i fremtiden.
Begge eksempler illustrerer, hvordan prædiktive algoritmer potentielt kan operationalisere en ”mulighedernes politik” (Amoore, 2013) gennem risiko-scoring af børn. Som ikke-implementerede eksperimenter er de endvidere interessante i samtidens debat om, hvordan staten skal gribe tidligt ind i borgernes ukendte fremtider gennem algoritmisk prædiktion. Herved relaterer casene sig også til bredere spørgsmål om, hvordan eller hvorvidt staten skal bruge algoritmer til at gøre ukendte fremtider til genstand for styring, samt hvilke relationer vi skal have til vores (ukendte) fremtid, ikke mindst i bestræbelsen på tidlig indsats. Her er det afgørende at have en demokratisk debat om, i hvilket omfang vi er villige til at leve med at blive analyseret af algoritmer. Dette inkluderer fundamentale valg om, hvorvidt vi skal holde vores fremtid åben eller at forstå den som algoritmisk beregnelige risici i den tidlige indsats navn.
Referencer
AI Now Institute (2018). Litigating algorithms: Challenging government use of algorithmic decision systems. AI Now Institute.
Amoore, L. (2013). The Politics of Possibility. Risk and Security beyond Probability. Duke University Press.
Birk, R. H., & Elmholdt, K. T. (2020). Making space with data: Data politics, statistics and urban governance in Denmark. STS Encounters, 11(1).
Cevolini, A. & Esposito, E. (2020). From pool to profile: Social consequences of algorithmic prediction in insurance. Big Data & Society 7(2).
Cuccaro-Alamin, S., Foust, R., Vaithianathan, R., & Putnam-Hornstein, E. (2017). Risk assessment and decision making in child protective services: Predictive risk modeling in context. Children and Youth Services Review, 79, 291 – 298.
Desrosières, A. (1998). The politics of large numbers: A history of statistical reasoning. Harvard University Press.
Dunleavy, P., & Margetts, H. (2023). Data science, artificial intelligence and the third wave of digital era governance. Public Policy and Administration.
Ejrnæs, M., & Monrad, M. (2022). Overdreven risikoopfattelse, men underdreven chanceulighed? – Risikovurderinger på børn- og unge området. Dansk pædagogisk tidsskrift. 2022(1), 1 – 20.
Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York, NY: St. Martin’s Press.
Ewald, F. (1990). Norms, discipline, and the law. Representations 30 (Spring): 138 – 161.
Foucault, M. (1980). Power/Knowledge: Selected Interviews and Other Writings, 1972 – 1977. New York: Pantheon Books.
Foucault, M. (2009). Security, Territory, Population:Lectures at the Collège de France 1977 – 1978. New York: Palgrave Macmillan.
Gjedde, C. A., Villumsen, A. M., Klitbjerg-Nielsen, C., & Søbjerg, L. M. (2017). Projekt Beslutningsstøtte vedunderretninger: et kort over det kvalitative landskab med vurdering af underretninger. Aarhus: VIA University College.
Gladsaxe kommune (2016) Strategi for tidlig indsats 2016 – 2019. Tilgængelig på: https://gladsaxe.dk/Files//Files/Faelles-dokumenter/Planer-politikker-visioner/BKF/Strategi-for-Tidlig-indsats_v2.pdf, Gladsaxe kommune.
Gladsaxe kommune (2018) ”Bilag til Dataunderstøttet opsporing af udsatte børn”, Gladsaxe kommune.
Hacking, I. (1990). The taming of chance . Cambridge University Press.
Høybye-Mortensen, M., & Kjeldsen, L. (2021). Kunstig intelligens i socialt arbejde: kan vi skelne mellem skidt og kanel?. Social Kritik: Tidsskrift for social analyse & debat, 33(163), 83 – 95.
Jørgensen, R. F. (2023). Data and rights in the digital welfare state: The case of Denmark. Information, Communication & Society, 26(1), 123 – 138.
Jørgensen, A. M., & Nissen, M. A. (2022). Making sense of decision support systems in child protection: Rationales, translations and potentials for critical reflections on the reality of child protection. Big Data & Society, 9(2).
Kristensen K (2022) Hvorfor Gladsaxemodellen fejlede – om anvendelse af algoritmer på socialt udsatte børn. Samfundslederskab i Skandinavien, 37(1). 1: 27 – 49.
Leslie D, Holmes D, Hitrova C, et al. (2020) Ethics Review of Machine Learning in Children’s Social Care. What works for children’s social care. Available at: http://whatworks-csc.org.uk/research – report/ethics – review – of – machine – learning – in – childrens – social – care/.
Meilvang, M. L., & Dahler, A. M. (2022). Decision support and algorithmic support: The construction of algorithms and professional discretion in social work. European Journal of Social Work, 0(0), 1 – 13.
Munro E (2010) Learning to Reduce Risk in Child Protection. The British Journal of Social Work 40(4): 1135 – 1151.
Poul Schmidt (2021): Forvaltningsretlig legalitetskontrol af Beslutningsstøtten, 4013021 JNO/ATAB/ELMI, https://childresearch.au.dk/fileadmin/childresearch/dokumenter/Beslutningsstoette/Forvaltningsretlig_legalitetskontrol_af_Beslutningsstoetten.pdf , Poul Schmidt.
Ratner, H. (2020). Europeanizing the Danish school through national testing: Standardized assessment scales and the anticipation of risky populations. Science, Technology, & Human Values, 45(2), 212 – 234.
Ratner, H. (2021). Prædiktive algoritmer: Den forebyggende stat og den risikoscorede borger. In K. Escherich , & M. Jarlner (Eds.), Fra velfærdsstat til overvågningsstat : Algoritmernes magt i den offentlige forvaltning (pp. 93 – 116). Djøf Forlag: København.
Ratner, H. F., & Elmholdt, K. T. (2023). Algorithmic constructions of risk: Anticipating uncertain futures in child protection services. Big Data & Society, 10(2), 1 – 12.
Ratner, H. F., & Schrøder, I. (2023). Ethical Plateaus in Danish Child Protection Services: The Rise and Demise of Algorithmic Models. Science & Technology Studies, 0(0), 1 – 18.
Rosholm, M., Toft, S. D., Villumsen, A. M., Bodilsen, S., & Nirmalarajan, L. Y. (2021). Algoritmer og machine learning i socialt arbejde? Social Kritik, 33(163), 110 – 123.
Ruppert, E. (2012). The governmental topologies of database devices. Theory, Culture & Society, 29(4 – 5), 116 – 136.
Social- og indenrigsministeriet (2017) ”Ansøgning om konkrete forsøg i Frikommuneforsøg II”.
Social- og boligstyrelsen (2022) ”Tidlig opsporing og reaktion”. Tilgængelig på https://social.dk/boern-og-unge/foranstaltninger/viden-og-temaer/tidlig-opsporing-og-reaktion, Social- og boligstyrelsen.
Søbjerg, L. M. (2022). Developing a statistical model for assessment of referrals of children at risk. Child abuse review, 31(4), 27 – 49.
Trygfondens børneforskningscenter og VIA University college (2021a): Egenskaber ved den statistiske model i forskningsprojektet Underretninger i fokus. https://childresearch.au.dk/fileadmin/childresearch/dokumenter/Underretninger/20220617_Egenskaber_ved_den_statistiske_model_UiF.pdf
Trygfondens børneforskningscenter og VIA University college (2021b): Kort projektbeskrivelse: Forskningsprojektet Underretninger i fokus. https://childresearch.au.dk/fileadmin/childresearch/dokumenter/Underretninger/20220620_Kort_projektbeskrivelse.pdf
Trygfondens børneforskningscenter og VIA University college (2022): Notat om ændringer i projekt Underretninger i fokus. https://childresearch.au.dk/fileadmin/childresearch/dokumenter/Underretninger/20220620_Notat_aendring_i_projektdesign_juni_2022.pdf
Villumsen AM and Søbjerg LM (2020) Informal pathways as a response to limitations in formal categorization of referrals in child and family welfare. Nordic Social Work Research 0(0). Routledge: 1 – 12.
Wishart, D., Taylor, A., & Shultz, L. (2006). The construction and production of youth ‘at risk.’ Journal of Education Policy, 21(3), 291 – 304.
- Helene Friis Ratner Lektor, DPU – Danmarks Institut for Pædagogik og Uddannelse, Aarhus Universitet
- Kasper Trolle Elmholt Lektor, Institut for Politik og Samfund, Aalborg Universitet