If I ruled the world (imagine that)

Hvorfor starter denne saken med en referanse til ei gammel rap-låt? Jo, fordi jeg har hengt med en fyr som liker rap. Og som er Høyremann. Ja, vi snakker selvfølgelig om kunnskapsminister Torbjørn Røe Isaksen. Han tilhører bloggens relativt begrensede leserskare, og etter en tidligere sak jeg skrev inviterte han meg til et møte for å snakke om blant annet skoleutvikling. Nedenfor oppsummerer jeg poengene jeg kom med under møtet (modifisert med en ganske god dose etterpåklokskap og luksusen av å kunne legge alle søren-jeg-burde-sagt-det-sånn-og-ikke-sånn-poenger inn i denne teksten).

Staten er og vil alltid være en dårlig skoleutvikler

Staten er særs dårlig plassert for å drive skoleutvikling¹. Staten lykkes i middels grad med å styre kommunene, og kommunene lykkes i liten grad med å styre skolene sine. Skoleutvikling foregår på skolene, og kommunene med mest fremgang på nasjonale prøver har i hovedsak oppnådd dette på grunn av endringer foretatt på hver enkelt skole og ikke på grunn av kommunale tiltak. De store sprikene i resultater mellom skoler i samme kommune viser også at det kommunale nivået har liten betydning².

Å være lærer innebærer at du daglig tar masse beslutninger basert på skjønn, og der disse beslutningene i liten grad kan detaljreguleres fra verken staten, kommunen eller rektor. Reformer, læreplaner og rundskriv utsettes for omfattende tilpasninger på veien fra Kunnskapsdepartementet og ut i klasserommet. Er det problematisk at demokratisk fattede vedtak ikke blir fulgt opp som tiltenkt? Ja, det er problematisk hvis man er overbevist over at statens ideer er ufeilbarlige, og at om de blir fulgt til punkt og prikke vil alt funke. Studier av iverksetting i skolen (og på alle andre samfunnsområder) viser imidlertid at reformer sjeldent blir iverksatt slik de var tiltenkt. At problemer likevel løses fra tid til annen tyder da på at det er lærernes tilpasninger (eller noe helt annet man gjorde) som bidrar til dette – og ikke brilliante og prikkfritt gjennomførte reformer.

Hvordan hjelpe skoler som ønsker endring?

Skoler som selv ønsker endring bør settes i kontakt med skoleledere og lærere på skoler som har lykkes. Staten bør her bidra til å identifisere skoler med god praksis på ulike felter (ulike fag, mobbing, frafall): Start med å finne skoler med fremgang på nasjonale prøver, elevundersøkelsen eller frafallstatistikken og undersøk dermed nærmere om fremgangen skyldes endringer på skolen eller tilfeldigheter (for mobbetall kan det av og til være nok at en elev slutter for at tallene blir bedre, og da uten at skolen har endret praksis). Når man har identifisert skoler med god praksis bør lærere og skoleledere på disse skolene hjelpe et mindre antall skoler i nærheten. Dyktige lærere og skoleledere kan så kjøpes fri i opptil 1-2 dager i uka for å hjelpe en annen skole som sliter. Det er et begrenset antall skoler som kan hjelpes på denne måten, men man er avhengig av at ressurspersonene klarer å tilpasse sine lærdommer til en annen skole, noe som i mindre grad er mulig ved korte seminarer eller mer overfladisk erfaringsdeling med et stort antall skoler. At dyktige folk fortsatt jobber på sin opprinnelig skole mesteparten av tiden gjør også at det positive man har oppnådd her trolig vil bli vedlikeholdt. Så hvem skal identifisere god praksis? Fylkesmennene. Oppfølging av eksamen og tilsyn av skolenes uteområder er sikkert viktig det, men å bidra til positiv skoleutvikling er viktigere. Og ja, de kan sikkert også få litt hjelp av landets tallrike pedagogikkprofessorer også.

Hvordan hjelpe skoler som egentlig er rimelig happy med tingenes (crappy) tilstand?

Det finnes dessverre noen slike skoler rundt om i landet. Mulige kjennetegn: Alle lærerne er ferdig med å jobbe før kl. 15 hver dag, øving på jule/sommeravslutning opptar 2 måneder per skoleår, resultatene er dårlige, trivselen er laber og – ja hvis man kunne målt dannelse hadde de gjort det dårlig også her. Skoleutvikling bør helst starte innenfra, men det er trolig bedre med litt smart top-down-styring enn at det ikke skjer noen verdens ting (Ringsaker kommune er her en mulig modell). Statens viktigste rolle ovenfor disse skolene blir her å bevisstgjøre lærere, skoleledere, foreldre og kommunepolitikere om tilstanden i skolen, for deretter å satse på at noen av disse selv ser behovet for forbedring.

Det er jo nettopp også dette staten har forsøkt på siden innføringen av nasjonale prøver i 2004. Med de nye nasjonale prøvene fra 2014 har man også tatt et steg i riktig retning av bedre målinger som enklere kan tolkes slik de bør³. Absolutte resultater på nasjonale prøver sier imidlertid mer om utdanningsnivået til foreldrene enn kvaliteten på skolen. Nasjonale prøver måler sånn sett nabolaget og ikke skolen. Dette er også grunnen til at mange, inklusiv kunnskapsministeren, ønsker å få utviklet skolebidragsindikatorer som på ulike måter kontrollerer vekk effekten foreldrenes bakgrunn har på resultatene. I motsetning til på videregående skole er slik skolebidragsindikatorer relativt greie å beregne både på mellomtrinnet og ungdomstrinnet. Å publisere resultatene fra nasjonale prøver samtidig som man publiserer skolebidragsindikatorer kunne forhåpentligvis også gjort de årlige oppslagene i diverse aviser noe mer nyanserte.

Da gjenstår det siste problemet: De som ikke tror på skolestatistikk. Ja, skolestatistikk forteller ikke den hele og fulle sannheten. Og ja, enkelte skoleledere, skolebyråkrater og politikere tolker skolestatistikk på måter det ikke finnes dekning for. Men nasjonale prøver, elevundersøkelsen, kartleggingsprøver, eksamenskarakterer og skolebidragsindikatorer sier noe om kvaliteten på en skole. Brukt på riktig måte er dette også gode verktøy for lærere og skoleledere: Både for å si noe om hvor man står, og for å se om tiltak har fungert eller ei. Men det finnes folk der ute som overhodet ikke tror på skolestatistikk. Jeg forsøker med denne bloggen å gjøre skolestatistikk litt enklere og litt mindre mystisk. Men hvis jeg møter en leser som fortsatt overhodet ikke tror skolestatistikk sier noe som helst om virkeligheten – og sier det – da skal jeg forsøke å se på vedkommende med forståelse. Men lett blir det ikke.

Noter:

  1. Erfaringene fra Sverige og delvis også Danmark tyder imidlertid på at staten har stor mulighet til å drive skolerasering. Storstilt privatisering og/eller konflikt med lærerne kan relativt raskt få store konsekvenser også ute i klasserommene. Så statens viktigste rolle er (inspirert av Barack Obama) å “Don’t do stupid shit”.
  2.  Jeg har tidligere skrevet om dette her og i masteroppgaven min (side 67-69).
  3. De gamle nasjonale prøvene var innrettet på en slik måte at de ikke uten videre kunne sammenligne resultatene fra år til år. Seland, Vibe, og Hovdhagen (2013) påpekte i sin evaluering av de opprinnelige nasjonale prøvene også at resultatene på aggregert nivå burde beregnes på bakgrunn av elevenes gjennomsnittlige poengsum på prøvene og ikke deres fordeling på mestringsnivåer. Når dette ble beregnet ut fra fordelingen på mestringsnivåer kastet man bort veldig mye informasjon, og variasjonen fra år til år ble høyere enn den trengte å være. Dette kunne i enkelte situasjoner også gi direkte misvisende resultater (Seland, Vibe, og Hovdhagen 2013, 160–161).
Advertisements

Kaffebareffekten. Eller: Hvordan antall kaffebarer påvirker inntakskarakterer på videregående skole

Jeg sitter på en café på Grünerløkka og drikker te. Eplete.

Slik begynte en novelle jeg skrev i 10. klasse på ungdomsskolen. Lengselen mot det urbane livet gjorde at jeg søkte meg inn på en  videregående skole i verdensmetropolen Hamar, og for en som hadde vokst opp på Næs på Hedmarken var dette også et stort steg i urban retning. Ja, for hvorfor velger man egentlig å søke seg til en viss videregående skole? Er det på grunn av kvaliteten på lærerne? Fagkombinasjoner? Givende læringsmiljø blant elevene? Vel, tenk om det handler om noe helt annet: Kaffebarer. Kom igjen: Friminutt, midttimer og vondt-i-villikken-timer med ubegrenset tilgang til kalde og varme kaffedrikker  – fortrinnsvis med mye melk, mye sukker og nokså lite kaffe (brannfakkel: eplete er passé). Så la oss skissere opp følgende hypotese: En videregående skole blir mer populær dess flere kaffebarer som finnes i nærområdet rundt skolen.

La oss bruke Oslo som testobjekt: Oslo har fritt skolevalg, og «populariteten» til skolene finner kan man for eksempel finne ved å se på gjennomsnittlig inntakskarakter for inneværende skoleår (2015/2016) . Jeg begrenset meg deretter til de 20 skolene  med studiespesialisering. Så ble Google Maps brukt til å telle antall kaffebarer (søkeord: café og bakeri) i 500 meters omkrets fra skolens hovedinngangsdør (ref. SSBs nærområdedefinisjon¹).Bare selvstendige kaffebarer telles, mens kantiner forkledd som kaffebarer og lignende holdes utenfor. Resultatet har nå blitt til en tabell med 20 skoler, der en kolonne viser gjennomsnittlig inntakspoeng mens neste kolonne viser antall kaffebarer. Plottet opp mot hverandre ser sammenhengen mellom disse to variablene slik ut:Kaffe - plot uten reglinje

Ingen supertydelig sammenheng dette, men la oss likevel prøve å gjøre en regresjonsanalyse. Dette er en statistisk metode for å beregne hvor mye en uavhengig variabel (her: antall kaffebarer) påvirker en avhengig variabel (her: gjennomsnittlig inntakspoeng). Vist på det samme plottet ser denne regresjonslinja slik ut²:Kaffe - plot med regresjonslinje

Regresjonsmodellen viser at gjennomsnittlig inntakspoeng øker med 0,71 per kaffebar i nærområdet rundt skolen³. Modellen viser også at nesten 15 % av variasjonen i inntakspoeng kan forklares med antall kaffebarer. De ytterligere 85 prosentene antas da å skyldes blant annet faglige faktorer, venners valg og “hakke peiling, det bare ble slik”  (den siste faktoren der er normalt vanskelig å måle, og ender som regel opp som “uforklart variasjon”).

Både effekten og ikke minst den relativt høye forklaringskraften i modellen er overraskende. Men grunnen til at nesten 15 % av variasjonen kan forklares med antall kaffebarer skyldes da igjen at antall kaffebarer her er en proxyvariabel som også måler en hel rekke andre relevante faktorer ved skolene: Er det mange kaffebarer i nærheten ligger skolen også sentralt plassert. Sentralt plasserte skoler har igjen bedre kollektivtilbud, og lokaliseringen i Oslo sentrum gjør det også lettere å rekruttere elever fra hele Oslo. Inntil videre forskning på dette feltet er på plass velger jeg imidlertid å påstå at 15 til 16-åringers tilgang på iskaffe mocca likevel er den viktigste driveren bak dette.

Konsekvenser av disse funnene for ambisiøse rektorer

Har søkerne på skolen din i dag 3 i snitt må du sørge for at det blir bygget 42,5  kaffebarer i nærheten av skolen din (30 inntakspoeng / 0,71 inntakspoeng i økning per nye kaffebar). Neste år vil du da bare få elever med 6 i snitt fra ungdomskolen og lovordene vil flomme inn (eventuelt så vil flommen av kritikk, som særlig oslorektorer alltid virker å stå i, bli redusert en liten periode [men alt er jo som kjent relativt]).

Konsekvenser av disse funnene for eventuelle senterpartipolitikere som leser dette

Kan man forby kaffebarer i 500 meters omkrets fra videregående skoler? Dette er det store spørsmålet. Senterpartiet bør våge å ta debatten. Dette gir også supre muligheter til å fylle agurksommeren 2016 med veletablerte retoriske stikk mot kaffe latte-drikkende oslofolk (og så kan heller forslaget om passkontroll på Svinesund få seg en velfortjent sommerferie).

Konsekvenser av disse funnene for de som verken er ambisiøse eller senterpartipolitikere

 

Høyre har programfestet at de vil “gi elevene i den videregående skolen rett til fritt skolevalg, også på tvers av fylkesgrensene”. En (mot formodning) suksessfull regionreform kan også gi nye inntaksgrenser og dermed vil flere elever få anledning til å søke skoleplass i mer kaffebartette strøk. En slik endring vil trolig få størst utslag nettopp rundt Oslo på grunn av korte avstander og godt kollektivtilbud.


 

Epilog:

Bloggen er nettopp publisert. Jeg reiser meg fra den ubehagelig kaffebarstolen og går bort til kassa. “Dere har vel ikke tilfeldigvis eplete?” #YOLO

 


 

Noter:

1) Bare tuller, dette var bare den første måten å måle dette på som falt meg inn.

2) Jeg antar her også at sammenhengen her er lineær, det vil si at økningen i gjennomsnittlig inntakspoeng antas å være like stor om man går fra 0 til 1 kaffebar eller om man øker fra 11 til 12 kaffebarer.

3) Sammenhengen har en signifikanssannsynlighet på litt over 10 %, men dette har jeg valgt å ikke skrive noe om. Om du leser dette har du sikkert forstått at hele poenget denne analysen var å få frem et retorisk poeng eller to. Når det er sagt: Signifikanssannsynligheten synker til rett over 5 % om Ullern videregående holdes utenfor, noe som muligens kan forsvares siden skolen flyttet fra kaffebarmekkaet Solli til Oslos kaffebar-messige-Saharaørken Radiumhosipitalet ved skolestart i 2015.

 

 

 

 

 

 

 

Fritak funker ikke: Ingen sammenheng mellom fritak og resultater på nasjonale prøver

Denne teksten ble først publisert hos bloggkollektivet Lærerråd i 2013 (link).

Selvfølgelig blir det gjennomsnittlige resultatet på nasjonale prøver høyere hvis de svakeste elevene blir fritatt. Dette slo meg som så selvfølgelig at jeg i masteroppgaven min planla å kontrollere vekk denne formen for juks og «skoledoping». Ja, for hvorfor skulle ellers skoler i Vestfold «nærmest presse» foreldre til å søke fritak for barna sine? Etter å ha gått tallene nærmere i sømme, viser det seg at dette ikke på noen måte var så selvfølgelig som jeg trodde.

Først: Det store bildet

Ved hjelp av Utdanningsdirektoratets rapportbygger har jeg hentet ut prøveresultater og fritaksandel for samtlige av landets kommuner på prøvene i engelsk, lesing og regning for både 5. og 8. klasse i årene 2007 til 2013. Datasettet mangler en del informasjon, spesielt skorter det på fritaksandeler og data om de minste kommunene. Det er også gjennomgående mindre informasjon om prøvene i 8. klasse. Henvendelser til Utdanningsdirektoratet tyder imidlertid på at dette er de beste dataene de har – og da må vi foreløpig klare oss med det.

Det finnes store variasjoner mellom kommunene i hvor stor andel elever som fritas. «Rekorden» innehas av Karlsøy kommune i Troms, der hele 34,8 % av elevene var fritatt fra engelskprøven for 8. klasse i 2007. I motsatt ende har veldig mange kommuner 0 % fritatte elever. Dette gjelder faktisk en overraskende stor andel av kommunene, og for eksempel hadde hele 180 av 231 kommuner 0 % fritak fra leseprøven for 5. klasse i 2007. Andelen «0 %-kommuner» har sunket i perioden 2007 til 2013, men ved samme prøve i 2013 hadde fortsatt 87 av 201 kommuner 0 % fritak. Gjennomsnittlige andel fritak har økt fra under 1 % til litt rundt 3 % i de siste årene (legg merke til at dette er snakk om gjennomsnittet mellom kommuner).

Den følgende analysen vil bruke korrelasjon som et mål på i hvilken grad kommuner med høy andel fritatte elever også har høyere resultater. En korrelasjon (sammenheng) på 1 vil bety at det alltid er høy verdi på begge variablene, mens en korrelasjon på -1 betyr at når den ene variabelen har høy verdi, vil den andre alltid ha lav verdi. En korrelasjon på 0 betyr at det ikke finnes noen sammenheng, og på samme måte vil en korrelasjon på 0,60 bety at variablene viser en sterkere sammenheng enn om korrelasjonen bare er på 0,30. Siden jeg ikke har tall for alle norske kommuner, kan enkelte korrelasjoner skyldes tilfeldigheter ved de kommunene jeg har tall på. For å måle graden av slik tilfeldighet brukes signifikanssannsynlighet. En signifikanssannsynlighet på 100 % betyr at vi kan være helt sikre på at sammenhengen kun skyldes tilfeldigheter. Resultatet kan derfor ikke anses som representativt for alle norske kommuner. Videre vil jeg regne med at en signifikanssannsynlighet på 5 % eller lavere er tilstrekkelig til å konkludere med at en sammenheng ikke skyldes tilfeldigheter. Slike signifikante korrelasjoner vil bli merket med en * i tabellene.

Tabellen under viser korrelasjon mellom andel fritatte elever og resultater for alle prøver på begge trinn fra 2007 til 2013. Resultatene er slått sammen slik at resultatene fra prøvene på 5. og 8. trinn teller like mye (disse måles henholdsvis på en skala fra 1–3 og en skala fra 1–5).

Tabell 1: Korrelasjon mellom gjennomsnitt andel fritatte elever og resultatene på alle nasjonale prøver for norske kommuner 2007–2013. Både 5. og 8. klasse.

År 2007 2008 2009 2010 2011 2012 2013
Korrelasjon 0,22 0,23 -0,11 -0,19 0,38* -0,07 0,19
Signifikanssannsynlighet 16 % 12 % 47 % 25 % 0,8 % 69 % 11 %
Antall kommuner (N) 42 46 45 39 48 38 72

Overraskende nok viser tabellen at det kun finnes signifikant sannsynlighet mellom andel fritatte elever og resultater i ett av sju år prøvene er arrangert (i sin nåværende form). I 2011 finnes en moderat korrelasjon, og det er videre bare 0,8 % sannsynlighet for at dette skyldes tilfeldigheter. Men siden enkelte kommuner har unormalt høye fritakstall, kan disse opptre som statistiske «uteliggere» som påvirker resultatet i unaturlig stor grad. Ved å plotte fritak og resultater opp mot hverandre finner jeg tre slike uteliggere i tabellen over: 2011 er det eneste året med signifikant sammenheng mellom fritak og resultater, og dette resultatet står seg selv om uteliggeren Giske utelates fra analysen. Resultatene i 2009 og 2012 forblir ikke-signifikante etter at henholdsvis Hadsel og Hammerfest utelates. Antall kommuner som er inkludert i tabellen over er lavt, og dette skyldes at jeg i løpet av sammenslåingen av dataene «mistet» informasjon om mange kommuner. Mange kommuner forsvinner fordi det kun finnes informasjon om prøvene på 5. og ikke 8. klasse eller vice versa. Jeg vil derfor prøve å analysere resultatene for 5. og 8. klasse hver for seg. Dette vil både øke antall kommuner i analysen og kan få frem om sammenhengen mellom fritak og resultater varierer mellom barne- og ungdomsskolen.

Er det forskjell på prøvene for 5. og 8. klasse?

Tabell 2: Korrelasjon mellom gjennomsnitt andel fritatte elever og resultatene på alle nasjonale prøver for norske kommuner 2007–2013. Kun 5. klasse.

År 2007 2008 2009 2010 2011 2012 2013
Korrelasjon 0,00 0,14 0,11 0,20* 0,08 0,11 0,12
Signifikanssannsynlighet 98 % 8 % 17 % 2,5 % 29 % 21 % 9 %
Antall kommuner (N) 152 164 155 130 160 137 198

Tabell 2 viser korrelasjonen mellom fritak og resultater på alle prøver på 5.trinn. Kun på prøvene i 2010 hadde skoler med høyt fritak høyere resultater, og der sannsynligheten for at dette skyldes tilfeldigheter, er på 2,5 %. Åmli i 2007, Hadsel i 2009 og Aure i 2012 er uteliggere, men resultatene i disse årene forblir ikke-signifikante også når disse utelates.

Tabell 3: Korrelasjon mellom gjennomsnitt andel fritatte elever og resultatene på alle nasjonale prøver for norske kommuner 2007–2013. Kun 8. klasse.

År 2007 2008 2009 2010 2011 2012 2013
Korrelasjon -0,35* -0,11 -0,09 -0,09 -0,03 -0,04 -0,11
Signifikanssannsynlighet 0,1 % 33 % 41 % 45 % 77 % 78 % 32 %
Antall kommuner (N) 87 83 84 77 77 63 88

På prøvene for 8. klasse har korrelasjonen negativt fortegn, noe som betyr at kommuner med høyt fritak oftere oppnår dårligere resultater. Resultatene er imidlertid bare signifikante i 2007, og forsvinner helt hvis uteliggeren Karlsøy utelukkes fra analysen. Karlsøy er også en uteligger i 2009, men her påvirkes ikke resultatet av om denne kommunen utelates. Foreløpig er det lite som vitner om en tydelig sammenheng mellom andel fritatte elever og resultater. Legg også merke til at den signifikante korrelasjonen i 2011 vi fant i tabell 1 (for begge klassetrinn) skyldes tilfeldigheter ved hvordan resultatene ble slått sammen på: Det finnes ingen signifikant sammenheng på 2011-prøvene til verken 5. eller 8. klasse. Resultatet i tabell 1 virker dermed å skyldes at skoler med høyt fritak på prøven i 5. klasse samme år hadde høyt resultat på prøven for 8. klasse (eller motsatt). Mangelen på sammenheng er overraskende og det kan være verdt å gå enda grundigere til verks ved å studere alle de avholdte prøvene hver for seg.

Er det forskjeller mellom de 39 ulike prøvene?

Siden 2007 er det avholdt 14 leseprøver, 12 regneprøver (årets tall er enda ikke sluppet) og 13 engelskprøver (Utdanningsdirektoratet gjorde feil med engelskprøven for 5. klasse i 2011 og publiserte aldri resultatet). På de 14 prøvene i lesing har kun én prøve signifikant sammenheng mellom fritak og resultat. På prøven for 5. klasse i 2010 er korrelasjonen nokså svak (0.26, sig: 0,0 %, N=190). Resultatet forblir også signifikant selv om uteliggeren Ringebu utelates. Det virket først å være signifikant negativ sammenheng på prøven for 8. klasse i 2007, men denne forsvant da uteliggeren Karlsøy ble fjernet.

På de 12 regneprøvene finnes det signifikant sammenheng på prøven for 5. klasse i 2011 og for 8. klasse i 2007. Korrelasjonen på 5. klasseprøven i 2011 er svak (0.15, sig: 2,8 %, N=208). Korrelasjonen på 8. klasseprøven i 2007 er negativ, men forsvinner når uteliggeren Karlsøy utelates. Derimot blir 5. klasseprøven fra 2012 svakt positivt korrelert (0.16, sig: 2,6 %, N=205) når uteliggeren Aure utelates, og dermed blir regneprøvene stående med to av tolv signifikant korrelerte prøver.

På de 13 engelskprøvene finnes signifikant positiv korrelasjon på prøven for 5. klasse både i 2010 (0.21, sig: 0,3 %, N=207) og 2011 (0.15, 3,4 %, N=200). 8. klasseprøven i 2007 var først signifikant negativ korrelert, men da Karlsøy med sitt rekordfritak på 34,8 % ble utelatt, forsvant denne sammenhengen. Oppsummert finnes signifikant positiv korrelasjon bare på 5 av de 39 prøvene som er blitt avholdt. De svake korrelasjonene er alle positive, noe som betyr at kommunene med høyere fritak også hadde litt høyere resultater. Men selv for 5. klasse-prøvene inntreffer dette bare på 5 av 19 prøver, mens det for de 20 prøvene i 8. klasse ikke fantes noen sammenheng. Det hadde vært spennende å se om man oppnår samme resultatet ved å studere skoler og ikke kommuner, men for flere av kommunene i analysen er dette det samme, da enkelte kommuner uansett bare har én grunnskole. En lignende analyse kunne sikkert også vært gjort med mer sofistikerte statistiske metoder, for eksempel ved å «imputere» manglende data. Men ettersom vi har brutt ned sammenslåtte tall i stadige mindre biter, begynner det likevel å tegne seg et bilde av det ikke er noen klar sammenheng mellom fritak og resultater. Kommuner med høyt fritak har verken bedre eller dårligere resultater enn andre kommuner.

Myth busted?

Kan variasjonen i fritak og resultater forklares uavhengig av hverandre? Kanskje. En mulighet er at ulike syn på hvorvidt alle elever i størst mulig grad bør gjøre det samme, eller om det er greit at de svakeste elevene har et annerledes opplegg, spiller en rolle. Dette kan forklare variasjonen i fritak og trenger ikke nødvendigvis også å påvirke prøveresultatene. En annen årsak til variasjon i fritak kan være av mer praktisk art: Skal en skole frita elever, må disse ha et alternativt opplegg. Å lage et alternativt opplegg krever en del ressurser, noe som er enklere å avsette hvis man har planer om å frita mange elever enn bare én eller et fåtall. Det kan i så fall være snakk om en ketchupeffekt: Enten så kommer det ingenting, eller så kommer det alt for mye.

Eller kan det tenkes at disse kommuner med høyt fritak egentlig er dårligere enn gjennomsnittet, men at de «reddes» nettopp ved å frita en stor andel elever? Kanskje, men i utgangspunktet bør fritak fungere slik at the more the merrier: Det er i hovedsak de antatt svakeste elevene som fritas, og jo flere av disse som fritas jo færre havner på «Mestringsnivå 1». Og gjennomsnittet for de resterende elevene bør da bli høyere. En kommune som fritar 20–30 % av de svakeste elevene bør slik kunne unngå å ha én eneste elev på de laveste mestringsnivåene. Dette er derimot ikke tilfelle, og de kommunene med et uvanlig stort fritak (uteliggerne) har samtidig oppnådd veldig lave resultater. Karlsøy er her verdt en nærmere kikk: Der har resultatene de senere årene gått kraftig opp, samtidig som det tidligere rekordhøye fritaket har blitt kraftig redusert. Stikk i strid med det som høres logisk ut: Dess flere svake elever som fritas, jo høyere bør resultatene bli. Statistikken viser imidlertid at dette ikke stemmer. Men finnes det en slags «gylden middelvei» der det lønner seg å frita en «passe» andel elever? Jo, det kan tenkes. Problemet er bare at effekten av å frita et par prosent av elevene da blir forsvinnende liten, nettopp fordi de fleste av de svake elevene fortsatt vil ta prøvene. Så kanskje er det rett og slett sånn at fritak og resultater ikke har noen sammenheng?

Men mangelen på en faktisk sammenheng trenger ikke å utelukke at enkelte rektorer og lærere (i Vestfold og andre steder) hartrodd at økt fritak kunne føre til høyere prøveresultater. Innføringen av de nasjonale prøvene har medført at det har blitt lettere for politikere, media og befolkningen å kikke skolene i kortene. Dette har flere steder ført til et økt press på ledelse og ansatte i skolen. Og som kjent reagerer vi mennesker ulikt på press: Noen motiveres og arbeider grundigere og mer systematisk, mens andre igjen stresser og hopper på første og (sjeldent) beste løsning. Og er du en skolesjef, rektor eller lærer av den siste typen som leser dette: Fritak funker ikke. Vurder heller å ta en studietur til Karlsøy.

En lignende og mer utvidet analyse ble også utført i masteroppgaven min fra 2014.
Analysen i masteroppgaven fant også svært liten sammenheng mellom fritak og 
resultater på nasjonale prøver-

Hvordan kan man måle skolens bidrag til læring?

Denne teksten ble først publisert hos bloggkollektivet Lærerråd i 2013 (link).

Tidligere har vi sett på hvordan noen elevgrupper oftere oppnår bedre resultater enn andre på nasjonale prøver. Også i Norge varierer utdanningsnivå og inntekt mellom geografiske områder. De flest barn går på skole i nærheten av der de bor, og slik oppstår det en overrepresentasjon av enkelte elevgrupper på noen skoler. Resultatene på nasjonale prøver er derfor ikke nødvendigvis utelukkende kun skolens fortjeneste, da også elevsammensetning vil spille en stor rolle. Uten å ta hensyn til elevgrunnlaget risikerer man å forsøke å lære av skoler som har oppnådd høye resultater, men som har oppnådd disse grunnet en mer fordelaktig elevsammensetning. Skolene man derimot burde lære av, kan imidlertid bli oversett, fordi disse har en mindre «gunstig» elevsammensetning – og dermed til slutt ender opp med noe lavere prøveresultater.

For kun å måle skolens bidrag bør man forsøke å fjerne den delen av prøveresultatene som skyldes elevfaktorene: Her kan man bruke tall på kjønn, foreldrenes utdanning og hvorvidt de har innvandrerbakgrunn eller ikke. Hvor bra en elev gjør det på skolen, avhenger imidlertid også av egenskaper som motivasjon og evner. Slike egenskaper varierer også mellom elever uavhengig av deres kjønn og sosioøkonomiske bakgrunn, og er også vanskelige å tallfeste.

Ved alle prøver vil det også hefte en viss tilfeldig variasjon: En enkeltelev kan rett og slett ha flaks på flervalgsoppgavene, og generelt være i storslag under prøven. En lærer som sykemeldes, kan føre til at en klasse som straks skal ha nasjonale prøver, opplever en mer turbulent periode med mange ulike vikarer. Nasjonale prøver forsøker å måle hva elevene har lært, men alle slike tilfeldigheter kan føre til at prøveresultatet ikke blir representativt. Slike tilfeldigheter vil gjerne også få større utslag på små skoler. Prøvene tas heller ikke av samtlige elever hvert år: På barneskoler tas de kun av 5. klasse, og dette trinnet er ikke nødvendigvis representativt for skolen som helhet. Dette er også årsaken til at man bør se på resultatene over flere år, hvis man er interessert i resultatet til skolen som helhet, og ikke bare et enkelt kull.

Oppsummert kan en skoles resultat på nasjonale prøver ses på som en funksjon av tre faktorer: elevenes bakgrunn, skolens bidrag og tilfeldig variasjon. Man vil aldri lykkes helt med å kontrollere for egenskapene som skolen ikke har ansvar for. Det man imidlertid vet, er at ca. 30 % av variasjonen i karakterer kan tilskrives det vi enkelt kan måle av elevenes bakgrunn. Ved hjelp av statistiske verktøy kan man også anslå hvor mye av en skoles prøveresultatet som skyldes tilfeldig variasjon. Det man står igjen med, er en indikasjon på skolens bidrag til elevenes læring. Utdanningsdirektoratet har tidligere fått laget slike tall, og da omtalt som skolebidragsindikatorer. Data om elevfaktorer ble hentet fra blant annet offentlige registre, og sammen med prøveresultater eller karakterer beregnet man en indikasjon på skolens bidrag.

Skolebidragsindikatorene ble presentert i form av det resultatet skolen ville fått, hvis den hadde en helt gjennomsnittlig elevsammensetning. Under er et eksempel som ble beregnet i 2005, med utgangspunkt i standpunktkarakterene til fire ungdomskoler i Oslo:

Tabell 1: Skolebidragsindikatorer for fire ungdomsskoler i Oslo. Beregnet i 2005. Positiv differanse betyr at «skolebidraget» er større enn gjennomsnittet. Negativ differanse betyr at «skolebidraget» er under gjennomsnittet. Ingen differanse betyr at skolen bidrar som forventet i forhold til elevgrunnlaget. Kilde: Aftenposten (2005).

Skole Bydel Karaktersnitt Justert karaktersnitt Avvik
Hersleb Gamle Oslo 2,9 3,4 + 0,5
Marienlyst St. Hanshaugen 3,9 3,3 –  0,6
Midtstuen Vestre Aker 4,0 3,5 –  0,5
Tokerud Stovner 3,4 3,8 + 0,4

Tabell 1 viser at de to vestkantskolene Marienlyst og Midtstuen i utgangspunktet hadde det høyeste karaktersnittet. Etter kontroll for elevgrunnlag seilte imidlertid østkantskolen Tokerud opp i tet. Hersleb skole hadde i utgangspunktet det laveste karaktersnittet, men bidro likevel mest til elevenes læring.

I dag kan en skole med dårlige prøveresultater unnskylde dette med elevgrunnlaget. Det er imidlertid fullt mulig både å ha et mindre fordelaktig elevgrunnlag, og samtidig bidra lite til elevenes læring. Gode resultater betyr heller ikke automatisk at skolens bidrag er høyt: Eksemplet over viste jo at de to vestkantskolenes bidrag var under gjennomsnittet, og at deres høye karaktersnitt tilsynelatende kunne tilskrives et mer fordelaktig elevgrunnlag.

Skolebidragsindikatorer kan ikke minst være til god hjelp innad i skolen: Hvis man har satt i gang et tiltak og vil undersøke om dette gir effekt på nasjonale prøver, er det i dag vanskelig å utelukke at en eventuell forbedring skyldes forskjeller i elevgrunnlaget i de klassene som tok prøvene. Skolebidragsindikatorene lages imidlertid ikke lenger, blant annet fordi man fryktet at dette kunne brukes til å avsløre elevsammensetningen på ulike skoler. Analysene ble også møtt med kritikk, fordi det heftet en del usikkerhet ved dem.

Bruken av nasjonale prøver har ikke utviklet seg slik det var tenkt: Prøvene skulle ikke føre til rangering mellom skoler, og Utdanningsdirektoratet forsøker fortsatt å gjøre resultatene så utilgjengelige som mulig. Dette har ikke lyktes: Landets små og store aviser publiserer rangeringer på løpende bånd, og resultatene presenteres (og leses av mange) som et enkelt mål på hvor «bra» eller «dårlig» en skole er. Endringer fra år til år tolkes som en fasit på en skoles fremgang eller forfall, uten at det tas hensyn til tilfeldige variasjoner. Gode resultater har sågar også blitt et salgsargument i enkelte boligprospekter! Denne utviklingen virker dessverre å ha kommet for å bli, og det er nå liten politisk vilje til å endre måten nasjonale prøver gjennomføres og presenteres på.

Offentliggjøring av ukorrigerte resultater fra nasjonale prøver er tidvis helt meningsløst: Resultatene sier ofte lite om selve skolen, men mye om nabolaget rundt. Hvis man fortsetter dagens praksis med offentliggjøring, bør man også offentliggjøre skolebidragsindikatorer i tillegg. Sammen vil de kunne utfylle hverandre og føre til en mer informert og nyansert debatt om sosial utjevning og skoleresultater. Men heller ikke dette vil fortelle den hele og fulle sannheten om skolen.

Kilder:

Aftenposten. 2005. Bedre ranking av skoler gir et mer nyansert bilde av Oslo-skolenes karakterer. I morgenutgaven 19.11.2005.

Hægeland, Torbjørn, Lars J. Kirkebøen, Oddbjørn Raaum og Kjell G. Salvanes. 2005a. Skolebidragsindikatorer – Beregnet for avgangskarakterer fra grunnskolen for skoleårene 2002–2003 og 2003–2004. Oslo/Kongsvinger: SSB.

Hægeland, Torbjørn, Lars J. Kirkebøen, Oddbjørn Raaum og Kjell G. Salvanes. 2005b. Skolebidragsindikatorer – Nyttig verktøy for skolene i Oslo? Slides til foredrag holdt for Utdanningsetaten 05.12.2005.

Forskjeller mellom skoler: Hvilke skoler skårer høyest på de nasjonale prøvene?

Denne teksten ble først publisert hos bloggkollektivet Lærerråd i 2013 (link).

Jeg har tidligere sett på hvilke elevgrupper som gjør det best på de nasjonale prøvene . Her vil egenskapene ved skoler som påvirker resultatene på de nasjonale prøvene bli presentert. Sammenlignet med andre land er prestasjonsforskjellene mellom norske skoler små. Dette skyldes nok både den politiske målsetningen om en mest mulig lik «enhetsskole» og at de sosioøkonomiske forskjellene i Norge er relativt små. NOVA-forsker Anders Bakken har også funnet indikasjoner på at effekten av hvilken skole man går på har økt noe etter innføringen av Kunnskapsløftet.

Det er forsket mye på sammenhengen mellom ressurser og prøveresultater: Økt timetall predikerer noe høyere prøveskår, og det samme gjør også andelen PCer på skolen. Andel lærere med godkjent utdanning, mer bruk av assistenter eller flere timer spesialundervisning gir imidlertid ikke signifikante resultater. Heller ikke lærertetthet (antall lærere per elev) gir signifikant effekt: Faktisk fant både Opheim, Grøgaard og Næss (2010) og Grøgaard, Helland og Lauglo (2008) en negativ effekt av økt lærertetthet. En mulig forklaring på dette kan være at det er de antatt svakeste skolene som får tilført mest ressurser, og at lærertettheten derfor i utgangspunktet er høyest på de svakeste skolene. De statistiske effektene av økte ressurser er imidlertid små, noe som også kan henge sammen med at norske skoler er ganske like på dette området.

Når det gjelder hvordan skolene er organisert finnes det ingen signifikant effekt av om skolen er offentlig eller privat. Store skoler har noe høyere prøveskår enn små, men tar man hensyn til at store skoler oftere ligger i områder med høyere utdanningsnivå forsvinner denne sammenhengen. 5. klassinger på kombinerte skoler (1.-10. klasse) gjør det noe dårligere enn elever på rene barneskoler (1.-7. klasse). Dette kan skyldes at kombinerte skoler har et annet pedagogisk fokus enn rene barneskoler. En annen mulighet er at de eldre elevene bidrar til å redusere trivselen og læringsutbyttet for de yngre elevene. For ungdomsskoleelever spiller det ingen rolle om skolen er en ren ungdomsskole eller ikke. Oppsummert er imidlertid også effektene av organisering relativt beskjedne.

Verken skolens ressurser eller organisering spiller spesielt stor rolle for skolers resultater på nasjonale prøver. Som vi har sett er individuelle egenskaper ved elevene som kjønn, foreldrenes utdanning og innvandrerbakgrunn langt viktigere. Ulik andel elever med disse egenskapene kan derfor i stor grad forklare forskjellige prøveresultater mellom skoler. I tillegg finnes en «skoleeffekt» av det samlede utdanningsnivået på skolene: Selv hvis man kontrollerer for effekten av foreldrenes utdanning på hver enkelt elev, har det samlede utdanningsnivået på skolen en positiv effekt på prøveresultater. En elev vil derfor påvirkes positivt av et høyt utdanningsnivå blant de andre foreldrene på skolen – uavhengig av sine egne foreldres utdanning. Denne skoleeffekten er mindre (om lag en fjerdedel) av effekten som utdanningen til elevens egne foreldre. I følge Bakken og Elstad (2012)har denne skoleeffekten også økt etter at Kunnskapsløftet ble innført. En mulig årsak kan være at både Kunnskapsløftet og de nasjonale prøvene legger et mer akademisk kunnskapsideal enn det som skolen tidligere la til grunn. På skoler der foreldrenes samlede utdanningsnivå er veldig høyt kan dette føre til at akademisk kunnskap i særlig grad vektlegges. Dette kan videre gi utslag i bedre prøveresultater for slike skoler.

Men finnes det også en skoleeffekt av andelen elever med innvandrerbakgrunn? Szulkin og Jonssons (2005, i Fekjær og Birkelund 2009:97) viste i en studie fra Sverige at høy innvandrerandel på skolen hadde størst negativ effekt på elever som selv hadde innvandrerbakgrunn. Ut fra dette kan det antas at skoler med særlig stor andel elever med innvandrerbakgrunn vil ha markant dårligere skoleresultater. Forskningen er imidlertid langt fra entydig på dette punktet og Grøgaard Helland og Lauglo (2008) viste at prøveresultatene på norsk skoler økte med andelen andregenerasjonsinnvandrere. De tolket dette som at en viss etnisk blanding kunne være positiv for læringsmiljøet.

Jeg gjorde før jul en statistisk analyse av hvordan andelen elever med annet morsmål enn norsk (og samisk) påvirket prøveresultatene til skoler i Oslo. Jeg fant der en svak negativ sammenheng mellom økende andel elever med annet morsmål og prøveresultater. Skoler med spesielt høy andel elever med innvandrerbakgrunn gjorde det imidlertid ikke dårligere enn det summen av enkeltelevens innvandrerbakgrunn tilsa: Det finnes derfor trolig ingen egen «skoleeffekt» av andelen elever med innvandrerbakgrunn i Osloskolen. Effekten av innvandrerbakgrunn ble også redusert hvis man tok hensyn til forskjeller i utdanningsnivå og inntekt mellom bydeler i Oslo. Her bør det også bemerkes at effekten av innvandrerbakgrunn trolig ville blitt ytterligere redusert hvis jeg hadde brukt tall på utdanningsnivå og inntekt på skolenivå, men slik tall var dessverre ikke tilgjengelige. I Oslo virker det i utgangspunktet ikke å spille noen rolle for en elev med innvandrerbakgrunn om vedkommende går på en skole med lav eller høy andel elever med innvandrerbakgrunn. En bør imidlertid merke seg at det trolig finnes en skoleeffekt av utdanningsnivået hos foreldrene også i Oslo: Skolene med høy andel elever med innvandrerbakgrunn har gjerne også et lavere utdanningsnivå blant foreldrene.

Analysen viste videre at det ikke var signifikant forskjell på om andelen elever med innvandrerbakgrunn var mellom 0-20 % eller 20-40 %. Dette kan bety at innvandrerbakgrunn ikke har noe å si på skoler med en andel på under ca. 40 %. En annen mulighet er at Grøgaard Helland og Lauglo (2008) hadde rett i at det finnes en positiv effekt av å øke fra få til «en del» innvandrere. Hvis denne positive effekten slår inn i intervallet mellom 20-40 % elever med innvandrerbakgrunn, kan dette føre til at en mer generell negativ effekt av innvandrerbakgrunn blir utlignet i akkurat dette intervallet.

Kilder:

Bakken, Anders, og Jon Ivar Elstad. 2012. For store forventninger? Kunnskapsløftet og ulikhetene i grunnskolekarakterer. Oslo: NOVA.

Bonesrønning, Hans, og Jon Marius Vaag Iversen. 2008. Suksessfaktorer i grunnskolen: Analyse av nasjonale prøver 2007. Trondheim: Senter for økonomisk forskning.

Fekjær, Silje Bringsrud, og Gunn Elisabeth Birkeland. 2009. Finnes Ghettoskolen? :

Betydningen av andel elever med innvandrerbakgrunn for elevenes prestasjoner i videregående skole. I Gunn Elisbeth Birkelung (red.) og Arne Mastekaasa (red.) 2009. Integrert? Innvandrere og barn av innvandrere i utdanning og arbeidsliv. Oslo: Abstrakt forlag.

Grøgaard, Jens B. , Håvard Helland, og Jon Lauglo. 2008. Elevenes læringsutbytte: Hvor stor betydning har skolen? – En analyse av ulikhet i elevers prestasjonsnivå i fjerde, syvende og tiende trinn i grunnskolen og i grunnkurset i videregående. OSLO: NIFU Step.

Opheim, Vibeke , Jens B. Grøgaard, og Terje Næss. 2010. De gamle er eldst? Betydning av skoleressurser, undervisningsformer og læringsmiljø for elevenes prestasjoner på 5., 8. og 10. trinn i grunnopplæringen. Oslo: NIFU STEP.

Individuelle egenskaper: Hvilke elever skårer høyest på de nasjonale prøvene?

Denne teksten ble først publisert hos bloggkollektivet Lærerråd i 2013 (link).

Nasjonale prøver tester elever i 5. og 8. klasse i grunnleggende ferdigheter i lesing, regning og engelsk. 9. klassinger testes i lesing og regning.  Prøvene blir rettet sentralt og det gjør at resultatene egner seg godt til sammenligning mellom skoler. Skoleresultater som rettes lokalt slik som standpunktkarakterer er på sin side påvirket av ulik vurderingspraksis mellom skoler, og er dermed noe mindre egnet til slik sammenligning. Forskning på hvilke elevgrupper som skårer høyest på de nasjonale prøvene har vist at særlig tre individuelle egenskaper påvirker sannsynligheten for å gjøre det bra: kjønn, innvandrerbakgrunn og foreldrenes utdanning.

Samlet sett gjør jenter det noe bedre enn gutter på de nasjonale prøvene. Forskjellen er størst på prøven i lesing og noe mindre i engelsk. Guttene gjør det imidlertid noe bedre på regneprøven. Bonesrønning og Iversen (2008) viste at kjønnsforskjellene er større i 8. klasse enn i 5. klasse, noe som tyder på at forskjellene øker i løpet av skolegangen. Den samme studien viste også at kjønnsforskjellene er mindre blant barn av foreldre med høy utdanning – det vil si at fordelen ved å være jente er størst hvis man har foreldre med kort utdanning.

Elever med innvandrerbakgrunn presterer noe dårligere enn elever med norsk bakgrunn. Forskjellene er størst på prøven i lesing og minst på engelskprøven. Også her er forskjellene større i 8. klasse enn i 5. klasse. Fordi innvandrerbefolkningen blant annet har lavere utdanningsnivå enn gjennomsnittet i befolkningen, reduseres effekten av innvandrerbakgrunn betraktelig hvis det kontrolleres for deres sosioøkonomiske bakgrunn. Tall fra Utdanningsdirektoratet (2012) viser at innvandrere (elever født i utlandet av to utenlandskfødte foreldre) gjør det dårligere på prøvene enn elever som er født i Norge med to innvandrerforeldre. Elever med landbakgrunn fra vestlige landene (EU/EØS, USA, Canada, Australia og New Zealand) gjør det bedre enn elever med landbakgrunn fra ikke-vestlige land (Asia, Afrika, Latin-Amerika, Oseania minus Australia og New Zealand og Europa utenom EU/EØS.) Norskfødte elever med foreldre fra de vestlige landene oppnår faktisk høyere prøveskår enn elever med norsk bakgrunn.

Jo lengre utdanning foreldrene har, jo bedre gjør barna det på de nasjonale prøvene. Opheim, Grøgaard og Næss (2010) fant også forskjeller i hva slags utdanning foreldrene hadde: Jo mer akademisk (og mindre praktisk) utdanning foreldrene hadde desto høyere prøveskår fikk barna deres. Mulige forklaringer på denne sammenhengen kan være at foreldre med lang akademisk utdanning overfører kunnskaper, ferdigheter og holdninger som er verdsatt i skolen til barna sine. En annen mulighet er at skolen i utgangspunktet er bygget på den utdannede middelklassens verdier og derfor favoriserer denne gruppens barn.

Bakken og Elstad (2012) viste at effekten av foreldrenes utdanning på prøveresultater i 8. klasse blitt noe redusert de senere årene. Dette kan bety at skolen etter innføringen av Kunnskapsløftet i større grad har lykkes å utjevne sosiale forskjeller. Dette står i sterk kontrast med hva man finner ved å studere avgangskarakterer fra 10. klasse: Der har foreldrenes utdanning hatt klart økende effekt de siste årene. Forskjellen mellom karakterer og nasjonale prøver kan skyldes at en del svake elever fritas fra de nasjonale prøvene, mens de aller fleste får karakterer etter 10. klasse. Det er litt vanskelig å konkludere på bakgrunn av de nasjonale prøvene alene siden disse ble innført i sin nåværende form i 2007 – året etter at Kunnskapsløftet trådde i kraft. Forskningen er imidlertid tydelig på at Kunnskapsløftet til nå ikke har bidratt til større sosial utjevning – i den grad det har vært en endring peker den heller i retning av mindre sosial utjevning (se blant annet Bakken og Elstad, 2012)

Kilder:

Bakken, Anders, og Jon Ivar Elstad. 2012. For store forventninger? Kunnskapsløftet og ulikhetene i grunnskolekarakterer. Oslo: NOVA.

Bonesrønning, Hans, og Jon Marius Vaag Iversen. 2008. Suksessfaktorer i grunnskolen: Analyse av nasjonale prøver 2007. Trondheim: Senter for økonomisk forskning.

Opheim, Vibeke , Jens B. Grøgaard, og Terje Næss. 2010. De gamle er eldst? Betydning av skoleressurser, undervisningsformer og læringsmiljø for elevenes prestasjoner på 5., 8. og 10. trinn i grunnopplæringen. Oslo: NIFU STEP.

Utdanningsdirektoratet. 2012. Barn, unge og voksne med innvandrerbakgrunn i grunnopplæringen.

Hvordan kan kommuner oppnå fremgang på nasjonale prøver? 

Denne teksten ble skrevet for Kommunenes Sentralforbund i 2014 i forbindelse med 
et stipend jeg mottok for masteroppgaven min.

Dette undersøkte jeg i min masteroppgave i statsvitenskap som jeg leverte våren 2014 ved Universitetet i Oslo. Ved å undersøke kommuners fremgang, og ikke absolutte resultater på de nasjonale prøvene, klarte jeg å holde bakenforliggende faktorer som for eksempel utdanningsnivå utenfor. Hovedfunnet i oppgaven er at den største fremgangen virker å komme når ambisiøse rektorer og lærere får jobbe lankslogo_0gsiktig og relativt selvstendig.

Datagrunnlaget i oppgaven var intervjuer med til sammen 32 skolesjefer og rektorer i 16 kommuner valgt ut fra en liste av kommuner rangert etter fremgang på nasjonale prøver. Intervjuene viste at de 16 kommunene samlet sett ikke prioriterte nasjonale prøver særlig høyt. I tre ”top-down- kommuner” var nasjonale prøver noe høyere prioritert, og disse praktiserte også tydeligere kommunal styring av skolene med lederavtaler og mer fokus på rektorenes rolle. I de 13 øvrige ”bottom-up- kommunene” var nasjonale prøver imidlertid bare middels høyt prioritert. I bottom-up- kommunene hadde også rektorene og lærerne større innflytelse, og kommuneadministrasjonen og skolene var langt mer samstemte om hva som var tilstanden og målene for skolene. Bottom-up- kommunene opplevde også i mindre grad konflikter mellom skole- og kommunenivået.

Stor politisk interesse for de nasjonale prøvene var ikke nødvendig for å oppnå fremgang på nasjonale prøver, men en slik interesse kan likevel ha vært viktig i en overgangsperiode. Når politikerne setter mål for skolene bør man unngå ”politikermål” slik som å bli best i fylket, landet eller Kostragruppa. Mål kan gjerne signalisere høye forventninger til skolene, men utarbeidelsen av disse bør med fordel foregå i en inkluderende prosess der skolene, og gjerne også foreldrene og elevene er trukket inn.

Informasjon fra kartleggingsprøver og nasjonale prøver hadde vært viktig i de 16 kommunene. Skolene, elevene og foreldrene kan gjerne også inkluderes i tolkningen av slike kvantitative data om skolene. Det er også viktig at både politikere og andre viser forståelse for at resultatene på de nasjonale prøvene ofte er beheftet med store tilfeldige variasjoner, og da særlig på små skoler.

En statistisk analyse viste at veldig lite av fremgangen til skolene kunne forklares med hvilken kommune de tilhørte. Tiltak på skolenivået hadde dessuten vært langt viktigere for fremgangen i de 16 kommunene enn tiltak på kommunenivået. Informantene mente skoleutvikling internt på skolene samlet hadde vært det viktigste tiltaket for å forklare fremgangen de hadde oppnådd. Skolene med fremgang hadde opplevd en kulturendring der lærerne i større grad samarbeidet med hverandre. Arbeidet på skolene var gjerne også organisert slik at ledelsen og andre ressurspersoner hadde tid og mulighet til å støtte og gi råd til de andre lærerne.

Tid er et begrenset gode på en skole, og denne tiden bør brukes så effektivt som mulig. Selv om utviklingsarbeid i kommunal regi eller sammen med andre skoler ofte føles nyttig, bør omfanget reduseres hvis dette tar tid som kunne vært brukt mer effektivt internt på skolene. Rektorene har bedre forutsetninger for å prioritere hvordan lærernes fellestid bør brukes, og om skolene selv får påvirke temaer og problemstillinger kan nytten av slikt samarbeid økes.

Prioriteringer av fagområder eller elevgrupper ble trukket frem som det nest viktigste tiltaket. Et fellestrekk mellom skolene jeg undersøkte var at de satset på leseopplæring tidlig i skoleløpet. Likevel er nok den viktigste lærdommen herfra at skolene hadde bygget på det de visste de var gode på. Disse tiltakene ble også gitt tid til å virke skikkelig. Kommuners oppfølging av skolene bør derfor tilrettelegge for at skolene satser på slike langsiktige tiltak, fremfor stadig å endre måten de jobber på.

Videreutdanning og det å ha en stabil lærerstab var også relativt viktig for oppnå fremgang på de nasjonale prøvene. Høykompetente lærere bør brukes som ressurspersoner. Dyktige og erfarne lærere bør oppmuntres til å stå i jobben så lenge som mulig, og her kan man vurdere seniortiltak slik som å la dyktige pensjonerte lærere fortsette å undervise deler av uka. Ingen av de 32 informantene nevnte digitale verktøy som en årsak til fremgangen de hadde, så betydningen av slike verktøy bør trolig ikke overvurderes.

Selv om økte ressurser til skolene samlet sett var lite viktig i de 16 kommunene, brukte flere av kommunene målrettet ressursinnsats for å støtte skolene sine. Slik bruk av ressurser kunne gi enkeltskoler mulighet til å iverksette nye pedagogiske tiltak eller til å styrke ledelsen på skoler med utfordringer. Hvilke tiltak det ble satset på ble imidlertid avgjort av den enkelte skole.

De 16 kommunene jeg undersøkte var geografisk spredt rundt om i hele landet, og har verken bedre eller dårligere økonomi enn øvrige norske kommuner. Det var lite som skilte hva som ble gjort i store og små kommuner, og det spilte liten rolle om resultatene i utgangspunktet var lave, gjennomsnittlige eller høye. Det er ingen ting som tyder på at fremgang på nasjonale prøver er et resultat av ”juks”, og det viser seg overraskende nok at det ikke er noen systematisk sammenheng mellom andelen elever som fritas fra de nasjonale prøvene og hvilke resultater kommunene oppnår. I de 16 kommunene med fremgang virket heller ikke elevene å øve på de nasjonale prøvene i særlig stor grad, noe som også ble gjenspeilet i at disse prøvene samlet sett ikke ble sett på som spesielt viktige.

Oppsummert viser oppgaven at den største fremgangen kommer når ambisiøse rektorer og lærere får jobbe langsiktig og relativt selvstendig. Ingen skoler eller kommuner i Norge har heller noen gode unnskyldninger for hvorfor ikke også de kan oppnå fremgang på de nasjonale prøvene. Det er også rimelig å anta at de fleste kommuner har langt mer å lære av lignende kommuner med fremgang enn å forsøke å etterape Osloskolen.