Hopp til hovedinnhold

Kunstig intelligens i statlig sektor - 6 flagg

Sammendrag

Kunstig intelligens (KI) i statlig sektor kan bidra til effektivisering, men også til å løse samfunnsoppgaver på nye og bedre måter. I offentlig sektor kan KI-systemer benyttes til å løse så forskjellige oppgaver som å forutsi sykefravær, oppdage fall hos eldre beboere på sykehjem og overvåke av snøskred eller flom. Generativ KI, som ChatGPT, kan avhjelpe saksbehandling og øke effektiviteten.

I dette notatet ser vi på hvordan KI kan bidra til gevinster i offentlig sektor. Men KI kan ikke innføres og brukes ukritisk. Skal vi lykkes med implementeringen av dette kraftige verktøyet, må vi være oppmerksomme på en rekke faktorer. I dette notatet har vi identifisert seks områder, eller «flagg» som krever oppmerksomhet når KI skal innføres i statlig sektor i stor skala: risiko for diskriminering, utfordrende personvernregelverk, manglende kompetanse, algoritmestyrt ledelse, uklart regelverk og mangelfull medbestemmelse og involvering.

På bakgrunn av dette foreslår vi en rekke tiltak, som for eksempel en aktivitets- og redegjørelsesplikt for KI. En gjennomgang av aktuelle lover for å sikre utvikling og forsvarlig bruk av kunstig intelligens, og et statlig konsulentbyrå for KI, er tiltak som også foreslås.

Kunstig intelligens representerer en betydelig mulighet for å forbedre effektiviteten og kvaliteten på tjenester i statlig sektor. Det handler om å løse samfunnsoppgaver på nye og bedre måter, noe som krever andre arbeidsformer, og ikke minst en større grad av medbestemmelse og involvering fra ansatte.

Kunstig intelligens i statlig sektor

Kunstig intelligens kan overta arbeidsoppgaver, og gjøre arbeidsdagen enklere og mer effektiv for arbeidstakere innenfor en lang rekke områder og yrker. Riktig bruk av kunstig intelligens vil også kunne ha store effektivitetsgevinster i offentlig sektor.

Kunstig intelligens blir ofte brukt som en samlebetegnelse på avansert analyse og algoritmer, inkludert maskinlæring. Maskinlæring bruker matematiske og statistiske metoder for å lage algoritmer som er basert på analyse av data. I den nasjonale strategien for kunstig intelligens fra 2020 legges følgende definisjon til grunn: Kunstig intelligente systemer utfører handlinger basert på tolkning og behandling av strukturerte eller ustrukturerte data, med den hensikt å oppnå et gitt mål.1

Regjeringen har et uttalt mål om å øke bruken av kunstig intelligens i offentlig sektor. Nylig kom regjeringens digitaliseringsstrategi. Den setter som mål at 80 prosent av offentlige virksomheter skal ha tatt i bruk KI i løpet av 2025, og 100 prosent innen 2030.2

Mange statlige virksomheter, som Skatteetaten og Lånekassen, har flere tiårs erfaring med bruk av kunstig intelligens. En rapport fra Riksrevisjonen slår samtidig fast at det er et stort og uutnyttet potensial for å ta i bruk kunstig intelligens i statlig sektor.3

Rapporten avdekker at svært mange virksomheter er helt uten erfaring med bruk av kunstig intelligens.4 Det gjelder i overkant av halvparten av de rundt 200 statlige virksomhetene de har undersøkt. Riksrevisjonen peker også på at samordningen mellom virksomheter er svak, og at det ansvarlige departementet ikke har tatt den nødvendige pådriverrollen. Riksrevisjonen konkluderer også med at det varierer i hvilken grad de etiske prinsippene for ansvarlig bruk ivaretas, og ber om at kontrollmekanismer kommer på plass.

I dette notatet går vi først gjennom hvilke områder KI kan bli viktige innenfor i offentlig sektor. Deretter identifiserer vi det vi har kalt seks flagg som virksomheter må være ekstra oppmerksomme på når kunstig intelligens innføres i statlig sektor.

Hva kan KI brukes til?

Norge står overfor en situasjon med kraftig vekst i omsorgsoppgavene kombinert med en alvorlig mangel arbeidskraft. Kunstig intelligens kan effektivisere arbeidsoppgaver og avlaste ansatte. For eksempel kan KI brukes til å forutse og planlegge sykefravær, eller maskinlæring og sensorteknologi kan oppdage om en beboer har falt eller trenger stell.Digitale assistenter basert på språkmodeller kunne overta arbeidsoppgaver, og gjøre arbeidsdagen enklere og mer effektiv for arbeidstakere innenfor en lang rekke områder og yrker.

Eksemplene viser at bredden er stor i ulike typer oppgaver KI kan hjelpe oss med å løse. En oversikt fra Digitaliseringsdirektoratet inneholder over 130 prosjekter som i dag benytter kunstig intelligens i offentlig sektor.5

Klimakrise og naturkrise krever for eksempel nytenkning og stor innsats fra oss som fellesskap. Det er mange eksempler på at KI kan være nyttige verktøy i det arbeidet. Ved hjelp av en KI-basert felle skal det nå for eksempel bli enklere å fange pukkellaks i norske elver og vassdrag.6 Norges vassdrags- og energidirektorat (NVE) har utviklet algoritmer som henter informasjon om vann og snø for nødvarsel knyttet til snøskred og flom.7

Det er stor variasjon i hvor langt man er kommet med innføring av KI i statlig sektor. Riksrevisjonen har klassifisert KI-systemer etter fagdepartementene. 70% av KI-systemene som er rapportert inn tilhører fire fagområder og sorterer under departementene helse-, kunnskap-, finans og næring- og fiskeridepartementet. Det er med andre store variasjoner i bruken av KI. Enkelte sektorer og virksomheter, som Skatteetaten og Statens pensjonskasse, begynte tidlig med utvikling og bruk av KI, mens i andre deler av offentlig sektor er slik bruk nærmest fraværende.

Norstat har på vegne av IT-konsulentselskapet Computas spurt norske ledere i offentlig sektor om deres digitaliseringstiltak i 2024. På spørsmål om det er viktig for virksomheten å ta i bruk kunstig intelligens (KI/AI) svarer hele 57 prosent delvis eller helt enig. Undersøkelsen avdekket også en viss skepsis. Blant de som ønsker å ta i bruk KI opplever så mange som 30 prosent av virksomhetene at det er for mange hindringer for å få det til i praksis. Blant dem oppgir 62 prosent mangel på kompetanse som det største hinderet, mens 51 prosent mener de møter for mange etiske problemstillinger.

I det følgende går vi nærmere inn på seks utfordringer knyttet til innføring av kunstig intelligens i statlig sektor.

Hva er kunstig intelligens?
Kunstig intelligens (KI) er informasjonsteknologi som justerer sin egen aktivitet etter hva som blir puttet inn i den av data/informasjon. Derfor virker det som teknologien tenker og er intelligent.

Hva er maskinlæring?
Maskinlæring er at man trener opp et dataprogram, en modell, slik at det kan ta beslutninger uten menneskelig hjelp. Denne treningen foregår stort sett med data. Beslutningene gjøres ved bruk av statistiske beregninger. Maskinlæring er en viktig underkategori av kunstig intelligens.

Hvor finner vi kunstig intelligens?
Overalt! KI brukes i søkemotorer, i medisinsk teknologi og ikke minst i sosiale medier.

Det er to hovedtyper kunstig intelligens: Regelbaserte modeller og datadrevne modeller. Dataprogrammer som tar beslutning på alle mulige utfall, er regelbaserte modeller. «Regelbasert» viser til dataprogrammer basert på betingede regler av typen «hvis x, gjør y».

ChatGPT er eksempel på en datadrevet modell. Datadrevne modeller bruker maskinlæring og sannsynlighetsberegninger til å ta beslutninger basert på det modellen er trent opp på.

Hva er en språkmodell?
En språkmodell er en statistisk modell som er matet med informasjon slik at den kan bruke maskinlæring til å forutsi de mest sannsynlige ordene i en ordrekke.

Språkmodeller kan brukes til å tolke tekst, for eksempel i søkemotorer som Google eller Bing, til å oversette tekst (Google Translate) eller til å skape (generere) tekst (auto-utfylling, ChatGPT).

Hva er generativ kunstig intelligens?
Generativ kunstig intelligens er kunstig intelligens som raskt genererer/lager svar på spørsmål. Spørsmålene og svarene kan inneholde tekst, bilde, tale og så videre. Svarene kan inneholde tekst, tale, bilde, musikk og så videre.

Disse svarene er utarbeidet for Forskning.no av Tom Ryen som er instituttleder ved Institutt for data- og elektroteknologi ved Universitetet i Stavanger.8

Seks flagg å være oppmerksom på

Det kan være store muligheter forbundet med å ta i bruk mer kunstig intelligens i offentlig sektor. Samtidig er det utfordringer ved implementering og bruk av KI som ansatte og tillitsvalgte bør være klar over. Vi identifiserer i dette notatet seks røde flagg eller potensielle barrierer mot innføring av KI.

  • Risiko for diskriminering
  • Utfordrende personvernregelverk
  • Manglende kompetanse
  • Algoritmestyrt ledelse
  • Uklarhet om ny regulering
  • Mangelfull medbestemmelse og involvering

Risiko for diskriminering

Kunstig intelligens lærer av data, og vil videreføre og ofte forsterke skjevheter som ligger i materialet. KI-systemer gjenspeiler derfor informasjonen den er trent med, på godt og vondt. Det finnes mye diskriminerende tekst på internett. En KI-modell som ukritisk er trent med denne dataen, vil dermed «være fordomsfull».

Ofte er det også slik at kunnskap og trening av AI foregår i utdanningsinstitusjoner med høyinntektsgrupper i engelsktalende land, med en tilsvarende underrepresentasjon av andre perspektiver.

Forskjellsbehandling som ikke har en tilstrekkelig begrunnelse, utgjør diskriminering og er ulovlig.9 Ifølge likestillings- og diskrimineringsloven er det ulovlig å usaklig eller urettmessig forskjellsbehandle individer eller grupper på bakgrunn «kjønn, graviditet, permisjon ved fødsel og adopsjon, omsorgsoppgaver, etnisitet, religion, livssyn, funksjonsnedsettelse, seksuell orientering, kjønnsidentitet, kjønnsuttrykk, alder, eller kombinasjoner av disse grunnlagene.»

Likestillings- og diskrimineringsloven gir et individuelt vern mot diskriminering. Denne loven sier også at offentlige myndigheter og arbeidsgivere har en plikt til «å arbeide aktivt, målrettet og planmessig for å fremme likestilling og hindre diskriminering» (Lovens §§ 24, 26 og 26a).

Forskjellsbehandling blir regnet som diskriminering hvis individer eller grupper blir behandlet dårligere enn andre, eller når de blir behandlet likt, men utfallet fører til at de blir stilt dårligere enn andre. Den første kalles direkte forskjellsbehandling og siste er indirekte forskjellsbehandling.

Diskriminering kan oppstå til tross for at KI-systemene ikke bruker gruppekjennetegn som kjønn eller etnisitet. Ved at de bruker kjennetegn som korrelerer med disse, som utdanning, bosted eller økonomi, kan resultatet likevel bli at personer utsettes for forskjellsbehandling som har sammenheng med et eller flere vernede gruppekjennetegn. Dette omtales ofte som bias.10

En stor utfordring når det gjelder å avdekke diskriminering er manglende åpenhet og innsyn i hvordan algoritmene fungerer. Det er ikke mulig å håndheve diskrimineringsvernet uten at det samtidig skaffes innsikt i, og kunnskap om, algoritmers og KI-systemers virkemåte.

I KI-systemer er det også en utfordring at det er vanskelig å få en forklaring på hvorfor systemet handlet som det gjorde. I Norge har man rett på en begrunnelse når vedtak fattes.11 Det vil være krevende når beslutningsgrunnlaget er basert på KI. Det er et krav at alle har rett til innsyn i statens dokumenter.12 Offentlighetsloven sørger for innsyn i offentlig informasjon. Prinsippet om meroffentlighet sier at offentlig informasjon skal være åpent tilgjengelig, med mindre det er tungtveiende grunner til å holde den skjult. Samtidig er det uklart hvordan disse kravene skal praktiseres når avanserte KI-systemer tas i bruk.

Manglende gjennomsiktighet i KI-modellene gjør identifisering av diskrimineringsgrunnlaget utfordrende. Manglende forklarbarhet gjør det vanskelig å forstå hvordan algoritmene fungerer og potensielt diskriminerer. I tillegg kan algoritmer håndtere flere prosesser og avgjørelser enn mennesker. Det er en risiko for diskriminering i stor skala som ikke blir oppdaget.

Bruk av kunstig intelligens krever en spesiell årvåkenhet, og vi har liten erfaring med hvordan diskriminering kan slå ut. Det bør derfor vurderes å innføre en aktivitets- og redegjørelsesplikt. Det kan for eksempel være en egen bestemmelse i likestillings- og diskrimineringsloven slik Vibeke Blaker Strand argumenterer for i en utredning hun har gjort på oppdrag fra Likestillings- og diskrimineringsombudet.13

KI som skulle avdekke trygdesvindel i Nederland diskriminerte deler av befolkningen

Et grovt eksempel på diskriminerende algoritmer finner vi i Nederland. Mellom 2015 og 2019 ble det tatt i bruk en maskinlæringsmodell som het SyRI som skulle avsløre trygdesvindel. Data om personer som tidligere var dømt for trygdesvindel, ble brukt til å forutsi hvilke andre trygdemottakere som kunne tenkes å svindle i framtiden. Datasettet var skjevt på flere måter. Systemet lærte av de kjente tilfellene, og plukket systematisk ut folk i fattige og sosialt belastede områder. Dette ble en stor politisk skandale i Nederland. I etterkant ble det oppdrettet et Algoritmetilsyn under det nederlandske datatilsynet, et tilsyn som skal kontrollere og godkjenne algoritmer både i det offentlige og det private. Med den nye KI-forordningen fra EU vil algoritmer som kan få konsekvenser for liv og helse regnes som høyrisiko, og til dem vil det nettopp stilles ekstra strenge krav til tilsyn og kontroll.

Utfordrende personregelverk

Kunstig intelligens er avhengig av store mengder data, herunder personopplysninger. EUs personvernforordning (GDPR) regulerer behandling av personopplysninger, men er ikke tilpasset spesielt til å regulere bruk av kunstig intelligens.

Det kan i tillegg være en økt personvernrisiko ved bruk av KI dersom brukerdata behandles og lagres på serverne til kommersielle aktører uten at det foreligger en avtale med brukerens virksomhet. Spesielt utfordrende kan det være når serverne er plassert i utlandet.

I 2024 gjennomførte Riksrevisjonen en spørreundersøkelse blant 143 kontaktpersoner i statlige virksomheter om bruk av kunstig intelligens. Den viste at mange opplever det som krevende å forstå hvordan de skal forholde seg til personvernet når de tar i bruk kunstig intelligens. Rundt 40 prosent svarte at det er vanskelig å ivareta personvernhensyn i arbeidet med å utvikle systemer for kunstig intelligens.14

Datatilsynet har opprettet en regulatorisk sandkasse for at dette skal bli lettere. Her får man mulighet til å utvikle og teste KI-prosjekter på en trygg og ansvarlig måte. Hjelpen kan innebære at det blir gjennomført et uformelt digitalt «tilsyn» med virksomheten.15 Eller at man får bistand i avveiinger mellom nødvendighet og potensielle personvernulemper for brukere.

Sandkassen startet som et prøveprosjekt, men har nå fått en permanent bevilgning. Riksrevisjonens rapport viser imidlertid at erfaringene med den regulatoriske sandkassen er varierende. Siden sandkassen ble opprettet i 2020, har kun fem prosjekter fra statlig sektor deltatt.16

Arbeidet med NAVs prediksjonsmodell for sykefravær (se faktaboks), har synliggjort en stor og viktig utfordring for offentlige virksomheter som ønsker å ta i bruk kunstig intelligens: Lovene som hjemler behandling av personopplysninger er sjeldent utformet på en måte som åpner for at personopplysningene kan brukes til maskinlæring i utvikling av kunstig intelligens.

Det er viktig at lovgiver i tiden fremover legger til rette for utvikling av KI i offentlig sektor innenfor ansvarlige rammer. Dersom NAV skal utvikle modellen videre, vil det være nødvendig med et klart og tydelig supplerende rettsgrunnlag gjennom lovgivning.

NAV har jobbet systematisk over tid med å utvikle en modell som imøtekommer kravene til rettferdighet og forklarbarhet. Det viser at offentlige virksomheter godt kan være pådrivere for en ansvarlig utvikling på KI-feltet. Svært mange spørsmål knyttet til personvern lar seg løse med god praksis. Derfor er det bra at den regulatoriske sandkassen til Datatilsynet nå er gjort permanent med en fast bevilgning på statsbudsjettet fra 2023.

Predikering av sykefravær i NAV

Et eksempel på uklart regelverk for personvern, er prosjektet der NAV skulle få hjelp til å predikere sykefravær. I 2021 deltok NAV i Datatilsynets sandkasse med prosjektet. Hensikten var å kunne forutse utviklingen i sykefraværet, og dermed forutse hvilke brukere som hadde behov for oppfølging gjennom et dialogmøte 2.Dette er et møte som NAV-veileder kaller inn til. Hensikten med dette dialogmøte er at den sykemeldte, arbeidsgiver, den som sykemelder og NAV skal kartlegge mulighetene for å komme raskt tilbake i arbeid.

NAV ønsket å bruke maskinlæring for å forutsi hvilke syke brukere som trenger oppfølging to måneder framover. Dette ville hjelpe veilederne til å gjøre mer nøyaktige vurderinger, som igjen vil spare NAV, arbeidsgivere og sykemeldte for unødvendige møter.

Målet med dette sandkasseprosjektet var å avklare lovligheten av å bruke kunstig intelligens i denne sammenhengen, og å utforske hvordan profileringen av sykemeldte kan gjøres på en rettferdig og åpen måte.

Prosjektet stoppet opp fordi det viste seg at det var vanskelig å avgjøre om en maskinlæringsmodell bruker personopplysninger i tråd med formålet. Særlig krevende er dette der store mengder personopplysninger fra mange personer brukes til å trene en modell som brukes på andrepersoner.

Her var det et hull i lovverket som gjør at det rettslige grunnlaget var uavklart. NAVs prosjekt om å kunne predikere sykefravær måtte settes på pause.

Manglende kompetanse

Manglende kompetanse kan være et stort hinder når ny teknologi som kunstig intelligens skal innføres.

Analysebyrået Samfunnsøkonomisk Analyse utarbeidet i 2024 en rapport på oppdrag fra NHO, Abelia, Nelfo og Finans Norge. Gjennom litteraturstudie, spørreundersøkelser og dybdeintervjuer ble manglende kompetanse pekt på som den viktigste barrieren mot å ta i bruk KI-verktøy.17 I en spørreundersøkelse gjort av Norstat for IT-konsulentselskapet Computas svarer halvparten av IT-ledere i offentlig sektor at mangel på kompetanse er det største hinderet for å ta i bruk kunstig intelligens.18 Også Riksrevisjonens rapport om bruk av kunstig intelligens i statlig sektor trekker fram mangel på kompetanse blant ledere og beslutningstakere som en av de største utfordringene.19

Når mer kompetanse etterlyses, er det på sin plass med en analyse av hva slags kompetanse det er behov for.

Innføring av KI i statlig sektor må ha som mål at arbeidsprosesser forenkles, men også at virksomheter organiserer arbeidet på bedre og mer effektive måter. Det krever kunnskap og forståelse for organisasjoner og endringer.

Det vil være behov for IT-relatert kompetanse, men også juridisk kompetanse, og innsikt i organisasjoner, styring og ledelse. Mangel på kompetanse kan også dreie seg om et behov for å koble den nødvendige kompetansen som allerede finnes på tvers av fagområder. En anbefaling vil derfor være at det nedsettes flere tverrfaglige grupper der ansatte med IT-bakgrunn jobber sammen med jurister, men også med saksbehandlere som har fagbakgrunn for sammen å utvikle KI-systemer til sitt bruk.

Dette er en arbeidsmåte som NAV og Skatteetaten rapporterer at de har gode erfaringer med.20

Riksrevisjonen peker også på at staten mangler kompetanse på bestilling av teknologiske løsninger. I mange tilfeller er statlige virksomheter prisgitt råd fra private konsulentselskaper med en kommersiell agenda. I Riksrevisjonens undersøkelse svarer rundt halvparten av informantene (av 104) at de er avhengig av innleide konsulenter eller leverandører. Det forsinker arbeidet med utvikling av kunstig intelligens, og gjør det samtidig mer kostbart.

Et sentralt «bemanningsbyrå» for kunstig intelligens ville kunne bistå statlige virksomheter på prosjektbasis, og sørge for bedre og mer effektiv innføring av kunstig intelligens.

Saksbehandleren er avgjørende

Den amerikanske produktutvikleren Marty Cagan regnes som den store legenden blant mange teknologer. «Hvordan lage tech-produkter som kundene elsker», er undertittelen på en av bøkene hans. Oppskriften er enkel: Istedenfor å fortelle hva som skal gjøres, må en oppdragsgiver kunne gi en presis beskrivelse av hvilket problem man vil ha løst. Så er det om å gjøre å få noe ut tidlig. Ta det i bruk. Generere data. Prøve og feile. Forbedre. Forkaste. Krangle om hva som gir de beste løsningene. Da vil man få enestående resultater, er Cagans påstand.

Til dette kreves gode team, bestående av folk med teknolo­gikompetanse, og folk som har greie på design. Men det er helt avgjørende også å få med folk som kjenner saksområdet, som har det som kalles domenekompetanse. I offentlig sektor vil det være saksbehandlere og brukere av systemene som lages.

Kilde: Basert på utdrag fra Boken «Digital revolusjon- hvordan ta makten og friheten tilbake»

Algoritmestyrt ledelse

Kunstig intelligens tilbyr nye verktøy for både ledere og ansatte, og vil i økende grad kunne overta oppgaver som tidligere lå til HR-avdelinger eller ledelsen. Kunstig intelligens kan brukes til rekruttering, til å plukke ut og teste kandidater, eller i arbeidshverdagen til å fordele oppgaver, måle prestasjoner, overvåke produksjon og kontrollere resultater.

Imidlertid gir også dette noen utfordringer. En rapport fra OECD (2024) har vurdert risiko forbundet med kunstig intelligens.21 Ett av punktene de peker på er «Algorithmic management» eller algoritmestyrt ledelse. For eksempel kan kunstig intelligens brukes til tildeling av arbeidsoppgaver, styring av arbeidsprosesser eller måling av resultater.

Rapporten påpeker at algoritmestyrt ledelse kan ha mange positive virkninger, både for de ansatte og for virksomheten. De viser til undersøkelser der et stort flertall av de ansatte var overveiende positivt innstilt til innføring av denne typen teknologi. Å ikke investere i slike verktøy vil være en tapt mulighet.

Samtidig advares det mot systemer som gir ansatte kontinuerlig tilbakemeldinger på prestasjoner, styrer arbeidet direkte eller gir forslag til hvordan de skal jobbe. Slik «algoritmestyrt ledelse» vil begrense ansattes autonomi og kontroll, som igjen kan utgjøre en risiko for fysisk og mental helse og sikkerhet på arbeidsplassen.22

Foundation for European Progressive Studies (FEPS) har utført en undersøkelse der Tankesmien Agenda har laget en norsk delrapport. Den viser at omfanget av algoritmestyrt ledelse i dag er betydelig. 3 av 4 respondenter i den nordiske undersøkelsen oppgir at minst en av formene for algoritmestyrt ledelse som er inkludert i studien, brukes på deres arbeidsplass. Det kan være planlegging av skift, testing av jobbsøkere, sporing av posisjon eller vurdering av innsats.

Undersøkelsen viser at bruken av algoritmestyrt ledelse kan være forbundet med en rekke negative konsekvenser som redusert jobbautonomi, økt arbeidsmengde, redusert jobbsikkerhet, lavere tillit, redusert jobbtilfredshet og motivasjon og høyere stressnivå.

Forhold på arbeidsplassen ser imidlertid ut til å ha avgjørende betydning for om ansatte opplever negative konsekvenser med algoritmestyrt ledelse.

  • For det første påvirkes konsekvensene av i hvilken grad ansatte involveres og har innflytelse på arbeidsplassen.Ansatte som rapporterer at de har betydelig innflytelse på viktige beslutninger, opplever i langt mindre grad negative konsekvenser av algoritmestyrt ledelse.
  • For det andre ser forholdet mellom ansatte og ledere ut til å ha betydning. Der det rapporteres om stor åpenhet omkring lederbeslutninger, er også de negative konsekvensene langt mindre fremtredende, og i noen tilfeller helt fraværende.

Algoritmestyrt ledelse innebærer å ta i bruk verktøy som i seg selv verken er iboende gode eller dårlige. De negative konsekvensene som fremheves i rapporten kan dermed bedre forstås som risiko når algoritmestyrt ledelse ikke innføres på en god måte.

Når en virksomhet tar i bruk algoritmestyrt ledelse uten å konsultere ansatte, ser det ut til å ha spesielt uheldige virkninger. Det samme gjelder når ansatte ikke har innflytelse over og innsikt i hvordan systemene brukes, samt hvordan ledelsesbeslutninger tas. Dersom virksomheten på den annen side skårer høyt når det gjelder ansattes innflytelse og åpenhet og gjennomsiktighet fra ledelsen, ser det ut til at i hvert fall noen av de negative konsekvensene kan unngås.

En god beredskap for virksomheter vil være å sikre at ansatte har innflytelse og medvirkning og at ledere praktiserer stor grad av åpenhet når nye KI-verktøy tas i bruk.

Det bør stilles tydelige krav om konsultasjon og involvering av ansatte og ansattes representanter når KI-systemer innføres. Det innebærer at kompetansen om kunstig intelligens må styrkes, både blant tillitsvalgte og ansatte. Videre innebærer det at innføring av KI og ansattes digitale rettigheter må på forhandlingsbordet.

Når sjefen bruker KI: I virksomheter der ansatte involveres og har innflytelse på arbeidsplassen rapporteres det i mindre grad om negative konsekvenser

Stadig flere oppgaver som før ble utført av ledere, kan nå overtas av kunstig intelligens. Algoritmestyrt ledelse innebærer at dataprogrammer eller algoritmer brukes for å utføre oppgaver og funksjoner som tradisjonelt utføres av ledere.Algoritmestyrt ledelse introduseres gjerne med mål om å øke produktiviteten og sikre mer effektive ledelsesbeslutninger. Bruken av slike verktøy kan likevel innebære risiko og ha negative konsekvenser for ansatte.

Foundation for European Progressive Studies (FEPS) har gjennomført en stor spørreundersøkelse om algoritmestyrt ledelse blant fagforeningsmedlemmer i utvalgte sektorer i fire nordiske land: Danmark, Sverige, Norge og Finland.

Undersøkelsen gir sterke indikasjoner på at algoritmestyrt ledelse (AL) kan ha en rekke negative konsekvenser for ansatte*:

  • Redusert jobbautonomi: Jo mer algoritmestyrt ledelse brukes på en arbeidsplass, desto mindre autonomi opplever ansatte i sitt arbeid. AL ser ut til å begrense ansattes frihet til å ta beslutninger, og bruke sin dømmekraft, ferdigheter og evner i jobben.
  • Økt arbeidsmengde: Jo mer AL ansatte opplever, desto større arbeidsmengde og arbeidstempo. AL ser ut til å føre til en intensivering av arbeidet.
  • Redusert jobbsikkerhet: Ansatte utsatt for algoritmestyrt ledelse føler en høyere grad av usikkerhet for å miste jobben.
  • Lavere grad av tillit: Bruk av algoritmestyrt ledelse kan undergrave tilliten mellom ansatte og deres ledere. Jo større grad ansatte som eksponeres for denne formen for ledelse, desto mindre stoler de på sine ledere, og jo mindre opplever de at ledere stoler på dem.
  • Redusert jobbtilfredshet og motivasjon: Mer AL er forbundet med mindre jobbmotivasjon og jobbtilfredshet.
  • Høyere stressnivå: Jo mer AL ansatte blir utsatt for, desto mer stresset føler de seg. AL ser ut til å øke arbeidspresset på ansatte og redusere deres mentale velvære.

Heldigvis er slike konsekvenser ikke uunngåelige. Forhold på arbeidsplassen ser ut til å ha spesiell betydning for om ansatte opplever negative konsekvenser.

I virksomheter der ansatte involveres og har innflytelse på arbeidsplassen rapporteres det i mindre grad om negative konsekvenser. Ansatte som oppgir at de har betydelig innflytelse på viktige beslutninger, opplever i langt mindre grad negative konsekvenser av algoritmestyrt ledelse.

For det andre ser forholdet mellom ansatte og ledere ut til å ha betydning. Der det rapporteres om stor åpenhet omkring lederbeslutninger, er også de negative konsekvensene langt mindre fremtredende, og i noen tilfeller helt fraværende.

Kilde: Når sjefen bruker kunstig intelligens. Hvilke konsekvenser algoritmestyrt ledelse har for ansatte. FEPS Politikkstudie oktober 2024.

* Det er viktig å understreke at selv om undersøkelsen påviser flere tilfeller av sterk korrelasjon, kan man strengt tatt ikke konkludere med at det er direkte kausale sammenhenger. Det betyr for eksempel at vi ikke kan være sikre på om respondentene som er mest eksponert for algoritmestyrt ledelse, jobber i bedrifter som har andre egenskaper enn algoritmestyrt ledelse som påvirker utfallsvariablene. Studien benytter imidlertid standard multivariate regresjonsmetoder for å kontrollere for dette.

Nytt regelverk

Forordningen om kunstig intelligens (KI-forordningen) er endelig vedtatt, og trådte i kraft i EU den 1. august 2024. Med det har EU en helt ny lovgivning for Kunstig intelligens. Norske myndigheter vurderer loven som EØS-relevant, og den vil få virkning i Norge i løpet av første halvdel av 2026.

Med en vid definisjon av kunstig intelligens rommer begrepet alt fra algoritmer som siler spam i epost-filteret, til avanserte former for selvlærende algoritmer. Mye bruk av kunstig intelligens vil derfor være uproblematisk og forbundet med liten risiko.KI-forordningen tar høyde for dette ved at den benytter et trafikklyssystem. For eksempel er bruk av KI-systemer for siling av kandidater ved ansettelsesprosesser kategorisert som høyrisiko.

Forordningen legger opp til at alle land må utvikle systemer for å overvåke at reglene følges nasjonalt. I Norge har Direktoratet for forvaltning og økonomistyring (DFØ) anbefalt at denne oppgaven legges til Nasjonal kommunikasjonsmyndighet (Nkom).

Det er ikke slik at Kunstig intelligens til nå har vært et uregulert område. Vi har allerede en rekke lover som også dekker kunstig intelligens, som arbeidsmiljøloven, personopplysningsloven, personvernforordningen og likestillings- og diskrimineringsloven.

Dette er imidlertid lover som er utviklet før kunstig intelligens inntok arbeidslivet, og den nye teknologien kan medføre nye problemstillinger som lovverket ikke tar høyde for.

I sin rapport om kunstig intelligens i statlig sektor, konkluderer Riksrevisjonen med at det er et stort behov for å avklare juridiske spørsmål i bruken av kunstig intelligens (s. 9). En utfordring er at statlig virksomhet er bygget opp etter sektorprinsippet, med tilsvarende sektorlovgivning. Det skaper uklarheter, og ikke minst utfordringer når behovet er en mer overordnet og tverrgående tilnærming.

KI-forordningen i EU

KI-forordningen om fastsettelse av et harmonisert regelverk for kunstig intelligens bygger på en risikobasert tilnærming med inndeling i fire risikokategorier*. Jo høyere risiko bruk av KI utgjør, desto strengere regulering. Kategoriene er:

  1. Uakseptabel risiko (forbud)
  2. Høyrisiko (omfattende regulering)
  3. Begrenset risiko (krav til transparens)
  4. Minimal risiko (uregulert).

KI-forordningen skal sikre at KI-systemer som gjøres tilgjengelige i det indre marked er trygge å bruke.

*Stortinget. «Høring om utfyllende regler for KI til generelle formål.» Stortinget.no, 2024.

Mangelfull medbestemmelse og involvering

Ansatte i staten opplever mindre grad av innflytelse over arbeidshverdagen enn ansatte i privat sektor, viser en undersøkelse fra forskningsstiftelsen Fafo.23

Generelt opplever et flertall i undersøkelsen at de har høy grad av innflytelse over egen arbeidssituasjon, og dette hadde endret seg lite i perioden 2006 til 2019. Samtidig er det altså verdt å merke seg at ansatte i offentlig sektor vurderer sin innflytelse som lavere enn ansatte i privat sektor. Det gjelder også mulighet for å bestemme arbeidsmengde og arbeidstempo. Fafos analyser peker også på at arbeidstempoet har tiltatt og økonomiske resultatkrav har økt.

Fafo har også vurdert medvirkning gjennom representasjon, altså det lokale partsamarbeidet. Retten til medbestemmelse og medvirkning er forankret i Hovedavtalen mellom LO og NHO og i Arbeidsmiljøloven (se faktaboks). Men til tross for at de formelle rettighetene er på plass, konkluderer Fafo med at det er betydelige utfordringer når det gjelder praksis.

En hovedutfordring er at dagens organisering ikke stimulerer til nødvendig involvering og medvirkning, noe som er essensielt for å oppnå reell omstilling, bedre tjenester og effektiv oppgaveløsning.

I et notat fra Tankesmien Agenda diskuterer vi utfordringer med digitaliseringsprosjekter i offentlig sektor og foreslår forbedringer.

Erfaringene fra digitaliseringsprosesser i offentlig sektor de siste 10-12 årene viser at nye IT-prosjekter ofte ble forankret høyt i organisasjonene. Det ble ikke tatt tilstrekkelig hensyn til den komplekse virkeligheten ute i felten.

Generelt er utfordringen at digitaliseringsprosjekter i offentlig sektor ofte mangler forankring og medbestemmelse fra de som skal bruke systemene. Interkommunale selskaper og direktorater skaper et mellomnivå som skyver beslutningsmakten vekk fra brukerne. I tillegg er bestiller-utfører-modellen lite egnet for store og komplekse IT-prosjekter.

Innføring av KI i en virksomhet får ofte store konsekvenser for arbeidstakerne. Involvering av ansatte og tillitsvalgte er helt nødvendig for å sikre gode prosesser. For å kunne delta i prosessen og drøfte, må tillitsvalgte ha kunnskap. De må sikres involvering ved innføringen av KI, ved evaluering og i styringen. Tillitsvalgte har også behov for kunnskap for å ivareta medlemmene som påvirkes av systemene.

Digitaliseringsprosjekter i offentlig sektor har dårlige sjanser for å lykkes dersom de forankres for høyt i organisasjonen og tenkes for stort. Tillitsbasert digitalisering innebærer å involvere førstelinje- og fagfolk fra starten, begynne med små prosjekter og lage løsninger som kan bygges ut over tid. Statens rolle bør være å initiere og støtte gode utviklingsprosjekter og tilby god infrastruktur for datadeling.

Ansattes medvirkning er viktig for å sikre etisk forsvarlig bruk av KI. Det er ansatte som blir berørt av kunstig intelligens, og de bør derfor tas med på beslutninger om å innføre nye systemer. Kunstig intelligens som representerer høy risiko, som ansettelser og oppsigelser, eller overvåkning på arbeidsplassen, må gjennom en nøye vurdering og utprøving. Målet må være at ny teknologi styrker ansatte og gjør at de leverer bedre resultater, er mer effektive, og kan konsentrere seg om nye oppgaver.

De ansatte sitter i tillegg med kritisk viktig ekspertise. Det er derfor grunn til å forvente at KI-systemene også blir bedre hvis de utvikles i tett samarbeid og dialog med ansatte som sitter med fagkompetanse og saksbehandlerkompetanse.

Gjennom partssamarbeidet mellom tillitsvalgte og ledelse, kan det utvikles KI-løsninger som bidrar til innovasjon og konkurransedyktighet, samtidig som de ansattes rettigheter ivaretas.

Kristen Nygaard og de første dataavtalene

Kristen Nygaard (1926-2002) var overbevist om at ansatte måtte tas med og lyttes til når ny teknologi skulle innføres.

I 1972 hadde Nygaard sammen med Ole-Johan Dahl utviklet programmeringsspråket SIMULA. Nå ville han bidra til å forhindre at teknologien han utviklet skulle bli anvendt til å disiplinere ansatte. Dette arbeidet satte varige spor. I 1967 innledet han et samarbeid med det mektige LO-forbundet Jern og Metall. Ordningen med dataavtaler og datatillitsvalgte på arbeidsplassen ble etter hvert nedfelt både i Hovedavtalen og arbeidsmiljøloven.

Dette sier Hovedavtalen i dag om medbestemmelse:

IV. Tillitsvalgte

Hvis de ansatte ved den enkelte bedrift ønsker det, kan de velge en spesiell tillitsvalgt (datatillitsvalgt) til å ivareta sine interesser og til å samarbeide med bedriften innenfor avtaleområdet. Den datatillitsvalgte kan også utpekes blant de tillitsvalgte, jf. Hovedavtalens §§ 5-2 – 5-8. Hvis bedriftens størrelse og omfanget av bruken av ny teknologi gjør det naturlig, kan det etter avtale med bedriften utpekes mer enn en spesiell tillitsvalgt for de ansatte. Det anbefales at disse danner en arbeidsgruppe, og det forutsettes at nødvendig tid stilles til rådighet. Det er en forutsetning at de ansattes representant(er) gis anledning til å sette seg inn i generelle spørsmål vedrørende ny teknologi og ha innflytelse på forhold som angår de ansatte. Representanten(e) skal ha adgang til all dokumentasjon om utstyr og programmer innenfor avtaleområdet. Representanten(e) skal med utgangspunkt i sin spesielle kompetanse stå til disposisjon for de ansatte og de øvrige tillitsvalgte, i forbindelse med deres engasjement innenfor avtaleområdet. Tillitsvalgte og ansatte som deltar i konkrete prosjekter skal ha adgang til all nødvendig dokumentasjon innenfor prosjektområdet.

(Hovedavtalen LO og NHO 2022-25)

Konklusjoner og anbefalinger

Kunstig intelligens har potensial til å effektivisere arbeidsprosesser og løse samfunnsoppgaver på nye og bedre måter. I offentlig sektor kan KI-systemer benyttes til å løse så forskjellige oppgaver som å forutsi sykefravær, oppdage fall hos eldre beboere på sykehjem og overvåke av snøskred eller flom. Generativ KI, som ChatGPT, kan avhjelpe saksbehandling og øke effektiviteten.

I dette notatet har vi identifisert seks områder, eller «flagg», som krever oppmerksomhet når KI skal innføres i statlig sektor i stor skala.

Risiko for diskriminering: KI-systemer kan forsterke eksisterende skjevheter i dataene de trenes på, noe som kan føre til algoritmisk diskriminering. Manglende åpenhet og forklarbarhet i KI-systemer gjør det vanskelig å avdekke og håndtere diskriminering.

Utfordrende personvernregelverk: KI krever store mengder data, inkludert personopplysninger, noe som skaper utfordringer i forhold til personvernforordningen (GDPR). Det er behov for klarere lovgivning som spesifikt adresserer bruk av KI.

Manglende kompetanse: Mangel på nødvendig kompetanse innen KI er en stor barriere for implementering. Dette gjelder både teknisk, juridisk og organisatorisk kompetanse. Det er behov for tverrfaglige team og bedre bestillerkompetanse i staten.

Algoritmestyrt ledelse: Bruk av KI til ledelsesoppgaver kan redusere ansattes autonomi og øke stressnivået. Det er viktig med åpenhet og involvering av ansatte for å unngå negative konsekvenser.

Uklart regelverk: Den nye KI-forordningen fra EU (AI Act) vil kreve nasjonale systemer for overvåking og etterlevelse. Det er behov for veiledning til virksomheter om juridiske og etiske problemstillinger knyttet til KI.

Mangelfull medbestemmelse og involvering: For å lykkes med digitalisering og KI-implementering er det avgjørende med involvering og medbestemmelse fra ansatte. Dette sikrer etisk forsvarlig bruk av KI og bedre resultater.

På bakgrunn av dette, foreslår vi følgende tiltak:

  • Aktivitets- og redegjørelsesplikt for KI: Innføre krav om at KI-systemer må kunne forklares og at det rapporteres om hvordan de brukes.

En gjennomgang av aktuelle lover med tanke på utvikling og forsvarlig bruk av kunstig intelligens i offentlig forvaltning.

  • Statlig konsulentbyrå for KI: Etablere et sentralt byrå som kan bistå med kompetanse og prosjektstøtte.
  • Tverrfaglige grupper: Opprette flere tverrfaglige team som inkluderer IT-eksperter, jurister og saksbehandlere.
  • Konsultasjon og involvering: Sikre at ansatte og tillitsvalgte involveres i alle faser av KI-implementeringen.
  • Veiledning om juridiske og etiske spørsmål: Tilby veiledning til statlige virksomheter om hvordan de kan håndtere juridiske og etiske utfordringer knyttet til KI.

Kunstig intelligens representerer en betydelig mulighet for å forbedre effektiviteten og kvaliteten på tjenester i statlig sektor. Det handler om å løse samfunnsoppgaver på nye og bedre måter, noe som krever andre arbeidsformer, og ikke minst en større grad av medbestemmelse og involvering fra ansatte.

Fotnoter

1

Kommunal- og moderniseringsdepartementet. «Nasjonal strategi for kunstig intelligens.» 2020.

2

Regjeringen. «Norge skal bli verdens mest digitaliserte land.» Regjeringen.no, 2024. https://www.regjeringen.no/no/aktuelt/norge-skal-bli-verdens-mest-digitaliserte-lan/id3055039/

3

Riksrevisjonen. «Bruk av kunstig intelligens i staten.» Dokument 3:18 (2023-2024), 2024

4

Riksrevisjonen. «Bruk av kunstig intelligens i staten», Dokument 3:18 (2023−2024) / Offentliggjort 02.09.2024

5

Digitaliseringsdirektoratet. «Kunstig intelligens - oversikt over prosjekter i offentlig sektor.» Data.norge.no, 2024. https://data.norge.no/kunstig-intelligens

6

Statsforvalteren. «Fem prosjekter får penger til å utvikle kunstig intelligens.» Statsforvalteren.no, 2024. https://www.statsforvalteren.no/troms-finnmark/miljo-klima/fiskeforvaltning/pukkellaks/kunstig-intelligens-mot-pukkellaks/

9

Likestillings- og diskrimineringsloven. §§6-9.

10

Likestillings- og diskrimineringsombudet. «Algoritmer, KI og diskriminering.» LDO.no, 2024. https://www.ldo.no/globalassets/_ldo_2019/_bilder-til-nye-nettsider/ki/ldo_algoritmer_ki_og_diskriminering__elektronisk_versjon.pdf

11

Forvaltningsloven. §24

12

Grunnloven. §100, femte ledd

13

Strand, Vibeke Blaker: «Algoritmer, Kunstig intelligens og diskriminering. En analyse av likestillingslovens muligheter og begrensninger.» Utredning skrevet på oppdrag fra Likestillings- og diskrimineringsombudet. https://www.ldo.no/globalassets/_ldo_2019/_bilder-til-nye-nettsider/ki/ldo_algoritmer_ki_og_diskriminering__elektronisk_versjon.pdf , s.16

14

Riksrevisjonen- «Bruk av kunstig intelligens i staten», Dokument 3:18 (2023−2024) / Offentliggjort 02.09.2024, s.15

16

«Bruk av kunstig intelligens i staten», Riksrevisjonen, Dokument 3:18 (2023−2024) / Offentliggjort 02.09.2024, s. 16

17

Samfunnsøkonomisk analyse. «Kunstig intelligens: nytte, muligheter og barrierer.», 2024. https://www.samfunnsokonomisk-analyse.no/nye-prosjekter/2024/1/8/kunstig-intelligens-nytte-muligheter-og-barrierer

18

Computas. «Offentlig sektor vil ta i bruk AI, men møter hindringer.»
Computas.com, 2024. https://computas.com/presse/offentlig-sektor-vil-ta-i-bruk-ai-men-moter-hindringer/

19

«Bruk av kunstig intelligens i staten», Riksrevisjonen, Dokument 3:18 (2023−2024) / Offentliggjort 02.09.2024

20

Riksrevisjonens rapport, Dokument 3:18 (2023-2024)

21

OECD. «Using AI in the workplace: Opportunities, risks and policy responses.» OECD Artificial Intelligence Papers, No. 11, OECD Publishing, Paris, 2024. https://doi.org/10.1787/73d417f9-en

22

OECD 2024, s.10

23

Fafo. «Arbeidstakeres medbestemmelse og medvirkning.» Fafo.no, 2024. https://www.fafo.no/zoo-publikasjoner/arbeidstakeres-medbestemmelse-og-medvirkning

Publisert: . Sist oppdatert: .

Bli Agendapartner

Vi trenger deg for å løfte debatten

Tankesmien Agendas oppgave er å styrke det offentlige ordskiftet gjennom kunnskapsformidling, utredninger, meningsutveksling og forslag til nye politiske løsninger. Vi trenger din hjelp for å fortsette jobben. Vi appellerer til deg som synes en fri, faktabasert og freidig samfunnsdebatt er et gode!

Mange mennesker som sitter i et rom og lytter til et foredrag.

Abonner på vårt nyhetsbrev

Unngå å gå glipp av noe! Få de siste oppdateringene fra oss rett i innboksen din.