ENG
Digital_arkiv_illustrasjon_AV_01535_Foto_Kjetil_Sviland

Foto: Arkivverket

Kronikk: Kan vi stole på staten, hvis den bruker kunstig intelligens?

Folk flest stoler på offentlig saksbehandling. Men hva skjer hvis vi bruker kunstig intelligens (KI) som del av saksbehandlingen? Jo, da stuper tilliten!

Inga_Bolstad_AV_00202_Foto_Sofie_Holberg.jpg
Riksarkivar Inga Bolstad. Foto: Arkivverket.

I Norge har vi stort sett tillit til at beslutningene som fattes, er riktige. Men hva skjer med tilliten dersom statlige etater bruker KI som del av saksbehandlingen? Det lurte vi i Arkivverket på, og ba Respons Fakta undersøke for oss:

Konklusjonen er et markant dropp i tilliten dersom KI er del av saksbehandlingen!

Tilliten som forsvant

De som selv jobber i offentlig sektor, har naturlig nok høyest tillit til beslutninger fattet i det offentlige: Kun 11 prosent av dem har i utgangspunktet lav eller svært lav tillit, mens 54 prosent av dem har høy eller svært høy tillit. Men når vi introduserer bruk av KI, øker andelen skeptikere til 35 prosent. 

I det private er man i utgangspunktet mer skeptisk: 25 prosent har lav eller svært lav tillit. Når vi introduserer KI, øker skeptikerandelen til 45 (lav eller svært lav tillit).  

Med andre ord: Differansen mellom privat og offentlig ansatte viskes i stor grad ut når vi introduserer KI. Man stoler altså mer på egne vurderingsevner og godt skjønn, enn på maskiners intelligens.

Er det grunn til det?

Bør vi være på vakt?

Og hvorfor bryr Arkivverket seg om dette?

 

“Vi må ikke få panikk bare fordi det er en annen type logikk.”
Inga Bolstad og Øyvind Akerhaugen

De jukset før også

For å ta det siste først: I Arkivverket lagrer vi nasjonens hukommelse for ettertiden. Vi er opptatt av at ettertiden skal kunne finne svar på hva staten har besluttet og bestemt. Og vi er opptatt av at «sannheten» finnes i arkivene.

Men også i gamle papirarkiver ser vi at dokumenter kan være manipulert, at det er brukt korrekturlakk og at ting er strøket over. Vi skal selvfølgelig stille strenge krav til maskiner, men kanskje ikke strengere enn vi stiller til mennesker?

Vi må ikke få panikk bare fordi det er en annen type logikk.

oyvind_Akerhaugen_i_Mo_i_Rana_AV_01113_Foto_Vegard_Breie_beskåret.jpg
Områdedirektør i Innovasjon i Arkivverket, Øyvind Akerhaugen. Foto: Vegard Breie/Arkivverket.

Folk feiler også

Heller ikke mennesket er ufeilbarlig. Hodet til saksbehandleren kan også fungere som en «svart boks», vi vet ikke hva som ligger til grunn for vurderingen: Hen kan være unøyaktig eller farget av personlige meninger. Hen har sine politiske oppfatninger og kan bli påvirket av andre.

I Arkivverket er vi teknologioptimister. Ny teknologi gir oss store muligheter, og den tar ned risikoen for at informasjon blir tuklet med: I digitale løsninger kan vi sikre informasjonen mot endringer. Teknologien gjør det lettere å finne frem i informasjon, den forbedrer måten vi bevarer beslutninger på for fremtiden, og den letter arbeidet med innsyn og sladding.

Grunn til å være maskin-skeptikere?

Vi har brukt maskinlæring, en gren av KI, i noen år nå. Milevis av våre arkiver består av papirdokumenter, og mye er skrevet for hånd. Å gjøre dokumentene tilgjengelig for folk flest handler om å gjøre dette digitalt og søkbart. Da er maskinlæring og bildegjenkjenning nyttig. Vi har også spart mye tid med en maskinlæringsmodell som automatisk finner og sladder personnummer, slik at info kjapt kan deles med de som trenger den, uten manuell kontroll. Da vi lanserte, hadde vi under 90 prosent nøyaktighet - nå er vi på 97.

Hvor nøyaktige menneskene som hadde jobben før var, vet vi ikke. Men vi vet at vi er adskillig mer kritiske til feil gjort av maskiner enn av mennesker.

Men selv vi teknologioptimister ser farene. Vi har alle lest kjedsommelig mange innlegg om hvordan ChatGPT lager fantasifulle CV-er. Men generative språkmodeller har ikke noe forhold til sannhet. De er gode til å konstruere språk og har et forhold til om ting hører sammen, men ikke til hvordan de hører sammen. Da kan det fort bli rot, og modellene er også i stand til å finne opp ting som ikke har skjedd. 

Vi tror ikke generativ KI blir utbredt i offentlig saksbehandling, men det kan absolutt bli risikabelt dersom saksbehandlerne begynner å bruke ChatGPT i sin research under saksbehandlingen.

Hvor mye må vi kontrollere?

Så hva gjør vi?

Vi må finne ut hva som er nødvendig grad av kontroll. 

Offentlige virksomheter har et ansvar for å sikre god forvaltning av dokumentasjonen i offentlig sektor. De må kunne vise hvilke beslutninger de tok, og på hvilket grunnlag. Og Arkivverket har tilsynsansvaret for dette.

For å bevare tilliten må vi fortsatt ha god etterrettelighet, også når ting blir digitalt og mer ugjennomsiktig. 

Tradisjonelle saksbehandlingsløsninger med mer eller mindre lesbar kildekode og tydelig definerte beslutningstrær, er ikke så vanskelige å forholde seg til for ettertiden. Men med stadig mer automatisering ved hjelp av teknologi som ikke lar seg dokumentere på detaljnivå, kan det blir vanskeligere å ivareta rettigheter og tillit.

Politikerne må på banen

Vi må finne ut hva som er nødvendig grad av kontroll, kombinert med tilstrekkelig handlingsrom. Dette er fornuftig å løse på nasjonalt nivå, det er ikke smart at hver virksomhet skal finne opp kruttet. Og derfor trenger vi også en god politisk diskusjon. 

Men å sette på bremsen og utelukke bruk av kommersielt utviklet KI i offentlig sektor, hjelper ingen. Da sakker vi akterut.

 

Inga Bolstad, riksarkivar og leder av Arkivverket

Øyvind Akerhaugen, områdedirektør Innovasjon, Arkivverket

Kronikken var på trykk i Dagsavisen 19. august 2023.