Utebliven AI-vägledning skapar osäkerhet
Debattartikel av Marielle Lindgren, chef för norra Europa på det amerikanska mjukvaruföretaget ServiceNow.
Den 2 februari 2026 markerade en viktig milstolpe i genomförandet av EU:s AI-förordning. Då skulle EU-kommissionen enligt plan ha publicerat sin vägledning om hur högrisk-AI ska identifieras och följas upp i praktiken. Så skedde inte och den uteblivna vägledningen har skapat osäkerhet kring tolkning och ansvar, särskilt för offentliga aktörer som redan använder AI i känsliga sammanhang.

Marielle Lindgren. Arkivbild.
Samtidigt närmar sig nästa avgörande datum: den 2 augusti 2026, då de mest omfattande kraven på högrisk-AI börjar tillämpas och offentlig sektor måste kunna visa att styrning, uppföljning och ansvar fungerar i praktiken.
Offentlig sektor står inte längre inför frågan om AI ska användas, utan hur den ska styras. EU:s AI-regler går nu från princip till praktik och innebär bindande krav för myndigheter, regioner och kommuner som använder AI i verksamheten. När kraven på övervakning av AI-system med hög risk träder i kraft förändras förutsättningarna i grunden: det räcker inte längre att fatta rätt beslut vid införandet – organisationer måste ta ansvar för hur AI fungerar även efter att systemen satts i drift.
Här finns ingen valfrihet. För offentlig sektor är anpassning till regelverket ett krav, inte ett vägval. Myndigheter kan inte välja bort ansvar för AI-system som påverkar medborgare, lika lite som de kan välja bort ansvar för andra delar av sin verksamhet. Det verkliga vägvalet handlar om hur kraven uppfylls: reaktivt eller strukturellt.
Genomförandet en utmaning
I dag införs AI ofta som separata lösningar – pilotprojekt, upphandlade verktyg eller punktinsatser – utan att långsiktigt ansvar, uppföljning och styrning byggs in i verksamheten. Om ingen har helhetsbilden över vilka AI-system som används, vem som äger dem efter införande och hur risker ska följas upp, uppstår en styrningsskuld. Då blir varje ny regel tung att hantera och varje granskning en belastning.
Samtidigt har offentlig sektor ett viktigt försprång. Myndigheter är redan vana vid internkontroll, spårbarhet, tillsyn och tydligt ansvar. Utmaningen ligger inte i att förstå regelverken, utan i att operationalisera dem. När styrning stannar i policydokument och riktlinjer riskerar den att bli tandlös. När den i stället byggs in i arbetsflöden, systemförvaltning och beslutsprocesser blir den en naturlig del av verksamheten.
Utpekat ansvar
Att ta ansvar för AI efter driftsättning innebär inte ständig manuell granskning eller att bromsa utvecklingen. Det innebär att veta vilka AI-system som finns, förstå vilka risker de innebär över tid och ha tydliga processer för uppföljning, incidenthantering och förbättring. Framför allt innebär det att ansvar är utpekat och praktiskt genomförbart – inte utsmetat mellan IT, juridik och verksamhet.
EU:s AI-regler bör därför inte ses som ett hinder för offentlig innovation, utan som ett ramverk som kan stärka legitimiteten i AI-användningen. Med fungerande styrning kan AI införas snabbare, säkrare och med större förtroende från både medborgare och tillsynsmyndigheter.
Struktur avgör framgång
Offentlig sektor står alltså inte inför valet att anpassa sig eller inte. Anpassningen är obligatorisk. Det avgörande är om den sker fragmenterat och defensivt – eller strukturerat, långsiktigt och verksamhetsnära. EU:s AI-regler kräver inte mindre ambition i offentlig sektor. De kräver att ambitionen backas upp av styrning som faktiskt fungerar.
Många offentliga verksamheter använder redan AI i känsliga sammanhang: för ärendeprioritering, beslutsstöd, riskbedömning, matchning eller automatisering – användningar som ofta hamnar i kategorin hög risk enligt EU-regelverket eftersom de kan påverka människors rättigheter, möjligheter eller tillgång till samhällstjänster.
Problemet är inte att offentlig sektor saknar vilja, utan att AI ofta införs utan att styrning, uppföljning och ansvar byggs in i det dagliga arbetet. Det verkliga hotet är inte regelverket i sig, utan fragmenteringen. När ingen har helhetsbilden uppstår en styrningsskuld där varje ny regel blir ett hinder – och varje granskning ett stressmoment.
Frigörande styrning
Men det finns en annan väg. Nyckeln är att flytta principerna om internkontroll, spårbarhet och tillsyn från dokument och policys till själva arbetsflödena. När AI byggs in i verksamhetsprocesser där ansvar och mänsklig tillsyn redan finns, blir regelefterlevnad en del av arkitekturen – inte ett lager som läggs på i efterhand. Rätt implementerad kan styrning frigöra handlingsutrymme, snarare än att begränsa det.
Frågan är därför inte om offentlig sektor ska använda AI, utan hur. De organisationer som tidigt bygger upp en sammanhållen styrning – med tydligt ägarskap, gemensamma plattformar och kontinuerlig uppföljning – kommer att kunna använda AI snabbare, säkrare och mer legitimt än de som fortsätter att experimentera i silos. EU:s AI-regler kräver inte mindre ambition i offentlig sektor. De kräver bättre struktur. Konkret innebär det att offentlig sektor behöver etablera tydligt ägarskap över AI-system, skapa en samlad överblick över användningen samt integrera uppföljning och riskhantering i befintliga styr- och förvaltningsprocesser.

