Styrningen av AI ny utmaning

Under 2026 kommer offentlig sektor att ställas inför en ny AI-utmaning kring suveränitet och styrning. Det förutspår det internationella AI- och säkerhetsföretaget F5 och dess tekniske chef Bill Church.

På Folk och Försvars rikskonferens stod Sveriges säkerhet, motståndskraft och resiliens på agendan. Den nya cybersäkerhetslagen NIS2 ghar börjat gälla, vilken ökar ansvaret på ledningar att vara förberedda på cyberangrepp. Det internationella säkerhetsbolaget F5 har nyligen släppt en rapport om vad vi kan förvänta oss inom cybersäkerhet 2026. 

Bill Church, teknisk chef för offentlig sektor på
säkerhetsbolaget F5.

AI har gått från vision till vardag i offentlig sektor – men styrningen hänger inte med. Säkerhet i offentlig sektor har länge handlat om drifttid och backup. Med AI, molntjänster och nya geopolitiska risker behöver bilden breddas. Bill Church, teknisk chef för offentlig sektor på säkerhetsbolaget F5, menar att 2026 blir året då regeringar och myndigheter måste ta tillbaka kontrollen över både data och beslut. 

OFFENTLIGA AFFÄRER erbjöds tillfälle att ställa frågor kring detta till Bill Church och här följer intervjun med honom som genomfördes via mejl.

OA: AI har gått från vision till vardag i offentlig sektor – men styrningen hänger inte med. På vilka sätt behöver styrningen komma ikapp?

– Styrningsgapet inom AI handlar i grunden om hastighet och koncentration. Styrningen måste komma i kapp på flera viktiga områden. För det första behöver regeringar omfattande ramverk för hantering av ursprung för träningsdata och inferensdata. När en offentlig myndighet använder en AI-tjänst kan medborgarnas data inte bara exponeras under sökningar utan även potentiellt användas för modellförbättringar. Bestämmelserna i EU:s AI Act om högriskområden, som träder i kraft i augusti 2026, tar itu med några av dessa problem, men genomförandet är fortfarande ojämnt mellan medlemsstaterna.

– För det andra måste styrningen ta itu med bristen på ansvarsskyldighet. När AI-system påverkar beslut om socialförmåner, skattebedömningar eller allmän säkerhet behöver medborgarna tydliga möjligheter att överklaga. Skandalerna i Nederländerna (partiskhet i välfärdsalgoritmer) och Australien (Robodebt) visar vad som händer när det saknas algoritmisk ansvarsskyldighet. Fram till 2026 har cirka 90 länder fastställt nationella AI-strategier och 33 har antagit bindande AI-specifik lagstiftning, men kvaliteten och genomförbarheten hos dessa ramverk varierar enormt.

Säkerhetsmedveten upphandling

– För det tredje måste regeringar utveckla upphandlingsramverk som bedömer AI-leverantörer inte bara utifrån deras funktionalitet, utan också utifrån säkerhet, transparens, spårbarhet och efterlevnad av regelverk. Modellen från det franska försvarsministeriet, som ingick ett ramavtal med Mistral AI specifikt för att tillämpa AI på fransk-kontrollerad infrastruktur, är ett exempel på en säkerhetsmedveten upphandlingsstrategi som bör bli standard. Vår säkerhetsforskning tyder dock på att även en suverän och självständig användning av vissa öppna modeller kan medföra oacceptabla säkerhetsrisker för känsliga applikationer.

OA: Hur kan offentlig sektor kombinera molnets fördelar med kraven på dataskydd och suveränitet?

– Spänningen mellan molnets fördelar och suveränitetskraven är verklig men inte oöverstiglig. Nyckeln är att inse att ”suveräna molntjänster” från amerikanska hyperscalers, även om de marknadsförs som lösningar, ofta fortfarande omfattas av extraterritoriella lagar som den amerikanska CLOUD Act och FISA Section 702. Det innebär att amerikanska myndigheter potentiellt kan begära tillgång till europeiska data även när de lagras inom EU:s gränser.

– Den praktiska vägen framåt innebär en nivåindelad strategi baserad på datakänslighet och säkerhetskrav. För allmänna användningsområden med låg känslighet kan vanliga molntjänster vara acceptabla med lämpliga avtalsmässiga skydd. För känsliga data, hälso- och sjukvårdsjournaler, skatteinformation, brottsbekämpningsdata och kritiska infrastruktursystem bör myndigheter prioritera leverantörer som uppvisar både rättsligt oberoende och hög säkerhet som kontrollerats genom oberoende motståndstester (adversarial testing).

Leverantörskatalog för Europa

– Initiativ som Gaia-X går i denna riktning. Vid Gaia-X-toppmötet 2025 lanserade organisationen sin första leverantörskatalog med 600 tjänster från 15 leverantörer, indelade i fyra suveränitetsnivåer. Den högsta nivån, Label Level 3, är avsedd uteslutande för leverantörer med europeiskt huvudkontor och utan koppling till jurisdiktioner utanför EU. Denna transparenta klassificering hjälper upphandlingsansvariga inom den offentliga sektorn att fatta välgrundade beslut.

– Öppna viktmodeller är en annan väg till suveränitet, men med några viktiga förbehåll. Modeller som Llama eller Mistral kan implementeras på infrastruktur som kontrolleras av myndigheter, vilket säkerställer att inferens frågor inte förlorar suverän kontroll. Det kräver dock noggrann kontroll av både ursprunget av träningsdata och säkerhetsegenskaperna hos modellerna själva.

OA: 2026 blir året då regeringar och myndigheter måste ta tillbaka kontrollen över både data och beslut, spås det. Hur ska detta ske, i korta ordalag?

– 2026 kommer att bli ett avgörande år, främst eftersom kraven i EU:s AI Act på högrisksystem verkställs i augusti 2026. Detta skapar ett regleringstryck som kommer att sprida sig globalt genom den så kallade Brysseleffekten, vilket innebär att organisationer som är verksamma i Europa måste följa lagen oavsett var deras huvudkontor ligger.

Kontrollen kan återtas genom tre parallella insatser:

Reglering: EU-förordningen medför betydande vite på upp till 35 miljoner euro eller 7 procent av den globala omsättningen för förbjudna AI-metoder. När de nationella behöriga myndigheterna startar tillsynsarbetet och aktiverar regelverket kommer organisationerna att få starka ekonomiska incitament att visa att de följer reglerna, är transparenta och ansvarstagande. I USA sker en parallell utveckling på delstatsnivå, där Texas, Colorado och Kalifornien implementerar AI-specifika styrningskrav.

Infrastrukturinvesteringar: Europeiska initiativ som Mistrals Mistral Compute-plattform, IPCEI-CIS-programmet och det föreslagna EU-direktivet om molntjänster och AI-utveckling syftar till att tredubbla EU:s datacenterkapacitet inom sju år. Tyskland, Frankrike, Italien och Nederländerna har bildat European Digital Infrastructure Consortium for Digital Commons för att gemensamt utveckla suveräna digitala verktyg.

Operativ styrning

Operativ styrning: Regeringar kommer att behöva införa AI-register, utse systemägare, upprätta övervakningsramverk och skapa tydliga ansvarsfördelningar. Singapores modell för AI-styrning och nya standarder som ISO/IEC 42001 erbjuder mallar, men genomförandet kräver kontinuerliga investeringar i kunskapsutveckling och kulturförändring inom offentliga institutioner.

Kort sagt: reglering skapar mandatet, infrastruktur skapar alternativa lösningar (förmodligen det viktigaste) och styrning skapar den operativa kapaciteten. Alla tre måste utvecklas tillsammans.

OA: Finns det något som du själv vill tillägga kring grundproblematiken med AI-implementeringen i offentlig sektor?

– Jag vill lyfta fram fyra grundläggande utmaningar som ofta inte får tillräcklig uppmärksamhet: För det första ökar säkerhetsklyftan mellan AI-leverantörerna i stället för att minska. Våra motståndstester på F5 visar att konkurrensen på marknaden hårdnar samtidigt som säkerhetskvaliteten skiljer sig åt dramatiskt. När vi testar specifik motståndskraft mot sofistikerade flerstegsattacker (vårt Agentic Resistance Score) är skillnaderna lika markanta. Detta innebär att för applikationer inom den offentliga sektorn där säkerhet är viktigt, vilket är de flesta, är det praktiska valet av leverantörer mycket mer begränsat än vad prestandatester antyder.

Se bortom marknadsföringen

– För det andra är problemet med ”sovereignty washing” verkligt. Hyperscalers marknadsför ”sovereign cloud”-erbjudanden och använder sig av självständighet som försäljningsargument, samtidigt som de potentiellt upprätthåller juridiska skyldigheter gentemot utländska jurisdiktioner. Gaia-X kritiserades för att ha tillåtit amerikanska hyperscalers att delta i initiativet, vilket enligt vissa undergrävde dess ursprungliga syfte. Beslutsfattare inom den offentliga sektorn måste se bortom marknadsföringen för att förstå den faktiska juridiska exponeringen och dataflödet.

– För det tredje är öppna viktmodeller inte en komplett lösning. Även om användningen av Llama eller Mistral i statlig infrastruktur löser frågan om datasuveränitet vid inferens, har dessa modeller tränats på data vars ursprung och potentiella partiskhet kanske inte är transparent. En modell som främst tränats på engelskspråkiga data från amerikanska internetkällor kommer att bära på kulturella och språkliga antaganden som kanske inte passar svenska medborgare.

– Dessutom visar våra säkerhetstester att öppna källkodsmodeller konsekvent presterar sämre än slutna modeller när det gäller motståndskraft mot angrepp, vilket innebär att en suverän implementering kan vara mindre säker än en välstyrd API-implementering av en mer härdad modell. Regeringar behöver inte bara suverän inferens, utan måste också vara uppmärksamma på om de underliggande modellerna uppfyller deras krav på säkerhet och värdeanpassning.

Skydda oss mot algokrati

– För det fjärde, och kanske viktigast av allt, måste vi skydda oss mot utvecklingen mot algokrati, styre genom algoritmer. I september 2025 utnämnde Albaniens premiärminister en AI-chattbot till ”minister för offentlig upphandling” och hävdade att det skulle göra offentliga upphandlingar ”100 procent korruptionsfria”. Det är ett extremt fall, men den underliggande frestelsen finns överallt: att ersätta mänskligt omdöme med algoritmisk effektivitet objektivitetens och korruptionsbekämpningens namn.

– Faran med algokrati är att den eliminerar den demokratiska friktionen som liberal styrning är beroende av. Byråkrater som framför invändningar, administratörer som kräver motivering, tjänstemän som fördröjer beslut som de motsätter sig – de är inte fel i demokratiska system, utan funktioner som skyddar mot hastiga, ogenomtänkta eller tyranniska maktutövningar. När algoritmiska system fattar eller starkt påverkar beslut om rätt till socialbidrag, straffrättsliga domar, invandringskontroller eller resursfördelning, kringgår de den överläggning och mänskliga bedömning som demokratisk legitimitet kräver.

Utanför allmänhetens insyn

– Vi har redan sett konsekvenserna. Nederländernas SyRI-system flaggade tusentals medborgare som risker för socialbidragsbedrägeri baserat på algoritmisk profilering, och domstolen stängde ner det med hänvisning till brott mot de mänskliga rättigheterna. Australiens Robodebt-skandal anklagade felaktigt 400 000 personer för felaktig inkomstdeklaration. I båda fallen fungerade systemen i stort sett utanför allmänhetens insyn, och medborgarna hade minimal förståelse för hur beslut som påverkade deras liv fattades.

​​EU:s AI Act är ett första steg, men det är tillämpningen som avgör om den blir ett verkligt ramverk för tillförlitlig AI eller bara en skenbar efterlevnad. Målet måste vara att utnyttja AI:s legitima fördelar, effektivitet, konsekvens och dataanalys i stor skala, samtidigt som man bevarar det mänskliga omdömet, den demokratiska debatten och medborgarnas möjligheter att överklaga, som skiljer styrning från ren administration.