AI-drivna bedrägerier pressar myndigheter

Svenska myndigheter pressas av AI-drivna bedrägerier – men saknar resurser att möta hotet. Det visar en ny global studie från SAS Institute. OFFENTLIGA AFFÄRER tog kontakt med Natasa Vlajic, Business Solution Manager och Fraud Advisor på SAS Institute i Sverige.

Natasa Vlajic, SAS Institute i Sverige.
Arkivbild.

Några siffror ur rapporten:

  • 71 procent av svenska respondenter uppger att AI-bedrägerier ökat de senaste fem åren
  • Endast 11 procent anser sig ha tillräckliga verktyg för att agera
  • 17 procent av myndighetsbudgetarna bedöms kunna frigöras genom effektiv bedrägeribekämpning
  • 96 procent menar att bedrägerier påverkar medborgarnas förtroende negativt

Studien bygger på enkätsvar från 1 300 ansvariga för bedrägerihantering inom offentlig sektor globalt, varav 100 i Sverige. Den genomfördes under första och andra kvartalet 2025. 

Här följer intervjun med Natasa Vlajic.

OA: Utan rätt teknik, kompetens och resurser blir det svårt att agera effektivt mot AI-drivna bedrägerier, hävdar ni. Vilka är de viktigaste åtgärderna som kan behövas?

– Tekniken är viktig, men det är människan som behöver vara navet i beslutsfattandet. AI kan upptäcka mönster och signaler, men det krävs lokal verksamhetskunskap och mänsklig bedömning för att tolka avsikten bakom exempelvis deep fakes. En kombination av tekniska verktyg och mänsklig kontextuell förståelse är avgörande för att agera effektivt, säger Natasa Vlajic.

– Offentlig sektor har begränsade resurser. Därför behöver vi en mer nyanserad och transparent riskbedömning som kombinerar affärsregler, statistiska modeller och AI. Det ökar träffsäkerheten och gör att varje granskning ger större effekt. Samtidigt säkerställer transparens ett mer etiskt användande av tekniken i offentliga miljöer. Vi behöver också röra oss bort från manuella stickprov till mer kontinuerlig och proaktiv kontroll. Riskerna utvecklas i realtid, då måste även övervakningen göra det.

OA: Även om AI ligger bakom många av de nya, mer avancerade hoten, pekas tekniken också ut som den mest lovande lösningen, säger ni. Hur omfattande måste lösningarna vara för få avsedd effekt, enligt er uppfattning?

– Många organisationer testar AI, men lägger inte tillräcklig kraft på att utvärdera den faktiska verksamhetsnyttan. Tekniken är än så länge förhållandevis ny, så det är förhoppningsvis något som säkerställs nu och kommande år. Det handlar inte om att göra mer, utan att göra rätt. Fokus bör ligga på lösningar som integreras i verksamheten och löser konkreta problem.

– Samtidigt måste vi som samhälle tänka bredare. Hur kan vi förhindra att AI och digital infrastruktur utnyttjas för bedrägerier? Det kan handla om regler för att märka AI-genererade bilder, sociala medier som stoppar deep fakes eller att telekombolag blockerar nätverk från att användas för spam. Vi har sett hur samarbete över branschgränser, till exempel mellan banker och teleoperatörer, kan ge verklig effekt. Det är den typen av initiativ vi behöver fler av.

OA: Det krävs rätt arkitektur, tillgång till relevant data och ett mandat internt att agera (min kursivering), hävdar ni. Hur kan det interna mandatet att agera se ut? Handlar det om chefernas tillit till IT-avdelningen, eller är det något annat som behövs?

– Ett verkligt mandat handlar om mer än IT-budgetar eller förtroende mellan avdelningar. Det handlar om att sluta arbeta i silor, att prioritera samverkan mellan riskfunktioner och att skapa strukturer där alla i organisationen har ett ansvar för att förstå och motverka bedrägerier.

– Vi ser ofta att olika produktlinjer hanterar samma kund utan att samköra sina riskbedömningar. Det gör det svårt att agera effektivt. Det krävs ett helhetsgrepp, där utbildning, gemensamma processer och öppenhet kring risker och bedrägerier är en naturlig del av kulturen.