Sverige
AI act

Så förbereder sig Sopra Steria Sverige för AI-förordningen

Bakgrund: Vad har hänt och varför spelar det roll?

AI förordningen, presenterad av EU den 12 juli 2024, är banbrytande lagstiftning som etablerar ett regelverk för säker och etisk utveckling och användning av AI. Förordningen är den första lagstiftningsprodukten som omfattar hela livscykeln för AI, och ställer tydliga krav på transparens, ansvar och skydd av grundläggande rättigheter. Samtliga AI-system inom Europa omfattas och strikta krav ställs på alla aktörer som utvecklar, förmedlar, använder eller påverkas av AI-system.

I syfte att ge EU:s medlemsstater och företag tid att anpassa sig ska förordningens innehåll träda i kraft stegvis. Som ett första steg förbjöds AI-system inom EU som anses innebära en oacceptabel risk för grundläggande mänskliga rättigheter, hälsa och säkerhet för individ och samhälle samt demokratiska värderingar i februari 2025. Denna typ av AI-system innefattar till exempel system som tolkar människors i arbets- och utbildningssammanhang, sociala betygssättningar och biometrisk fjärridentifiering i realtid i offentliga miljöer.

I augusti 2025 inleddes den andra etappen av förordningens införande då ytterligare kapitel trädde i kraft. Dessa kapitel ställer skärpta krav på transparens, ansvar och dokumentation för leverantörer av stora språkmodeller (GPAI). Dessutom infördes krav på etablering av ett övergripande AI Office på europeisk nivå samt nationella tillsynsmyndigheter, förstärkt skydd av känslig information i AI-processer samt möjligheten att utdöma höga sanktionsavgifter vid bristande efterlevnad.

Böter för bristande efterlevnad kan uppgå till 35 miljoner euro eller sju procent av global årsomsättning.

Högriskkrav och Digital Omnibus: det här är på gång

Utöver de regler som redan gäller omfattar förordningen ytterligare omfattande krav på alla aktörer som utvecklar, förmedlar, använder eller påverkas av AI-system inom EU. De mest omfattande kraven riktas mot AI-system som anses medföra hög risk för grundläggande mänskliga rättigheter, hälsa och säkerhet för individ och samhälle samt demokratiska värderingar. Kraven för hög risk AI-system träder till stor del i kraft i augusti 2026 och inkluderar bland annat skyldigheten att upprätta riskhanteringssystem, krav på teknisk dokumentation, transparens, robusthet och cybersäkerhet, registrering av AI-systemet i en gemensam europisk databas och möjligheten till mänsklig övervakning av AI-systemet.

Ansvariga för att ta fram harmoniserade standarder för regelefterlevnad ligger hos kommittén CEN-CENELEC JTC21, utsedd av Europeiska Kommissionen. Kommitténs standarder för regelefterlevnad är planerade att publiceras succesivt under 2026–2027. I praktiken innebär detta att aktörer inom EU snart står under stark press att uppfylla strikta efterlevnadskrav på kort tid trots att riktlinjer för tolkning och tillämpning av regelverket fortfarande är ofullständigt. Även den Europeiska Kommissionen har uppmärksammat denna utmaning och presenterade därför i november förslaget “Digital Omnibus on AI”.  Syftet är att förenkla implementeringen av AI-förordningen och relaterad digital lagstiftning, minska administrativa bördor och tydliggöra regler. Förslaget innehåller bland annat villkor om att harmoniserade standarder och riktlinjer från CEN-CENELEC JTC21 ska vara klara innan högriskkrav träder i kraft. 

Från ord till handling: Våra initiativ för ansvarsfull AI

På Sopra Steria anser vi att framtidens AI ska vara både innovativ och ansvarsfull. I en tid då många ifrågasätter om AI-förordningen riskerar att bromsa utvecklingen betraktar vi den i stället som ett styrsystem som vägleder innovation utan att äventyra säkerhet.

Vår målsättning är att vara först i ledet för att forma framtidens AI i Europa, med ansvar, säkerhet och regelefterlevnad som en naturlig del av arbetet.

För att leva upp till denna målsättning har vi på Sopra Steria i Sverige tagit konkreta steg. Vi har etablerat en nationell, intern informationsplats som samlar material, resurser och vägledning kring AI-förordningen för våra konsulter. Genom interna utbildningar skapar vi förutsättningar för att regelefterlevnad ska bli en naturlig del av varje AI-uppdrag. Ett konkret exempel på hur efterlevnad av AI-förordningen inkluderas i våra leveranser är att föreslagen AI-lösning klassificeras i enlighet med AI förordningen inför utveckling och implementation. Vi främjar även kunskapsdelning och dialog kring AI-förordningen externt genom att bjuda in kunder till utbildningstillfällen kring AI förordning och öppna forum för diskussion.

Självklart tar vi även aktivt del av de initiativ som drivs kopplat till AI-förordningen inom Sopra Steria på internationell nivå. Som en av 13 parter i det 4-åriga programmet Confidance.ai bidrog Sopra Steria till att utforma en metodik för tillförlitlig AI. Programmet inkluderade utvecklingen av en öppen plattform med verktyg för MLOps, spårbarhet och robusthet, processer för certifiering samt forskning kring generativ AI, hybridmodeller och cybersäkerhet. Vi var även ett av de första företagen att signera AI Pact, ett frivilligt EU-initiativ som lanserats av EU-kommissionen för att hjälpa organisationer att förbereda sig för AI-förordningen innan den blir fullt bindande. Åtaganden inom AI Pact inkluderar att definiera en AI-governance-strategi för hela koncernen, kartlägga system som kan klassas som högrisk enligt AI-förordningen och främja AI-medvetenhet och utbildning bland medarbetare och partners. För att omsätta åtagandena i praktiken har etisk regelefterlevnad prioriterats som ett av sex nyckelområden i vårt interna globala AI-program som drivs med stöd från koncerngruppens högsta ledning. Programmet omfattar allt från att integrera AI i mjukvaruutveckling och bygga europeiska expertcenter, till att säkerställa att varje lösning är skalbar, tillförlitlig och utvecklad ansvarsfullt. Inom initiativet följer Sopra Steria noggrant den regulatoriska utvecklingen kring AI förordningen på europeisk, samt nationell nivå.



Undrar du något? Hör gärna av dig!

Joakim Hällgren

AI-strateg

joakim.hällgren