Vad är EU AI Act?

EU AI Act (förordning 2024/1689) är EU:s lag som reglerar artificiell intelligens. Lagen gäller för alla som utvecklar, säljer eller använder AI inom EU – oavsett var företaget är baserat. AI-system delas in i fyra risknivåer med olika krav. Lagen trädde delvis i kraft i februari 2025.

EU AI Act är världens första heltäckande lag som reglerar AI. Lagen bygger på en riskbaserad modell – ju mer ett AI-system kan skada människor, desto strängare krav gäller.

Det betyder att ett företag som använder ChatGPT för att skriva nyhetsbrev inte berörs på samma sätt som ett bolag som använder AI för att bedöma kreditansökningar.

Varför finns lagen?

EU:s mål är att AI ska vara säker, transparent och rättvis. Utan regler riskerar AI-system att diskriminera, sprida desinformation eller fatta felaktiga beslut om enskilda personer – utan att någon hålls ansvarig.

Lagen syftar inte till att stoppa AI. Tvärtom: tydliga spelregler ska göra det enklare att lita på AI och använda det ansvarsfullt.

Vem gäller lagen för?

EU AI Act gäller för tre typer av aktörer:

1. Leverantörer – företag som bygger och säljer AI-system.
2. Driftsättare – företag som köper och använder AI-system från andra.
3. Importörer och distributörer – företag som säljer vidare AI-system inom EU.

Lagen gäller oavsett var företaget är baserat – det räcker att AI:n används inom EU.

Som litet eller medelstort företag är du troligtvis en driftsättare – du köper in AI-tjänster (som ChatGPT eller AI i ditt affärssystem) och använder dem i din verksamhet.

Driftsättare har generellt färre skyldigheter än leverantörer. Men om du använder AI inom känsliga sektorer – som vård, kredit eller rekrytering – gäller ändå specifika krav.

Vet du vilken kategori du tillhör?

Gör vårt quiz på 2 minuter och få ett tydligt svar på om AI-lagen gäller dig.

Gör testet gratis →

De fyra risknivåerna

EU AI Act delar in alla AI-system i fyra risknivåer. Din risknivå avgör vilka skyldigheter som gäller.

Nivå Vad det innebär Exempel
Förbjuden AI som är helt förbjuden att använda Social poängsättning, realtidsövervakning
Hög risk Stränga krav – dokumentation, kontroll, transparens Rekrytering, kredit, sjukvård, utbildning
Begränsad Krav på att berätta att användaren pratar med AI Chatbotar, AI-genererat innehåll
Minimal Inga särskilda krav utöver befintlig lagstiftning Spamfilter, grammatikkontroll, AI-spel
Förbjuden AI
Oacceptabel risk – helt förbjuden
Gäller från februari 2025

Vissa AI-användningar är helt förbjudna eftersom de anses för riskabla för ett demokratiskt samhälle. ⚖️ Krävs enligt lag

  • AI som manipulerar människor under deras medvetenhet (subliminal påverkan)
  • AI som utnyttjar sårbara grupper – barn, äldre, personer med funktionsvariationer
  • Social poängsättning av medborgare av offentliga myndigheter
  • Realtids biometrisk massövervakning på allmänna platser (med begränsade undantag)
  • AI som förutsäger brottsbenägenhet enbart baserat på personliga egenskaper

Om du driver ett vanligt SME utan koppling till dessa användningsområden berörs du troligtvis inte av förbuden.

Hög risk
Högrisk-AI – stränga krav gäller
Krav gäller från augusti 2026

Högrisk-AI används i sammanhang där felaktiga beslut kan skada enskilda personers liv, hälsa eller rättigheter. Det är här de flesta SME behöver vara uppmärksamma.

Sektorer som räknas som högrisk (bilaga III i lagen):

  • Rekrytering och anställning – CV-granskning, prestationsbedömning
  • Kredit och försäkring – automatisk kreditbedömning
  • Sjukvård – medicinska beslutsstöd, diagnostik
  • Utbildning – automatisk betygsättning, antagningssystem
  • Kritisk infrastruktur – vatten, el, trafik
  • Rättsväsende – riskbedömning av misstänkta
  • Gränskontroll – riskbedömning av resenärer
Begränsad risk
Transparenskrav – berätta att det är AI
Gäller från augusti 2025

Om du använder en chatbot eller AI-genererat innehåll i kundmötet måste du informera användaren om att de interagerar med ett AI-system. ⚖️ Krävs enligt lag

  • Chatbotar som kommunicerar med kunder måste märkas tydligt
  • Deepfakes och AI-genererade bilder/filmer måste märkas
  • AI-genererat ljud som låtsas vara en människa måste avslöjas

Det räcker att tydligt skriva "Den här chatten drivs av AI" i ditt verktyg. ✅ Rekommenderas

Minimal risk
De flesta AI-verktyg – inga extra krav
Inga nya lagkrav

Majoriteten av den AI som svenska SME använder idag faller i denna kategori. Inga nya specifika krav tillkommer utöver befintlig lagstiftning som GDPR.

  • ChatGPT, Copilot och liknande för interna uppgifter
  • Spamfilter och e-postsortering
  • Grammatik- och stavningskontroll
  • AI i spel och underhållning
  • Produktrekommendationer (de flesta fall)

Vad måste du göra om du berörs?

Om din AI-användning faller under högrisk eller begränsad risk gäller konkreta skyldigheter.

För högrisk-AI

Skyldigheter som driftsättare av högrisk-AI
1
Riskbedömning – genomför och dokumentera en bedömning av AI-systemets risker innan driftsättning. ⚖️ Lag
2
Teknisk dokumentation – spara dokumentation om hur systemet fungerar och vilket data det tränades på. ⚖️ Lag
3
Mänsklig kontroll – se till att en människa kan övervaka, gripa in och åsidosätta AI-systemets beslut. ⚖️ Lag
4
Transparens – informera berörda personer om att ett AI-system används och hur det påverkar dem. ⚖️ Lag
5
Avvikelsehantering – rapportera allvarliga incidenter till tillsynsmyndigheten. ⚖️ Lag

För begränsad risk (chatbotar etc.)

Informera tydligt om att användaren interagerar med ett AI-system. Det räcker att lägga till en enkel notis i ditt gränssnitt. ⚖️ Lag

För alla företag – oavsett risknivå

✅ Rekommenderas Skapa en intern AI-policy som beskriver hur ni använder AI, vilka verktyg ni använder och vem som ansvarar. Det är inte ett lagkrav för minimal-risk AI, men det är god praxis och förbereder dig om din AI-användning förändras.

Tidslinje – när gäller vad?

EU AI Act införs stegvis. Här är de viktigaste datumen för svenska företag.

Aug 2024
Klart
Lagen trädde i kraft
EU AI Act publicerades och trädde formellt i kraft den 1 augusti 2024.
Feb 2025
Klart
Förbud mot oacceptabel risk
Förbjudna AI-användningar gäller nu. Bl.a. social poängsättning och viss biometrisk massövervakning.
Aug 2025
Pågår
Krav på allmänna AI-modeller (GPAI)
Transparens- och dokumentationskrav för leverantörer av stora AI-modeller (som GPT-4, Gemini m.fl.).
Aug 2026
Kommande
Fullständiga krav för högrisk-AI
Alla krav för högrisk-AI (bilaga III) träder i kraft – inkl. rekrytering, kredit, sjukvård och utbildning.
Aug 2027
Kommande
Befintliga produkter med högrisk-AI
Krav gäller även för högrisk-AI som redan är inbyggd i CE-märkta produkter som lanserades innan lagen trädde i kraft.

Ta reda på om AI-lagen gäller ditt företag

Gör vårt gratis test på 2 minuter och få ett personligt svar.

Gör testet gratis →

Vanliga frågor om EU AI Act

Vad är EU AI Act på enklaste svenska?
EU AI Act är EU:s lag om AI. Den bestämmer vad du får och inte får göra med AI – och ställer krav på dokumentation och transparens om du använder AI i känsliga sammanhang. Tänk på den som GDPR fast för AI istället för personuppgifter.
Måste alla svenska företag följa EU AI Act?
Nej. Företag som bara använder AI för enkla interna uppgifter – som att skriva texter eller söka information – berörs sällan av de strängaste kraven. Lagen fokuserar på dem som bygger, säljer eller använder AI för att fatta beslut om enskilda personer inom känsliga sektorer. Gör testet för att se var du hamnar →
Vad händer om jag använder ChatGPT på jobbet?
Att använda ChatGPT eller liknande för interna uppgifter – sammanfatta text, skriva mejl, söka information – räknas som minimal-risk AI. Det kräver inga nya åtgärder utöver vanlig GDPR-hänsyn. Undantag gäller om du använder det för att fatta beslut om enskilda anställda eller kunder.
Vad räknas som högrisk-AI?
Högrisk-AI är system som används i känsliga sammanhang och som påverkar enskilda personers rättigheter, hälsa eller ekonomi. Lagen listar specifika sektorer: sjukvård, rekrytering, kreditbedömning, utbildning, gränskontroll och rättsväsende. Det avgörande är vad AI:n används till, inte vilken teknologi som ligger bakom. Läs mer om högrisk-AI →
Kan ett litet företag få böter?
I teorin ja – lagen gäller oavsett storlek. Böterna kan i de allvarligaste fallen uppgå till 35 miljoner euro eller 7% av global omsättning. I praktiken är tillsynen i ett första steg fokuserad på aktörer som säljer högrisk-AI eller använder förbjuden AI. För de flesta SME handlar det om att förstå sina skyldigheter och dokumentera sin AI-användning – inte om direkta böter i närtid.

⚠️ Detta är inte juridisk rådgivning. Konsultera en jurist för din situation.

Läs mer på ailagen.se

Observera: Innehållet på den här sidan är skrivet för att ge en allmän förståelse av EU AI Act och är inte juridisk rådgivning. Lagen är komplex och tolkas fortfarande av tillsynsmyndigheter. Konsultera alltid en kvalificerad jurist för din specifika situation.