FRIA: Guide till konsekvensbedömning för grundläggande rättigheter
En Fundamental Rights Impact Assessment (FRIA) är obligatorisk för vissa användare av högrisk-AI. Här förklarar vi allt du behöver veta — från lagkrav till praktisk genomförande.
Senast uppdaterad: 14 mars 2026
Vad är en FRIA?
En FRIA (Fundamental Rights Impact Assessment) är en konsekvensbedömning som analyserar hur ett högrisk AI-system kan påverka individers grundläggande rättigheter. Begreppet introduceras i Artikel 27 i EU AI Act (förordning 2024/1689).
Till skillnad från en vanlig riskanalys fokuserar FRIA specifikt på mänskliga rättigheter — inte tekniska risker. Syftet är att identifiera, bedöma och mildra potentiella negativa konsekvenser innan AI-systemet tas i bruk.
FRIA är en del av det bredare compliance-ramverket för högrisk-AI och ska utföras innan systemet används i verksamheten, inte efter driftsättning.
Viktigt: FRIA ersätter inte den dataskyddskonsekvensbedömning (DPIA) som krävs enligt GDPR. De två bedömningarna kompletterar varandra — DPIA fokuserar på personuppgifter, FRIA på grundläggande rättigheter.
Varför kräver Artikel 27 en konsekvensbedömning?
Artikel 27 i EU AI Act fastställer att vissa användare (deployers) av högrisk AI-system måste genomföra en FRIA innan systemet tas i bruk. Kravet existerar för att AI-system som klassificeras som högrisk per definition kan ha betydande inverkan på människors rättigheter.
EU-lagstiftaren konstaterar att traditionella riskanalyser inte fångar alla dimensioner av påverkan som AI-system kan ha på individer och grupper. En FRIA tvingar organisationen att systematiskt tänka igenom konsekvenserna ur ett rättighetsperspektiv.
Bedömningen ska dokumenteras, hållas uppdaterad och göras tillgänglig för tillsynsmyndigheten vid begäran. Den ska också beakta leverantörens bruksanvisning och det specifika sammanhang där systemet används.
Deadline: Kravet på FRIA gäller från 2 augusti 2026 för AI-system som faller under Annex III. Organisationer som använder högrisk-AI behöver ha genomfört sin FRIA innan detta datum.
Vem måste genomföra en FRIA?
Enligt Artikel 27 måste följande kategorier av användare (deployers) genomföra en FRIA innan de tar ett högrisk AI-system i bruk:
- Offentligrättsliga organ (myndigheter, kommuner, regioner)
- Privata aktörer som tillhandahåller offentliga tjänster
- Organisationer som använder AI-system för kreditvärdering eller kreditbedömning av fysiska personer
- Organisationer som använder AI-system för riskbedömning och prissättning av liv- och sjukförsäkring
- Alla andra deployers av högrisk AI-system som bedömer att en FRIA behövs baserat på systemets påverkan
Observera att även organisationer som inte faller under de obligatoriska kategorierna kan välja att genomföra en FRIA frivilligt — det ses som god praxis och kan stärka organisationens compliance-position.
Vilka grundläggande rättigheter bedöms?
FRIA ska bedöma AI-systemets potentiella påverkan på de rättigheter som skyddas av EU:s stadga om grundläggande rättigheter. De viktigaste rättigheterna att bedöma vid AI-användning är:
Mänsklig värdighet (Artikel 1)
Riskerar AI-systemet att behandla individer på ett sätt som kränker deras värdighet? Exempel: automatiserade beslut som reducerar människor till poäng eller kategorier utan möjlighet till individuell bedömning.
Icke-diskriminering (Artikel 21)
Kan systemet systematiskt missgynna individer baserat på kön, etnicitet, ålder, funktionsnedsättning, religion eller annan skyddad grund? Detta är ofta den viktigaste rättigheten att bedöma vid AI-användning.
Skydd av personuppgifter (Artikel 8)
Hur hanterar AI-systemet personuppgifter? Även om GDPR-compliance hanteras separat ska FRIA bedöma den bredare påverkan på rätten till dataskydd, inklusive transparens och kontroll.
Yttrandefrihet (Artikel 11)
Kan systemet begränsa eller påverka individers yttrandefrihet? Relevant för AI-system som modererar innehåll, filtrerar information eller påverkar vilken information som når användare.
Rätt till effektivt rättsmedel (Artikel 47)
Har individer som påverkas av AI-systemets beslut möjlighet att överklaga eller begära omprövning? Systemet måste möjliggöra meningsfull mänsklig övervakning och överklagande.
Rätt till arbete och socialt skydd (Artiklarna 15, 34)
För AI-system inom rekrytering och personalhantering: kan systemet påverka tillgången till arbete, arbetsvillkor eller socialt skydd på ett negativt sätt?
Så genomför du en FRIA — steg för steg
Processen för att genomföra en FRIA kan variera beroende på AI-systemets komplexitet och användningsområde. Här är de grundläggande stegen:
- Identifiera AI-systemet och dess syfte. Beskriv systemet, dess avsedda användning och det sammanhang där det ska tas i bruk. Inkludera leverantörens bruksanvisning.
- Kartlägg berörda individer och grupper. Vilka personer påverkas av systemets beslut eller utdata? Inkludera både direkta och indirekta berörda parter.
- Bedöm påverkan på grundläggande rättigheter. Gå igenom varje relevant rättighet systematiskt och bedöm hur systemet kan påverka den — positivt och negativt.
- Identifiera riskreducerande åtgärder. För varje identifierad risk, definiera konkreta åtgärder för att minska eller eliminera den negativa påverkan.
- Definiera övervakningsprocesser. Beskriv hur organisationen kommer att övervaka systemets faktiska påverkan på rättigheter under drift.
- Dokumentera och arkivera. Sammanställ bedömningen i ett strukturerat dokument som kan visas för tillsynsmyndigheten vid begäran.
- Uppdatera regelbundet. FRIA ska hållas uppdaterad — särskilt vid väsentliga ändringar av systemet, nya användningsområden eller ny information om risker.
Hur Regelrätt hjälper dig med FRIA
Regelrätts FRIA-verktyg guidar dig genom hela processen med AI-stöd:
- Strukturerat frågeformulär — Besvara riktade frågor om ditt AI-system och dess påverkan på grundläggande rättigheter.
- Automatisk rättighetsmappning — Verktyget identifierar vilka rättigheter som är mest relevanta baserat på ditt systems användningsområde.
- Åtgärdsförslag — Få konkreta förslag på riskreducerande åtgärder baserat på branschpraxis och EU:s riktlinjer.
- Export och arkivering — Generera en komplett FRIA-rapport i PDF-format, redo för granskning och arkivering.
Behöver du även teknisk dokumentation? Läs vår Annex IV-guide för en komplett genomgång.
Se alla deadlines i vår AI-förordningens tidsplan.
Vanliga frågor om FRIA
Vad är skillnaden mellan FRIA och DPIA?
DPIA (Data Protection Impact Assessment) krävs enligt GDPR och fokuserar på skydd av personuppgifter. FRIA (Fundamental Rights Impact Assessment) krävs enligt EU AI Act och fokuserar på grundläggande rättigheter i bred bemärkelse — inklusive diskriminering, värdighet och tillgång till rättsmedel. De två bedömningarna kompletterar varandra.
Måste alla som använder högrisk-AI göra en FRIA?
Nej, Artikel 27 specificerar att kravet gäller offentligrättsliga organ, privata aktörer som tillhandahåller offentliga tjänster, samt organisationer som använder AI för kreditvärdering eller försäkringsprissättning. Andra organisationer rekommenderas dock att genomföra en FRIA frivilligt.
När måste FRIA vara klar?
FRIA ska genomföras innan högrisk AI-systemet tas i bruk. Kravet gäller från 2 augusti 2026 för system som faller under Annex III. Det innebär att organisationer bör påbörja arbetet i god tid innan deadline.
Hur ofta behöver FRIA uppdateras?
FRIA ska uppdateras vid väsentliga ändringar av AI-systemet, nya användningsområden, eller om ny information framkommer om systemets påverkan på grundläggande rättigheter. Det finns inget fast intervall, men en årlig översyn rekommenderas som miniminivå.
Vad händer om man inte gör en FRIA?
Bristande efterlevnad av Artikel 27 kan leda till böter. EU AI Act föreskriver böter upp till 15 miljoner euro eller 3 % av global årsomsättning för underlåtenhet att uppfylla kraven för deployers av högrisk AI-system.
Genomför din FRIA med Regelrätt
Vårt AI-stödda verktyg guidar dig genom hela konsekvensbedömningen — steg för steg. Strukturerad, komplett och exporterbar.
Starta FRIA-bedömning