Centrale forbud og rettigheder
EU’s institutioner har indgået en politisk aftale om AI-forordningen, som skærper beskyttelsen af grundlæggende rettigheder og sætter nye grænser for visse AI-anvendelser. Det mest indgribende er et udvidet katalog af forbud, målrettet teknologier med høj risiko for overvågning og manipulation:
- Biometrisk kategorisering baseret på følsomme forhold.
- Generel og udifferentieret indsamling af ansigtsbilleder til ansigtsgenkendelse.
- Følelsesgenkendelse på arbejdspladser og uddannelsessteder.
- Social scoring baseret på personlige karakteristika eller adfærd.
- Systemer, der manipulerer den frie vilje eller menneskelig sårbarhed.
Der indføres desuden klageadgang og en ret til forklaring ved beslutninger truffet af højrisiko AI-systemer, hvilket understøtter transparens og retssikkerhed.
GPAI, højrisiko og håndhævelse
For AI til generelle formål (GPAI) gælder krav om teknisk dokumentation, gennemsigtighed om træningsdatasæt og respekt for IP-rettigheder. GPAI-modeller med systemiske risici pålægges skærpede pligter, herunder risikovurderinger, afbødningstiltag, hændelsesrapportering til Europa-Kommissionen og red teaming. Højrisikosystemer skal leve op til omfattende produktsikkerhedskrav til risikostyring, datakvalitet og sikkerhed.
Brugere af højrisiko AI pålægges også forpligtelser, bl.a. konsekvensanalyser i forhold til frihedsrettigheder og etablering af effektivt menneskeligt tilsyn. Overtrædelser kan udløse meget betydelige sanktioner på op til 7 procent af global årlig omsætning eller faste beløb, og ikke-kompatible systemer kan udelukkes fra EU-markedet efter en overgangsperiode. Virksomheder bør allerede nu kortlægge deres AI-portefølje, klassificere systemer som forbudte, højrisiko eller GPAI og indarbejde krav i leverandørkæden og kontrakter for at være klar til implementeringen.