EU’s AI Act er nu gældende og indfører et risikobaseret regime for udviklere og brugere af AI. Forbuddet mod systemer med uacceptabel risiko gælder, krav til udbydere af generelle AI-modeller er trådt i kraft, og reglerne for højrisikosystemer gælder bredt i sektorer som biometrisk overvågning, kritisk infrastruktur, uddannelse, beskæftigelse og retshåndhævelse. Højrisiko kræver bl.a. systematisk risikovurdering, teknisk dokumentation, menneskeligt tilsyn, robusthedstests og CE‑mærkning. Derudover gælder generelle transparenskrav, herunder tydelig oplysning, når brugere interagerer med AI eller præsenteres for AI‑genereret indhold.
Forordningen skærper samtidig dataetik og persondatabeskyttelse: AI skal designes og anvendes i overensstemmelse med GDPR, med passende datastyring, dokumentation for træningsdata og klare ansvarslinjer. Praktisk bør virksomheder etablere governance, klassificere use cases efter risikoniveau, vælge harmoniserede standarder eller fælles specifikationer til konformitetsvurdering, sikre leverandørstyring og kontraktuelle forpligtelser, samt overvågning og hændelsesrapportering. Manglende efterlevelse kan udløse betydelige bøder, hvorfor ledelsen bør prioritere implementering og løbende kontrol for at fastholde markedsadgang og tillid.