Nikolaj Bondo Strunk
Ekspertgruppens rapport om ophavsret og kunstig intelligens giver en række væsentlige anbefalinger, men enkelte passager er ikke fuldt opdateret i forhold til EU’s nye ramme for AI. For praktikere er det afgørende at forstå, hvor rapportens konklusioner afviger fra gældende og kommende krav, især om gennemsigtighed i træningsdata, tekst- og datamining, samt overgangsregler for modeller på markedet.
AI-forordningen og adfærdskodekset
Rapporten omtaler et udskudt praksiskodeks, men EU’s AI-adfærdskodeks blev offentliggjort 10. juli 2025 og godkendt 1. august samme år. Kodekset er soft law, men det udfylder og konkretiserer flere forpligtelser i AI-forordningen, bl.a. gennem krav om, at udbydere forbyder ophavsretskrænkende brug i deres vilkår og implementerer tekniske sikkerhedsforanstaltninger for at modvirke uønsket reproduktion af træningsindhold i output.
AI-forordningens artikel 53, stk. 1, litra d, pålægger udbydere at offentliggøre en tilstrækkeligt detaljeret sammenfatning af de anvendte træningsdata efter en skabelon udstedt af AI-kontoret. Ekspertgruppens ønske om EU-krav til transparens er dermed allerede delvist opfyldt i bindende ret og bør adresseres som et konkret compliance-krav, ikke blot som en politisk anbefaling.
Tekst- og datamining og modeltræning
Rapporten anfører usikkerhed om, hvorvidt DSM-direktivets undtagelser om tekst- og datamining dækker AI-træning. AI-forordningens artikel 53, stk. 1, litra c, henviser imidlertid udtrykkeligt til DSM-direktivets artikel 4, stk. 3. Henvisningen understøtter den udbredte fortolkning, at tekst- og datamining i DSM-regi også adresserer modeltræning, herunder rettighedshaveres mulighed for at forbeholde sig mod brug via maskinlæsbare opt-outs.
I dansk kontekst spiller ophavsretsloven §§ 11b-11c sammen med DSM-reglerne og skaber en ramme, hvor udviklere kan foretage tekst- og datamining, medmindre rettighedshaverne gyldigt har forbeholdt sig. Det bør afspejles i licensstrategier, aftaler med kollektive forvaltningsorganisationer og dokumentationspraksis, så udbydere kan redegøre for datakilder og respektere forbehold.
Overgangsregler, upload og nye tiltag
Det er ikke tidspunktet for træningen, men modellens placering på markedet, der udløser AI-forordningens pligter. Modeller bragt i omsætning efter 2. august 2025 skal overholde reglerne uanset træningstidspunkt, og modeller på markedet før denne dato skal opfylde forpligtelserne senest 2. august 2027, jf. artikel 111, stk. 3. Virksomheder bør derfor planlægge compliance ud fra produktlivscyklus og versionsskift.
Ekspertgruppen foreslår tekniske foranstaltninger mod ulovlig upload. Samtidig indeholder kodekset krav om forbud mod krænkende brug i vilkår, og mange udbydere placerer allerede ansvar hos brugeren. Behovet for yderligere tekniske løsninger bør vurderes risikobaseret og i lyset af output-sikkerhedsforanstaltninger. Endelig er der fremsat lovtiltag om beskyttelse mod digitale efterligninger af personlige kendetegn med forventet ikrafttræden 31. marts 2026. Øvrige forslag – bl.a. styrket kollektiv licensering, forsøgsordning med obligatorisk voldgift for pressepublikationer, betinget offentlig påtale i komplekse sager, vejledningstiltag og præcisering af tilgængeliggørelse – kan få praktisk betydning. Læs rapporten fra Kulturministeriet.