Ny rapport fra ekspertgruppen om ophavsret og kunstig intelligens (AI)

Ny rapport fra ekspertgruppen om ophavsret og kunstig intelligens (AI)

En ny rapport om ophavsret og AI rummer centrale anbefalinger, men overser EU’s AI-adfærdskodeks og fejllæser flere pligter i AI-forordningen. Artiklen præciserer krav til træningsdata, forholdet til DSM-reglerne, overgangsfrister samt tiltag mod ulovlig upload og digitale efterligninger.

Ekspertgruppens rapport om ophavsret og kunstig intelligens giver en række væsentlige anbefalinger, men enkelte passager er ikke fuldt opdateret i forhold til EU’s nye ramme for AI. For praktikere er det afgørende at forstå, hvor rapportens konklusioner afviger fra gældende og kommende krav, især om gennemsigtighed i træningsdata, tekst- og datamining, samt overgangsregler for modeller på markedet.

AI-forordningen og adfærdskodekset

Rapporten omtaler et udskudt praksiskodeks, men EU’s AI-adfærdskodeks blev offentliggjort 10. juli 2025 og godkendt 1. august samme år. Kodekset er soft law, men det udfylder og konkretiserer flere forpligtelser i AI-forordningen, bl.a. gennem krav om, at udbydere forbyder ophavsretskrænkende brug i deres vilkår og implementerer tekniske sikkerhedsforanstaltninger for at modvirke uønsket reproduktion af træningsindhold i output.

AI-forordningens artikel 53, stk. 1, litra d, pålægger udbydere at offentliggøre en tilstrækkeligt detaljeret sammenfatning af de anvendte træningsdata efter en skabelon udstedt af AI-kontoret. Ekspertgruppens ønske om EU-krav til transparens er dermed allerede delvist opfyldt i bindende ret og bør adresseres som et konkret compliance-krav, ikke blot som en politisk anbefaling.

Tekst- og datamining og modeltræning

Rapporten anfører usikkerhed om, hvorvidt DSM-direktivets undtagelser om tekst- og datamining dækker AI-træning. AI-forordningens artikel 53, stk. 1, litra c, henviser imidlertid udtrykkeligt til DSM-direktivets artikel 4, stk. 3. Henvisningen understøtter den udbredte fortolkning, at tekst- og datamining i DSM-regi også adresserer modeltræning, herunder rettighedshaveres mulighed for at forbeholde sig mod brug via maskinlæsbare opt-outs.

I dansk kontekst spiller ophavsretsloven §§ 11b-11c sammen med DSM-reglerne og skaber en ramme, hvor udviklere kan foretage tekst- og datamining, medmindre rettighedshaverne gyldigt har forbeholdt sig. Det bør afspejles i licensstrategier, aftaler med kollektive forvaltningsorganisationer og dokumentationspraksis, så udbydere kan redegøre for datakilder og respektere forbehold.

Overgangsregler, upload og nye tiltag

Det er ikke tidspunktet for træningen, men modellens placering på markedet, der udløser AI-forordningens pligter. Modeller bragt i omsætning efter 2. august 2025 skal overholde reglerne uanset træningstidspunkt, og modeller på markedet før denne dato skal opfylde forpligtelserne senest 2. august 2027, jf. artikel 111, stk. 3. Virksomheder bør derfor planlægge compliance ud fra produktlivscyklus og versionsskift.

Ekspertgruppen foreslår tekniske foranstaltninger mod ulovlig upload. Samtidig indeholder kodekset krav om forbud mod krænkende brug i vilkår, og mange udbydere placerer allerede ansvar hos brugeren. Behovet for yderligere tekniske løsninger bør vurderes risikobaseret og i lyset af output-sikkerhedsforanstaltninger. Endelig er der fremsat lovtiltag om beskyttelse mod digitale efterligninger af personlige kendetegn med forventet ikrafttræden 31. marts 2026. Øvrige forslag – bl.a. styrket kollektiv licensering, forsøgsordning med obligatorisk voldgift for pressepublikationer, betinget offentlig påtale i komplekse sager, vejledningstiltag og præcisering af tilgængeliggørelse – kan få praktisk betydning. Læs rapporten fra Kulturministeriet.

Relaterede artikler

Gratis adgang til alle juridiske nyheder, artikler og opdateringer.
Opret dig gratis i dag, vælg dine fagområder, og få adgang til et skræddersyet nyhedsoverblik, der gør dig klogere – og holder dig foran.