AI and Technology in International Arbitration

AI and Technology in International Arbitration

AI accelererer research og dokumentgennemgang i international voldgift, men mødes af skepsis ved afgørelser og begrundelser. Fortrolighed, bias og due process er hovedrisici. Governance, GDPR-compliance og menneskeligt tilsyn er afgørende for en forsvarlig anvendelse.

AI vinder frem i international voldgift som effektivt værktøj til research, dokumentgennemgang og dataanalyse, men bruges med tilbageholdenhed i selve afgørelsen. Praktikere peger på tids- og omkostningsbesparelser og færre rutinefejl, mens de fremhæver risici knyttet til fortrolighed, dataintegritet, bias og procesmæssig retfærdighed. Grundtonen er klar: AI kan accelerere sagsforberedelsen, men kan ikke erstatte menneskelig dømmekraft eller det forklaringskrav, der bærer voldgiftskendelsers legitimitet.

Anvendelsesområder for AI i international voldgift

Den bredeste accept findes ved opgaver, der støtter processen. Mange anvender allerede AI til at strukturere sagsforløb, sammenfatte vidneforklaringer, generere kronologier og prioritere store dokumentmængder. Også due diligence ved udvælgelse af voldgiftsdommere nævnes som en praktisk gevinst, ligesom hurtige mønsteranalyser på data.

Til gengæld er der markant skepsis over for, at AI sammenfatter begrundelsen i en kendelse eller vurderer bevisers rigtighed. Her vurderes værktøjerne som utilstrækkelige til at levere begrundede, efterprøvelige konklusioner, hvilket ville underminere parternes tillid og håndhævelsen af kendelsen.

Retlige risici: fortrolighed, bias og due process

De væsentligste barrierer er risiko for skjulte fejl og bias, brud på fortrolighed eller datalæk, manglende erfaring i brugen samt reguleringsmæssige huller. Særligt åbne modeller giver udfordringer med datakontrol og mulighed for uønsket videregivelse.

Brug af AI uden passende oplysning kan også udløse indsigelser mod kendelsen, fx som følge af manglende gennemsigtighed eller krænkelser af kontradiktionsprincippet. Databeskyttelse efter GDPR og krav om informationssikkerhed skærper yderligere behovet for styring og dokumentation.

Styringsrammer og kontraktuelle værn for AI-brug

For at udnytte gevinsterne uden at kompromittere retssikkerheden kan parter og tribunal etablere klare rammer for AI-brug gennem procesordrer og aftalevilkår, understøttet af interne politikker og uddannelse:

  1. Formålsbegrænsning: Kun processtøtteopgaver, ikke materiel vurdering eller begrundelse.
  2. Datasikkerhed: Dataminimering, kryptering og forbud mod ukontrollerede åbne modeller.
  3. Transparens: Proaktiv oplysning om AI-værktøjer og menneskeligt tilsyn ved væsentlige skridt.
  4. Kvalitetssikring: Test, logs og dokumentation af prompts og outputs samt peer review.
  5. Regulatorisk alignment: Overholdelse af GDPR, kontraktuelle databehandleraftaler og AI-forordningen.

Med sådanne værn kan AI levere hastighed og konsistens, mens den endelige vurdering, begrundelse og ansvar forbliver hos mennesker.

Gratis adgang til alle juridiske nyheder, artikler og opdateringer.
Opret dig gratis i dag, vælg dine fagområder, og få adgang til et skræddersyet nyhedsoverblik, der gør dig klogere – og holder dig foran.