Forsker: Krigsrobotter er ikke ulovlige

Laurits Holdt

AARHUS (Aarhus Universitet): De er ikke i sig selv ulovlige. Men de er potentielt enormt problematiske, og der bør tages politisk stilling til brugen af dem, hvis de folkeretlige regler for væbnede konflikter (Law of Armed Conflict (LOAC)) fortsat skal overholdes. Sådan lyder konklusionen i en ny ph.d.-afhandling, som ph.d. Iben Yde fra Juridisk Institut på Aarhus BSS netop har forsvaret. 

Afhandlingens omdrejningspunkt er våbensystemer, der besidder en grad af autonomi, der gør dem i stand til at vælge og engagere mål uden menneskelig indblanding. Det kunne f.eks. være missilforsvarssystemer, sofistikerede ammunitionstyper og fremtidens kampdroner, undervandsfartøjer og kampvogne. 

Stor modstand mod krigsrobotter

I 2013 sparkede Human Rights Watch (HRW) med kampagnen ”Stop Killer Robots” for alvor gang i debatten omkring lovligheden af autonome våbensystemer. 

Ifølge blandt andre HRW og International Committee for Robot Arms Control (ICRAC) er sådanne våben ulovlige dels i forhold til folkeretten, fordi bl.a. udpegning af mål skal styres af mennesker og ikke af robotter, og dels fordi det er amoralsk og problematisk i forhold til menneskelig værdighed, at en beslutning om drab kan ”outsources” til en robot. 

Iben Yde er dog uenig i en række af HRW og ICRAC’s juridiske konklusioner: 

”Selvom der findes en række valide moralske og politiske argumenter imod disse våben, findes der i dag ikke juridisk grundlag for uden videre at erklære dem ulovlige i forhold til folkeretten. Det er vigtigt at slå fast, fordi diskussionen ofte ender i et uklart miskmask mellem politik, jura, moral og etik. Vi bør i stedet diskutere, under hvilke omstændigheder og med hvilke begrænsninger det er acceptabelt at anvende disse systemer,” forklarer Iben Yde. 

Politikerne skal ind i kampen

Det er ifølge Iben Yde vigtigt, at man på politisk niveau for alvor kommer i gang med at drøfte anvendelsen af disse systemer og ikke mindst, om der er behov for nye regler, der specifikt regulerer brugen af disse våben. 

”Jo længere vi venter, desto større bliver de økonomiske og politiske interesser forbundet med autonome våbensystemer, hvilket vil gøre det stadigt sværere at gennemføre regulering på området, hvis det er det, man ønsker. Der er mange interesser på spil både fra våbenindustrien og i militære systemer over hele verden, fordi man med de autonome våbensystemer i mange tilfælde kan undgå at indsætte soldater af kød og blod og på sigt kan opnå væsentlige besparelser på personelsiden,” fortæller Iben Yde. 

Udviklingen af våbnene går stærkt

Israel, USA, Rusland og mange andre nationer anvender i stigende grad våben med en stadig større grad af autonomi. Men det sker fortsat i en kontekst, hvor de bliver styret via fjernstyring eller programmering og menneskelig overvågning, og de er således endnu ikke autonome. Men ifølge Iben Yde går udviklingen indenfor kunstig intelligens og andre teknologier, der muliggør udviklingen af våbensystemer med en stadig højere grad af autonomi, hurtigere, end vi kan forestille os. 

”Vi ser den hurtigste fremgang i luften og under vandet. For der er de fysiske forhindringer mindre i forhold til på landjorden, hvor det operative miljø er uendeligt mere kompliceret og risikoen for uheld derfor meget større. Der er ingen tvivl om, at det er en udvikling, som næsten er ustoppelig. Det understreger igen behovet for klare internationale regler,” siger Iben Yde og fortsætter: 

”Jeg håber, at min forskning kan bidrage til en bedre forståelse af de juridiske problemstillinger i forhold til folkerettens regler omkring de her våben. De er ikke ulovlige i sig selv, men brugen af dem vil i en lang række situationer være ulovlig, da teknologien pt. ikke er tilstrækkelig sofistikeret til at kunne leve op til folkerettens regler om måludpegning og angreb. Derfor er det på nuværende tidspunkt et absolut krav, at der er menneskelig kontrol med de autonome våbensystemer.” 

Om forskningen

  • Iben Ydes afhandling bærer titlen: “The Legal Implications of Weapons Systems with Autonomous Attack Capabilities – Towards an Understanding of the Changes in Human Influence on Target Selection and Engagement”
  • Hun forsvarede ph.d.-afhandlingen over for et juridisk bedømmelsesudvalg bestående af Dr. William Boothby fra Geneva Centre for Security Policy, professor Frederik Harhoff fra Syddansk Universitet og professor Jens Vedsted-Hansen fra Aarhus BSS – Aarhus Universitet.
  • Iben Yde er i dag ansat ved Forsvarskommandoen. I ovenstående artikel udtaler hun sig udelukkende på baggrund af sin forskning ved Aarhus Universitet.