Ingvild Bode i Interviewserien: AI-krigsførelse mindsker muligheden for at udvise barmhjertighed
05.06.2024
“Der er et tab af moralsk handlekraft, fordi man som menneske i krig kan komme til at stole mere eller mindre på et AI-systems output – i stedet for sin egen kritiske og måske også empatiske tænkning. Hvis vi bare ser på fx Gazastriben, hvor AI-systemer er blevet brugt i stort omfang, ser det ikke ud til at føre til mere human krigsførelse.”
RÆSONs Interviewserie udkommer hver uge. Se alle interviews i serien her. I denne uge med Ingvild Bode, som er professor ved Center for War Studies på Syddansk Universitet og leder et stort forskningsprojekt om militær brug af kunstig intelligens.
Interview af Kirstine Eklund
RÆSON: Hvad er kunstig intelligens (AI), og hvordan bruges det i krig?
BODE: Der er mange forskellige definitioner af AI, og jeg bruger en ret bred en. Det er: ”evnen til at få maskiner eller computere til at gøre ting, som ellers ville kræve menneskelige former for intelligens”. Men det er også en meget bred definition, som er omstridt.
Grundlæggende hjælper AI-teknologier med en hurtigere behandling af information. I militæret drejer det sig både om den hastighed, hvormed våbensystemer kan træffe beslutninger – her siger jeg ”træffe beslutninger” i anførselstegn, for vi skal være meget forsigtige med at tale om AI-teknologier i samme termer, som vi taler om menneskelige aktører.
I de sidste to år, især med offentliggørelsen af ChatGBT-modellerne, har der været en større debat om, hvordan AI-teknologier kan bruges i forskellige typer af militære beslutningsprocesser, ikke nødvendigvis kun i våbensystemer. Det er også det, vi har set i nyhederne, bl.a. i dækningen af de israelske forsvarsstyrkers (IDF) brug af AI-systemer i Gazastriben.
Men vi har også set lignende rapportering fra fx Ukraine. Ukrainske militærchefer har angiveligt brugt AI-teknologier til at opnå situationsbevidsthed og endda til at træffe visse beslutninger på slagmarken.
Hvad hjælper AI konkret det ukrainske militær med?
Påstandene om brug af AI i Ukraine er relateret til en bestemt kategori af AI-våben, nemlig Decision Support System. Våbnene hedder AI Platform for Defense og leveres af den amerikanske virksomhed Palantir. Systemet gennemgår forskellige datakilder for at lave analyser til militærets målretning af deres våben. Det giver fx ukrainske soldater mulighed for at se, hvor russiske kampvogne er stationeret. Simpelt sagt: Hvor målene er, og hvad de skal angribe.
Når man har en liste over potentielle mål, er det store spørgsmål: Hvad sker der så med den liste – i hvor høj grad går mennesker ind og krydstjekker den liste?
_______
Hvor langt er den teknologiske udvikling af AI-systemer egentlig kommet: Hvad er muligt nu, som ikke var muligt for fem eller ti år siden?
Det er ret svært at sige. Med hensyn til de her beslutningsstøttesystemer, havde vi ikke rigtig hørt om dem for to eller tre år siden – vi havde ingen oplysninger om, at det var ved at ske. Det ser ud til at være en meget ny udvikling, som også er forbundet med den slags teknologiske fremskridt, vi har set i den civile sfære med hensyn til de store sprogmodeller som Chat-GBT.
Men historien om at integrere AI eller autonome teknologier i våbensystemer er meget ældre. Det er ret vigtigt at sige, at det ikke er en pludselig udvikling – at AI er her nu og så pludselig bliver en del af våbensystemerne. Det er sket siden 60’erne. For eksempel bruger luftforsvarssystemer allerede automatisering, altså typer af algoritmer, til at identificere, spore og potentielt også angribe mål. Det, vi ser nu, er bare en større kompleksitet i den brugte teknologi, men ikke en komplet revolution.
Det er ret vigtigt at være opmærksom på disse to spor: at der sker noget nyt, men også at nogle ting bare bliver mere komplekse.
Lad os vende os mod Gaza. I begyndelsen af april afslørede 972 Magazine, at den israelske hær (IDF) har brugt et AI-system ved navn Lavender i Gaza. Det blev brugt til at generere lister over titusindvis af mål for potentielle luftangreb, typisk i deres hjem, hvilket forårsagede civile tab. Hvordan fungerer sådan et system, og hvad betyder det for krigsførelse i et bredere perspektiv?
Jeg tror, der er to systemer, som angiveligt er blevet brugt. Der er Lavender-systemet, som identificerer folk og dybest set genererer en målliste med navne. Og så var der tidligere rapporter om et system ved navn Gospel, som faktisk markerede bestemte bygninger som mål. Men de fungerer mere eller mindre på samme måde: De bruger overvågningsdata om befolkningen i Gazastriben. Det kan være alle mulige forskellige metadata eller sensordata til grundlæggende at vurdere, hvem der – blandt de 2,3 millioner indbyggere, som Gaza havde i begyndelsen af konflikten – er en potentiel Hamas-militant.
I Lavenders tilfælde vurderer systemet sandsynligheden for, at en bestemt person er fra Hamas, på en skala fra 1 til 100. Der er forskellige rapporter om, hvor præcist systemet vurderer det. En af rapporterne siger, at det er maskinlæringsprocesser, hvor systemet er trænet på data, der indeholder kendte karakteristika, som Hamas-agenter har. På den baggrund forsøger det at finde lignende karakteristika i de tilgængelige data og derved generere en liste over mistænkte Hamas-medlemmer. Men når man har en liste over potentielle mål, er det store spørgsmål: Hvad sker der så med den liste – i hvor høj grad går mennesker ind og krydstjekker den liste?
Jeg tror, det er her, de afgørende spændinger ligger. Selvom der angiveligt er mennesker, der gennemgår listen, bruger de tilsyneladende meget begrænset tid på hvert mål – omkring 20 sekunder i gennemsnit. Nogle gange giver det dem kun tid til at tjekke, om målet er en mand eller en kvinde. Så vi kan konstatere, at de på den tid ikke har kapacitet til at krydstjekke. Det er ret problematisk for menneskelig kontrol, for det er ikke… Det svarer dybest set til bare at acceptere de mål, som systemet leverer, som passende mål.
Ansvaret ligger altid hos de menneskelige beslutningstagere. Den internationale lov er meget klar på det punkt
_______
Hvordan placerer man ansvaret? Hvad er dine tanker om de etiske spørgsmål ved at bruge et system som dette?
Ansvaret ligger altid hos de menneskelige beslutningstagere. Den internationale lov er meget klar på det punkt. Udfordringerne med de systemer, der er brugt i Gaza, handler både om selve systemet – hvordan det er designet, og hvilken rolle det spiller i IDF’s beslutningsproces om mål og angreb. Men den anden del er, at systemet er kombineret med en israelsk målretningsdoktrin, som ser ud til at være meget mere accepterende over for tab af civile liv end tidligere doktriner.
Så det er ikke kun systemet, der er problematisk. Det er også det, at de militære beslutningstagere bruger systemet til at angribe mål med et meget højere anslået civilt dødstal end i tidligere operationer, som IDF har haft i Gazastriben. Så det er også et valg.
Det er ikke bare at acceptere, at systemet selv kan generere forkerte mål, som ikke er ordentligt kontrolleret, men så også at angribe disse mål på en måde, der ikke synes at være i overensstemmelse med proportionalitetsvurderinger i henhold til international humanitær lov.
Det gør vel også de civile tab større, at systemet bruges til at spore folk i deres hjem, og at bombningen sker dér. Er et system som dette usædvanligt – eller er det almindeligt at have et system, der bruger data til at finde karakteristika ved bestemte mennesker og derefter angribe dem?
Den generelle praksis med at bruge algoritmiske systemer til at generere mål er ikke helt ny. Vi har set noget lignende i forbindelse med droneangreb, som den amerikanske regering har gennemført siden Bush-tiden. At man på en eller anden måde bruger disse systemer til at generere potentielle mållister, er ikke så nyt. Det nye er, at omfanget og hastigheden, hvormed systemet genererer mål, også bruges til at angribe mål. Det er igen en kombination af at have teknologien til rådighed, men også at bruge den på en bestemt måde. For eksempel ved at sige, at selv folk i deres private hjem kan være legitime mål.
Kan AI-systemer og fx AI-assisterede droner ændre magtdynamikken særligt i asymmetriske krige, hvor parterne har et ulige antal våben og soldater – fx krigen i Ukraine? Er brug af AI mere fordelagtigt for mindre stater, eller er det et teknologisk trumfkort for de større magter?
Ja, det er et interessant spørgsmål. Jeg mener i forhold til, hvem der virkelig bruger de her systemer og udvikler dem, så handler det lige nu mest om USA, Kina, Rusland og Israel.
I Ukraines tilfælde var de i krigens første år meget afhængige af at få leveret de små dronesystemer udefra, men nu har vi set dem eksperimentere meget mere med dem. Så jeg tror, der er visse argumenter for, at den slags små droner er fordelagtige for mindre stater, fordi de er relativt billige og nemme at fremstille. Så kommer det bare an på, hvor meget man accepterer de fejl, som dronerne kan have – bl.a. når de skal skelne mellem civile og kombattanter.
Lige i Ukraine er folk ikke så bekymrede for det, fordi de mål, de angriber, alle er militære mål. Det er klart, at der ikke er nogen russiske civile på den ukrainske slagmark. Så i den forstand er det ikke så omdiskuteret. Men hvad angår tilgængeligheden af teknologien, ser det ud til at være meget nemmere at bygge disse systemer til en meget lavere pris, end det måske var for fem til ti år siden, især med meget små systemer. Vi har endda set brugere af disse systemer blandt ikke-statslige aktører i Mellemøsten, som dybest set har genbrugt civile droner og bevæbnet dem, nogle gange på meget primitive måder. Men det indebærer ikke nødvendigvis AI.
Hvis der bruges flere og flere AI-systemer, kan mennesker så stadig forstå, hvilket grundlag målene er skabt på?
_______
Du står i spidsen for et projekt, som undersøger, hvordan AI og krigsførelse påvirker den menneskelig handlekraft i krigsførelse. Hvad handler det om?
Det er faktisk et projekt, der først starter i august. Men den grundlæggende idé er, at man oprindeligt troede – og vi ser stadig denne diskurs – at AI til en vis grad erstatter mennesker. Så færre roller ville blive udført af mennesker, og flere ville blive udført af AI.
Nu er der en voksende erkendelse af, at man ikke kan uddelegere især højrisikoopgaver til AI-systemer. Der skal altid være menneskelig beslutningstagning involveret, som arbejder sammen med AI-systemet – hvilket vi også ser i Israel. Så vi har et meget interessant scenarie, hvor vi får flere og flere af disse situationer, hvor mennesker interagerer med AI-teknologier. Og så er spørgsmålet, hvordan det ændrer udøvelsen af handlekraft i krigsførelse?
Med handlekraft mener jeg evnen til at træffe beslutninger og handle. Vi ser allerede, at fordi en bestemt teknologi er tilgængelig, ændrer det beslutningstagningen i sig selv. Det spiller også en rolle, i hvor høj grad mennesker overhovedet er i stand til at forstå den kunstige intelligens. Hvordan vil de soldater, der modtager fx de mål, som Lavender-systemet leverer, kontrollere dem? Hvilken slags data vil de bruge til at dobbelttjekke, at disse mål faktisk er passende?
Så vi spørger dybest set: Hvis der bruges flere og flere AI-systemer, kan mennesker så stadig forstå, hvilket grundlag målene er skabt på? Vi har også det problem, at AI-systemerne er meget afhængige af datakvaliteten. Om der overhovedet er en passende mængde data, om dataene er korrekte, og om dataene i sig selv indeholder bias, der kan føre til bias i de militære beslutninger.
Vi tror, at det har indflydelse på, hvordan mennesker tager beslutninger om magtanvendelse og krigsførelse. Nogle af mine kolleger har også skrevet meget om de etiske konsekvenser af det. Om der er et tab af moralsk handlekraft, fordi man som menneske i krig kan komme til at stole mere eller mindre på et AI-systems output – i stedet for sin egen kritiske og måske også empatiske tænkning. Og hvad betyder det så for, hvordan vi tænker om krigsførelse?
Som menneske i krig kan man komme til at stole mere eller mindre på et AI-systems output – i stedet for sin egen kritiske og måske også empatiske tænkning. Og hvad betyder det så for, hvordan vi tænker om krigsførelse?
_______
Tror du, at brug af AI kan gøre soldaterne mindre empatiske i deres tænkning og mere tilbøjelige til at dehumanisere deres mål?
Militært sprog er i sig selv dehumaniserende. Så der er ikke noget nyt for AI der. Det er bare sådan, militæret taler om tingene. Man siger fx ”collateral damage” i stedet for ”tab af civile liv”. Men når man er afhængig af AI-systemer, tror jeg, at det forhindrer soldaterne i at træffe fleksible, kontekstafhængige beslutninger, hvor de potentielt kunne udvise barmhjertighed og tilbageholdenhed. De stoler bare på systemet og følger disse output, så der er ikke lige så stor mulighed for barmhjertighed.
Jeg vil ikke være for romantisk omkring menneskets rolle i krigsførelse, for vi har set mennesker gøre forfærdelige ting i krig, og det sker stadig hele tiden. Det er ikke sådan, at alle mennesker udviser selvbeherskelse i krig, men jeg tror, at hvis det er et menneske, der bestemmer, har man i det mindste mulighed for, at vedkommende handler mere humant. Hvis systemet derimod træffer beslutningerne i baggrunden, har man ikke engang den mulighed.
AI-optimister vil normalt hævde, at AI kan gøre våbensystemer mere præcise i deres målretning, og at det i bund og grund kan begrænse civile tab. Hvad tyder den tilgængelige forskning på, og hvad tænker du om det?
Selvfølgelig hører man disse argumenter. Mit problem er, at det er meget svært at verificere disse argumenter uafhængigt af hinanden. Selvfølgelig bør militæret gøre alt, hvad de kan, også teknologisk, for at sikre beskyttelsen af civile liv. Men hvis vi bare ser på, hvordan AI-systemer er blevet brugt i stort omfang, fx i Gazastriben, ser det ikke ud til at føre til mere human krigsførelse. Det afhænger også af de valg, som de militære beslutningstagere træffer. Igen kommer det tilbage til, hvordan disse systemer bruges.
Der er også en fortælling om, at AI er mere ”objektiv”, fordi den ikke er underlagt menneskelige følelser, og at beslutningerne på en eller anden måde derfor er mere rationelle. Jeg tror, at det igen bygger på, at vi ser AI-teknologi som noget, der er adskilt fra mennesker. Men selvfølgelig er mennesker involveret i udviklingen af AI-teknologi. Hele datagrundlaget er menneskeligt, så jeg køber ikke helt påstanden om, at teknologien er neutral eller objektiv. Teknologien er socialt designet.
I øjeblikket ser vi også fra de civile områder, hvor man bruger AI, at der er meget mere rapportering om, hvor dysfunktionelle nogle af teknologierne er, og hvordan de viser alle mulige forskellige bias. Vi bør ikke forvente, at teknologien på det militære område er bedre end på det civile område.
Nu kan man tydeligt se, at IDF har brugt disse AI-systemer, og resultatet har været et stort antal civile tab
_______
Indtil videre er der ikke rigtig nogen klare, universelt bindende regler for militær AI, selvom det virker som et stort felt, der udvikler sig i et hurtigt tempo. Hvorfor er der ikke det?
Der er selvfølgelig international lov, især international humanitær lov, som gælder for alle våbensystemer, og som stater skal overholde. Herunder principperne om proportionalitet og distinktion. Men som du sagde, er der ingen specifikke retningslinjer for de særlige udfordringer, som militære anvendelser af AI rejser.
Grunden til det er grundlæggende, at mange stater forbinder et betydeligt militært potentiale med brugen af disse teknologier – især de store stater som USA, Kina og Rusland. De mener, at det er militært fordelagtigt at have adgang til disse teknologier, og derfor ønsker de ikke at forfølge ny juridisk bindende regulering.
Der er ikke nogen stor bevægelse nu for at få en forhandlet juridisk bindende regulering – selvom mange stater i især det globale syd gerne så det. Men der er flere initiativer, der kan føre til en såkaldt ”blød” international lov, hvor man har et sæt af principper eller praktiske retningslinjer, som stater bør overholde. USA er faktisk involveret i udarbejdelsen af en af disse erklæringer og lister over principper, der skal styre staters brug af kunstig intelligens på det militære område.
Men problemet med disse principper er selvfølgelig, at de ikke er bindende, så staterne kan selv bestemme. På den ene side ser jeg en vis værdi i at formulere disse principper, men jeg tror selvfølgelig, at der er en fare for, at staterne ikke rigtig overholder dem, fordi de ikke er bindende. Men der er i hvert fald en voksende bekymring – især i de sidste to år. Så jeg tror, vi vil se noget ske, men spørgsmålet er, om det vil være juridisk bindende, eller om det vil forblive på det her niveau af bløde principper.
Mit allersidste spørgsmål: Tror du, at den måde, verden reagerer på den nuværende brug af militær AI, især i Gaza, vil skabe præcedens for den fremtidige udvikling af teknologien?
Det ser bestemt ud til at være et øjeblik, der skaber mere spænding og opmærksomhed. For nu kan man tydeligt se, at IDF har brugt disse AI-systemer, og resultatet har været et stort antal civile tab. Det skaber også et større pres på beslutningstagerne for at få dem til at tage sig sammen og komme med nogle regler, også i FN.
Jeg vil gerne være optimistisk og sige, at det forhåbentlig også vil føre til noget juridisk bindende. Op til et vist punkt kunne staterne stadig sige: ”Det her ligger mange år ude i fremtiden, det er ikke noget, vi skal bekymre os om lige nu”. Nu kan vi se virkningerne af at bruge en bestemt type system meget tydeligt, så det ændrer tingene. Militær AI er ikke længere et fiktivt, spekulativt scenarie. ■
Militær AI er ikke længere et fiktivt, spekulativt scenarie
_______
Ingvild Bode er professor ved Center for War Studies på Syddansk Universitet og leder et stort forskningsprojekt om militær brug af kunstig intelligens.
ILLUSTRATION: Israelsk luftbombardament rammer den nordlige del af Gazastriben, 6. november 2023: [FOTO: Mohammed Saber/EPA/Ritzau Scanpix]