Debatten om autonome våbensystemer foregår ofte, som om teknologien er et fremtidsscenarie. Det er den ikke. Omkring 40 landes flåder har siden begyndelsen af 1980’erne opereret med systemer som Phalanx — roterende maskinkanoner, der algoritmisk kan identificere og nedskyde indkommende missiler uden menneskelig mellemkomst. Radarførede missiler, der efter affyring selvstændigt opsøger deres mål, har været standardudstyr i årtier. Det er, som Michael Horowitz påpeger i et interview med Jordan Schneider i podcasten China Talk, våben der opererer uden nogen form for menneskelig kontrol efter affyring, og alligevel betragtes de generelt som et fremskridt, fordi de er mere præcise end alternativet. Sammenlignet med tæppebombningerne under Anden Verdenskrig, hvor man var heldig, hvis man ramte inden for flere kilometers afstand af sit mål, repræsenterer præcisionsvåben en dramatisk reduktion i civile tab.
Det nye er ikke autonomien i sig selv, men dens karakter. Hvor de ældre systemer opererede med deterministiske algoritmer og forudsigelige beslutningsregler, kan dagens våben anvende billedgenkendelse og maskinlæring. Horowitz beskriver et scenarie, der allerede er teknisk realiserbart: et missil affyres mod et område, aktiverer en sensor og bruger en billedgenkendelse til at identificere eksempelvis en kampvogn. Finder algoritmen sit mål, angriber den. Finder den det ikke, fortsætter den sin søgning.
Ukraines tvungne autonomi
Krigen i Ukraine har fungeret som en accelerator for denne udvikling af ren nødvendighed. Ukrainske FPV-dronepiloter, der fjernstyrede engangsdronerne mod russiske mål, blev systematisk forstyrret af elektronisk forsvar, der jammede signalerne til dronen. Forbindelsen mellem pilot og drone blev på den måde brudt. Svaret har været det, Horowitz kalder “last-mile autonomy”: droner, der i det sidste stykke mod målet kan fortsætte selvstændigt, hvis datalinket afbrydes. De opererer ud fra et forudprogrammeret målbibliotek og en algoritme, der afgør, om det, sensoren ser, er et legitimt mål.
Denne type autonomi er ifølge Horowitz en operativ nødvendighed for enhver militærstyrke, der skal fungere i et miljø med intensiv elektronisk krigsførelse, uden pålidelig satellitadgang og med konstant risiko for, at kommunikationsudstyr bliver jammet.
Hvad Anthropic faktisk sagde — og hvad der gik galt
Horowitz anerkender, at Anthropics position i substansen var rimelig. Virksomhedens centrale argument var, at store sprogmodeller som Claude ikke er egnede til at drive autonome våbensystemer. Det er Horowitz i vid udstrækning enig i — og tilføjer, at Pentagon hverken var i gang med eller planlagde at bruge sprogmodeller i den rolle. Dermed var hele konfrontationen i hans optik overflødig.
Problemet var terminologien. Anthropics brug af udtrykket “fuldt autonome våben” var ifølge Horowitz ufrugtbar, fordi begrebet ikke har nogen fast definition. Når en virksomhed med Anthropics gennemslagskraft introducerer et udtryk, ender alle med at bruge det — uden at nogen præcist ved, hvad det dækker. Det skaber en debat, hvor parterne taler forbi hinanden.
Anthropic erkendte i øvrigt selv, at autonome våbensystemer kan give mening — de mente blot, at deres egen teknologi endnu ikke var moden til det. Men den nuance druknede i polemikken.
Cloud versus edge: En skarpere distinktion
En skelnen, Horowitz finder mere konstruktiv, er den mellem cloud-baserede og edge-baserede systemer. Hvor cloud-baserede systemer kræver en konstant netværksforbindelse til fjerne servere for at fungere, opererer edge-systemer lokalt — al beregning foregår ombord på selve enheden, uafhængigt af ekstern infrastruktur. Definitionen er logisk stram: et autonomt våbensystem er per definition et system, der efter aktivering kan udvælge og angribe mål uden menneskelig indgriben. Hvis systemet forudsætter en kontinuerlig dataforbindelse til skyen, kan det ikke operere autonomt i den forstand. Et cloudbaseret AI-system kan bruges til operationsplanlægning, logistik og ledelse — men ikke som hjernen i et autonomt våben.
For en virksomhed, der ønsker at levere til militæret uden at bidrage direkte til autonome våben, er clouddistinktionen dermed en relativt ren grænse. Horowitz tilføjer dog en vigtig kvalifikation: dette gælder med den nuværende teknologi. Sprogmodeller er ikke parate til integration i autonome våbensystemer og ville sandsynligvis ikke overleve Pentagons egen test- og evalueringsproces.
Det juridiske fundament er ikke nyt — og det er ikke Biden-specifikt
En udbredt bekymring i debatten er, at regulering af autonome våben kan blive skrottet som del af en bredere afvikling af Biden-æra-regler. Men Horowitz påpeger, at det juridiske grundlag for menneskelig ansvar i brugen af militær magt ikke stammer fra direktivet om autonome våben. Det direktiv handler om processen for at udvikle og idriftsætte sådanne systemer. Kravet om, at der altid er menneskelig ansvarlighed for magtanvendelse, er forankret i international humanitær ret og i separate Pentagon-direktiver om magtanvendelse.
Kommandører og operatører skal sikre, at magtanvendelse lever op til principper om proportionalitet og distinktion. Det gælder uanset om våbnet er en bue, et radarført missil eller en autonom drone. Det er en juridisk arkitektur, der ikke er specifik for kunstig intelligens.
Spørgsmålet om, hvorvidt Pentagon i praksis vil overholde sine egne regler, er legitimt, men det er, som Horowitz siger, ikke et argument specifikt mod autonome våben — det er et argument om Pentagons institutionelle integritet som sådan.
Den egentlige risiko: Automation bias i kommandokæden
Horowitz’ mest slående pointe ligger ikke i dronekrigens taktik, men i dens strategiske niveau. Spørgsmålet om autonome våben — et missil, der rammer det forkerte mål — har en afgrænset skadevirkning. Det er alvorligt, men militære institutioner har etablerede procedurer, træning og incitamenter til at minimere den type fejl.
Den risiko, Horowitz finder langt mere bekymrende, er det, som han betegner som ‘automation bias’ i den operative beslutningstagning. Systemer som Maven Smart System er allerede designet til at fungere som dashboards for øverstkommanderende — systemerne aggregerer information fra åbne og klassificerede kilder, fortolker data og genererer i stigende grad specifikke anbefalinger til taktiske operationer.
Risikoen er velkendt fra adfærdsforskningen: mennesker har en tendens til at stole mere på algoritmiske anbefalinger, end algoritmens pålidelighed berettiger til. Denne bias forstærkes, når brugeren ikke har dybtgående forståelse af teknologiens begrænsninger. Og i modsætning til operatører i felten, der er underlagt strenge procedurer, træning og personligt ansvar, gælder de samme mekanismer ikke nødvendigvis for seniorledere.
Horowitz’ bekymring er med andre ord ikke den autonome drone, der forveksler en skole med en radarstation. Det er generalen — eller forsvarsministeren, eller præsidenten — der ukritisk følger sin AI-genererede anbefaling, fordi skærmen siger, at det er det rigtige at gøre.
Intervieweren, Jordan Schneider, fra China Talk trækker selv en analogi fra sin hverdag med Claude Code, Anthropics kodningsværktøj: det beder om tilladelse, brugeren trykker godkend, og efterhånden installerer man en indstilling, der automatisk accepterer alle tilladelser, fordi det er mere effektivt. Analogien til militær beslutningstagning er ubehagelig præcis.
En debat, der mangler fælles sprog
Samtalen mellem Schneider og Horowitz illustrerer et gennemgående problem i debatten om militær kunstig intelligens: fraværet af et fælles begrebsapparat. Autonome våbensystemer, AI-beslutningsstøtte, automation bias, edge versus cloud — begreberne blandes sammen og bruges inkonsistent, hvilket gør det svært at føre en præcis politisk eller juridisk diskussion.
Horowitz’ afsluttende opfordring er enkel og nødvendig: hvis alle brugte de samme ord for de samme ting, ville det være lettere at identificere, hvor de reelle uenigheder og risici ligger. Indtil da vil debatten fortsætte med at generere mere varme end lys.