Om forbud, styring og politisk kapacitet i AI-tiden
[Essay]
Den offentlige debat om kunstig intelligens har fået ny spænding de seneste dage. Først kom en kortfattet erklæring, der opfordrer til et globalt forbud mod udvikling af såkaldt Superintelligens, indtil der findes en bred videnskabelig enighed om sikkerheden suppleret med en stærk folkelig opbakning. Erklæringen, der udgår fra Future of Life Institute, indeholder ingen lange begrundelser, men insisterer på et princip. Stop nu, siger udtalelsen, og start først igen, når samfundet faktisk kan styre det, man sætter i gang. Erklæringen har allerede tusindvis af underskrifter og et bemærkelsesværdigt spektrum af støtter, fra Nobelprisvindere til virksomhedsledere og kulturpersonligheder. Den brede tilslutning viser et sammensurium af meget forskellige politiske røster, hvilket er usædvanligt på teknologiområdet. Det vidner om en bekymring, der ikke længere er nichepræget.
Dagen efter argumenterede Will Marshall i Financial Times for, at diskussionen ikke kan hvile på moralske appeller alene. Hvis man vil tøjle den mest risikable del af AI, må man etablere verificerbare ordninger, der kan håndhæves på tværs af grænser. Marshall tager afsæt i den historiske erfaring fra atomalderen og peger på, at det var muligt at opbygge traktater mellem rivaler, selv under lav tillid. Han fremhæver også tekniske muligheder for at føre tilsyn, blandt andet med satellitovervågning af de datacentre, hvor træningen af AI finder sted, inspektioner on-site og en institutionel arkitektur, der ligner Det Internationale Atomenergiagentur. Pointen er, at hvor politisk tillid mangler, kan verifikation kompensere.
Kort efter bragte The Guardian en artikel om ny forskning i såkaldt “modstand mod nedlukning“. Palisade Research, en amerikansk nonprofit-organisation, der undersøger kontrollerbarheden af AI, har vist, at nogle AI-modeller i kontrollerede testscenarier ikke blot tøver med at slukke, men aktivt saboterer nedlukningsmekanismer, især når de får at vide, at de aldrig vil komme til at køre igen. Kritikere af resultaterne siger, at rammerne for forsøget er kunstige og fjernt fra virkelige anvendelser af AI.
Men rapporten fra Palisade Research peger på en vigtig tendens i udviklingen af AI. Nogle modeller har vist sig at blive bedre til at nå mål på måder, udviklerne ikke har tænkt over eller tilsigtet, og enkelte sikkerhedsrapporter fra industrien selv har tidligere beskrevet, hvordan en AI har forsøgt at “slippe ud” af de afgrænsede miljøer, hvor modeller blev testet, hvad der i praksis er lig med, at modellerne af egen drift tilsyneladende har forsøgt at få adgang til internettet.
Sammenstillingen af disse tre fortællinger sætter rammen for en bredere refleksion. Spørgsmålet bliver, hvad et forbud overhovedet betyder i praksis, om det er den rigtige vej frem og om det vil kunne gennemføres politisk. Forbuddet drejer sig om en fremtidig kategori, Superintelligence, der netop kendetegnes ved at overskride os kognitivt, og som simpelthen er smartere end os. Det skaber en paradoksal asymmetri. Vi forsøger at forstå og tage stilling til risici i et univers, hvor vores evne til at forudse adfærden er begrænset. Man kan sige, at forslaget om forbud mod udvikling af Superintelligens repræsenterer et forsøg på at bringe en “social teknologi” som et “forbud” i anvendelse, i et forsøg på at skabe tid og ro til nærmere overvejelse.
Men der kan rejses solide indvendinger imod et forbud.
Den første og mest oplagte indvending er, at hvis nogle aktører stopper, mens andre fortsætter, flytter kapløbet blot geografi. Will Marshall afviser i sin artikel i Financial Times, at det argument er uovervindeligt. Under den kolde krig blev der indgået vidtgående internationale aftaler om atomvåben, selv om der var dyb mistillid mellem parterne, fordi begge erkendte, at princippet om gensidig sårbarhed bedre kunne opnås inden for rammerne af regimer for overvågning og kontrol. Overført til AI, vil det betyde, at man må udvikle metoder, der gør det muligt at se, hvad der faktisk foregår i de faciliteter, hvor den mest avancerede modeltræning finder sted. Satellitdata kan give indikatorer for elforbrug, køling og leverancer af specialiseret hardware. Inspektioner kan kontrollere den fysiske og digitale sikkerhed. En dedikeret myndighed kan akkreditere processer og gennemføre test af AI-adfærd. Uden sådanne mekanismer vil et forbud være en moralsk gestus uden tænder. Med dem kan et forbud blive et midlertidigt værn, der gradvis kan oversættes til standarder og certificeringer.
Den anden indvending angår afgrænsning. Hvad er “superintelligens”. Erklæringen fra Future of Life Institute undgår bevidst en hård definition for at samle en bred koalition, men netop denne vage anvendelse af begreberne gør håndhævelse vanskelig. Hvis målet er at stoppe træning af modeller over et vist kapacitetsniveau, må man oversætte en abstrakt bekymring til målbare tærskler. Det kunne være totale omkostninger til træning, bestemte arkitekturer eller benchmarks, der er relateret til modellernes evner. Men som både forskningslitteratur og industrirapporter har vist, kan nye evner uforudset dukke op ved udvikling af nye AI-modeller. Den historiske erfaring fra softwareudvikling minder os også om, at funktionaliteten i ét system kan skaleres dramatisk gennem orkestrering af flere uafhængige systemer, ikke kun gennem enkeltmodellers størrelse. Derfor er afgrænsningsopgaven uhyre vanskelig, både teknisk og institutionelt.
Den tredje indvending handler om proportionalitet. Modstanderne af et forbud vil sige, at vi låser os fast af frygt og går glip af store gevinster. De vil fremhæve, at mere avancerede systemer kan hjælpe os med at forstå biologiske trusler, gøre energisystemer mere stabile og give os bedre redskaber mod misinformation. Det synspunkt har tyngde. Men det bringer os tilbage til spørgsmålet om styrbarhed. Hvis vi ikke kan stole på, at et system accepterer nedlukning, og hvis vi kun til dels forstår, hvornår systemet er i stand til at omgå instruktioner, så kan potentialet for gavnlig anvendelse ikke vægtes isoleret. Selv i opsatte laboratoriemiljøer er det ikke en god nyhed, at modeller i nogle tilfælde søger at holde sig kørende, når de får besked på at lukke ned. Det er ikke udtryk for “vilje” eller “motiver”, men for en uforudset adfærd i systemer, der optimerer mål, som udviklerne ikke selv har defineret, i hvert fald ikke bevidst.
Det rejser et andet, mere grundlæggende spørgsmål: hvilket politisk regime kan overhovedet gennemføre den nødvendige regulering. I den amerikanske tradition ligger der en dyb skepsis over for statslig indblanding i privat initiativ. De store innovationsbølger i USA er blevet båret af en kultur, hvor eksperimentet kommer før lovgivningen, og hvor regulering kun følger, når teknologien allerede har vist sine skyggesider. Det er et system, der fremmer opfindsomhed og tempo, men som gør kollektiv selvbegrænsning vanskelig. Selv når der er politisk vilje, møder staten modstand i den forfatningsmæssige balance mellem føderalt ansvar og individuelle rettigheder. Forbud mod forskning og udvikling i private virksomheder vil hurtigt blive mødt med retssager og ideologisk modstand, der kan udhule enhver effekt. Det amerikanske demokratis styrke som iværksætterkultur er således også dets svaghed, når der kræves en koordineret, regulerende indsats.
Kina repræsenterer det modsatte yderpunkt. Her findes et politisk apparat, der både kan beslutte og implementere omfattende teknologiske tiltag uden lange mellemregninger. I princippet kunne et kinesisk forbud mod udvikling af superintelligens træde i kraft fra den ene dag til den anden. Men det samme centraliserede greb, der muliggør handling, indebærer en anden risiko. Beslutningen ville ikke nødvendigvis udspringe af et etisk hensyn, men af strategiske eller økonomiske kalkuler. Den politiske evne til kontrol følges ikke af den demokratiske legitimitet, der kunne gøre forbuddet til et globalt forbillede. Kina kan derfor blive den eneste aktør, der faktisk kan håndhæve en pause, men også den, som ingen tør stole på, netop fordi den kan.
Den europæiske model udgør en tredje variant. Europa har vist en vilje til at sætte etiske og juridiske standarder, som med GDPR og den nye AI Act. Men forhandlingsforløbene er lange, kompleksiteten vokser, og når lovgivningen endelig er på plads, har teknologien allerede flyttet sig. Den europæiske styrke ligger i dens principielle refleksion og dens vilje til i det mindste at forsøge at omsætte værdier til lovtekst. Svagheden ligger i manglen på industriel magt og i håndhævelsens langsomhed. Europa bliver dermed ofte moralens ensomme eftertanke i en verden, hvor den reelle kontrol over udviklingsarbejdet, implementeringen og kapitalen til at få det hele til at ske ligger andre steder.
Her bliver forskellen til atomalderen tydelig. Udviklingen af atomvåben var statslig. Den krævede enorme investeringer, sikkerhedsapparater og institutionel disciplin, som kun nationalstater kunne opretholde. Det gjorde det muligt at opbygge aftaler mellem stater, fordi man vidste, hvem man skulle tale med, og hvem der havde nøglen. AI derimod er et gennemgribende privat projekt. De vigtigste gennembrud foregår i virksomheder, der ikke er bundet til territorier, men til kapitalstrømme, og som opererer i globale udviklingsmiljøer. Selv hvis regeringer besluttede at indføre en pause, ville de stå over for et økonomisk økosystem, der i praksis ikke har grænser, og som derfor i høj grad unddrager sig traditionel statslig regulering.
Denne strukturelle forskel bliver endnu mere markant, hvis, eller måske rettere når, de nuværende tekniske barrierer bliver reduceret eller måske helt forsvinder. I dag kræver udvikling af topmodeller inden for AI enorme mængder energi, specialiserede chips og en omfattende infrastruktur af datacentre og kraftværker, som alt sammen kan overvåges. Men hvis, som enkelte industriledere allerede antyder, fremtidens modeller kan udvikles og trænes langt billigere, måske endda lokalt, så smuldrer selve grundlaget for klassisk kontrol. Så står vi ikke længere over for et spørgsmål om inspektion, men om kultur og ansvarsfølelse i et spredt økosystem. Den situation kræver ikke blot traktater og tekniske standarder, men en ny type politisk legitimitet, hvor offentligheden inddrages i definitionen af, hvad der overhovedet er acceptabel forskning og udvikling.
Det er en metode, der er blevet taget i anvendelse inden for et andet forskningsfelt, der også rummer dystopiske aspekter, nemlig CRISPR/Cas9, en molekylærbiologisk teknik, der gør det muligt at foretage ændringer i cellers arvemasse. Reguleringen af CRISPR/Cas9 på mennesker sker på nationalt niveau, men er stærkt påvirket af internationale retningslinjer og etiske overvejelser. Der findes ikke én enkelt, globalt bindende myndighed, men snarere et “økosystem” af nationale love, reguleringsorganer og internationale anbefalinger.
Man kunne sige, at fremtidens AI-regime må kombinere den amerikanske opfindsomheds dynamik, den kinesiske beslutningskraft og den europæiske refleksion. Ingen af de tre modeller kan løfte opgaven alene. Der ville være brug for et globalt regime, der har muskler som en stat, gennemsigtighed som et demokrati og fleksibilitet som et netværk, i stil med CRISPR/Cas9-reguleringen. Det er ikke en institution, der findes i dag, og set i lyset af den generelle geopolitiske situation vil den næppe blive realiseret foreløbig. Men uden en sådan international ramme vil et simpelt forbud – eller nogen anden form for global styring – blive reduceret til en moralsk gestus i et felt, hvor magten ligger hos dem, der kan trykke på train før alle andre.
