“Udfordringerne ved at bygge en stor og praktisk anvendelig kvantecomputer er ikke længere et problem, der kun kan løses inden for rammerne af grundlæggende fysik, men er blevet en opgave for ingeniører.”
Denne indledende artikel i en serie på tre om kvantecomputing handler om den tekniske side af sagen. Her findes en kort forklaring til nogle af de ord, som knytter sig til emnet.
I DECEMBER 2024 skete der noget, som kvantefysikere har ventet på i tre årtier. Da Google testede deres nye Willow-chip med progressivt større grupper af qubits – først 3×3, så 5×5, så 7×7 – faldt fejlraterne til det halve for hver forøgelse. Det lyder måske ikke revolutionerende, men det var præcis det modsatte af, hvad der hidtil havde været normen. Traditionelt har flere qubits betydet flere fejl. Nu faldt fejlene eksponentielt, når systemet voksede.
Dette tekniske gennembrud markerer overgangen i udviklingen af kvantecomputere fra at være et tema for grundforskning inden for fysik til at være et praktisk spørgsmål for ingeniører.
Hvis man vil forsøge at navigere i den strøm af nyheder, investeringer og strategiske overvejelser, der nu omgiver kvantecomputing er det vigtigt at forstå, hvordan Googles Willow-chip markerer dette afgørende skel.
Den grundlæggende udfordring
En kvantecomputer adskiller sig fra en klassisk computer ved at udnytte kvantemekaniske fænomener – superposition og sammenfiltring – til at behandle information. Hvor en klassisk bit kun kan være 0 eller 1, kan en qubit befinde sig i begge tilstande samtidig. Det giver i princippet en enorm beregningskapacitet for visse typer problemer.
Men qubits er notorisk ustabile. De udveksler information med deres omgivelser gennem et fænomen kaldet dekohærens, hvilket får dem til at miste deres kvantemekaniske egenskaber og blive “klassiske”. I praksis har dette betydet, at forsøg på at bygge større systemer blot introducerede flere fejlkilder.
Løsningen er fejlkorrektion: man distribuerer én logisk qubit på tværs af flere fysiske qubits, så fejl kan opdages og rettes. Konceptet blev introduceret af Peter Shor allerede i 1995, men det har taget tre årtier at realisere det i praksis. Det afgørende krav er at få systemet til at operere “under tærsklen” – det vil sige, at fejlraterne skal være lave nok til, at mekanismerne til fejlretning er i stand rette fejlene hurtigere, end de opstår.
Willow-chippen demonstrerede netop dette. De logiske qubits lever nu længere end de fysiske qubits, de består af – et resultat, som Harvard-fysikeren Mikhail Lukin kalder “det uafviselige udtryk” for ægte fremskridt.
Flere veje til samme mål
Kvantecomputere kan bygges på flere forskellige måder, og valget af qubit-arkitektur har store konsekvenser for skalerbarhed, fejlrater og praktisk anvendelighed. De følgende fem tilgange er for tiden de vigtigste.
Superledende qubits er den mest modne teknologi og bruges af IBM, Google og flere startups. Superledende qubits opererer ved ekstremt lave temperaturer (tæt på det absolutte nulpunkt) og kan manipuleres hurtigt. IBM’s Quantum Nighthawk-processor med 120 qubits kan udføre kredse med 30 procent mere kompleksitet end tidligere generationer og understøtter op til 5.000 to-qubit porte. Virksomheden har en detaljeret køreplan frem til 2029 med deres Starling-system, der sigter mod 200 logiske qubits og 100 millioner gate-operationer – tærsklen for det, man kalder fejltolerant kvantecomputing.
Ionfælder (trapped ions) bruger elektriske felter til at holde individuelle ioner på plads, hvor de fungerer som qubits. Virksomheden Quantinuum, etableret gennem en fusion mellem Honeywell og Cambridge Quantum, har med deres Helios-system opnået industriens højeste gate-fidelitet: 99,9975 procent for single-qubit gates og 99,921 procent for to-qubit gates. Det er første gang, det er lykkedes at overskride den magiske grænse på “three nines” (99,9 procent), der anses for nødvendig for praktisk fejlkorrektion.
Neutrale atomer holdes på plads af lasere i stedet for elektriske felter. Microsoft og Atom Computing satte i november 2024 en rekord ved at skabe og sammenfiltere 24 logiske qubits ved hjælp af 256 fysiske neutrale atom-qubits. Deres logiske qubits opnåede en fejlrate på 10,2 procent sammenlignet med 42 procent for de fysiske qubits – en firedobling i pålidelighed. Harvard, MIT og startuppen QuEra demonstrerede 48 logiske qubits med realtids-fejlkorrektion på en atomar processor – det højeste antal logiske qubits, der nogensinde er blevet anvendt til at udføre algoritmer, mens fejl blev korrigeret løbende.
Fotoniske systemer bruger lysets partikler som qubits. De kan operere ved stuetemperatur og er velegnede til kvantekommunikation. Det australske PsiQuantum, som nu er verdens mest velfinansierede kvante-startup, forfølger denne tilgang med støtte fra både BlackRock og NVIDIA.
Topologiske qubits er den mest spekulative men potentielt mest robuste tilgang. Microsoft annoncerede i februar 2025 deres Majorana 1-chip, som bruger eksotiske kvasipartikler kaldet Majorana-fermioner. Hvis det lykkes at gøre teknologien operationel, vil topologiske qubits være naturligt beskyttede mod mange typer fejl, men udviklingsarbejdet er stadig i et tidligt stadium.
Fra laboratorium til køreplan
Forskellen mellem 2024-2025 og tidligere år handler ikke kun om bedre resultater ved de forskellige tests, men om en kvalitativ ændring i feltets karakter. Google’s “quantum supremacy”-krav fra 2019 var baseret på et konstrueret benchmark – Random Circuit Sampling – som med Googles formulering ikke har “nogen kendte anvendelser i den virkelige verden”. Det fungerede som videnskabeligt proof-of-concept men gav ingen umiddelbar praktisk værdi.
Nu ser billedet anderledes ud. I oktober 2025 demonstrerede Google deres Quantum Echoes-algoritme, der kører 13.000 gange hurtigere end den bedste klassiske algoritme på verdens hurtigste supercomputere – og beregningen kan verificeres og gentages. IonQ og Ansys rapporterede i marts 2025 en 12 procent højere ydeevne i forhold til klassisk high-performance computing i simulering af medicinske forsøg. IBM og det japanske forskningsinstitut RIKEN gennemførte i juni 2025 molekylær simulering hinsides, hvad klassiske computere kan opnå. I den praktiske verden er disse eksempler små skridt, men de er verificérbare, reproducerbare og relevante for løsning af opgaver i den virkelige verden.
Flaskehalse og realisme
Det ville være misvisende at give indtryk af, at kvantecomputere er klar til bred kommerciel anvendelse. Der er stadig mange og svære udfordringer.
De fleste praktiske anvendelser kræver 10.000-20.000 gate-operationer ved tilnærmelsesvis 100 procent fidelitet, mens de bedste nuværende systemer opnår 99,5 procent fidelitet for kredsløb med over 30 qubits. Fejl akkumulerer eksponentielt, så hardware svigter efter 1.000-10.000 operationer, mens algoritmer, der kan bruges i praksis, kræver millioner til milliarder af operationer. Kort sagt: der er lang vej endnu.
Indlæsning af de data, som man ønsker at behandle, udgør en anden fundamental barriere. Det er ekstremt tidskrævende at kode klassisk information ind i kvantetilstande og bagefter oversætte resultater fra kvantemålinger til klassiske formater, som kan bruges til noget. Denne “embedding bottleneck” er en af hovedårsagerne til, at kvantecomputing ikke kan forventes at være brugbart i relation til moderne kunstig intelligens før om mange år – et punkt, der fortjener bred erkendelse og nøgtern accept midt i den betydelige hype.
Økonomien er også udfordrende. Kvantecomputertid koster i den fase, som vi er i nu, 1.000-5.000 dollar per time sammenlignet med 0,05 dollar per time for klassisk cloud computing – en faktor på 20.000-100.000. Praktisk anvendelse – hvor det overhovedet kan lade sig gøre – skal levere ekstraordinært værdifulde resultater for at kunne retfærdiggøre disse omkostninger.
Fra fysik til ingeniørarbejde
Men efter disse og mange andre forbehold, er budskabet fra laboratorierne, at der nu er ved at ske noget. Fred Chong fra University of Chicago har opsummeret skiftet præcist: “Vi er tydeligvis kommet frem til en æra med escape velocity. Kvanteenheder er nu rimeligt gode, og metoderne til fejlkorrektion er blevet bedre. Det betyder, at udfordringerne ved at bygge en stor og praktisk anvendelig kvantecomputer ikke længere er et problem, der skal løses inden for rammerne af grundlæggende fysik, men er blevet en opgave for ingeniører.”
Denne sondring er væsentlig. Ingeniørarbejde skrider hurtigere og mere pålideligt frem end grundvidenskab. Når de fundamentale fysiske principper er på plads, bliver udfordringen at optimere, skalere og industrialisere – alt sammen noget, der er bred erfaring med fra andre teknologiområder.
Dette skift til en mere operationel dagsorden, viser sig blandt andet ved at IBM, der er en af de førende spillere i dette felt, har kunnet fordoble udviklingshastigheden i deres udviklingsafdeling ved at halvere udviklingstiden for nye processorer og muliggøre parallel udvikling af flere forskellige designs af chips. IBM’s erklærede mål er at opnå stabil operationel kapacitet inden udgangen af 2026 og fejltolerant kvantecomputing i 2029.
Disse køreplaner kan vise sig at være for optimistiske, men de repræsenterer konkrete og erklærede mål fra nogle af feltets skarpeste teams. For tre år siden fandtes sådanne køreplaner ikke.
Et nyt vokabular
Feltet bringer et nyt begrebsapparat med sig, som det er værd at tilegne sig. Dekohærens, gate-fidelitet, logiske versus fysiske qubits, “below threshold”-operation – disse termer beskriver reelle fænomener, der afgør teknologiens udvikling. At forstå dem til bunds er nødvendigt for specialister; for os, der gerne vil kunne følge interesseret med fra sidelinjen, er det en forudsætning – eller i hvert fald en fordel – at opnå et generelt kendskab til begreberne og efterhånden kunne navigere i dem for at kunne forholde sig til nyhedsstrømmen og til de strategiske beslutninger, der venter om hjørnet.
FN har erklæret 2025 som Det Internationale År for Kvante-Videnskab og Teknologi. Det kan man vælge at tage som en opfordring til at tilegne sig feltets grundlæggende begrebsverden.
Efter årtiers forskning i universiteternes laboratorier anvender virksomheder som JPMorgan Chase, BMW Group og Amgen nu kvantecomputere i kommercielle pilotprojekter. Skiftet fra udvikling til anvendelse er begyndt.
Den næste artikel i denne serie vil se på, hvem der driver denne udvikling – de virksomheder, startups og nationale strategier, der kappes om at definere fremtidens computerarkitektur.
Dette er den første artikel af tre om kvantecomputing.
Oversigt over primære kilder findes i artikel III.
