Da OpenAI i slutningen af 2022 lancerede ChatGPT, blev verden for første gang konfronteret med en tilgængelig form for generel kunstig intelligens.
På få år er vi gået fra teoretiske spekulationer til praktiske systemer, der kan løse opgaver, som tidligere blev anset for at ligge århundreder ude i fremtiden.
Introduktion
Hvad betyder AI for undervisningen på universiteterne i almindelighed og for den specialiserede undervisning i maskinlæring i særdeleshed?
I denne artikel deler den amerikanske forsker Misha Belkin sine erfaringer som forsker og som underviser inden for maskinlæring og statistik. Han beskriver, hvordan udviklingen inden for AI ikke blot udfordrer undervisningsformerne, men selve forståelsen af det teoretiske grundlag for moderne maskinlæring.
Artiklen er offentliggjort på Misha Belkin’s Substack. Den danske version nedenfor er oversat af Pejlinger. ( https://substack.com/@mishabelkin )
[Oversættelse]
Om at undervise i maskinlæring i en tid med kunstig intelligens
af Mikhail (Misha) Belkin, Substack, Nov 04, 2025
I slutningen af 2022 udgav OpenAI ChatGPT, en chat-grænseflade til deres (på det tidspunkt) mest avancerede generative AI-model, GPT-3.5.
For de fleste af os var det vores første møde med en form for generel kunstig intelligens, et system, der kunne løse opgaver, som for blot få år siden virkede uopnåelige, måske endda i århundreder frem.
I dag befinder vi os ved et punkt, hvor de mest avancerede AI-modeller kan bidrage til matematisk og videnskabelig forskning, og hvor de matcher de bedste menneskelige deltagere i internationale olympiader i matematik, fysik og programmering.
Overgangen fra det umulige til det rutinemæssige, en proces, der stadig er i gang, har taget blot tre år.
Hvad betyder denne udvikling for undervisning på universiteterne og især for undervisningen i maskinlæring?
Der tales meget om, hvordan AI forandrer læring generelt. Næsten alt, der undervises i på bachelor- og kandidatniveau, ligger nu inden for det, som moderne AI-systemer kan håndtere.
Det gør dem til uvurderlige læringspartnere for motiverede studerende, der på den måde har fået adgang til en kompetent privat vejleder, der er tålmodig, altid tilgængelig og næsten gratis.
Men for de mindre engagerede studerende kan de samme værktøjer blive redskaber til helt at undgå læring. Snyd i prøver og opgaver er ikke noget nyt – det går mindst tilbage til fortidens kejserlige kinesiske embedseksamener – men AI gør det kvalitativt nemmere.
I dag kan næsten enhver bacheloropgave (og mange kandidatopgaver) løses på få minutter med AI-assistance.
Selv om modellerne endnu ikke er fuldstændig pålidelige, vokser deres kapacitet og rækkevidde eksplosivt. De såkaldte “AI-resistente” opgaver, der var populære for blot et år siden, viser sig at være kortvarige løsninger, indtil næste model udkommer få måneder senere. Derfor diskuteres det nu, om flere prøver bør foregå under opsyn.
Det er værd at huske, at en eksamen har to formål:
- At give en karakter som et bevis på kompetence over for arbejdsgivere, andre universiteter, m.v.
- At fungere som et internt målepunkt for den studerende selv.
En eksamen under opsyn kan stadig validere faktiske færdigheder, men dens værdi som eksternt bevis falder, efterhånden som AI-værktøjer begynder at erstatte yngre programmører og dataanalytikere. Der sker et tydeligt skift fra karakterer til projekter og konkrete resultater som indikatorer for evner, en udvikling, der sandsynligvis vil fortsætte.
Når det gælder selve læringen, så vil de interesserede studerende fortsætte med at fordybe sig, uanset eksamensformen.
Mens AI’s løfter og trusler påvirker hele uddannelsessystemet, så går udfordringerne i relation til undervisningen i maskinlæring langt dybere, og helt ind til fagets fundament.
Moderne AI hviler på klassiske maskinlærings- og optimeringsmetoder som neurale netværk og Stochastic Gradient Descent (SGD).
Disse teknikker er ikke nye. De har været standard pensum i mange år. Indtil for lidt over ti år siden troede vi, at vi havde et godt greb om de principper, der ligger til grund for disse metoder.
Men den overbevisning blev udfordret i begyndelsen af 2010’erne med fremkomsten af deep learning, en gruppe neurale netværksmetoder til billedanalyse og sprogbehandling.
På det tidspunkt var modellerne stadig snævert specialiserede, i modsætning til nutidens generelle post-ChatGPT-systemer.
Alligevel blev deep learning enormt succesfuld, langt mere end tidligere teknikker.
Selv om praksissen omkring 2015 lignede den fra 10 eller 20 år tidligere, opstod der nogle overraskende og “moderne” tendenser, der stod i modsætning til klassisk intuition:
- brugen af meget store – efter nutidens standarder dog meget små – over-parametriserede modeller, hvor antallet af parametre oversteg antallet af datapunkter,
- accepten af perfekt tilpasning til træningsdata, som tidligere blev set som overfitting,
- og SGD’s uforklarligt høje effektivitet i ikke-konvekse-optimeringsproblemer.
Det virkede pludselig som om, at store dele af den klassiske statistiske forståelse – overfitting, bias-variance-tradeoff osv. – ikke længere gjaldt.
Det blev svært at undervise i disse begreber velvidende, at teorien ikke stemte overens med praksis. Som underviser må man være ærlig.
Det er bedre at indrømme usikkerhed end at foregive viden.
Men usikkerhed er sjældent det, som de studerende søger, når de tager et kursus i maskinlæring, og det skaber uundgåeligt spændinger og forvirring.
I begyndelsen af 2020’erne kom der en vis klarhed.
Der blev gjort betydelige teoretiske fremskridt i forståelsen af moderne maskinlæring og statistik, drevet af mange forskere, herunder mit eget arbejde om fænomener som “double descent”, over-parametrisering og ikke-konveks optimering.
Disse resultater gjaldt dog stadig meget forenklede modeller, og de var komplekse og undertiden selvmodsigende i forhold til, hvad de studerende tidligere havde lært.
Alligevel var det muligt at give de nysgerrige studerende en realistisk fornemmelse af, hvor feltet stod – og vigtigst: at undgå at vildlede dem.
Men i løbet af de seneste tre år er billedet igen blevet radikalt forandret.
Selv om mange indsigter fra 2010’ernes deep learning stadig gælder, så har vi næsten ingen forståelse af, hvordan autoregressive modeller som GPT – der kun trænes til at forudsige det næste ord – kan udvikle bred intelligens på tværs af mange ikke-relaterede opgaver.
Mens AI forandrer verden – og sig selv – i rasende fart, halter vores forståelse bagefter.
Hvordan holder man undervisningen relevant i en verden i konstant forandring?
Mange studerende accepterer usikkerheden; de ønsker at forstå de teoretiske fundamenter og bidrage til at forklare moderne AI.
Men for flertallet fremstår meget af stoffet i traditionelle ML-kurser fjernt fra virkeligheden, selv når man tager højde for den indbyggede forskel mellem teori og praksis.
For os, der underviser, giver det heller ikke mening blot at basere undervisningen på de nyeste teknologier, for de ændrer sig fra dag til dag og udgør ingen varig viden.
Findes der et solidt teoretisk grundlag for prompt engineering eller agent-baserede workflows?
Det forekommer tvivlsomt.
Desuden findes der allerede fremragende online-ressourcer, der dækker disse emner.
Så hvor står vi?
Vi bør fokusere på det varige og løbende revurdere det flygtige.
Den matematiske rygrad – lineær algebra, optimering, moderne statistisk læringsteori og generalisering – skal forblive kernen i undervisningen.
Samtidig bør vi inddrage nogle af de moderne systemers byggesten:
transformer-arkitekturer, autoregressive modeller, “tænkende modeller”, måske også diffusionsbaserede generative modeller og GPU-design.
Formålet bør være at give de studerende evnen til at stille præcise spørgsmål, at kunne se fejltilstande og til at kende grænserne for nutidens teknologier.
De skal kunne bruge tidens værktøjer uden at være fanget af dem, og de skal kunne handle med klarhed i tanken under betydelig usikkerhed.
Er det for meget at kræve – eller for lidt?
Det vil snart vise sig.
Verden vil forandre sig markant i de kommende år.
At tilpasse sig disse vidunderlige og skræmmende transformationer er den eneste vej frem, både for den enkelte og for institutionerne.
Om forfatteren
Mikhail (“Misha”) Belkin er professor i maskinlæring ved University of California, San Diego.
Han er internationalt kendt for sit teoretiske arbejde med over-parametrisering, ikke-konveks optimering og det såkaldte “double descent”-fænomen, som har ændret vores forståelse af generalisering i moderne AI-systemer.
Belkin forsker i de teoretiske grænser for maskinlæring og i, hvordan matematisk forståelse og empirisk praksis kan bringes i bedre balance i AI-tidsalderen.
“If you’re not familiar with the double descent phenomenon, I think you should be. I consider double descent to be one of the most interesting and surprising recent results in analyzing and understanding modern machine learning. (…) The double descent phenomenon was first discovered by Mikhail Belkin et al., who were confused by the phenomenon wherein modern ML practitioners would claim that “bigger models are always better” despite standard statistical machine learning theory predicting that bigger models should be more prone to overfitting.”
Evan Hubinger: Understanding “Deep Double Descent”
LessWrong, 06-12-2019
https://www.lesswrong.com/
