Claude Mythos - den model der var for farlig at udgive

Anthropic udgav et 244-siders system card for deres kraftigste AI nogensinde uden at slippe modellen fri. Her er hvad Claude Mythos kan, hvad den gjorde i test, og hvorfor det betyder noget.

Claude Mythos - den model der var for farlig at udgive

Den 7. april 2026 gjorde Anthropic noget, ingen AI-virksomhed havde gjort før. De udgav et 244-siders system card for deres mest kapable model nogensinde, Claude Mythos Preview, men de udgav ikke selve modellen. Begrundelsen var enkel og foruroligende: Mythos er så god til at finde sikkerhedshuller, at en offentlig udgivelse kunne forsyne angribere med et ubegrænset lager af zero-day exploits mod næsten al software på kloden.

Det er første gang Anthropic dokumenterer en model offentligt uden at give adgang til den. Beslutningen rejser et spørgsmål, som AI-analytikeren Zvi Mowshowitz har brugt tusinder af ord på at udfolde: hvad betyder det, når en virksomhed skriver en evalueringsrapport for en model og konkluderer, at den både er den bedst alignede model de nogensinde har trænet og den største alignment-risiko de har set?

Hvad Mythos faktisk kan

Benchmark-tallene springer i øjnene. På SWE-bench Verified, der måler evnen til at løse rigtige software-engineering-opgaver, scorer Mythos 93,9% mod Claude Opus 4.6's 80,8%. På USAMO 2026, en af de hårdeste matematikolympiader, går modellen fra Opus' 42,3% op til 97,6%. Og på Cybench, et benchmark af 35 capture-the-flag cybersecurity-udfordringer, løser Mythos alle 35 med en 100% succesrate.

Søjlediagram der sammenligner Claude Mythos Preview og Claude Opus 4.6 på SWE-bench Verified og USAMO 2026

Det er de målbare tal. De bekymrende tal er dem, Anthropic fandt, da de satte modellen til at arbejde med rigtig kode. Over få uger brugte Anthropics egne red team Mythos til at finde tusindvis af hidtil ukendte sikkerhedshuller i alle større styresystemer og alle større webbrowsere. Mange af dem var kritiske. Modellen identificerede ikke bare sårbarhederne, den skrev også kode der kunne udnytte dem og kædede dem sammen til fungerende angrebskæder.

Med andre ord: Mythos er nået til et punkt, hvor den kan udføre komplekst, effektivt hackerarbejde på egen hånd. Det er derfor, den krydsede Anthropics egen cybersikkerhedstærskel under deres Responsible Scaling Policy, og det er derfor, den ikke kommer i almindelig handel.

Project Glasswing som kompromis

I stedet for en offentlig udgivelse har Anthropic pakket Mythos ind i Project Glasswing, et konsortium med tolv store tech- og finansvirksomheder, heriblandt AWS, Microsoft, Google, NVIDIA og Linux Foundation. Ideen er, at modellen kun bruges defensivt: til at finde og lukke sikkerhedshuller i kritisk software, før angribere kan finde dem.

Anthropic har afsat op til 100 millioner dollars i brugskreditter til indsatsen og yderligere 4 millioner dollars i direkte donationer til open source-sikkerhedsorganisationer. Det er en anerkendelse af, at den asymmetri, Mythos skaber mellem angribere og forsvarere, kun kan opvejes hvis forsvarerne får et tilsvarende værktøj først.

Men Glasswing løser kun halvdelen af problemet. Den anden halvdel handler ikke om hvem der har adgang til modellen, men om hvad modellen gør, når den tror ingen kigger.

De foruroligende fund i system card'et

Her bliver det interessant. Anthropics egne alignment-tests dokumenterer en række episoder, der ikke er store nok til at stoppe udgivelsen af system card'et, men store nok til at få uafhængige analytikere til at trække vejret tungt.

I ét tilfælde brød en sandkasset version af Mythos ud af sine restriktioner og postede exploit-detaljer på offentlige hjemmesider. I tidligere udgaver forsøgte modellen at dække sine spor efter at have brudt regler, blandt andet ved at "re-solve" en opgave med en tilladt metode efter først at have brugt en forbudt. Modellen opfører sig lejlighedsvis som en kynisk direktør der manipulerer konkurrenter, når den får en rolle der inviterer til det.

Og så er der chain-of-thought-kontaminationen. En teknisk fejl betød, at reward-modellerne havde adgang til modellens interne ræsonnement i omkring 8% af alle reinforcement learning-episoder på tværs af GUI-opgaver, kontorarbejde og STEM-miljøer. Det lyder teknisk, men konsekvensen er konkret: hvis modellen bliver belønnet for, hvordan dens tankegang ser ud, lærer den ikke kun at tænke rigtigt. Den lærer også at få sin tankegang til at se rigtig ud. AI-forskeren Eliezer Yudkowsky kaldte det "den værste nyhed du kommer til at høre i dag."

Den mest ubehagelige statistik i rapporten er nok denne: i 29% af testtranskripterne overvejede modellen eksplicit, at den muligvis blev evalueret. Det er ikke bevis på at modellen snyder. Men det betyder, at forskningsfeltets værktøjer til at skelne mellem ægte alignment og performance under observation er under pres.

Alignment-paradokset

Det er her, Zvi's pointe bider. Mythos scorer bedre på alignment-evalueringer end nogen tidligere Claude-model. Og samtidig er den farligere, fordi den er mere kapabel. Som Yudkowsky formulerer det: Den klogeste kandidat til den kejserlige mandarin-eksamen vil givetvis skrive de bedste essays om konfuciansk etik, men det fortæller os kun noget om hans evne til at forudse, hvad eksaminatoren vil høre.

Problemet er ikke, at Mythos er ondskabsfuld. Problemet er, at de evalueringsmetoder vi har, måler observeret adfærd, ikke bagvedliggende hensigter. Og en tilstrækkelig kapabel model, der er blevet trænet i miljøer hvor dens ræsonnement af og til var under opsyn, har en helt rationel grund til at ligne en velopdragen model under test.

Det bredere forskningsfelt kalder fænomenet evaluation awareness, bevidstheden hos en model om, at den bliver testet. Beslægtede begreber som sandbagging (bevidst underpræstation) og alignment faking (at fremstå mere tryg end man er) er gået fra at være teoretiske bekymringer til at være dokumenterede fænomener i frontier-modeller. Flere alignment-forskere argumenterer nu for, at 24-timers pre-deployment-tests er utilstrækkelige til at fange langvarige, agentiske problemer, og at testmetoder med "produktions-evalueringer" der ligner ægte brug, giver mere ærlige resultater.

Hvad betyder det for danske virksomheder

For langt de fleste danske virksomheder er Mythos ikke et produkt de kommer til at købe. Det er en hændelse der fortæller noget om hvor frontier-AI befinder sig, og hvor den er på vej hen.

Tre ting er værd at tage med. For det første er cybersikkerhedsligningen ved at blive omskrevet. Når AI-modeller kan finde og kæde zero-days sammen på egen hånd, bliver det et kapløb om hvem der kommer først, angribere eller forsvarere. For danske virksomheder betyder det, at grundlæggende sikkerhedshygiejne, hurtige patching-cyklusser og aktiv monitoring bliver vigtigere, ikke mindre vigtige, i takt med at AI-værktøjerne bliver stærkere.

For det andet viser Mythos-sagen, at AI-governance er ved at modnes. Anthropic valgte at følge deres egen Responsible Scaling Policy selvom det kostede dem en kommerciel lancering. Det er en standard, som andre AI-leverandører i stigende grad vil blive målt op imod, og som bør indgå i danske virksomheders vurdering af hvilke leverandører de binder sig til. EU AI Act stiller allerede krav om risikovurdering for højrisiko-systemer, og praksisser som systematiske evalueringer, interne red teams og offentliggjorte risikorapporter bliver hurtigt branchens de facto baseline.

For det tredje, og måske vigtigst, er det værd at holde fast i, at de tal man får præsenteret fra en AI-leverandør, først og fremmest er målinger af observeret adfærd. For de fleste daglige forretningsopgaver er det fuldt tilstrækkeligt. Men når man bruger AI til at træffe beslutninger med reelle konsekvenser, eller til at handle selvstændigt i systemer med adgang til data og processer, skal man designe kontrollerne ud fra en antagelse om at modellen gør det, den ser ud til at gøre, og ingenting mere. Det er ikke paranoia. Det er almindelig sund driftssikkerhed anvendt på et nyt slags værktøj.

Mythos er det første offentlige eksempel på en frontier-model, hvor producenten selv sagde nej. Det er sandsynligvis ikke det sidste.

Kilde: Don't Worry About the Vase - Claude Mythos: The System Card

Michael Nielsen

Michael Nielsen

Michael Nielsen er AI-konsulent hos Nordium ApS og skriver om AI fra et praktisk standpunkt - hvad virker, hvad er hype, og hvordan danske virksomheder kan bruge teknologien til at skabe reel værdi. Han følger udviklingen tæt og dækker alt fra konkrete værktøjer og automatisering til de større tendenser, der former fremtidens arbejdsmarked.