MCP som observability-lag - når AI-agenter taler direkte med kernen

Datadog, Qualys og eBPF-projekter peger i samme retning: AI-agenter skal have rå data, ikke dashboards. Her er hvad MCP-native observability betyder.

MCP som observability-lag - når AI-agenter taler direkte med kernen

I marts 2026 skete tre ting inden for samme uge der tilsammen tegner en retning. Datadog lancerede en MCP-server der forbinder deres dashboards til AI-agenter. Sikkerhedsfirmaet Qualys advarede om at MCP-servere er blevet den nye skygge-IT i virksomheder. Og eBPF-baserede projekter til infrastruktur-overvågning voksede 300 procent år over år. De tre begivenheder handler om det samme underliggende skift: AI-agenter skal ikke længere kigge på grafer og dashboards bygget til mennesker. De skal have direkte adgang til rå data fra den infrastruktur de overvåger.

MCP - Model Context Protocol - er en åben standard der lader AI-agenter forbinde sig til eksterne værktøjer og datakilder via et struktureret interface. I stedet for at en agent skal læse et dashboard med øjnene, som et menneske ville, får den adgang til data gennem definerede værktøjer den kan kalde programmatisk.

To tilgange til MCP-observability

Der er to fundamentalt forskellige måder at bruge MCP til infrastruktur-overvågning på, og forskellen er afgørende.

Den første er wrapper-tilgangen, som Datadog har valgt. Her tager man et eksisterende overvågningsværktøj der allerede indsamler metrics, logs og traces, og eksponerer dem gennem en MCP-server. AI-agenten kan så stille spørgsmål som "hvad var den gennemsnitlige responstid den seneste time" og få et svar baseret på de data Datadog allerede har samlet. Det fungerer godt til overblik og aggregerede analyser. Datadogs MCP-server forbinder sig til Claude Code, Cursor, GitHub Copilot og andre AI-agenter og giver dem adgang til det fulde dashboardlag.

Den anden er den MCP-native tilgang. Her er MCP-serveren ikke et lag oven på et eksisterende værktøj - den er selve overvågningsværktøjet. Open source-projektet Ingero har bygget en agent der bruger eBPF til at trace systemkald og GPU-operationer direkte i kernen, gemmer data i en lokal database og eksponerer syv MCP-værktøjer som AI-agenten kan kalde. eBPF er en teknologi der lader software hooke ind i operativsystemets kerne og observere hvad der sker - netværkstrafik, filoperationer, processtyring - uden at ændre de programmer der kører, og med under en procent CPU-overhead.

Forskellen mellem de to tilgange svarer til forskellen mellem at bede en assistent om at læse en rapport for dig, og at give assistenten direkte adgang til de rå data rapporten er baseret på.

Diagram der sammenligner wrapper-tilgangen og den MCP-native tilgang til observability

Hvad det betyder i praksis

Her er et konkret eksempel der illustrerer forskellen. Et team kørte vLLM, en populær ramme til at servere sprogmodeller, og oplevede at den første token i svarene pludselig tog 14,5 gange længere end normalt. I aggregerede metrics fra et traditionelt overvågningsværktøj ville det vise sig som en forhøjet latenstid - men uden kontekst om hvorfor.

Med den MCP-native tilgang kunne AI-agenten grave direkte i de rå traces fra GPU-operationerne. Claude identificerede årsagen på 30 sekunder: en logprobs-beregning blokerede dekodnings-loopet og skabte en 256 gange langsommere operation. Det var usynligt i aggregerede grafer, men tydeligt i de rå data fra kernen.

For en ikke-teknisk læser er pointen denne: jo dybere adgang AI-agenten har til de faktiske hændelser i systemet, jo hurtigere og mere præcist kan den finde fejlens rod. Dashboards viser symptomer. Rå kernel-data viser årsager.

MCP-servere som skygge-IT

Sikkerhedssiden af udviklingen er værd at tage alvorligt. Qualys, der har specialiseret sig i at scanne virksomheders angrebsflader, har udpeget MCP-servere som den nye skygge-IT for AI. Deres research viser at der allerede findes over 10.000 aktive offentlige MCP-servere, og at 53 procent af dem bruger statiske hemmeligheder til autentificering - altså hardcodede adgangsnøgler der ikke roteres.

I organisationer med over 100 udviklere fandt Qualys typisk 15 til 30 MCP-server-konfigurationer på udviklernes maskiner som IT-afdelingen ikke kender til. Hver af disse servere giver en AI-agent adgang til et eller flere systemer, og ingen central instans har overblik over hvem der har givet adgang til hvad.

MCP-protokollens egen roadmap for 2026 prioriterer nu audit trails og observability som topemner. I dag er der ingen standardiseret måde at logge hvad en MCP-server blev bedt om, hvad den udførte, og hvad resultatet blev. Teams bygger deres egne logging-løsninger, og de fleste gør det ikke.

Den MCP-native tilgang har en interessant egenskab her: fordi MCP-serveren selv er overvågningsværktøjet, kan den trace sine egne invokationer. Den overvåger sig selv.

Hvad det betyder for danske virksomheder

De fleste danske virksomheder der har investeret i observability bruger Datadog, Grafana eller lignende værktøjer. Wrapper-tilgangen - at forbinde de eksisterende værktøjer til AI-agenter via MCP - er et naturligt første skridt. Det kræver minimal omstilling og giver AI-agenter adgang til de data der allerede indsamles.

Men i takt med at AI-agenter overtager flere operationelle opgaver, vokser behovet for dybere adgang. Spørgsmålet er ikke om virksomheder skal forbinde AI-agenter til deres infrastrukturdata. Det spørgsmål er allerede besvaret. Spørgsmålet er hvor dybt den forbindelse skal gå.

Virksomheder der kører GPU-workloads til sprogmodeller, komplekse Kubernetes-setups eller realtidssystemer med strenge latenskrav, vil få mest ud af den native tilgang. For dem er forskellen mellem aggregerede metrics og rå kernel-traces forskellen mellem at vide at noget er galt og at vide præcis hvad der er galt.

Sikkerheds-spørgsmålet er relevant for alle. Uanset om en virksomhed har fem eller femhundrede udviklere, er det værd at kortlægge hvilke MCP-servere der allerede kører på medarbejdernes maskiner, hvilke systemer de har adgang til, og om der er en central politik for det. Med 53 procent af serverne baseret på statiske hemmeligheder er det en angrebsflade de færreste har overblik over.

Kilde: Ingero.io

Michael Nielsen

Michael Nielsen

Michael Nielsen er AI-konsulent hos Nordium ApS og skriver om AI fra et praktisk standpunkt - hvad virker, hvad er hype, og hvordan danske virksomheder kan bruge teknologien til at skabe reel værdi. Han følger udviklingen tæt og dækker alt fra konkrete værktøjer og automatisering til de større tendenser, der former fremtidens arbejdsmarked.