Når en CTO spørger sin økonomiansvarlige hvor meget virksomheden bruger på AI - og svaret tager dage at finde - er der et problem. Ikke med AI'en, men med den finansielle infrastruktur omkring den.
Det er præcis den situation Ramps medstifter og CTO Karim Atiyeh beskriver. Og han er ikke alene. For de fleste virksomheder er AI-forbrug gået fra en ubetydelig post til en af de hurtigst voksende omkostningskategorier - uden at der er fulgt styring med.
Tokens er den nye usynlige omkostning
AI-tjenester afregnes typisk per token - de små tekststykker som modeller processerer. Det gør omkostningerne fundamentalt anderledes end traditionel software med faste licenspriser.
Forbruget er brugsstyret og volatilt. Det kan svinge markant fra uge til uge afhængigt af, hvilke modeller der bruges, hvor mange prompts der sendes, og hvor komplekse opgaverne er. Ramps egne data viser at det gennemsnitlige månedlige token-forbrug er steget 13 gange siden januar 2025. Blandt storforbrugere kan omkostningerne stige med over 50 procent inden for et enkelt kvartal.
Det gør budgettering til et gætværk.
Finansteams mangler kontekst
Problemet er ikke mangel på data. De fleste AI-udbydere tilbyder dashboards med forbrugstal. Men tallene fortæller sjældent noget brugbart for dem der sidder med regnskabet.
Et token-forbrug på en given API-nøgle siger ikke i sig selv, om omkostningen hører til i vareforbrug eller driftsomkostninger. Det fortæller ikke hvilken afdeling der har brugt dem, eller om stigningen skyldes en ny funktion eller et ændret brugsmønster.
Den oversættelse - fra tekniske forbrugsdata til finansiel kontekst - er det der mangler i de fleste organisationer. Og det skaber en kløft mellem de tekniske teams der bruger AI, og de finansielle teams der skal styre budgetterne.
Fra forbrugsdata til økonomisk styring
Ramp, den amerikanske fintech-virksomhed med en værdiansættelse på 32 milliarder dollar, forsøger at lukke det hul. Deres nye produkt integrerer direkte med AI-udbydere som OpenAI og Anthropic samt model-gateways som OpenRouter for at trække token-niveau-data ind i en samlet finansiel platform.

Det giver finansteams mulighed for at:
- Spore totalforbrug sammen med gennemsnitlig dagspris og pris per forespørgsel
- Fordele omkostninger på udbyder, model, team og enkeltpersoner
- Klassificere udgifter i standard regnskabskategorier
- Sætte budgetter på projekt- eller teamniveau og få advarsler ved udsving
- Afstemme fakturaer mod faktisk forbrug
Det er ikke et udviklerværktøj. Det er et finansværktøj der taler AI-sproget.
AI er på vej til at blive en af de største udgiftsposter
Atiyeh sætter det på spidsen: for nogle virksomheder overstiger AI-omkostningerne allerede hvad de bruger på lønninger. Det er ikke en fremtidsvision - det sker nu.
Og det rejser et spørgsmål som mange virksomheder endnu ikke har stillet sig selv: har vi den finansielle disciplin der skal til for at styre den her omkostning, eller gætter vi bare?
Forskellen mellem de to tilgange afgør ikke kun budgettet. Det afgør hvilke AI-investeringer der prioriteres, hvilke funktioner der skaleres op, og hvordan egne produkter prissættes.
Hvad betyder det for danske virksomheder?
Ramps produkt er rettet mod det amerikanske marked, men problemstillingen er universel. Danske virksomheder der bruger AI via API'er - til kundeservice, dokumenthåndtering, kodegenerering eller intern automatisering - står over for den samme udfordring.
Tre ting er værd at tage med:
- Kortlæg jeres AI-forbrug nu - ikke næste kvartal. Hvis ingen i organisationen kan svare på hvad AI koster, er det tid til at finde ud af det
- Tænk finansiel kontekst ind fra starten - hvem bruger hvad, og hører det til i vareforbrug eller drift? Den klassifikation bliver vigtigere jo mere AI fylder
- Sæt budgetter og alerts op - token-baseret forbrug kan eskalere hurtigt. Proaktiv styring er billigere end overraskelser ved kvartalsafslutningen
AI-omkostninger er ikke et teknisk problem. Det er et ledelsesproblem. Og ligesom cloud-omkostninger for ti år siden krævede nye værktøjer og nye kompetencer, kræver AI-omkostninger det samme - bare hurtigere.
Kilde: The New Stack


