AI-ordbogen - de vigtigste begreber forklaret uden jargon

Fra LLM og tokens til RAG og hallucinations. En praktisk guide til de AI-begreber enhver virksomhed bor kende i 2026 - forklaret sa det giver mening.

AI-ordbogen - de vigtigste begreber forklaret uden jargon

AI-verdenen er fuld af forkortelser, tekniske termer og buzzwords der kan faa selv erfarne ledere til at miste traaden. Det er et problem, fordi man ikke kan traffe gode beslutninger om noget man ikke forstar.

Denne ordbog er skrevet til dig der vil forstaa hvad der faktisk foregaar - uden at skulle laese et forskningspapir. Vi har delt begreberne op i fire kategorier: det du skal kende, det AI kan, det der kan gaa galt, og den infrastruktur det hele korer paa.

Det du skal kende

LLM (Large Language Model) er de sprogmodeller der driver ChatGPT, Claude, Gemini og andre AI-assistenter. De er traenet paa enorme maengder tekst og laerer at forudsige det naeste ord i en saetning. Naar du skriver en besked til en AI-assistent, genererer modellen det mest sandsynlige svar baseret paa de moenstrer den har laert. GPT er OpenAI's model, Claude er Anthropics, Gemini er Googles.

Tokens er de byggesten en sprogmodel laeser og skriver. Et token er typisk et ord eller en del af et ord. Naar du bruger en AI-tjeneste, betaler du per token - bade for det du sender ind (input) og det modellen svarer (output). Lange dokumenter eller komplekse forespoorgsler bruger flere tokens og koster mere. Det er vigtigt at forstaa naar man budgetterer AI-drift.

Kontekstvindue er det maksimale antal tokens en model kan haandtere i en enkelt session. Taenk paa det som modellens arbejdshukommelse. Et stoerre kontekstvindue betyder at modellen kan laese laengere dokumenter og huske mere af samtalen. Moderne modeller har kontekstvinduer fra 128.000 til over 1 million tokens.

Inference er processen naar en traenet model faktisk koerer og genererer svar. Traeningsfasen er dyr og sker en gang. Inference er det der koster i daglig drift - hver gang en bruger stiller et spoergsmaal, koerer modellen inference.

Traening er den proces hvor en model laerer fra data. Raa data (boejer, artikler, kode) foedes ind, og modellen justerer sine parametre for at laere moenstrer. Traening kraever enorme maengder beregningskraft og kan koste millioner af dollar for de stoerste modeller.

Parametre (weights) er de numeriske vaerdier der definerer hvad en model har laert. Naar vi siger at en model har 70 milliarder parametre, refererer vi til antallet af justerbare vaerdier i modellen. Flere parametre giver generelt stoerre kapacitet, men ogsaa hoejere driftsomkostninger.

Det AI kan

AI-agenter er systemer der ikke bare svarer paa spoergsmaal, men udforer opgaver paa dine vegne. En agent kan laese en e-mail, sla op i en database, skrive et svar og sende det - alt sammen uden at du skal goere noget mellem trinene. I 2026 er agenter gaaet fra eksperiment til produktiv brug i kundeservice, kodeudvikling og procesautomatisering.

RAG (Retrieval Augmented Generation) lader en AI-model hente svar direkte fra jeres egne dokumenter i stedet for kun at stole paa sin traening. Modellen soejer i en vidensdatabase, finder de mest relevante passager og bruger dem som grundlag for sit svar. Det reducerer hallucinations med op til 71% og er den mest udbredte teknik til virksomheds-AI i 2026.

Fine-tuning er yderligere traening af en eksisterende model paa specialiserede data. Hvis RAG er at give modellen en opslagsbog, er fine-tuning at give den en uddannelse. Det bruges naar modellen skal laere en bestemt skrivestil, et fagsprog eller en konsistent struktur. Det er dyrere end RAG og kraever retaining naar data aendres.

Chain-of-thought (kaede-raesonnering) er en teknik hvor modellen gennemgaar mellemregningerne i stedet for at hoppe direkte til svaret. Det forbedrer praecisionen markant paa logiske, matematiske og kodningsopgaver. Moderne "reasoning models" som Claudes thinking mode og GPT's o-serie bruger denne teknik som standard.

Multimodal refererer til modeller der kan haandtere mere end bare tekst. En multimodal model kan analysere billeder, forstaa lyd, se video og svare paa tvaers af medietyper i en samlet session. Qwen 3.5 Omni og Gemini er eksempler paa modeller der er bygget multimodalt fra bunden.

MCP (Model Context Protocol) er en aaben standard der lader AI-modeller forbinde til eksterne vaerktoejer - databaser, API'er, Slack, GitHub, billedgenerering og meget mere. Taenk paa det som USB-standarden for AI: en faelles maade at tilslutte vaerktoejer paa, uanset leverandor.

Embeddings er numeriske repraesentationer af tekst der fanger betydning snarere end ordlyd. To saetninger med samme mening men forskellige ord ender taet paa hinanden i vektorrummet. Embeddings er grundlaget for RAG og semantisk soegning - det er det der goer at en AI kan finde relevant information selv naar brugerens formulering ikke matcher dokumentets ordvalg.

Det der kan gaa galt

Hallucinations er AI-industriens ord for naar modeller opdigter information. En model kan generere overbevisende men fuldstaendig forkerte svar - opdigtede kilder, falske statistikker, ikke-eksisterende lovparagraffer. Problemet opstaar fordi modeller forudsiger sandsynlige ord, ikke verificerer fakta. RAG og grounding er de primaere vaerktoejer til at reducere hallucinations i virksomhedsbrug.

Grounding er processen med at forankre AI-output i verificerbare kilder. I stedet for at lade modellen svare udelukkende baseret paa sin traening, gives den adgang til konkrete dokumenter eller databaser. Hvert svar kan derefter spores tilbage til en specifik kilde. Det er kritisk for compliance, auditing og tillid.

Infrastrukturen bag det hele

Compute refererer til den beregningskraft der driver AI-modeller. I praksis er det GPU'er, TPU'er og specialiserede AI-acceleratorer i store datacentre. Compute er den stoerste enkeltomkostning i AI-industrien og aarsagen til at virksomheder som Nvidia er blevet blandt verdens mest vaerdifulde.

Open source vs closed models er et fundamentalt valg. Lukkede modeller (GPT, Claude, Gemini) koeres via API og kontrolleres af udvikleren. Open source-modeller (Qwen, GLM, Llama) kan downloades, hostes i egen infrastruktur og tilpasses frit. Lukkede modeller er ofte staerkest paa raa performance. Open source giver datakontrol, lavere omkostninger og uafhaengighed.

Diffusion er teknologien bag de fleste billedgenererende AI-modeller. Systemet laerer at tilfoeje stoej til billeder gradvist, og laerer derefter at koere processen baglens - saa det kan skabe nye billeder fra ren stoej. Det er grundlaget for DALL-E, Midjourney og Stable Diffusion.

Distillation er en teknik til at goere store modeller mindre og hurtigere. En stor "laerer-model" genererer svar, og en mindre "elev-model" traenes til at efterligne laereren. Resultatet er en kompakt model der bevaerer det meste af den stores kapacitet til en broekdel af driftsomkostningerne.

Hvorfor det her betyder noget

AI-begreber er ikke akademisk teori. De er forretningsbeslutninger.

Forskellen paa RAG og fine-tuning afgoer om jeres AI-loesning koster 5.000 eller 50.000 kroner at vedligeholde aarligt. Forskellen paa open source og closed models afgoer om jeres data forlader virksomheden. Forskellen paa en chatbot og en agent afgoer om AI sparer jer fem minutter eller fem timer om dagen.

Du behoever ikke at forstaa matematikken bag et neuralt netvaerk. Men du boejer forstaa hvad de rigtige valg er - og hvad de koster.

Kilder: TechCrunch, Suprmind, IBM

Michael Nielsen

Michael Nielsen

Michael Nielsen er AI-konsulent hos Nordium ApS og skriver om AI fra et praktisk standpunkt - hvad virker, hvad er hype, og hvordan danske virksomheder kan bruge teknologien til at skabe reel værdi. Han følger udviklingen tæt og dækker alt fra konkrete værktøjer og automatisering til de større tendenser, der former fremtidens arbejdsmarked.