Fra vektorer til tensorer - hvorfor AI-søgning får endnu et lag

Vektorer har drevet moderne AI-søgning i to år, men de er flade. Tensorer tilføjer flere akser og åbner for bedre ranking, multimodal søgning og længere dokumenter.

Fra vektorer til tensorer - hvorfor AI-søgning får endnu et lag

Hvis du har arbejdet med AI-søgning eller RAG det sidste års tid, har du mødt vektoren. Det er den lille talrække der gør at en sprogmodel kan finde den rigtige paragraf i en kontrakt uden at brugeren behøver ramme ordlyden præcist. Vektorer er rygraden i stort set alle moderne virksomheds-AI-løsninger.

Og alligevel er de på vej til at blive sparket af tronen. Ikke fordi de ikke virker, men fordi de er flade - bogstaveligt talt én dimension - og den flathed begynder at begrænse hvor præcise søgninger kan blive, hvor lange dokumenter der kan håndteres, og hvor godt billeder og tekst kan søges sammen. Efterfølgeren hedder tensoren, og den kommer ikke for at erstatte vektoren. Den kommer for at pakke den ind i noget der forstår mere kontekst.

Hvad en vektor egentlig er

En vektor er en ordnet talrække der repræsenterer betydningen af et stykke tekst, et billede eller en anden dataenhed. Typisk mellem 384 og 3.072 tal, hvor hvert tal fanger en lille del af meningen. To sætninger med samme betydning men forskelligt ordvalg ender tæt på hinanden i "vektorrummet", og det er derfor semantisk søgning virker.

Problemet er at hele dokumentet presses ned i én enkelt talrække. Et 40-siders dokument og en tre-ords overskrift repræsenteres på samme måde - som en enkelt linje af tal. Al den struktur der faktisk er i teksten, rækkefølgen, afsnitsgrænserne, hvad der hænger sammen og hvad der ikke gør, er væk. Det er som at beskrive en hel roman med ét tal for "stemning" og ét for "genre". Det er hurtigt, men det er fladt.

Tensoren - samme data, flere akser

En tensor er teknisk set det samme som en vektor, bare med flere dimensioner. Hvor en vektor er én række af tal, er en tensor en matrix, en terning eller en endnu højere-dimensionel struktur. Alle vektorer er tensorer, men ikke alle tensorer er vektorer.

Forskellen betyder at tensorer kan bevare struktur som vektorer smider væk. Position i teksten, rækkefølge af ord, billedets rumlige opbygning, videotimelinen. Al den kontekst der forsvinder når man presser alt ned i én linje, kan tensorer holde fast i fordi de har akser at fordele det på.

Diagram der sammenligner vector search (én vektor pr. dokument, én similarity-score) med late interaction tensor search (én vektor pr. token, MaxSim pr. query-token, sum af scores)

Diagrammet viser forskellen i praksis. Ved klassisk vektorsøgning møder én query-vektor én dokument-vektor, og man får én score. Ved tensor-baseret søgning møder mange query-vektorer mange dokument-vektorer, og scoren bygges op af de bedste matches på tværs af tokens.

Late interaction - ColBERT og ColPali

Den mest udbredte tensor-teknik i 2026 hedder late interaction, og kommer fra Stanfords ColBERT-arkitektur. I stedet for at reducere hele dokumentet til én vektor, laver den én vektor per token - altså per ord eller orddel. Et dokument på 500 ord bliver til en matrix på 500 vektorer, ikke én enkelt.

Når et spørgsmål kommer ind, gør systemet det samme med forespørgslen. Og i stedet for at måle én afstand, måler det hvor tæt hvert query-token ligger på hvert dokument-token, beholder det højeste match per query-token, og summerer. Det kaldes MaxSim, og det er matematisk simpelt men praktisk kraftfuldt. Systemet finder ikke bare dokumenter der "handler om det samme". Det finder dokumenter hvor hvert ord i spørgsmålet har et stærkt modstykke.

ColPali tager ideen videre til billeder. I stedet for at OCR-scanne en PDF og så vektorisere teksten, behandles hver PDF-side som et billede og omdannes til en matrix af patch-vektorer - små firkanter af siden. Det betyder at en tabel, et diagram eller en håndskrevet note kan indgå i søgningen uden at blive konverteret til tekst først. Vespa har demonstreret ColPali skaleret til milliarder af PDF-sider.

Hvad det faktisk løser

Tensor-baseret søgning er ikke en akademisk øvelse. Den løser tre konkrete problemer som flade vektorer ikke er gode til:

  1. Lange dokumenter. En 50-siders kontrakt eller en 300-siders teknisk manual mister detaljer når den presses ned i én vektor. Token-niveau tensorer bevarer de enkelte afsnits semantik og gør det muligt at finde den specifikke passage der matcher
  2. Præcis ranking. Late interaction rangerer ikke kun på "ligner det"-niveau, men på hvor godt hvert element i spørgsmålet matches. Det giver markant bedre resultater på komplekse forespørgsler hvor flere begreber skal være til stede
  3. Multimodal søgning. Tekst og billeder kan bringes ind i samme tensor-format og søges sammen. En bruger kan spørge på naturligt sprog og få både tekstafsnit, diagrammer og billedsektioner tilbage som relevante hits

Ulempen er lagerplads og beregning. Hvor en klassisk vektor fylder nogle få kilobytes, fylder en ColBERT-matrix for samme dokument 10-30 gange mere. Moderne implementeringer presser det ned med kompression og binarisering, men tensor-søgning er stadig tungere end vektor-søgning. Gevinsten er bedre kvalitet, prisen er mere infrastruktur.

Det der er ved at ske i enterprise-segmentet

Skiftet fra ren vektorsøgning til hybride og tensor-baserede løsninger er ikke et teoretisk scenarie for fremtiden. Det sker nu. Platforme som Vespa, Qdrant og Weaviate har indbygget support for multi-vector ranking. PostgreSQL har fået ColBERT-rerank via udvidelser. Og nye benchmarks viser at ren vektorsøgning scorer middelmådigt på faktuel nøjagtighed sammenlignet med hybride opsætninger der kombinerer lexical matching, dense vektorer og tensor-baseret genranking.

Samtidig løber RAG selv ind i begrænsninger der kun kan løses ved at gå ud over den flade vektor. Lange kontekstvinduer, multimodale input og agent-trafik stiller krav om mere struktureret retrieval. Tensoren er ikke hele svaret, men den er den tekniske komponent der gør næste generation af virksomheds-AI mulig.

Hvad det betyder for danske virksomheder

For de fleste danske virksomheder er pointen ikke at man straks skal skifte stack. De fleste RAG-løsninger der lige nu står og kører på flade vektorer, virker fint til det de skal. En personalehåndbog eller en FAQ bliver ikke markant bedre af tensor-retrieval.

Men når man står med større dokumenter, er der grund til at overveje det tidligt. Kontrakter, tekniske specifikationer, sagsmapper, juridisk materiale og scannede PDF'er med billeder, tabeller og håndskrift hører hjemme i den her kategori. Det er områder hvor flade vektorer taber detaljer, og hvor tensor-søgning leverer mærkbart bedre præcision. Det samme gælder når man vil kombinere tekst og billeder i samme søgning - fx i produktkataloger, medicinske journaler eller teknisk dokumentation.

For virksomheder der er i gang med at planlægge deres næste skridt indenfor AI og søgning, er det værd at kende forskellen. Ikke for at jage det nyeste, men for at vælge rigtig teknologi til det konkrete problem. En flad vektor er billig og hurtig. En tensor er dyrere men forstår mere. Den rigtige beslutning afhænger som altid af hvad der ligger i dokumenterne og hvor præcist svaret skal være.

Tensorer er ikke et buzzword der forsvinder. De er det næste lag i den samme udvikling som gjorde RAG til standarden - og som snart gør hybrid tensor-retrieval til det samme.

Kilder: The New Stack, Vespa Blog, Weaviate, Vespa ColPali

Michael Nielsen

Michael Nielsen

Michael Nielsen er AI-konsulent hos Nordium ApS og skriver om AI fra et praktisk standpunkt - hvad virker, hvad er hype, og hvordan danske virksomheder kan bruge teknologien til at skabe reel værdi. Han følger udviklingen tæt og dækker alt fra konkrete værktøjer og automatisering til de større tendenser, der former fremtidens arbejdsmarked.