Tilbage til indsigter
Data & AI

Jeres AI er kun så god som jeres data — og jeres kontekst

Publiceret 2025-12-02 · Emil Kanneworff

AI fejler sjældent på modellen. Den fejler på data, der er rodet, ustruktureret og kontekstløst. Forskellen mellem AI der virker og AI der hallucinerer ligger i det arbejde, der sker før modellen overhovedet ser jeres data.

Datacenter-korridor med serverracks — symboliserer datainfrastruktur og AI-parathed

De fleste AI-projekter strander ikke på teknologien. De strander på data. Rodet, ustruktureret og kontekstløst data, der får selv de bedste modeller til at hallucinere og levere ubrugelige svar.

ChatGPT, Claude og Gemini er alle ekstraordinært kapable. Men en model er kun så god som den information, den har adgang til — i det rigtige format, på det rigtige tidspunkt. Det er forskellen mellem en ekspert med adgang til alle relevante dokumenter og en ekspert, der skal gætte baseret på en halvt mumlet instruktion.

I AI-branchen er denne erkendelse ved at modne til et begreb: kontekstengineering — kunsten at give AI den rigtige kontekst, ikke bare det rigtige prompt. Og for virksomheder, der vil implementere AI, der faktisk virker, starter det hele med jeres data.

Garbage in, garbage out — men hvad betyder 'garbage' egentlig?

De fleste virksomheder har data nok. Problemet er, at data er spredt, ustruktureret og inkonsistent. Her er de fire mest almindelige årsager til, at AI fejler på virksomhedsdata:

  • Ustruktureret og beskidt data: Manglende felter, stavefejl, inkonsistente formater (datoer der varierer, navne der staves forskelligt). AI kan ikke finde mønstre i kaos.
  • Data-siloer: Information spredt over CRM, ERP, fildrev, e-mail og Slack. AI får kun brudstykker i stedet for det fulde billede.
  • Manglende kontekst og mærkning: Data uden metadata, labels eller struktur er som en bog uden indholdsfortegnelse. AI kan hverken finde eller forstå indholdet.
  • Bias i historisk data: Selv velstruktureret data kan føre til forkerte konklusioner, hvis den afspejler historiske skævheder frem for den virkelighed, I vil optimere for.

Fra prompt engineering til kontekstengineering

De fleste virksomheder fokuserer stadig på at skrive bedre prompts. Det er vigtigt, men det er som at optimere spørgsmålet til en ekspert uden at give eksperten adgang til de relevante dokumenter.

Kontekstengineering handler om alt det, der sker før promptet: Hvilke data har modellen adgang til? Er de relevante, opdaterede og strukturerede? Får den historik fra tidligere samtaler? Har den adgang til jeres specifikke forretningsregler og dokumentation?

Forskellen er enorm. Et kundeservice-system, der kun ser brugerens spørgsmål, giver generiske svar. Et system, der samtidig ser ordrehistorik, kundesegment, tidligere henvendelser og relevante FAQ-artikler, giver svar, der føles nærmest magisk præcise.

Det er ikke fordi modellen er smartere. Det er fordi den har den rigtige kontekst. Og den kontekst skal bygges — systematisk og bevidst.

Vores data-pipeline: Fra rå data til AI-klar viden

Hos Vertex Solutions har vi bygget en data-pipeline, der tager jeres ustrukturerede data og gør den maskinlæsbar, søgbar og kontekstrig. Processen har fem trin:

  • 1. Data crawling: Vi indsamler data fra jeres kilder — dokumenter, hjemmesider, databaser, API'er, PDF'er, XML, HTML. Alt det information, der i dag lever spredt i jeres organisation.
  • 2. Parsing og normalisering: Rå data konverteres til et ensartet format. Inkonsistenser renses op, metadata tilføjes, og indholdet struktureres logisk.
  • 3. Chunking: Store dokumenter opdeles i logiske bidder (400-1200 tokens), der er optimerede til AI-forbrug. Ikke for store (kontekst-overload), ikke for små (manglende sammenhæng).
  • 4. Embedding og vektorlagring: Hver chunk konverteres til en numerisk repræsentation (embedding), der gør det muligt at søge semantisk — ikke bare på nøgleord, men på betydning. Data lagres i en vektordatabase (f.eks. Supabase) med fuld RAG-understøttelse.
  • 5. AI-berigelse og kvalitetssikring: Data beriges med resuméer og struktureret output. Driftsovervågning sikrer, at data forbliver korrekt og opdateret over tid.

RAG: Hvordan jeres AI får adgang til virksomhedens viden

Retrieval-Augmented Generation (RAG) er den arkitektur, der binder det hele sammen. I stedet for at stole på, hvad en AI-model har lært under træning, henter RAG-systemet relevante dokumenter fra jeres egen database i realtid og inkluderer dem i konteksten.

Det betyder, at jeres AI-agent altid svarer baseret på jeres faktiske data — ikke på generel viden fra internettet. En juridisk assistent svarer baseret på jeres kontrakter. En intern videns-agent svarer baseret på jeres dokumentation. En kundeservice-bot svarer baseret på jeres ordresystem.

RAG løser også et af AI's største problemer: hallucinationer. Når modellen har adgang til de rigtige dokumenter, er sandsynligheden for opdigtede svar markant lavere. Og med den rette arkitektur kan systemet endda citere sine kilder, så medarbejderne kan verificere svaret.

Data-readiness: Den oversete forudsætning

De fleste AI-projekter starter med at vælge model og bygge prototype. Det er den forkerte rækkefølge.

Start med jeres data. Kortlæg hvad I har, hvor det bor, og i hvilket format. Identificér hullerne. Vurdér kvaliteten. Først når jeres data er struktureret, renset og embeddet, giver det mening at bygge AI-løsninger oven på det.

Vi kalder det data-readiness — og det er den service, der ofte gør forskellen mellem et AI-projekt, der strander efter piloten, og et der skalerer til drift. Det er også en forudsætning for den no-code vs. kode-beslutning, vi har skrevet om — for uanset hvilken tilgang I vælger, er datakvaliteten fundamentet.

Konklusion: Investér i kontekst, ikke kun i modeller

AI-modellerne bliver bedre hver måned. Men forskellen mellem AI, der rent faktisk virker i jeres organisation, og AI, der bare præsenterer godt i en demo, er datakvalitet og kontekstengineering.

Hos Vertex Solutions bygger vi hele kæden: fra data crawling og normalisering til embedding, RAG og driftsovervågning. Vi sikrer, at jeres AI-løsninger ikke bare er teknisk imponerende — men at de er forankret i jeres data, jeres forretningslogik og jeres virkelighed.

  • Auditér jeres data: Hvad har I, hvor bor det, og hvad mangler?
  • Prioritér datakvalitet over modelvalg — garbage in, garbage out
  • Strukturér data i logiske chunks med metadata og embeddings
  • Implementér RAG for at give AI adgang til jeres specifikke viden
  • Byg driftsovervågning, der sikrer datakvalitet over tid
  • Tænk kontekstengineering — ikke bare prompt engineering

Vil I vide, om jeres data er klar til AI?

Vi hjælper jer med at crawle, strukturere og embedde jeres data — så jeres AI-løsninger leverer pålidelige resultater fra dag ét.