Hvad er RAG og hvorfor gør det AI mere præcis?

Christoffer OhlsenChristoffer Ohlsen·
Har du også fået et AI-svar om jeres regler, der lød spot on men var forkert? Det er hallucinationer: modellen gætter, når den mangler kontekst.

RAG løser det ved at søge i jeres interne vidensbase først. Du får overblik over chunking, embeddings, vektordatabase, tests, adgangsstyring og kildehenvisninger, så svarene bliver til at stole på.
RAG AI assistent der søger i intern vidensbase og giver svar med kildehenvisninger

Hvorfor svarer ChatGPT forkert på virksomhedens regler

Du kender det sikkert godt. Nogen i teamet åbner ChatGPT, skriver et spørgsmål om jeres egne procedurer, og får et svar, der lyder fuldstændig overbevisende. Problemet er bare, at svaret er forkert.

Det er ikke fordi AI er dårlig til at skrive. Det er fordi en standard sprogmodel som ChatGPT ikke kender jeres virksomhed. Den er trænet på internettet, ikke på jeres interne dokumenter, regler og procedurer. Og det er præcis den kerne, som RAG løser.

Men lad os starte med at forstå, hvad der egentlig sker, når en AI svarer forkert, og hvad det reelt koster, når ingen opdager det i tide.

Den selvsikre fejl, når svaret lyder rigtigt

Sprogmodeller er ekstremt dygtige til ét: at generere tekst, der lyder sandsynlig og velformuleret. Det er præcis det, de er designet til. Og det er også præcis, hvorfor de er farlige, når de svarer på noget, de ikke ved.

Det fænomen kaldes hallucination, og det er et velkendt problem i branchen. En AI hallucinerer, når den opfinder et svar, der lyder troværdigt, men ikke er baseret på faktiske data. Den svarer ikke "det ved jeg ikke". Den svarer med sikkerhed og flydende sprog, som om den har styr på det.

For et spørgsmål om verdenshistorie eller generel viden er det måske til at leve med. For et spørgsmål om jeres returregler, jeres priser, jeres kontrakter eller jeres interne processer, er det et reelt problem. Medarbejdere og kunder kan handle på forkert information, og ingen ved, det skete.

Når gamle PDFer bliver til nye sandheder

Et andet scenarie, mange virksomheder løber ind i, er det modsatte problem. Man får integreret en AI med adgang til interne dokumenter, men glemmer at holde styr på, hvilke dokumenter der er aktuelle.

Resultatet er, at AI'en finder og bruger en gammelt version af en kontrakt, et forældet prisdokument eller en procedure, der er ændret for seks måneder siden. Svaret er teknisk set baseret på en kilde. Men kilden er forkert.

Dette er ikke et teknisk problem. Det er et datahygiejne problem. Og det er en af de mest undervurderede faldgruber, når virksomheder implementerer AI med egne data. Du skal vide, hvad der er i systemet, hvornår det sidst blev opdateret, og hvem der ejer det.

Hvad det koster, når alle tror på svaret

De fleste fejl fra en AI er usynlige. Ingen ved, at svaret var forkert, fordi ingen tjekkede kilden. Og det er det, der gør ChatGPT hallucinationer til et organisatorisk problem, ikke kun et teknisk et.

I praksis kan det betyde, at en medarbejder videresender forkert information til en kunde. Det kan betyde, at en onboarding-proces følger forældet vejledning. Det kan betyde, at en beslutning bliver truffet på et forkert grundlag, fordi ingen stillede spørgsmålstegn ved det velformulerede svar.

Den gode nyhed er, at der findes en konkret og afprøvet metode til at reducere disse fejl markant. Den hedder RAG, og det er den, vi dykker ned i nu.

RAG forklaret uden akademisk snak

RAG står for Retrieval-Augmented Generation, og på dansk kan det oversættes til noget i retning af "hentning og beriget tekstgenerering". Det er ikke det fedeste navn, men konceptet bag er faktisk elegant simpelt.

I stedet for at lade en AI gætte ud fra, hvad den blev trænet på for et år siden, giver RAG systemet mulighed for at slå op i jeres egne dokumenter, inden den svarer. Ligesom en dygtig medarbejder, der ikke gætter, men finder det relevante dokument frem, læser det og svarer på den baggrund.

Det er hele magien. Ikke hokuspokus. Ikke buzzwords. Bare: slå op, og skriv bagefter.

Søg først, skriv bagefter, det er hele ideen

Når en bruger stiller et spørgsmål i et RAG-system, sker der to ting i rækkefølge. Først søger systemet i en database af jeres egne dokumenter og finder de mest relevante afsnit. Derefter sender det de fundne afsnit videre til sprogmodellen, som bruger dem som grundlag for sit svar.

Sprogmodellen sidder altså ikke og gætter. Den får serveret relevant kontekst fra jeres egne kilder, og den bruger den kontekst til at formulere et svar. Det er langt mere præcist, og det er langt mere styrbart.

Det betyder ikke, at RAG er fejlfri. Men det reducerer sandsynligheden for ChatGPT hallucinationer markant, fordi modellen har noget konkret at holde sig til.

RAG kontra finetuning, hvad er forskellen

Et spørgsmål, der dukker op igen og igen: Er RAG det samme som at træne modellen på jeres data? Nej, det er to meget forskellige ting.

Finetuning betyder, at du tager en eksisterende model og træner den videre på dine egne data, så den "husker" dem. Det kræver tekniske ressourcer, tager tid, er dyrt, og vigtigst af alt: Når jeres data ændrer sig, skal du træne igen.

RAG gør noget andet. Modellen ændres slet ikke. Du bygger i stedet en søgedatabase af jeres dokumenter, og modellen henter kontekst fra den i realtid. Når jeres data ændrer sig, opdaterer du bare databasen. Det er hurtigt, fleksibelt og meget mere vedligeholdelsesvænligt for en dansk SMV i hverdagen.

Finetuning kan give mening i meget specifikke situationer, eksempelvis når du vil have modellen til at skrive i en bestemt tone eller beherske et fagspecifikt ordforråd. Men til intern vidensbase og dokumentsøgning er RAG langt det mest praktiske valg.

Hvorfor kildehenvisninger ændrer samtalen

Et af de mest undervurderede aspekter ved RAG er, at systemet kan vise præcis, hvilken kilde svaret stammer fra. Det lyder måske banalt, men det ændrer fundamentalt, hvordan medarbejdere og ledelse stoler på systemet.

Når en AI svarer med "Ifølge jeres retningslinje fra december 2025, afsnit 4.2, gælder følgende...", er det noget helt andet end et svar, der bare dukker op uden forklaring. Du kan trykke på linket, åbne dokumentet og verificere. Det er gennemsigtigt. Det er styrbart. Det er tillid, der er bygget op med beviser frem for blind tiltro.

Kildehenvisninger i AI svar er ikke en teknisk detalje. Det er det, der gør RAG egnet til seriøs forretningsmæssig brug.

Sådan fungerer en RAG pipeline, trin for trin

Når vi taler om en RAG pipeline eller RAG arkitektur, mener vi den tekniske proces, der binder det hele sammen. Fra de rå dokumenter i en mappe til et svar med kildehenvisning i brugergrænsefladen.

Det er ikke en sort boks. Det er en sekvens af konkrete trin, og jo bedre du forstår dem, jo bedre kan du vurdere, hvornår noget går galt, og hvad du skal justere. Lad os gå igennem det trin for trin.

Fra dokumentmappe til søgbare bidder

Første trin er at forberede jeres dokumenter til søgning. Det sker gennem en proces kaldet chunking af dokumenter, hvor hvert dokument skæres op i mindre, meningsfulde bidder. Typisk et par hundrede ord per bid, afhængig af dokumenttypen.

Herefter omdannes hver bid til en embedding, altså en matematisk repræsentation af tekstens betydning. Det er det, der gør det muligt at søge på mening frem for nøjagtige ord. Disse embeddings gemmes i en vektordatabase, som er optimeret til netop denne type søgning.

Trin et er fundamentet. Er dine dokumenter dårligt forberedt, rodet eller forældede, hjælper ingen mængde avanceret teknologi bagefter. Det er her, datahygiejnen tæller.

Når spørgsmålet bliver til en søgning

Når en bruger skriver et spørgsmål, sker der straks noget interessant. Systemet oversætter spørgsmålet til en embedding, præcis ligesom det skete med dokumenterne. Derefter sammenligner det spørgsmålets embedding med alle dokumentbiddernes embeddings i vektordatabasen.

Det finder de bidder, der er semantisk tættest på spørgsmålet. Det er det, der hedder semantisk søgning, og det er fundamentalt anderledes end en simpel tekstsøgning, der kun leder efter nøjagtige ord.

Eksempel: Spørger du "hvad er jeres afleveringsfrist?", kan systemet finde et dokument, der taler om "deadline for returnering", selvom ordene ikke er identiske. Det er semantisk søgning i praksis.

Når modellen svarer med citater og links

De mest relevante dokumentbidder pakkes nu ind i en prompt og sendes til sprogmodellen. Modellen kan se spørgsmålet og de fundne bidder, og den formulerer sit svar på baggrund af dem.

Resultatet er et svar, der ikke bare er flydende og velformuleret, men som aktivt er forankret i jeres egne dokumenter. Og hvis systemet er bygget rigtigt, inkluderer svaret en reference til præcis, hvilken kilde det stammer fra.

Det er RAG pipeline i sin kerne: hent, beriig, svar. Og det er præcis det, der gør GPT med dokumenter brugbart i en rigtig virksomhedskontekst.

Hvad der skal gemmes i logs

Et trin, mange glemmer i begejstringen over at få systemet til at virke: logning. Hvert spørgsmål, hvert svar og de dokumentbidder, der blev brugt, bør gemmes.

Det giver dig mulighed for at se, om systemet svarer rigtigt over tid. Det giver dig data til at forbedre systemet. Og det giver dig et sporingsspor, hvis nogen spørger "Hvad svarede systemet X til Y?". Logning er ikke bureaukrati. Det er ansvarlig implementering.

De 7 klassiske fejl, der giver dårlige svar

RAG virker ikke bare af sig selv. Mange virksomheder implementerer det med entusiasme og opdager efter et par uger, at svarene er upræcise, ufuldstændige eller ligefrem forkerte. Ikke fordi teknologien er dårlig, men fordi der er begået klassiske fejl i opsætningen.

Her er de fejl, jeg ser oftest, og hvad du skal gøre i stedet.
  • For store dokumentbidder, der forvirrer modellen med for meget på én gang
  • Forældet kildemateriale, der ikke er opdateret i systemet
  • Søgning på titler frem for indhold, der misser den reelle mening
  • Manglende testspørgsmål fra dem, der faktisk bruger systemet
  • Ingen versionstyring, så ingen ved, hvilken version af et dokument der er gyldig
  • For snævre embeddings, der ikke fanger fagspecifikt sprog
  • Manglende adgangsstyring, så alle kan se alt, uanset fortrolighed

For store bidder, for lidt kontekst

En af de mest almindelige tekniske fejl er at lave for store dokumentbidder. Det lyder kontraintuitivt. Mere kontekst burde vel give bedre svar? Men i praksis sker der det modsatte.

Når en bid er for stor, indeholder den for mange emner på én gang. Søgesystemet har svært ved at matche den præcist med et konkret spørgsmål, og modellen drukner i irrelevant information. Resultatet er svar, der er vage eller rammer forbi målet.

Tommelfingerreglen er kortere, mere fokuserede bidder med klare semantiske grænser. Ét emne, ét afsnit, én bid. Det kræver lidt mere arbejde i forberedelsen, men det giver markant bedre søgekvalitet.

Rod i versioner, hvem ejer sandheden

Hvis jeres dokumentmappe indeholder fem versioner af det samme dokument, og systemet kan hente fra alle fem, er I i problemer. RAG-systemet har ingen fornemmelse for, at "retningslinjer 2024" er forældet og "retningslinjer 2026" er den gældende.

Dette er et organisatorisk ansvar, ikke et teknisk et. Der skal være en tydelig ejer af hvert dokument, en klar navnekonvention og en proces for at arkivere eller fjerne forældet materiale fra søgedatabasen. Uden det er systemets svar kun så godt som jeres rod.

Søgning på titler i stedet for indhold

Nogen implementerer RAG på en måde, hvor systemet primært indekserer dokumenttitler og overskrifter frem for det faktiske indhold. Det giver tilsyneladende gode resultater i simple tests, men bryder sammen med mere nuancerede spørgsmål.

En medarbejder spørger ikke "Hvad er titlen på jeres returregelsdokument?". De spørger "Hvad sker der, hvis en kunde vil bytte en vare efter 30 dage?". Svaret kræver, at systemet har søgbar adgang til selve indholdet, ikke bare titlen.

Ingen testspørgsmål fra virkeligheden

Den fejl, der koster mest i det lange løb, er at bygge og lancere et RAG-system uden en struktureret kvalitetstest. Det er fristende at tage et par hurtige prøver og erklære det klar til brug. Men det er ikke nok.

En RAG kvalitetstest bør basere sig på rigtige spørgsmål fra rigtige brugere. Indsaml de 20 til 30 spørgsmål, som medarbejdere eller kunder oftest stiller. Kør dem igennem systemet. Sammenlign svarene med den kendte korrekte information. Log, hvad der fejler. Justér. Gentag.

Det er ikke en éngangsøvelse. Det er en løbende del af at eje et AI-system ansvarligt.

Sikkerhed og tillid, hvad kan du logge og styre

Sikkerhed er ikke et eftertanke i en RAG-implementering. Det er en forudsætning. Og det er netop et punkt, mange danske virksomhedsledere er bekymrede for, når de hører om AI med adgang til interne dokumenter.

Den bekymring er legitim. Og den gode nyhed er, at en velbygget RAG-arkitektur giver dig faktisk mere kontrol end de fleste andre AI-løsninger, ikke mindre. Her er de tre søjler, du skal have styr på.
Område Hvad det betyder Hvorfor det er vigtigt
Adgangsstyring Styr hvem der kan søge i hvilke dokumenter Forhindrer at personfølsomme data vises til forkerte brugere
Datamaskeringer Fjern eller anonymiser følsomme data før indeksering Beskytter CPR-numre, kontooplysninger og persondata
Audit spor Log hvem der spurgte hvad og hvornår Gør det muligt at forklare og efterprøve ethvert svar

Adgangsstyring, hvem må se hvad

I en virksomhed med både administrative, salgs og ledelsesmæssige dokumenter giver det sjældent mening, at alle medarbejdere kan søge i alt. En RAG-system bør bygges med rollebaseret adgang, så en supportmedarbejder kun ser relevante supportdokumenter, og ledelsen kan søge i de bredere strategiske materialer.

Det kræver en bevidst arkitekturbeslutning fra start. Det er langt nemmere at designe det rigtigt fra begyndelsen end at rulle det ud i efterfølgende.

Hvad du bør maskere før det ryger ind

Ingen dokumenter bør ryge direkte ind i en vektordatabase uden en gennemgang. Fakturaer kan indeholde kontooplysninger. Kontrakter kan indeholde personfølsomme oplysninger. Interne notater kan indeholde data, der ikke bør være søgbare.

En del af en sikker AI implementering er at have en step, der enten fjerner, maskerer eller afviser dokumenter med visse datatyper, inden de indekseres. Det er ikke kompliceret, men det kræver, at nogen bevidst tager stilling til det.

Audit spor, så du kan forklare svaret bagefter

I en reguleret branche eller bare over for en skeptisk direktør er det guld værd at kunne åbne en log og se præcist, hvilke dokumenter der lå til grund for et givet svar. Det er ikke bare et teknisk hjælpemiddel. Det er det, der bygger organisatorisk tillid til systemet over tid.

Et audit spor betyder, at systemet ikke er en sort boks. Det er gennemsigtigt, sporbart og ansvarliggjort. Og det er præcis det, der adskiller en professionel RAG-løsning fra en hurtig og overfladisk integration.

Hvornår RAG ikke er det rigtige valg

RAG er et kraftfuldt og fleksibelt redskab. Men det er ikke svaret på alt. Og en del af det at arbejde ansvarligt med AI er at vide, hvornår man skal vælge en anden tilgang, eller vente til forudsætningerne er bedre.

Her er tre scenarier, hvor RAG ikke er det rigtige valg, og hvad du i stedet bør overveje.

Hvis svaret er en beregning, ikke viden

RAG er fundamentalt et søge og gengivelsessystem. Det finder tekst og sammenfatter den. Det kan ikke lave matematiske beregninger, aggregere data på tværs af tusindvis af rækker eller lave dynamiske prognoser.

Hvis din use case handler om at beregne priser, lave finansielle sammendrag eller analysere strukturerede datasæt, har du brug for en anden løsning: integration mod et dataanalyselag, et dashboard-system eller direkte database-forespørgsler med AI-genereret SQL. RAG er til vidensdeling, ikke databehandling.

Hvis data ændrer sig hvert minut

Vektordatabaser opdateres ikke i realtid med simpel opsætning. Hvis du har brug for, at AI'en kan svare om lagerstatus, live priser eller realtidsbookinger, er RAG sandsynligvis for langsomt og for statisk.

Her vil en direkte API-integration til jeres systemer give bedre resultater. RAG egner sig bedst til data, der ændrer sig med dage, uger eller måneder imellem, ikke sekund for sekund.

Hvis du mangler ordnede kilder at starte med

Dette er måske den mest ærlige begrænsning: RAG er kun så god som de dokumenter, den søger i. Har du ingen struktureret intern viden, ingen opdaterede procedurer, ingen konsekvente dokumenter, så giver RAG dig et flot system til at søge i rod.

I det tilfælde er det vigtigste første skridt ikke at vælge en AI-løsning. Det er at rydde op i sine dokumenter. Én samlet, opdateret og navngiven vidensbase er fundamentet. RAG er overstrukturen. Byg ikke overstrukturen på et usikkert fundament.

Hvad du nu ved om RAG og AI med egne data

Du har fået et dybdegående indblik i, hvad RAG egentlig er, og hvorfor det gør en konkret forskel for danske virksomheder, der vil bruge AI på en ansvarlig og præcis måde.

Du ved nu, at ChatGPT hallucinationer ikke er et problem med AI generelt, men et problem med AI uden ordentlig kontekst. Du ved, at en RAG pipeline løser det ved at lade systemet søge i jeres egne dokumenter, inden det svarer. Du kender forskel på RAG og finetuning, og du ved, hvornår det ene er bedre end det andet.

Du har set, hvordan chunking af dokumenter, embeddings, vektordatabaser og semantisk søgning hænger sammen i én sammenhængende arkitektur. Og du kender de klassiske fejl, der saboterer ellers gode implementeringer, fra for store bidder til manglende versionstyring.

Vigtigst af alt: Du ved nu, hvornår RAG er det rigtige valg, og hvornår det ikke er. Det er den viden, der adskiller en velovervejet AI-strategi fra en hurtig og skuffende implementation.

RAG er ikke magi. Det er en struktureret metode til at give din AI ordentlig kontekst, så den holder op med at gætte og begynder at svare med udgangspunkt i det, du faktisk ved.

Ofte stillede spørgsmål

Hvad er RAG (Retrieval Augmented Generation)?
RAG er en metode, hvor AI først henter relevant viden fra din interne vidensbase og bagefter skriver svaret. Det betyder, at modellen ikke kun gætter ud fra sin træning, men får konkret kontekst fra jeres egne dokumenter, før den svarer.
Hvordan reducerer RAG ChatGPT hallucinationer i en virksomhed?
Hallucinationer opstår typisk, når modellen mangler fakta og derfor “fylder ud” med noget, der lyder rigtigt. Med RAG bliver svaret forankret i fundne dokumentbidder via semantisk søgning, og du kan ofte få kildehenvisninger, så det er let at tjekke, hvor info kommer fra.
Hvad er forskellen på RAG og finetuning?
Finetuning ændrer selve modellen, så den lærer dine data og din stil, men det er dyrere og kræver retræning når materialet ændrer sig. RAG ændrer ikke modellen: den slår bare op i en opdateret vidensbase i realtid, hvilket er langt mere fleksibelt til procedurer, regler og interne docs.
Hvordan virker semantisk søgning med embeddings og vektordatabase?
Tekst bliver lavet om til embeddings, som er tal der repræsenterer betydning. En vektordatabase kan så finde de tekstbidder, der ligger tættest på dit spørgsmål i “betydnings-rum”, så du kan finde relevant indhold selv når ordene ikke matcher 1:1.
Hvordan laver man en RAG kvalitetstest, så svarene holder i hverdagen?
Mit råd: start med 20 til 30 ægte spørgsmål fra support og medarbejdere, og kør dem igen og igen. Log både spørgsmålet, de dokumentbidder der blev hentet, og selve svaret, så du kan se om fejlen er søgningen, chunking, forældede kilder eller prompten.
Hvordan sikrer man adgangsstyring og persondata i en AI vidensbase med RAG?
Du skal styre, hvem der må søge i hvilke dokumenter (rollebaseret adgang), og du bør maskere eller fjerne følsomme oplysninger før indeksering. Kombinér det med audit logs, så du altid kan efterprøve hvem der spurgte, hvad der blev hentet, og hvorfor svaret blev som det blev.