Her får du overblik over indeksering, noindex, robots.txt, interne links, crawl fejl, svagt indhold og mobilproblemer, så du kan finde fejlen og rette det i den rigtige rækkefølge.

Tjek først om dine sider er indekseret
Det er en af de mest frustrerende oplevelser i webudvikling: du har brugt tid og kræfter på at bygge en flot hjemmeside, du har skrevet indhold, du har måske endda sat penge af til det. Og så dukker siden simpelthen ikke op, når nogen googler dit firmanavn eller et emne, du burde rangere på.Første trin er ikke at starte med at rode rundt i kode eller tjekke søgeord. Det første du skal gøre er at finde ud af, om Google overhovedet kender din side. For der er en kæmpe forskel på en side, der er indekseret men rangerer lavt, og en side der slet ikke er på Googles radar.
Det lyder banalt, men rigtig mange bruger unødige timer på at optimere indhold og justere titler, mens grundproblemet er noget helt andet. Inden du gør noget som helst andet, skal du altså bekræfte, om Google indeksering har fundet sted eller ej.
Sådan ser du om Google kender dine URLer
Den hurtigste og mest direkte måde er at åbne Google og skrive site:dinhjemmeside.dk i søgefeltet. Resultatlisten viser dig alle de undersider og URLer, som Google har i sit indeks fra dit domæne. Ser du kun tre resultater, når du har 40 sider, er det et problem.Men det rigtige sted at undersøge det grundigt er Google Search Console. Her finder du under fanebladet Indeksering en samlet oversigt over, hvilke sider der er indekseret, hvilke der er udelukket, og vigtigst af alt, hvorfor de er udelukket. Search Console er gratis, og du bør have det sat op, hvis du vil have styr på din hjemmesides synlighed på Google.
Search Console viser dig to ting, du skal lægge mærke til med det samme. Antallet af indekserede sider og antallet af sider der er udelukket fra indekset. Under udelukkede sider finder du årsagerne oplistet, og det er typisk her, at de egentlige problemer gemmer sig.
Forskellen på crawl og indeksering
Det er vigtigt at forstå, at crawl og indeksering ikke er det samme. En Google crawler (også kaldet Googlebot) er et automatisk program, der crawler din hjemmeside. Det vil sige, at den besøger og scanner din side for at læse indholdet. Men det at Google har crawlet din side betyder ikke, at den er blevet indekseret.Indeksering sker først, når Google har vurderet, at siden er værd at gemme og vise i søgeresultaterne. En side kan altså sagtens blive crawlet uden at blive indekseret. Det sker typisk, hvis Google vurderer, at indholdet er for tyndt, duplikeret, teknisk blokeret eller simpelthen ikke tilstrækkeligt relevant.
Tænk på det som en bibliotekar, der besøger din butik og bladrer alle dine bøger igennem. Det er crawl. Indeksering er, når bibliotekarens sætter dem på hylden og fortæller kunderne, at de kan låne dem. Googles indeks er den hylde. Din hjemmeside skal både besøges og godkendes for at ende der.
Når du forstår den forskel, begynder det at give meget mere mening, hvorfor en underside ikke på Google nødvendigvis ikke er et simpelt problem, men måske har flere lag under sig.
De typiske grunde til at Google ikke viser din side
Nu hvor du ved, om dine sider er indekseret eller ej, er det tid til at kigge nærmere på, hvorfor indekseringen måske er gået galt. Og her er det gode nyheder, fordi de mest almindelige årsager faktisk er ret nemme at rette, når du ved, hvad du leder efter.De fleste hjemmesider, der ikke dukker op på Google, kæmper med en eller flere af tre klassiske problemer: tekniske blokeringer i koden eller konfigurationen, indhold der ikke har tilstrækkelig substans, eller en intern linkstruktur der gør det svært for Googlebot at finde frem til alle sider.
Lad os tage dem i tur og orden, for det er præcis den rækkefølge, du bør gennemgå dem i.
Noindex, robots.txt og blokerede filer
Dette er den mest absurde og samtidig mest almindelige årsag til at en hjemmeside indekseres ikke. Siden er nemlig aktivt fortalt Google, at den ikke må indeksere den. Det sker via to mekanismer.Den første er noindex-tagget. Det er en lille linje kode i sidens HTML, der fortæller Googlebot: stop her, indekser ikke denne side. Det bruges med god grund på fx interne søgeresultatsider, tak-sider efter en formular, eller login-sider. Men alt for tit havner det på sider, der absolut burde indekseres, fordi nogen har sat det forkert op under udviklingsprocessen eller i et plugin.
Den anden mekanisme er robots.txt. Det er en tekstfil, der ligger i roden af dit domæne (typisk dinhjemmeside.dk/robots.txt), og den fortæller crawlere, hvilke dele af siden de ikke må besøge. Fejl i robots.txt kan effektivt blokere hele sektioner af din side, eller i værste fald blokere alt indhold på hele domænet.
En typisk fejl opstår, når et website er bygget på en testserver, hvor alt er blokeret, og den blokering aldrig er fjernet, da siden gik live. Det er et klassisk og utrolig irriterende fejltrin, som jeg ser jævnligt.
Så start altid med at åbne dinhjemmeside.dk/robots.txt og kig efter linjer, der starter med Disallow: /, da det kan betyde, at hele siden er blokeret for crawlere. Bagefter tjekker du kildekoden på dine vigtige sider for at se, om noindex-tagget er til stede et sted, det ikke burde være.
Tyndt indhold og dubletter på tværs af sider
Googles algoritme er designet til at finde frem til det bedste og mest relevante indhold. Det betyder, at sider med meget lidt tekst, mange gentagelser eller indhold der er kopieret fra andre steder, aktivt undgår at blive indekseret. Google kalder det tyndt indhold, og det er et af de hyppigste problemer for virksomhedshjemmesider.Et klassisk eksempel er en webshop med 50 produktsider, der alle har den samme standardbeskrivelse fra leverandøren. Google opfatter det som dubleret indhold, og i stedet for at vise alle 50 sider, vælger den måske bare én eller to ud og ignorerer resten.
Dubletter opstår også på tværs af domænet, når den samme side kan tilgås via flere URLer. Fx både med og uden www, med og uden skråstreg til sidst, via http og https, eller via filterparametre i en webshop. Hvis Google ser det som to forskellige sider med identisk indhold, begynder den at tvivle på, hvilken side der er den rigtige at indeksere.
Løsningen er kanoniske tags (canonical tags), der fortæller Google, hvilken URL der er den foretrukne version. Det er et relativt enkelt teknisk tiltag, men det kræver, at du ved, at problemet eksisterer.
Manglende interne links og svag struktur
For at Google kan finde alle dine sider, skal de faktisk være tilgængelige fra andre sider på dit domæne. Det er præcis det, som intern linkstruktur handler om. Googlebot følger links fra side til side, ligesom en bruger ville gøre det. Hvis en side ikke er linket fra nogen andre sider på din hjemmeside, er der stor risiko for, at Googlebot aldrig finder den.Det er det, der kaldes en orphan page. En forældreløs side, der svæver rundt uden forbindelser. Du kan have skrevet det bedste stykke indhold på din hjemmeside, men hvis ingen andre sider linker til det, er det reelt usynligt for Google.
Svag struktur handler også om dybde. En side der er tre, fire eller fem klik fra forsiden er sværere for Google at prioritere end en side, der er direkte tilgængelig fra forsiden eller menuen. Jo vigtigere en side er for din forretning, jo tættere på toppen af din linkstruktur bør den være.
Et sitemap.xml hjælper her. Det er en fil der lister alle dine vigtige URLer og fortæller Google, hvad der er på din side. Du kan uploade dit sitemap direkte i Search Console, så Google altid ved, hvilke sider der skal crawles. Men husk, et sitemap er ikke en garanti for indeksering. Det er blot en invitation.
Tekniske fejl der spænder ben for din hjemmeside
Selvom indhold og struktur er vigtige, er der tekniske fejl, som kan spænde ben for selv den bedst opbyggede hjemmeside. Disse fejl handler ikke om, hvad du skriver, men om, hvordan din server og kode opfører sig over for Googlebot og dine besøgende.Teknisk SEO er det lag, de fleste virksomheder aldrig når at kigge på, og det er samtidig det lag, der oftest er årsag til, at Google viser ikke min side bliver et vedvarende problem. Lad mig gennemgå de to mest kritiske tekniske problemstillinger.
Forkerte redirects og døde sider
En redirect er en omdirigering. Når du ændrer en URL, omdøber en side eller sletter gammel indhold, bør den gamle URL omdirigere korrekt til den nye. Det gøres typisk med en 301-redirect, som fortæller Google, at siden er permanent flyttet.Men forkerte redirects er et udbredt problem. Det kan være:
- Redirect-kæder, hvor side A sender til side B, som sender til side C. Google mister signalstyrke og kan stoppe med at følge kæden
- Redirect-løkker, hvor A sender til B, og B sender tilbage til A. Ingen kommer frem, hverken bruger eller crawler
- Sider der returnerer 404 eller 410 fejlkoder, altså sider der ikke eksisterer og ikke har en redirect
I Search Console kan du se alle 404-fejl og andre crawl-fejl under fanebladet Sider. Gå igennem listen og sørg for, at alle tidligere URLer enten er aktive eller har en korrekt redirect.
Langsom server og fejl på mobil
Google bruger primært den mobile version af din hjemmeside, når den crawler og indekserer indholdet. Det kaldes mobile-first indeksering. Hvis din side ikke er mobilvenlig, har langsom indlæsningstid eller er svær at bruge på en telefon, er det direkte i modvind mod Googles krav.En langsom server skader ikke bare brugeroplevelsen. Det påvirker, hvordan Google vurderer din side. Googles algoritme tager siden hastighed med i beregningen, og en side der loader langsomt, risikerer lavere rangering uanset kvaliteten af indholdet.
Server fejl SEO handler også om fejlkoder som 500 og 503, der opstår, når din server er overbelastet eller nede. Hvis Googlebot besøger din side og møder disse fejl gentagne gange, kan det i yderste konsekvens resultere i, at allerede indekserede sider fjernes fra Googles indeks.
| Fejltype | Hvad det betyder | Effekt på indeksering |
|---|---|---|
| 404 | Siden eksisterer ikke | Siden indekseres ikke, crawl-budget spildes |
| 301 | Permanent redirect | Google følger og opdaterer indeks korrekt |
| 500 | Serverfejl | Siden kan fjernes fra indeks ved gentagne fejl |
| Noindex | Siden er aktivt blokeret | Siden indekseres ikke overhovedet |
Ret problemerne i den rigtige rækkefølge
Du er nu klar over, hvilke problemer der kan eksistere. Men inden du kaster dig ud i at rette alting på én gang, er der en klar og logisk rækkefølge at følge. Det er her, mange går galt i byen. De retter det, der er nemmest at rette, frem for det, der giver mest effekt.Hvis du begynder at optimere indhold på sider, der slet ikke er indekseret på grund af et noindex-tag, spilder du tid. Prioritering er nøglen. Og den rigtige prioritering starter altid med forretningsværdi.
Start med sider der skal skabe trafik
De sider, der direkte understøtter din forretning, er dem du retter først. Det er typisk din forside, dine vigtigste serviceydelsessider, dine centrale produktsider og eventuelle landingssider knyttet til annoncer eller kampagner.Spørg dig selv: hvilke tre til fem sider ville skade din forretning mest, hvis de ikke var synlige på Google? Start der. Tjek om de er indekseret. Tjek om der er noindex-tags. Tjek om de er linket fra andre sider på dit domæne. Tjek om indholdet er tilstrækkeligt og originalt.
De resterende sider tager du bagefter i prioriteret rækkefølge baseret på, hvad der er mest værdifuldt for dine besøgende og for din forretning.
Send vigtige URLer til ny indeksering
Når du har rettet fejlene på en side, er det ikke nok bare at vente på, at Google finder frem til den. Du kan aktivt bede Google om at indeksere den igen via Search Console. Det gør du i URL-inspektionsværktøjet, hvor du indsætter den specifikke URL og klikker på Bed om indeksering.Det er ikke en garanti for, at siden indekseres med det samme. Google prioriterer selv, hvornår og om en side skal indekseres. Men du fortæller i det mindste Google, at der er sket ændringer, og at du gerne vil have siden vurderet igen. I praksis sker der typisk noget inden for få dage til et par uger.
Samtidig bør du sørge for, at dit sitemap.xml er opdateret og indsendt i Search Console. Det giver Google et samlet overblik over alle de URLer, du vil have indekseret, og hjælper med at sætte gang i crawlingen hurtigere.
Hold øje i Search Console bagefter
Search Console er ikke et engangsredskab. Det er en løbende informationskilde, og du bør tjekke det regelmæssigt, ikke kun når du opdager, at en underside ikke er på Google.Efter du har rettet dine fejl og anmodet om ny indeksering, brug Search Console til at følge, om siderne rent faktisk dukker op i indekset. Du kan også overvåge, om der opstår nye fejl, om sider pludselig falder ud af indekset, og om der er crawl-budget-problemer over tid.
Søg specifikt efter disse tre datapunkter over de kommende uger efter en rettelse:
- Stiger antallet af indekserede sider til det niveau, du forventer?
- Falder antallet af sider under udelukkede af årsager som noindex eller crawl-fejl?
- Begynder de rettede sider at dukke op i visningsdata for klik og eksponeringer?
Når problemet ikke handler om teknik
Du har nu gennemgået alle de tekniske lag. Siderne er indekseret. Der er ingen noindex-tags. robots.txt blokerer ikke noget. Redirects er korrekte. Serveren kører stabilt, og siden er mobilvenlig. Og alligevel: siden rangerer ikke. Google viser ikke din side for de søgeord, du sigter efter.Så er vi nået til det lag, der heller ikke er teknisk, men handler om, hvad din side faktisk tilbyder af svar, og om de svar passer til det, folk søger efter.
Dette er en af de mest overset årsager til, at hjemmesider ikke performer på Google, og det handler om forholdet mellem dit indhold og brugerens hensigt.
Siden svarer ikke godt nok på sogningen
Google er i bund og grund en maskine, der prøver at matche det bedste svar med det bedste spørgsmål. Når nogen søger på Google, har de en forventning om, hvad de vil finde. Hvis din side ikke opfylder den forventning godt nok, rangerer den ikke, uanset hvor teknisk korrekt den ellers er.Det handler om dybde og relevans. En side med tre afsnit og 200 ord kan ikke konkurrere med en side der grundigt, præcist og brugbart svarer på præcis det spørgsmål, brugeren sidder med. Og omvendt er det ikke bare et spørgsmål om at skrive mange ord. Google kan sagtens rangere en kort men præcis side over en lang og rodet én.
Spørg dig selv, om din side virkelig svarer på det, din målgruppe søger efter. Læs dine egne tekster med friske øjne og stil spørgsmålet: hvis jeg søgte på dette, ville jeg så føle, at jeg fik et ordentligt svar her? Svaret er mere ærligt end du tror.
Sogeordet passer ikke til brugerens spørgsmål
Dette er et klassisk problem: du har valgt et søgeord, du synes giver mening, men det ord matcher ikke den måde, dine potentielle kunder faktisk søger på. Og det gælder i begge retninger. Du kan have valgt et søgeord, der er alt for bredt og domineret af store nationale aktører. Eller et søgeord, der er alt for specifikt og ikke søges på overhovedet.Den tekniske betegnelse er søgehensigt, og det er kritisk at forstå. Søger folk på dit søgeord for at købe noget, for at lære noget, for at sammenligne, eller for at finde en specifik side? Googles algoritme er meget dygtig til at afkode søgehensigten bag en søgning og fremhæve indhold, der matcher den hensigt.
Hvis du har en side, der prøver at sælge noget, men søgeordet typisk bruges af folk der er i researched-fasen, vil Google rangere videnssider og sammenligningsartikler højere end din salgside. Det er ikke en fejl i systemet, det er systemet, der virker præcis som det skal.
Løsningen er at arbejde med dine søgeord baseret på, hvad folk faktisk søger, og tilpasse dit indhold til at matche den hensigt. Det er en kombination af søgeordsanalyse og ærlig vurdering af, hvad din side tilbyder og for hvem.
Det handler ikke om at have en flot hjemmeside
Det er en stor misforståelse, at en flot og veldesignet hjemmeside automatisk rangerer godt på Google. Den tekniske virkelighed er mere nuanceret end som så. En hjemmeside kan se fantastisk ud og stadig være totalt usynlig i søgeresultaterne, fordi den grundlæggende er blokeret, forglemt eller misforstået af Google.Denne artikel har vist dig de vigtigste lag at undersøge: start med at bekræfte, om dine sider overhovedet er indekseret via Search Console. Tjek om du utilsigtet blokerer Google via noindex eller robots.txt. Vurder om dit indhold er tyndt eller duplikeret. Gennemgå din interne linkstruktur og sørg for, at ingen sider er forældreløse. Ret crawl-fejl og sørg for korrekte redirects. Tjek serverhastighed og mobilvenlighed. Og til sidst, vurder om dit indhold faktisk svarer på det, brugerne søger efter.
Det er ikke en engangstjekliste. Teknisk SEO og indeksering af hjemmeside er et løbende arbejde, og Google ændrer løbende sine algoritmer og krav. Virksomheder, der holder øje med Search Console og justerer løbende, er dem, der over tid bygger en synlighed, der rent faktisk driver trafik og kunder.
Hvis du sidder med en hjemmeside, der burde ranke bedre, og du ikke kan finde hoved eller hale i, hvad problemet er, er du altid velkommen til at tage fat i mig. Jeg er ikke et bureau. Jeg er én person, der går ind i dit konkrete problem og hjælper dig med at forstå, hvad der sker og hvad der skal til for at rette det.
Ofte stillede spørgsmål
Hvordan tjekker jeg om min hjemmeside er indekseret på Google?▼
Hvorfor bliver min hjemmeside ikke fundet på Google selv om den er live?▼
Kan robots.txt og noindex blokere Google indeksering?▼
Hvor lang tid tager Google indeksering af en ny hjemmeside?▼
Hvorfor ranker min side ikke selv om den er indekseret?▼
Relaterede artikler

Core Web Vitals: hvorfor din hjemmeside falder i Google
Din hjemmeside kan miste både placeringer, leads og salg, uden at du opdager hvorfor. Core Web Vitals afslører, om din side er langsom, ustabil eller reagerer for sent, især på mobil.<br><br>I artiklen får du styr på LCP, INP og CLS, hvorfor mange sider scorer dårligt i Google PageSpeed Insights, og hvad der typisk skal rettes først for at få bedre hastighed, stærkere teknisk SEO og en bedre brugeroplevelse.

WordPress eller specialudviklet hjemmeside i 2026?
WordPress eller specialudviklet hjemmeside? Valget påvirker pris, SEO, redigering, hastighed og hvor let siden kan vokse med din forretning.<br><br>Her får du et klart overblik over, hvornår WordPress er nok, hvornår specialudvikling giver mere ro, og hvorfor en hybridløsning ofte er den kloge mellemvej ved integrationer og særlige behov.

Hvad koster en hjemmeside i 2026?
Hjemmeside pris spænder voldsomt, og to tilbud kan være milevidt fra hinanden, selv om forsiden ligner den samme. Det gør det svært at vurdere, om du står med et godt køb eller en dyr genvej.<br><br>Her får du et klart overblik over, hvad en hjemmeside koster i 2026, hvad der driver prisen op, og hvordan valg af CMS, funktioner, hosting og vedligehold flytter budgettet.
