Hvorfor bliver min hjemmeside ikke fundet på Google?

Christoffer OhlsenChristoffer Ohlsen·
Din hjemmeside kan sagtens være live og stadig være usynlig på Google. Det sker oftere end de fleste tror, og årsagen er tit helt lavpraktisk.

Her får du overblik over indeksering, noindex, robots.txt, interne links, crawl fejl, svagt indhold og mobilproblemer, så du kan finde fejlen og rette det i den rigtige rækkefølge.
Virksomhedsejer tjekker hvorfor hjemmesiden ikke bliver fundet på Google

Tjek først om dine sider er indekseret

Det er en af de mest frustrerende oplevelser i webudvikling: du har brugt tid og kræfter på at bygge en flot hjemmeside, du har skrevet indhold, du har måske endda sat penge af til det. Og så dukker siden simpelthen ikke op, når nogen googler dit firmanavn eller et emne, du burde rangere på.

Første trin er ikke at starte med at rode rundt i kode eller tjekke søgeord. Det første du skal gøre er at finde ud af, om Google overhovedet kender din side. For der er en kæmpe forskel på en side, der er indekseret men rangerer lavt, og en side der slet ikke er på Googles radar.

Det lyder banalt, men rigtig mange bruger unødige timer på at optimere indhold og justere titler, mens grundproblemet er noget helt andet. Inden du gør noget som helst andet, skal du altså bekræfte, om Google indeksering har fundet sted eller ej.

Sådan ser du om Google kender dine URLer

Den hurtigste og mest direkte måde er at åbne Google og skrive site:dinhjemmeside.dk i søgefeltet. Resultatlisten viser dig alle de undersider og URLer, som Google har i sit indeks fra dit domæne. Ser du kun tre resultater, når du har 40 sider, er det et problem.

Men det rigtige sted at undersøge det grundigt er Google Search Console. Her finder du under fanebladet Indeksering en samlet oversigt over, hvilke sider der er indekseret, hvilke der er udelukket, og vigtigst af alt, hvorfor de er udelukket. Search Console er gratis, og du bør have det sat op, hvis du vil have styr på din hjemmesides synlighed på Google.

Search Console viser dig to ting, du skal lægge mærke til med det samme. Antallet af indekserede sider og antallet af sider der er udelukket fra indekset. Under udelukkede sider finder du årsagerne oplistet, og det er typisk her, at de egentlige problemer gemmer sig.

Forskellen på crawl og indeksering

Det er vigtigt at forstå, at crawl og indeksering ikke er det samme. En Google crawler (også kaldet Googlebot) er et automatisk program, der crawler din hjemmeside. Det vil sige, at den besøger og scanner din side for at læse indholdet. Men det at Google har crawlet din side betyder ikke, at den er blevet indekseret.

Indeksering sker først, når Google har vurderet, at siden er værd at gemme og vise i søgeresultaterne. En side kan altså sagtens blive crawlet uden at blive indekseret. Det sker typisk, hvis Google vurderer, at indholdet er for tyndt, duplikeret, teknisk blokeret eller simpelthen ikke tilstrækkeligt relevant.

Tænk på det som en bibliotekar, der besøger din butik og bladrer alle dine bøger igennem. Det er crawl. Indeksering er, når bibliotekarens sætter dem på hylden og fortæller kunderne, at de kan låne dem. Googles indeks er den hylde. Din hjemmeside skal både besøges og godkendes for at ende der.

Når du forstår den forskel, begynder det at give meget mere mening, hvorfor en underside ikke på Google nødvendigvis ikke er et simpelt problem, men måske har flere lag under sig.

De typiske grunde til at Google ikke viser din side

Nu hvor du ved, om dine sider er indekseret eller ej, er det tid til at kigge nærmere på, hvorfor indekseringen måske er gået galt. Og her er det gode nyheder, fordi de mest almindelige årsager faktisk er ret nemme at rette, når du ved, hvad du leder efter.

De fleste hjemmesider, der ikke dukker op på Google, kæmper med en eller flere af tre klassiske problemer: tekniske blokeringer i koden eller konfigurationen, indhold der ikke har tilstrækkelig substans, eller en intern linkstruktur der gør det svært for Googlebot at finde frem til alle sider.

Lad os tage dem i tur og orden, for det er præcis den rækkefølge, du bør gennemgå dem i.

Noindex, robots.txt og blokerede filer

Dette er den mest absurde og samtidig mest almindelige årsag til at en hjemmeside indekseres ikke. Siden er nemlig aktivt fortalt Google, at den ikke må indeksere den. Det sker via to mekanismer.

Den første er noindex-tagget. Det er en lille linje kode i sidens HTML, der fortæller Googlebot: stop her, indekser ikke denne side. Det bruges med god grund på fx interne søgeresultatsider, tak-sider efter en formular, eller login-sider. Men alt for tit havner det på sider, der absolut burde indekseres, fordi nogen har sat det forkert op under udviklingsprocessen eller i et plugin.

Den anden mekanisme er robots.txt. Det er en tekstfil, der ligger i roden af dit domæne (typisk dinhjemmeside.dk/robots.txt), og den fortæller crawlere, hvilke dele af siden de ikke må besøge. Fejl i robots.txt kan effektivt blokere hele sektioner af din side, eller i værste fald blokere alt indhold på hele domænet.

En typisk fejl opstår, når et website er bygget på en testserver, hvor alt er blokeret, og den blokering aldrig er fjernet, da siden gik live. Det er et klassisk og utrolig irriterende fejltrin, som jeg ser jævnligt.

Så start altid med at åbne dinhjemmeside.dk/robots.txt og kig efter linjer, der starter med Disallow: /, da det kan betyde, at hele siden er blokeret for crawlere. Bagefter tjekker du kildekoden på dine vigtige sider for at se, om noindex-tagget er til stede et sted, det ikke burde være.

Tyndt indhold og dubletter på tværs af sider

Googles algoritme er designet til at finde frem til det bedste og mest relevante indhold. Det betyder, at sider med meget lidt tekst, mange gentagelser eller indhold der er kopieret fra andre steder, aktivt undgår at blive indekseret. Google kalder det tyndt indhold, og det er et af de hyppigste problemer for virksomhedshjemmesider.

Et klassisk eksempel er en webshop med 50 produktsider, der alle har den samme standardbeskrivelse fra leverandøren. Google opfatter det som dubleret indhold, og i stedet for at vise alle 50 sider, vælger den måske bare én eller to ud og ignorerer resten.

Dubletter opstår også på tværs af domænet, når den samme side kan tilgås via flere URLer. Fx både med og uden www, med og uden skråstreg til sidst, via http og https, eller via filterparametre i en webshop. Hvis Google ser det som to forskellige sider med identisk indhold, begynder den at tvivle på, hvilken side der er den rigtige at indeksere.

Løsningen er kanoniske tags (canonical tags), der fortæller Google, hvilken URL der er den foretrukne version. Det er et relativt enkelt teknisk tiltag, men det kræver, at du ved, at problemet eksisterer.

Manglende interne links og svag struktur

For at Google kan finde alle dine sider, skal de faktisk være tilgængelige fra andre sider på dit domæne. Det er præcis det, som intern linkstruktur handler om. Googlebot følger links fra side til side, ligesom en bruger ville gøre det. Hvis en side ikke er linket fra nogen andre sider på din hjemmeside, er der stor risiko for, at Googlebot aldrig finder den.

Det er det, der kaldes en orphan page. En forældreløs side, der svæver rundt uden forbindelser. Du kan have skrevet det bedste stykke indhold på din hjemmeside, men hvis ingen andre sider linker til det, er det reelt usynligt for Google.

Svag struktur handler også om dybde. En side der er tre, fire eller fem klik fra forsiden er sværere for Google at prioritere end en side, der er direkte tilgængelig fra forsiden eller menuen. Jo vigtigere en side er for din forretning, jo tættere på toppen af din linkstruktur bør den være.

Et sitemap.xml hjælper her. Det er en fil der lister alle dine vigtige URLer og fortæller Google, hvad der er på din side. Du kan uploade dit sitemap direkte i Search Console, så Google altid ved, hvilke sider der skal crawles. Men husk, et sitemap er ikke en garanti for indeksering. Det er blot en invitation.

Tekniske fejl der spænder ben for din hjemmeside

Selvom indhold og struktur er vigtige, er der tekniske fejl, som kan spænde ben for selv den bedst opbyggede hjemmeside. Disse fejl handler ikke om, hvad du skriver, men om, hvordan din server og kode opfører sig over for Googlebot og dine besøgende.

Teknisk SEO er det lag, de fleste virksomheder aldrig når at kigge på, og det er samtidig det lag, der oftest er årsag til, at Google viser ikke min side bliver et vedvarende problem. Lad mig gennemgå de to mest kritiske tekniske problemstillinger.

Forkerte redirects og døde sider

En redirect er en omdirigering. Når du ændrer en URL, omdøber en side eller sletter gammel indhold, bør den gamle URL omdirigere korrekt til den nye. Det gøres typisk med en 301-redirect, som fortæller Google, at siden er permanent flyttet.

Men forkerte redirects er et udbredt problem. Det kan være:
  • Redirect-kæder, hvor side A sender til side B, som sender til side C. Google mister signalstyrke og kan stoppe med at følge kæden
  • Redirect-løkker, hvor A sender til B, og B sender tilbage til A. Ingen kommer frem, hverken bruger eller crawler
  • Sider der returnerer 404 eller 410 fejlkoder, altså sider der ikke eksisterer og ikke har en redirect
Døde sider med crawl fejl er direkte skadelige for din hjemmeside. Ikke alene kan Googlebot ikke indeksere dem, de bruger også crawl-budget. Det vil sige, at Google bruger ressourcer på at besøge sider, der ikke fører nogen steder hen, i stedet for at bruge ressourcerne på dine vigtige sider.

I Search Console kan du se alle 404-fejl og andre crawl-fejl under fanebladet Sider. Gå igennem listen og sørg for, at alle tidligere URLer enten er aktive eller har en korrekt redirect.

Langsom server og fejl på mobil

Google bruger primært den mobile version af din hjemmeside, når den crawler og indekserer indholdet. Det kaldes mobile-first indeksering. Hvis din side ikke er mobilvenlig, har langsom indlæsningstid eller er svær at bruge på en telefon, er det direkte i modvind mod Googles krav.

En langsom server skader ikke bare brugeroplevelsen. Det påvirker, hvordan Google vurderer din side. Googles algoritme tager siden hastighed med i beregningen, og en side der loader langsomt, risikerer lavere rangering uanset kvaliteten af indholdet.

Server fejl SEO handler også om fejlkoder som 500 og 503, der opstår, når din server er overbelastet eller nede. Hvis Googlebot besøger din side og møder disse fejl gentagne gange, kan det i yderste konsekvens resultere i, at allerede indekserede sider fjernes fra Googles indeks.

Fejltype Hvad det betyder Effekt på indeksering
404 Siden eksisterer ikke Siden indekseres ikke, crawl-budget spildes
301 Permanent redirect Google følger og opdaterer indeks korrekt
500 Serverfejl Siden kan fjernes fra indeks ved gentagne fejl
Noindex Siden er aktivt blokeret Siden indekseres ikke overhovedet

Ret problemerne i den rigtige rækkefølge

Du er nu klar over, hvilke problemer der kan eksistere. Men inden du kaster dig ud i at rette alting på én gang, er der en klar og logisk rækkefølge at følge. Det er her, mange går galt i byen. De retter det, der er nemmest at rette, frem for det, der giver mest effekt.

Hvis du begynder at optimere indhold på sider, der slet ikke er indekseret på grund af et noindex-tag, spilder du tid. Prioritering er nøglen. Og den rigtige prioritering starter altid med forretningsværdi.

Start med sider der skal skabe trafik

De sider, der direkte understøtter din forretning, er dem du retter først. Det er typisk din forside, dine vigtigste serviceydelsessider, dine centrale produktsider og eventuelle landingssider knyttet til annoncer eller kampagner.

Spørg dig selv: hvilke tre til fem sider ville skade din forretning mest, hvis de ikke var synlige på Google? Start der. Tjek om de er indekseret. Tjek om der er noindex-tags. Tjek om de er linket fra andre sider på dit domæne. Tjek om indholdet er tilstrækkeligt og originalt.

De resterende sider tager du bagefter i prioriteret rækkefølge baseret på, hvad der er mest værdifuldt for dine besøgende og for din forretning.

Send vigtige URLer til ny indeksering

Når du har rettet fejlene på en side, er det ikke nok bare at vente på, at Google finder frem til den. Du kan aktivt bede Google om at indeksere den igen via Search Console. Det gør du i URL-inspektionsværktøjet, hvor du indsætter den specifikke URL og klikker på Bed om indeksering.

Det er ikke en garanti for, at siden indekseres med det samme. Google prioriterer selv, hvornår og om en side skal indekseres. Men du fortæller i det mindste Google, at der er sket ændringer, og at du gerne vil have siden vurderet igen. I praksis sker der typisk noget inden for få dage til et par uger.

Samtidig bør du sørge for, at dit sitemap.xml er opdateret og indsendt i Search Console. Det giver Google et samlet overblik over alle de URLer, du vil have indekseret, og hjælper med at sætte gang i crawlingen hurtigere.

Hold øje i Search Console bagefter

Search Console er ikke et engangsredskab. Det er en løbende informationskilde, og du bør tjekke det regelmæssigt, ikke kun når du opdager, at en underside ikke er på Google.

Efter du har rettet dine fejl og anmodet om ny indeksering, brug Search Console til at følge, om siderne rent faktisk dukker op i indekset. Du kan også overvåge, om der opstår nye fejl, om sider pludselig falder ud af indekset, og om der er crawl-budget-problemer over tid.

Søg specifikt efter disse tre datapunkter over de kommende uger efter en rettelse:
  • Stiger antallet af indekserede sider til det niveau, du forventer?
  • Falder antallet af sider under udelukkede af årsager som noindex eller crawl-fejl?
  • Begynder de rettede sider at dukke op i visningsdata for klik og eksponeringer?
De tre datapunkter fortæller dig, om dine rettelser har virket, eller om der stadig er noget, der holder siderne tilbage.

Når problemet ikke handler om teknik

Du har nu gennemgået alle de tekniske lag. Siderne er indekseret. Der er ingen noindex-tags. robots.txt blokerer ikke noget. Redirects er korrekte. Serveren kører stabilt, og siden er mobilvenlig. Og alligevel: siden rangerer ikke. Google viser ikke din side for de søgeord, du sigter efter.

Så er vi nået til det lag, der heller ikke er teknisk, men handler om, hvad din side faktisk tilbyder af svar, og om de svar passer til det, folk søger efter.

Dette er en af de mest overset årsager til, at hjemmesider ikke performer på Google, og det handler om forholdet mellem dit indhold og brugerens hensigt.

Siden svarer ikke godt nok på sogningen

Google er i bund og grund en maskine, der prøver at matche det bedste svar med det bedste spørgsmål. Når nogen søger på Google, har de en forventning om, hvad de vil finde. Hvis din side ikke opfylder den forventning godt nok, rangerer den ikke, uanset hvor teknisk korrekt den ellers er.

Det handler om dybde og relevans. En side med tre afsnit og 200 ord kan ikke konkurrere med en side der grundigt, præcist og brugbart svarer på præcis det spørgsmål, brugeren sidder med. Og omvendt er det ikke bare et spørgsmål om at skrive mange ord. Google kan sagtens rangere en kort men præcis side over en lang og rodet én.

Spørg dig selv, om din side virkelig svarer på det, din målgruppe søger efter. Læs dine egne tekster med friske øjne og stil spørgsmålet: hvis jeg søgte på dette, ville jeg så føle, at jeg fik et ordentligt svar her? Svaret er mere ærligt end du tror.

Sogeordet passer ikke til brugerens spørgsmål

Dette er et klassisk problem: du har valgt et søgeord, du synes giver mening, men det ord matcher ikke den måde, dine potentielle kunder faktisk søger på. Og det gælder i begge retninger. Du kan have valgt et søgeord, der er alt for bredt og domineret af store nationale aktører. Eller et søgeord, der er alt for specifikt og ikke søges på overhovedet.

Den tekniske betegnelse er søgehensigt, og det er kritisk at forstå. Søger folk på dit søgeord for at købe noget, for at lære noget, for at sammenligne, eller for at finde en specifik side? Googles algoritme er meget dygtig til at afkode søgehensigten bag en søgning og fremhæve indhold, der matcher den hensigt.

Hvis du har en side, der prøver at sælge noget, men søgeordet typisk bruges af folk der er i researched-fasen, vil Google rangere videnssider og sammenligningsartikler højere end din salgside. Det er ikke en fejl i systemet, det er systemet, der virker præcis som det skal.

Løsningen er at arbejde med dine søgeord baseret på, hvad folk faktisk søger, og tilpasse dit indhold til at matche den hensigt. Det er en kombination af søgeordsanalyse og ærlig vurdering af, hvad din side tilbyder og for hvem.

Det handler ikke om at have en flot hjemmeside

Det er en stor misforståelse, at en flot og veldesignet hjemmeside automatisk rangerer godt på Google. Den tekniske virkelighed er mere nuanceret end som så. En hjemmeside kan se fantastisk ud og stadig være totalt usynlig i søgeresultaterne, fordi den grundlæggende er blokeret, forglemt eller misforstået af Google.

Denne artikel har vist dig de vigtigste lag at undersøge: start med at bekræfte, om dine sider overhovedet er indekseret via Search Console. Tjek om du utilsigtet blokerer Google via noindex eller robots.txt. Vurder om dit indhold er tyndt eller duplikeret. Gennemgå din interne linkstruktur og sørg for, at ingen sider er forældreløse. Ret crawl-fejl og sørg for korrekte redirects. Tjek serverhastighed og mobilvenlighed. Og til sidst, vurder om dit indhold faktisk svarer på det, brugerne søger efter.

Det er ikke en engangstjekliste. Teknisk SEO og indeksering af hjemmeside er et løbende arbejde, og Google ændrer løbende sine algoritmer og krav. Virksomheder, der holder øje med Search Console og justerer løbende, er dem, der over tid bygger en synlighed, der rent faktisk driver trafik og kunder.

Hvis du sidder med en hjemmeside, der burde ranke bedre, og du ikke kan finde hoved eller hale i, hvad problemet er, er du altid velkommen til at tage fat i mig. Jeg er ikke et bureau. Jeg er én person, der går ind i dit konkrete problem og hjælper dig med at forstå, hvad der sker og hvad der skal til for at rette det.

Ofte stillede spørgsmål

Hvordan tjekker jeg om min hjemmeside er indekseret på Google?
Den hurtigste test er at søge på site:ditdomaene.dk i Google. Så ser du, hvilke sider Google allerede kender. Det mest præcise værktøj er dog Search Console, hvor du kan se både indekserede og udelukkede sider samt den konkrete årsag til, at en side ikke er indekseret på Google.
Hvorfor bliver min hjemmeside ikke fundet på Google selv om den er live?
At en hjemmeside er live betyder ikke, at den automatisk kommer i Googles indeks. Typiske årsager er noindex, fejl i robots.txt, manglende interne links, tyndt indhold, dubleret indhold eller crawl fejl. Først når Google kan crawle siden og vurderer den som relevant, kan den blive vist i søgeresultaterne.
Kan robots.txt og noindex blokere Google indeksering?
Ja, begge dele kan blokere din synlighed. robots.txt styrer, hvad Google crawler, mens noindex fortæller Google, at siden ikke skal med i indekset. Hvis en vigtig side er ramt af en af de to fejl, kan det være hele forklaringen på, hvorfor din hjemmeside ikke er på Google.
Hvor lang tid tager Google indeksering af en ny hjemmeside?
Google indeksering kan tage fra få dage til flere uger. Det afhænger af blandt andet intern linkstruktur, sitemap xml, serverens stabilitet og hvor let Google crawler siden. Du kan gøre processen hurtigere ved at indsende sitemap i Search Console og bede om indeksering af vigtige URLer.
Hvorfor ranker min side ikke selv om den er indekseret?
Hvis siden er indekseret men stadig ikke ranker, er problemet ofte ikke teknik men relevans. Indholdet matcher måske ikke det, folk søger efter, eller også er konkurrencen højere end forventet. Svag intern linkstruktur, lav indholdskvalitet og en langsom mobiloplevelse kan også holde placeringerne nede.

Relaterede artikler