Estimert lesetid: 3 minutter
Hva er robots.txt? Komplett guide for SEO og med eksempler
R obots.txt er en tekstfil som instruerer søkemotorenes roboter (som Googlebot) om hvilke deler av nettstedet ditt som skal eller ikke skal indekseres. Den er en viktig del av teknisk SEO og brukes av både store og små nettsteder for å kontrollere crawl-aktivitet og forbedre nettstedets synlighet.
I denne bloggen lærer du:
Hva robots.txt er og hvordan den fungerer
Hvordan du lager en korrekt robots.txt-fil
Beste praksis og vanlige feil
Hvordan robots.txt påvirker SEO
Gratis verktøy og eksempler
Hva er en robots.txt-fil?
Robots.txt er en standardisert tekstfil som ligger i rotmappen på nettstedet ditt (f.eks. www.dittdomene.no/robots.txt
). Filen inneholder instruksjoner for webcrawlere (bots), og hjelper søkemotorer med å forstå hvilke deler av nettstedet de kan og ikke kan besøke.
Eksempel på en enkel robots.txt:
Hvorfor er robots.txt viktig?
En riktig konfigurert robots.txt kan:
Forhindre at søkemotorer indekserer duplisert eller sensitivt innhold
Forbedre crawl-effektivitet ved å styre trafikken
Hindre overbelastning av serveren
Støtte strategisk SEO ved å prioritere viktige sider
⚠️ NB: En feil i robots.txt kan hindre hele nettstedet fra å bli indeksert!
Hvordan lage en robots.txt-fil
Opprett en ren tekstfil med navnet
robots.txt
Bruk UTF-8 som tegnsett
Legg til direktiver som
User-agent
,Disallow
,Allow
, ogSitemap
Plasser filen i rotmappen på nettstedet ditt
Eksempel for WordPress:
Viktige direktiver i robots.txt
Direktive | Forklaring |
---|---|
User-agent: | Definerer hvilken bot reglene gjelder for |
Disallow: | Blokkerer tilgang til spesifikke URL-er |
Allow: | Tillater tilgang til URL-er som ellers ville vært blokkert |
Sitemap: | Viser til plasseringen av nettstedets XML-sitemap |
Beste praksis for robots.txt i 2025
✅ Tillat tilgang til innhold du vil rangere i søkeresultater
Ikke bruk robots.txt til å skjule sensitiv informasjon (bruk i stedet
noindex
og tilgangskontroll)Oppdater filen når du endrer nettstedets struktur
Test alltid i Google Search Console før du publiserer endringer
Vanlige feil og hvordan du unngår dem
Feil | Konsekvens |
---|---|
Disallow: / | Hele nettstedet blokkeres fra indeksering |
Mangler sitemap | Søkemotorer oppdager ikke alle sider |
Feilstavinger | Bots ignorerer direktiver som ikke forstås |
Filen mangler | Full crawl uten noen begrensninger |
Hvordan sjekke robots.txt-filen din
Bruk disse verktøyene:
Google Search Console → “Inspection Tool” → “robots.txt Tester”
Screaming Frog SEO Spider
Ahrefs / SEMrush Site Audit
Du kan også se filen direkte på www.dittdomene.no/robots.txt
Hva gjør Google med robots.txt i 2025?
Google følger fortsatt Robots Exclusion Protocol (REP), men med stadig smartere algoritmer. Noen viktige punkter:
Google ignorerer
noindex
i robots.txt (bruk metatagger i stedet)Google tolker
Disallow:
som en crawl-blokk, ikke nødvendigvis en indeks-blokkGooglebot støtter
wildcards
ogcrawl-delay
i begrenset grad
Eksempler på robots.txt for ulike behov
1. Standard WordPress-nettsted:
2. Nettbutikk med WooCommerce:
3. Blogg med fokus på SEO:

Awelio_robots.txt_illustrasjon
Oppsummering
En godt konfigurert robots.txt-fil er et av de enkleste og mest effektive grepene du kan ta for bedre teknisk SEO. Sørg for at filen gjenspeiler din nettsides struktur og mål, og test den regelmessig.
Vil du ha hjelp med å sette opp robots.txt eller få en SEO-analyse av din nettside?
Kontakt oss i dag for en gratis vurdering.