Teknisk

Hva er robots.txt?

Robots.txt forteller søkemotorer hvilke deler av nettsiden de kan og ikke kan besøke.

HjemGuiderHva er robots.txt? Styr hva Google kan crawle

Definisjon

Robots.txt er en tekstfil i roten som gir instruksjoner til crawlere.

Syntaks

User-agent, Allow, Disallow, Sitemap. Pek til XML sitemap.

Vanlige feil

Ikke blokker CSS/JS. Bruk noindex for skjuling, ikke robots.txt.

Viktig
Robots.txt er en forespørsel, ikke sperring. Teknisk SEO-guide →
Alle guider →

Les også