Sådan skjuler du dine sider fra konkurrenterne

By Philip Løvland | Avanceret SEO

aug 01
skjulte sider

Der er de links man gerne vil blære sig med – en artikel på DR, en reference på Wikipedia eller en henvisning fra en god kunde. (Er du ny på Onlinebloggen - så klik her => 1)

Og så er der de links man egentlig ikke vil have at der er andre end Google der får øje på – enten fordi man har fundet et godt trick man ikke vil dele2, eller fordi man har links der er lidt over i den grå skala – f.eks. sider man selv har bygget for at kunne linke fra dem, det man normalt kalder splogs.​

Her kan du se hvordan du skjuler dine splogs og andre sider fra konkurrenterne.​


TANKEN BAG

Før vi kaster os over metoderne kan det være spændende at forstå hvordan blokeringen fungerer.

​Google er ikke de eneste der har robotter der crawler internettet – mange firmaer lever af at opsnuse og analysere links (mest brugt er Ahrefs og Majestic, men der er mange flere), og ligesom Google crawler deres robotter rundt og registerer og gemmer så meget de kan.

Det gider vi ikke have. For hvis robotterne kan finde linksne kan konkurrenterne også. Og så kan de slå op i et af værktøjerne, opdage vores splogs og sende dem alle sammen til Google med en sløjfe rundt om, klar til en de-indexering.​

Formegentlig gør Google ikke en fløjt ved det3 – men hvis du er uheldig og er i det rigtige marked og konkurrenten lige rammer den rigtige medarbejder kan du risikere at se alt dit arbejde forsvinde som dug fra solen.​​

Det sats gider vi ikke tage – så hellere bruge lidt tid og kræfter på at gemme dem væk.​

PS: Der er som regel altid to grunde til alting, og det er der også her. Ud over at du få ekstra sikkerhed ødelægger du nemlig også dine konkurrenters linkanalyse. De kan ikke se de 20-30-40 ekstra links du har gemt, så du kan være heldig at de bruger en masse kræfter på et søgeord der virker til at være lav konkurrence men i virkeligheden er rigtig svært.​​

1

METODE 1 - MANUELT

Den ene metode til at skjule sine links er ved at gøre det manuelt. Jeg bruger oftest denne metode, og det fungerer glimrende.

(det er værd at bemærke at det er semi-avanceret og bruger du ikke wordpress kræver det at du har arbejdet med FTP før. Specielt .htaccess er vital for din side, så tag en backup af den inden du går i gang)​

Der er her to filer du skal ind at rode i.​

Den første er robots.txt, og har du den ikke på din server allerede må du oprette den selv.​4

Her skal du indsætte følgende linjer:​

Derudover skal du ændre i din .htaccess-fil. Husk at tag en backup af den inden du går i gang, og indsæt så følgende linjer nederst i filen:

Bruger du Yoast SEO kan du rette i disse to filer direkte fra WordPress hvilket gør det en del nemmere - du skal ind i Yoast SEO ==> Værktøjer ==> Fil editor for at rette.

yoast seo

HVAD ER DET DER SKER?

De to lister er en lang samling af kendte spidere/robotter fra alskens linkanalyseværktøjer. Hver linje er en ny robot som man siger ikke har adgang.

Robotterne kommer, forsøger at finde information om dine links, men bliver nægtet adgang. Google derimod får lov til at komme lige igennem.​

Listen virker mod de fleste tools, men man ved aldrig om der kommer et nyt tool der ikke er på listen eller om nogle af dem på listen skifter navn, så man kan ikke bare oprette de to filer og så tro man er beskyttet mange år frem – sørg for lige at hold øje en gang i mellem og se om du stadig er beskyttet.​​

2

METODE 2 - AUTOMATISK

Bruger du wordpress behøver du ikke selv ligge og rode med oprettelse og opdatering af filer.
Her kan du i stedet bare installere et plugin der klarer alt det hårde arbejde for dig.

Der er sikkert masser af plugins derude, men jeg bruger det der hedder Spyder Spanker Pro. OPDATERING: Jeg bruger nu primært den manuelle hack, og er stoppet med at blokere robotter på en del af siderne da jeg er bekymret for om Google vil bruge det som footprint. Jeg blokerer dog stadig når jeg laver redirects.

Det gør præcis det ovenstående – blokerer alle de dårlige robotter. Du har også mulighed for at sætte mere avancerede indstillinger, og f.eks. blokere hele lande og automatisk opdatere mod kommentarspam og andet dårligt.

?

ER DET SIKKERT?

Der er som sådan ikke noget her i SEO-verdenen der er sikkert5 men derfor er det stadig meget fornuftigt at lave sig en risikovurdering af det man laver.

Der er selvfølgelig nogle fordele ved at skjule sit netværk

  • Konkurrenterne kan ikke se hvad man laver
  • Man bliver ikke anmeldt til Google
  • Konkurrenterne bliver forvirret
  • Man kan skjule sine metoder og sine gode links

Og det må man sige er betydelige fordele.

Omvendt kan det være svært at se hvorfor man skulle blokkere robotter hvis ikke man forsøger at snyde Google. Og især hvis man bruger robots.txt må man vel erkende at hvis Google vil, vil det være nemt for dem at bruge det som udgangspunkt for en optrævling af netværk.

Indtil videre har jeg brugt blokkeringen her på 150+ sider, og det er aldrig noget der har givet nogle problemer. I fremtiden kommer jeg dog til at bruge det mindre og mindre i takt med at de supportsider jeg laver bliver i bedre og bedre kvalitet, og derfor ikke har "behov" for at gemme sig - på udvalgte sider, tests, redirects etc. vil jeg dog stadig i høj grad blokkere - ingen grund til at give alle information om alting 🙂

ET SIDSTE RÅD


Der er et sidste råd der er godt at få med hvis man for alvor vil holde sit netværk af splogs og andre sider skjult.

Det er at man skal lade være med at nævne sit firma/hjemmesidenavn når man skriver artiklerne eller laver linksne. Gør man det er det nemlig for nemt for konkurrenterne at søge på firma/hjemmesidenavnet og på den måde finde alle de indlæg man har lavet, og så er man jo lige vidt.

Så sørg for ikke at nævn dit brand i hverken link eller tekst hvis du for alvor vil blive under radaren.​


  1. Når du klikker på ikonet her åbner du for en note.

    I noterne kan være ekstra information, sjove facts eller tilfældige ramblings. Alt det du ikke nødvendigvis behøver at vide, men som er sjovt at læse.

  2. Det kan være ret sjovt at følge lidt med i hvordan konkurrerende firmaer linkbuilder. Tit finder firma1 et godt link et eller andet sted, og så går der ikke mere end 2 uger før firma2 og firma3 har det samme link - og efter et par måneder har alle firmaer i samme niche været forbi og lave samme link

  3. En af mine testsider blev anmeldt til Google. Vi snakker autogenererede volapyktekster eller meget dårlig oversat fra engelsk og absolut intet gjort ved design. Ingen tvivl om at der ikke er tale om en reel side. Her næsten et år senere er den stadig indekseret

  4. Den seneste snak på SEO-jungletrommerne er at robots.txt ikke er nødvendig og at det faktisk er en dum ide da den er indekserbar og åben for Google (og konkurrenter) og at de derfor hurtigt vil kunne finde alle sider der blokkerer robotter.

    Jeg har endnu ikke helt taget stilling til at droppe robots.txt-blokeringen

  5. I hvert fald ikke hvis man også vil have at det skal give resultater

About the Author

Philip Løvland har arbejdet med linkbuilding, SEO og online markedsføring siden 2009. Elsker at teste nye ting og se hvordan man kan gøre tingene lidt smartere

Leave a Comment:

Leave a Comment: