RSS
Gebloggt in Böse Jungs
Artikel 22 Kommentare
11.06 2009

Warum Backlink Checker eigentlich völlig wertlos sind!

Jeder der Links kauft, oder Links tauscht der kennt das Problem. Man braucht ein Kontrollorgan um die entsprechenden Links zu prüfen. Links verschwinden, Links werden auf NoFollow gesetzt oder es gibt einen Relaunch, etc…

Es gibt nun mehrere Möglichkeiten Links zu kontrollieren. Die einfachste ist eine entsprechende Software zu kaufen oder einen freien Dienst dafür zu nutzen. Ich hab mir die meisten Angesehen. Alle verfahren nach dem gleichen Prinzip. Man trägt die Seite ein auf der der Backlink vorhanden sein soll. Das Programm lädt die entsprechende Seite runter und schaut dann nach ob der Link ordentlich gesetzt ist.

Von der Theorie her ist das ja auch in Ordnung, was aber wenn euch der andere Webmaster veräppeln möchte. Was für Methoden könnte er benutzen und wie könnte man sich davor schützen?

Um es mal vorwegzunehmen, ich kenne keine freie Software die alle fiesen Methoden abfängt und überprüft.

1. X-Robots Tag

Der X-Robots Tag wird von den großen 3 Suchmaschinen unterstüzt. Angenommen ihr würdet einen Artikeltausch machen. Der “Böse” Webmaster würde euren Artikel bei sich einpflegen, aber im Header den X-Robots Tag NoFollow setzen.

Der Backlinkchecker würde die Seite runterladen, die Links prüfen und ein OK zurückgeben. Den Header würden die wenigsten Backlinkchecker prüfen!

Fazit: Beachtet immer den HTTP Header. Und http://www.backlink-check.de/ prüft nur den HTTP Status und nicht ob der X-Robots Tag auf Nofollow gesetzt ist. Somit ist auch dieser Backlinkchecker durchgefallen.

2. Robots.txt

Das machen zum Glück die meisten Backlink Checker. Sie prüfen ob eventuell die Seite über die Robots.txt gesperrt ist. Wäre die Seite wirklich gesperrt würde Sie nie im Google Index landen und somit auch keinen Linkjuice verteilen.

Fazit: Sollte immer geprüft werden und die meisten Backlinkchecker prüfen die Robots.txt auch.

3. LinkCloaking

Sehr perfide, aber auch leider sehr effektiv. Die gängigen Backlinkchecker besuchen die Seite und kommen mit einem eigenen Useragent. Beim Beispiel http://www.backlink-check.de/ kommt der Useragent :”BACKLINK-CHECK.DE(+HTTP://WWW.BACKLINK-CHECK.DE/BOT.HTML)”. Supi in PHP ist das ein 3zeiler und ich markiere jeden Link grundsätzlich per Nofollow, aber wenn der entsprechende Bot kommt kriegt er halt den Link ohne Nofollow. Würde vom Prinzip her funktionieren. Aber jeder User würde ebenfalls die Nofollow Links sehen. Und mit entsprechenden Firefox oder IE Tools würde man relativ schnell erkennen, das es sich um ein Nofollow Link handeln würde.

Also macht man es anderes rum. Man lässt die Links alle normal, nur für Google, Yahoo und MSN setzt man den Tag “Nofollow”. Vom Prinzip könnte man sogar die Links für die entsprechenden Suchmaschinen ausblenden. Was aber zu viel des Guten sein könnte und eventuell ein Ausschluss aus dem Index nach sich zieht! Deswegen wird entweder nur der X-Robots Tag gesetzt oder ein Nofollow Attribut. Vom Prinzip her könnte man sogar 100 Reziproke Links tauschen, aber für Google & Co diese Links ausblenden, so dass die Seite aussieht als hätte Sie nur One Way Links.

Fazit: Was tun gegen Linkcloaking? Man kann über Plugins oder dirket auch im Browser seinen Useragent ändern. Ich mach das auch sehr gerne, das ich persönlich immer als Googlebot unterwegs bin, ist halt aber ein wenig nervig wenn ich doch mal ein Google Service wie Mail nutzen will, dann kommt man als GoogleBot nicht rein :)

Das hilft aber nicht, wenn der Böse Webmaster IP Cloaking macht. Listen mit IP´s von Suchmaschinen Bots gibt es zu hauf im Netz. Der Böse Webmaster macht dann folgendes, bevor eine Seite ausgeliefert wird, wird die IP Adresse des Requests überprüft. Sollte die Ip Adresse in seiner Datenbank vorhanden sein, so wird dann die manipulierte Seite ausgeliefert. Somit hat man keine Chance herauszufinden ob der Böse Webmaster wirklich IP Linkcloaking nutzt.

Also was tun um 100% sicher zu sein, das der Backlink auch wirklich was bringt?

Die absolut sicherste Methode ist die Prüfung des Backlinks im Google Cache. Nur was Google wirklich indiziert hat, zählt! Der Backlink Checker sollte also als erstes prüfen, ob die Seite überhaupt noch im Google Index vorhanden ist und sollte die Seite da sein, muss der Google Cache überprüft werden.

Dazu sollte man sagen, dass man den Google Cache auch ausschalten kann. Allgemein finde ich solche Seiten dann relativ Suspekt. Es gibt zwar durchaus einige legitime Gründe um den Google Cache auszuschalten, dass sollte dann aber im Einzelfall angesehen werden.

Zusätzlich sollte geprüft werden ob vielleicht ein entsprechender X-Robots Tag gesetzt worden ist. Die Robots.txt sollte ebenfalls geprüft werden.

Grundsätzlich muss man dazu sagen, dass diese Methoden wirklich sehr sehr selten angewendet werden. Dennoch wer vielleicht Linkkauf mit hohen Budget tätigt oder harte Arbeit in Linktausch investiert hat und wertvolle Links dem Tauschpartner angeboten hat, der sollte schon drauf achten das seine Arbeit auch Früchte trägt und nicht von Bösen SEO´s (Verdammt! Dieser Nick wird mir echt zum Verhängnis) ausgenutzt wird.

Nachtrag  zu Bösen Methoden —————————

- Links in HTML Kommentaren
- Links im Javascript Code
- Links in einem nicht wertbaren HTML Bereich

Auch das sollte abgefangen werde und überprüft werden. Regex ist dein Freund…

  1. Track comments via RSS 2.0 feed. Feel free to post the comment, or trackback from your web site.

  2. Friday
    06/11 2009

    Du hast längst nicht alle Möglichkeiten aufgezählt ;-)

  3. BoeserSeo
    06/11 2009

    Hehe

    Vielleicht nicht alle Bösen Methoden, aber zur Prüfung ist der beste Weg den Google Cache zu überprüfen ;)

    [Editiert]

  4. 06/11 2009

    Wie ist das eigentlich mit dem sich als Google Bot aus zu geben? Verstößt das gegen die Google Guidelines. Oder dürfte man nen Robot bei einem Webservice auch als Google Bot surfen lassen?

  5. 06/11 2009

    zum glück lesen nicht alle meine linkpartner deinen blog ;-)

  6. 06/12 2009

    Ich musste schon viele Linkgeber auf den Quellcode aufmerksam machen

    Aber ganz ehrlich, wenn wir Google wären, würden wir no-follow Links wirklich nicht folgen? ;)

  7. Mo
    06/12 2009

    Tja, die bösen Methoden müssen ja auch nicht unbedingt über das Web verbreitet werden ;)

  8. Dan
    06/12 2009

    “no-follow” ganz bestimmt (zumindest noch bis vor kurzem) aber nofollow doch nicht …. niiiiiiemals …. könnte sich ja was brauchbares dahinter verstecken :)

  9. 06/12 2009

    Nofollo / No-Follow hin oder her… Google indexiert so verlinkte Seiten nicht.. und wenn sie schon indexiert ist, wertet er auf jeden Fall auch den Linktext nicht. das haben schon unzählige Tests bewiesen. also bringt ein nofollow genau so wenig, wie er bringen soll ;-)
    Schluss Aus Ende.. nofollow ist böse!^^

  10. 06/17 2009

    @boeser SEO, habe eine Verständnisfrage:
    Du schreibst im Punk2:
    Wäre die Seite wirklich gesperrt würde Sie nie im Google Index landen und somit auch keinen Linkjuice verteilen.

    Wenn ich eine Seite z.B. mit noindex sperre, taucht Sie zwar nicht im Google Index auf, aber die Links aus dieser Seite werden doch trotzdem verfolgt? Noindex und nofollow sind doch zwei verschiedene Sachen? Rein theoretisch könnte ich sogar einen PR auf der Seite haben, nur die Seite würde nicht im Google Index auftauchen?
    Oder sehe ich das falsch?

    Gruß
    Alex

  11. 06/23 2009

    Das sind ja zum Teil richtig dreiste Methoden. Wenn ich es im Fazit richtig verstanden habe, sollte man für das Prüfen der Backlinks die URL im Google Cache betrachten und dort den Quelltext untersuchen?

    LG
    Timo

  12. 08/20 2009

    mit der Eingabe http://www.meineseite.de/ erhalte ich auch Ergebnisse mit verlinkten Seiten aus dem Google Index. Dort lässt sich dann sehr schön jeder Link einzeln beurteilen.

    lG Thomas

  13. 08/21 2009

    das mit “Site:” mache ich auch so, so lassen sich manuell alle Links überprüfen und die Ergebnisse weichen von Backlinkcheckern schon erheblich ab.

  14. 08/26 2009

    das was Alex da schreibet sehe ich auch so, nur damit Link´s vom Google – bot verfolgt werden können, muss Google die Setie ja erst einmal kennen, das funktionier warscheinlich nur dann wenn die Seite später auf Noindex gesetzt wird.

  15. 12/4 2009

    Bei manchen Dingen hat der Autor ja recht. Aber es gibt auch ganz gängige Tools, die nicht für den öffentlichen Gebrauch bestimmt sind.

  16. 12/27 2009

    Links kaufen sollte man sowieso nicht. Wer käuflich ist, macht eh nur Quatsch. Und wenn man beim Linktausch darauf achtet, dass die Partner seriös sind, dann bekommt man all diese Probleme erst gar nicht. Die meisten Menschen da draußen im Internet sind keine SEOs und betreiben ein seriöses Business. Die haben sowas gar nicht nötig.

  17. 12/30 2009

    Ich bin der Meinung das Leute die Links kaufen ruhig die Sinnlosigkeit erfahren sollten.

    Es ist ja schließlich eine Manipulation der Suchergebnisse, wie sagt man – Ehrlich währt am längsten…

    Gruß, André

  18. 01/31 2010

    Mich wundert, das der Backlinkchecker von x4d hier nicht zur Sprache kam. Was ist davon zu halten? Bisher war ich damit eigentlich sehr zufrieden.

  19. 05/5 2010

    @Trierer: ich geb Dir recht – der x4d ist wirklich gut und übersichtlich – sucht aber nicht alle Links heraus – da ist der internet-baron besser

  20. 05/19 2010

    Hi Dominik,

    ich bin gerade auf der Suche nach einem entsprechen Linkcheck-Tool. Du schreibst, dass Du verschiedene ausprobiert hättest. Kannst Du mir noch ein paar außer backlink-check.de nennen? Das wäre sehr nett. Vielen Dank im Voraus.

    Gruß, Tobias

  21. 05/26 2010

    Hallo, Aha, sehr interessant, aber acuh irgendwie deprimierend, was man hier alles erfährt! Bekomme wöchentlich min. einen Anruf von irgendwelchen ominösen Firmen, die mir kostenpflichtig anbieten, unsere Site bei denen zu listen und so wie ich das bis jetzt lese, war es gut (oder besser gesagt “Geldbeutelfreundlich”), dass ich denen bis jetzt misstraut habe!

    Gruß, Melanie

  22. 06/2 2010

    [...] boeserseo.com – Warum Backlink Checker eigentlich völlig wertlos sind [...]

  23. 09/21 2010

    [...] boeserseo.com – Warum Backlink Checker eigentlich völlig wertlos sind [...]