Gebloggt in Böse Jungs
17 Kommentare
06/30 2009

Warum Twitterspam nicht lohnt…

Schönes Beispiel warum Twitterspam sich nicht lohnt.

Wulffy (Master of Desaster der Social Web Optimierung) hat ein Twitterprofil mit in etwa sagenhaften 17800 Follower. Krass… Aber nur auf dem ersten Blick. Schaut man sich die Tweets von Wulffy an und wieviele darauf geklickt haben, kommt man aus dem Lachern nicht mehr herraus.

Nur zum Vergleich. Ich besitze knapp 1500 Follower und erreiche mit meinen sinnvollsten Tweets knapp 300 Klicks. Was knapp 20% CTR ist. Ok die sinnvollen Tweets werden auch schön immer wieder geretweetet und somit wird auch die Reichweite natürlich erhöht.

Nun schaut mal was Wulffy mit seinen 17800 Followern an sagenhaften Klicks generiert hat…

Wulffy Post 1 -> Anzahl Klicks = 34! -> CTR = 0,19%
Wulffy Post 2 -> Anzahl Klicks = 25! -> CTR = 0,14%

Solche Spammer führen den Sinn von Twitter ad absurdum und ich hoffe, dass Twitter langsam diese Art von Spam in den Griff kriegt und solche Accounts banned…

Und ihr denkt immer ich bin der BlackHat’er unter den SEOs…

Gebloggt in Böse Jungs
22 Kommentare
06/11 2009

Warum Backlink Checker eigentlich völlig wertlos sind!

Jeder der Links kauft, oder Links tauscht der kennt das Problem. Man braucht ein Kontrollorgan um die entsprechenden Links zu prüfen. Links verschwinden, Links werden auf NoFollow gesetzt oder es gibt einen Relaunch, etc…

Es gibt nun mehrere Möglichkeiten Links zu kontrollieren. Die einfachste ist eine entsprechende Software zu kaufen oder einen freien Dienst dafür zu nutzen. Ich hab mir die meisten Angesehen. Alle verfahren nach dem gleichen Prinzip. Man trägt die Seite ein auf der der Backlink vorhanden sein soll. Das Programm lädt die entsprechende Seite runter und schaut dann nach ob der Link ordentlich gesetzt ist.

Von der Theorie her ist das ja auch in Ordnung, was aber wenn euch der andere Webmaster veräppeln möchte. Was für Methoden könnte er benutzen und wie könnte man sich davor schützen?

Um es mal vorwegzunehmen, ich kenne keine freie Software die alle fiesen Methoden abfängt und überprüft.

1. X-Robots Tag

Der X-Robots Tag wird von den großen 3 Suchmaschinen unterstüzt. Angenommen ihr würdet einen Artikeltausch machen. Der “Böse” Webmaster würde euren Artikel bei sich einpflegen, aber im Header den X-Robots Tag NoFollow setzen.

Der Backlinkchecker würde die Seite runterladen, die Links prüfen und ein OK zurückgeben. Den Header würden die wenigsten Backlinkchecker prüfen!

Fazit: Beachtet immer den HTTP Header. Und http://www.backlink-check.de/ prüft nur den HTTP Status und nicht ob der X-Robots Tag auf Nofollow gesetzt ist. Somit ist auch dieser Backlinkchecker durchgefallen.

2. Robots.txt

Das machen zum Glück die meisten Backlink Checker. Sie prüfen ob eventuell die Seite über die Robots.txt gesperrt ist. Wäre die Seite wirklich gesperrt würde Sie nie im Google Index landen und somit auch keinen Linkjuice verteilen.

Fazit: Sollte immer geprüft werden und die meisten Backlinkchecker prüfen die Robots.txt auch.

3. LinkCloaking

Sehr perfide, aber auch leider sehr effektiv. Die gängigen Backlinkchecker besuchen die Seite und kommen mit einem eigenen Useragent. Beim Beispiel http://www.backlink-check.de/ kommt der Useragent :”BACKLINK-CHECK.DE(+HTTP://WWW.BACKLINK-CHECK.DE/BOT.HTML)”. Supi in PHP ist das ein 3zeiler und ich markiere jeden Link grundsätzlich per Nofollow, aber wenn der entsprechende Bot kommt kriegt er halt den Link ohne Nofollow. Würde vom Prinzip her funktionieren. Aber jeder User würde ebenfalls die Nofollow Links sehen. Und mit entsprechenden Firefox oder IE Tools würde man relativ schnell erkennen, das es sich um ein Nofollow Link handeln würde.

Also macht man es anderes rum. Man lässt die Links alle normal, nur für Google, Yahoo und MSN setzt man den Tag “Nofollow”. Vom Prinzip könnte man sogar die Links für die entsprechenden Suchmaschinen ausblenden. Was aber zu viel des Guten sein könnte und eventuell ein Ausschluss aus dem Index nach sich zieht! Deswegen wird entweder nur der X-Robots Tag gesetzt oder ein Nofollow Attribut. Vom Prinzip her könnte man sogar 100 Reziproke Links tauschen, aber für Google & Co diese Links ausblenden, so dass die Seite aussieht als hätte Sie nur One Way Links.

Fazit: Was tun gegen Linkcloaking? Man kann über Plugins oder dirket auch im Browser seinen Useragent ändern. Ich mach das auch sehr gerne, das ich persönlich immer als Googlebot unterwegs bin, ist halt aber ein wenig nervig wenn ich doch mal ein Google Service wie Mail nutzen will, dann kommt man als GoogleBot nicht rein :)

Das hilft aber nicht, wenn der Böse Webmaster IP Cloaking macht. Listen mit IP´s von Suchmaschinen Bots gibt es zu hauf im Netz. Der Böse Webmaster macht dann folgendes, bevor eine Seite ausgeliefert wird, wird die IP Adresse des Requests überprüft. Sollte die Ip Adresse in seiner Datenbank vorhanden sein, so wird dann die manipulierte Seite ausgeliefert. Somit hat man keine Chance herauszufinden ob der Böse Webmaster wirklich IP Linkcloaking nutzt.

Also was tun um 100% sicher zu sein, das der Backlink auch wirklich was bringt?

Die absolut sicherste Methode ist die Prüfung des Backlinks im Google Cache. Nur was Google wirklich indiziert hat, zählt! Der Backlink Checker sollte also als erstes prüfen, ob die Seite überhaupt noch im Google Index vorhanden ist und sollte die Seite da sein, muss der Google Cache überprüft werden.

Dazu sollte man sagen, dass man den Google Cache auch ausschalten kann. Allgemein finde ich solche Seiten dann relativ Suspekt. Es gibt zwar durchaus einige legitime Gründe um den Google Cache auszuschalten, dass sollte dann aber im Einzelfall angesehen werden.

Zusätzlich sollte geprüft werden ob vielleicht ein entsprechender X-Robots Tag gesetzt worden ist. Die Robots.txt sollte ebenfalls geprüft werden.

Grundsätzlich muss man dazu sagen, dass diese Methoden wirklich sehr sehr selten angewendet werden. Dennoch wer vielleicht Linkkauf mit hohen Budget tätigt oder harte Arbeit in Linktausch investiert hat und wertvolle Links dem Tauschpartner angeboten hat, der sollte schon drauf achten das seine Arbeit auch Früchte trägt und nicht von Bösen SEO´s (Verdammt! Dieser Nick wird mir echt zum Verhängnis) ausgenutzt wird.

Nachtrag  zu Bösen Methoden —————————

- Links in HTML Kommentaren
- Links im Javascript Code
- Links in einem nicht wertbaren HTML Bereich

Auch das sollte abgefangen werde und überprüft werden. Regex ist dein Freund…

Gebloggt in Böse Jungs
2 Kommentare
05/1 2009

Who the Fuck is boeserseo?

Das ist jetzt ein privater Post, wo ich doch ein wenig zu meiner Person was erzählen möchte. Und nein es ist kein offizielles “Comming Out” um es vorwegzunehmen!

Viele die mich kennen oder diesen Blog lesen denken, dass ich ein absoluter BlackHat SEO bin. Jetzt muss ich euch leider enttäuschen. Ich bin kein BlackHat SEO. Ich kann mich auch ehrlich gesagt nicht dran erinnern, welches mein letztes BlackHat Projekt war. Ich denke es liegt mindestens 3 bis 4 Jahre zurück. Ich habe früher, wie fast alle aus der Szene, auch BlackHat Methoden angewendet und rumgespammt. Diese Geschichten waren aber immer nur von kurzer Dauer, viel mehr hatte mich die Technik dahinter interessiert.

Was ist Cloaking?
Wie generiert man Content automatisiert?
Wie bekommt man Links?
Wie kann man Google austricksen?

Alle diese Fragen und die entsprechenden Antworten haben mich zu einem kompletteren SEO gemacht. Wobei ich nicht sagen möchte, dass ich ein perfekter SEO bin. Auch ich lerne jeden Tag ein wenig mehr über SEO und gerade Kritik an meinen Posts oder Aussagen finde ich klasse und nehme sowas immer gerne auf.

Gerade durch die “BlackHat” Erfahrungen, wann man eine Grenze überschritten hat, lernt man wie weit man überhaupt gehen kann. Mittlerweile sind doch, wenn wir ehrlich sind, fast alle SEO´s im grauen Bereich unterwegs. Ich zähle mich ebenfalls in den grauen Bereich. Wer baut nicht Linknetzwerke auf, spielt mit Expired Domains rum und betreibt Linktausch oder Linkkauf? Jeder der Erfolgreich sein will, der wird über solche “Grauen Methoden” nicht rumkommen.

Dennoch übt die BlackHat Szene immer noch einen Reiz auf mich aus. Die Jungs sind nicht doof, und die Kreativität dahinter ist schon imposant. Ich interessiere mich sehr für solche Sachen und ich werde immer wieder blicke in diese Richtung werfen, um zu schauen auf welche Ideen die Jungs diesmal gekommen sind. Deswegen wird es auch weiterhin immer wieder BlackHat Themen in diesem Blog geben, auch wenn Ich Sie persönlich nicht anwende. Klar das viele das wohl nicht so toll finden, weil ich vielleicht andere Jungs auf diese Ideen bringe, aber damit muss ich wohl Leben und vielleicht lernt Google ja auch noch was.

Mein Nick “Böser SEO” kommt daher, daß ich gerne solche Methoden aufzeige und viele auf mich “Böse” sind. Gerade deswegen auch die anonymen Whois Daten (Nein ich bin nicht Oezkan und ich wohne wirklich nicht in Istanbul). Aber da es praktisch immer weniger “Böse Jungs” gibt, wo es sich lohnt Sie an den Pranger zu stellen, lohnt es sich auch nicht wirklich meine Anonymität mehr zu pflegen. Ich glaub, dass letzte mal das ich jemanden auf den Schlips getreten bin, ist auch schon ein wenig her (Nov. 2008). 

Ausserdem komm ich eigentlich aus einer ganz anderen “Szene”. Zu der Zeit hab ich Server gehackt und viel illegalen Scheiss gemacht. Dort war ich praktisch auch schon immer der Böse (Wobei das dort immer sehr Positiv war) und so hab ich es halt mit in den SEO Bereich übernommen. Außerdem fand ich Darth Vader früher auch immer Cooler als Luke Skywalker. Und Darth kennt doch jeder? Luke wohl nur die Fans von Star Wars.

Frei nach dem Motto: “Gute SEO´s kommen in die Top Ten, böse überall hin”

Gebloggt in Böse Jungs
49 Kommentare
04/21 2009

BlackHat Techniken: 11 Wege der bösen Linkgenerierung

So nun der zweite Teil meiner Reihe der Black Hat Techniken. Diesmal nehme ich mir die Linkgenerierung zur Brust und zeige auf, was es für Möglichkeiten und Wege gibt, sich Links auf Black Hat Art zu holen. Mit Sicherheit gibt es noch viel viel mehr Methoden, aber ich werde mich halt auf die gängigsten konzentrieren und darüber ein wenig was schreiben. Ich fange mit den einfachen Sachen an und werde mich dann nach und nach mit den etwas härteren Methoden auseinander setzen.

1. Blogkommentare & Trackbacks
Eigentlich die klassische Methode. Es werden DoFollow Blogs gesucht und dann reihenweise mit klasse Kommentaren wie “Klasse Blog weiter so” zugespammt. Am liebsten dann auch mit dem entsprechenden Key im Namen. Tracksbacks werden ebenfalls sehr gerne gefaked und reihenweise Blogs angepingt, in der Hoffung das der Trackback durchkommt und so einen Backlink generiert.

Ausblick: Mittlerweile gibt es mit Akismet und Spam Karma doch sehr wirkungsvolle Methoden, um sich vor so einem Schund zu schützen.

2. Social Bookmarking Spamming
Mittlerweile gibt es Tools die sich Bookmarking Demon nennen und seit Jahren erfolgreich weiterentwickeln. Ich kenne das Tool sehr gut, und es eignet sich wirklich sehr gut um immer wieder neue Social Bookmarking Dienste zu finden und dort seine Spammy Links abzuwerfen. Man kann aber mit knapp 90 prozentiger  Sicherheit rechnen, dass diese mit dem NoFollow Attribute verlinken. Auch die Linknachbarschaft ist wirklich übelst. Dennoch ist das ein sehr beliebter Weg sich Links auf seine Spammy Projekte zu besorgen.

Ausblick: Gerade die beliebte Social Bookmarking Software “Scuttle” ist oft ein Ziel von solchen Tools und diese Verzeichnisse werden oft überflutet mit Bookmarks. Aber einige wenige Bookmarkingdienste werden weiterhin überleben. Gerade Mister Wong zeigt ja durch seine massive Präsenz im Index, dass sich auch Bookmarking Dienste einen gewissen Trust erarbeiten können, wenn Sie genügend Backlinks gesammelt haben. Für mich sind das eigentlich Serps in Serps, aber man kann sich streiten ob solche Dienste was im Index verloren haben oder nicht.

3. Forum Spamming
Ähnlich wie bei den Blogs gibt es auch Software für Foren. Xrumor ist wohl die bekannteste. Diese verdammt intelligente Software hat sogar einen verdammt guten Captcha Breaker integriert und schafft es sich in fast jeder Forum Software automatisiert zu registrieren und Postings abzusetzen. Das Tool stammt aus einer russischen Softwareschmiede und kostet in der aktuellen Version knapp 520 Dollar.

Es wird also versucht Postings mit Links in veralteten und nicht mehr gewarteten Foren zu posten. Aber nicht nur die Postings sind beliebte Ziele, auch die Profile sind praktisch Linkschleudern. In einigen Forensoftwaren sind die Profile vom Googlebot aus zu erreichen und der entsprechende Homepage Profil Link oder die Signatur hat Follow Links.

Ausblick: Im Augenblick ist es immer noch ein Katz und Maus Spiel mit den Foren. Sobald ein Forum von einem Spammer gefunden wird, wird dieses Forum massiv ausgelutscht und mit Links bombardiert. Diese Links ziehen auch kurzfristig bei Google, aber durch das massive Linkspamming und Linkstuffing sind diese Boards dann doch relativ schnell aus dem Index raus, oder werden durch den Webmaster erkannt und gesäubert.

4. Splogs (Spam Blogs)
Auch hier gibt es Software die es schafft bei extremst vielen freien Bloghostern Accounts zu eröffnen und dort gescrappten und mit Links vollgeballerten Content abzuwerfen. Beliebt sind gerade Bloghoster die die Wordpress MU Version nutzen. Wordpress lässt sich hervorragend über Schnittstellen administrieren und dem Aufbau eines “Splogs Netzwerkes” steht nix im Wege.

Ausblick: Meistens werden diese Spamblogs auf eigenen Subdomains gehostet, der Trust solcher Subdomains ist nicht Null, aber doch sehr gering. Zum Glück prüfen aber die Bloganbieter ihre Blognutzer und solche Spam Blogs bleiben meist nicht lange im Netz. Gerade ungepflegte Anbieter werden aber gerne mit Splogs zugebombt. Wenn es Google zu bunt wird, fliegt aber solch ein Anbieter relativ schnell aus dem Index.

5. Linkkauf in dritter Welt Länder
Nicht erst seit der Russenlinks-Äffäre gibt es Links aus dem Ausland. Eine relativ lange Zeit lang sind hohe PR-Links aus dem AmiLand ziemlich beliebt gewesen und diese haben PR und Trust vererbt. Doch mittlerweile hat sich der Linkkauf in die dritte Welt verschoben. Der Vorteil liegt klar auf der Hand. Die Links sind spottbillig, haben ihren Trust und können, wenn man es geschickt macht auch wirklich hervorragend gestealth werden. (Die Methoden des Linkstealthing werde ich aber nochmal in einem speziellem Post besprechen.)

Ausblick: Google hat zwar in der Russenlinks-Äffäre eingegriffen, aber aktuell ziehen Links aus dem Ausland, die Trust haben, noch ganz gut. Solange diese Links nicht überhand nehmen und Google nicht gemeldet werden, funktioniert diese Methode leider immer noch ziemlich gut. Es ist aber nur eine Frage der Zeit bis Google solche Links und deren Linkjuice dämpfen wird.

6. Automatischer Linktausch
Die automatischen Linktausch Systeme werden immer intelligenter und versuchen so gut es geht unter dem Radar zu schwimmen. Früher waren LinkVault und Receive Links sehr beliebte Anbieter für automatischen Linktausch bzw. Linkkauf. Aber Google hat Footprints erkannt und die Linktauscher reihenweise abgestraft.

Ausblick: Die Systeme werden immer cleverer und die Footprints werden schwerer für Google zu erkennen. Dennoch sollte mal ein Footprint auffindbar sein, so kann man damit rechnen das Google sehr schnell regieren und ohne Gnade abwerten wird – das zeigte die Vergangenheit. Selbst die ausgeklügelsten automatischen Linktausch Programme hinterlassen immer Footprints, die durch Algorithmen entdeckt werden könnten (Stichwort IP und Domainpopularität). Wer sich auf solch ein Spiel einlässt, muss aber damit rechnen, dass früher oder später das Netzwerk auffliegt und man dafür abgestraft wird.

7. Referrer Log Linkgenerierung
Nicht so bekannt, aber doch gerne genutzt um Pornoseiten entsprechend mit Links zu versorgen. Einige Webhosting Anbieter sperren leider ihre Log Verzeichnisse nicht (einfache Google Abfrage), und so kann man sich über massiven Referrer Request Spam in die Logs katapultieren und Follow Links abstauben.

Ausblick: Zum Glück kann man keine Linktexte integrieren, sonst wäre diese Methode schon extremst ausgenutzt worden. Leider verursacht aber diese Methode für den Webmaster eine Menge Traffic und das kann bei entsprechendem Webspace auch schon mal tief in die Tasche gehen. Also durchaus kriminel. Ehrlich gesagt hab ich nicht geprüft wie Google solche Links wertet, aber um die Zielseiten kurzfristig in den Index zu pumpen dürfte das auf jeden Fall reichen.

8. Parasite Hosting
Eigentlich wird diese Methode genutzt um in den Serps auf dem Rücken der Authority Seite zu ranken. Aber auch für die Linkgenerierung werden solche Authority Links gerne genutzt, um entsprechend andere Parasite Hosting Seiten in den Index zu hieven und zum Ranken zu bringen.

Ausblick: Auch das ist ein Katz und Maus Spiel. Wie schnell kriegen es die Webmaster mit? Wie massiv wird die Authority Seite genutzt? Die Spammer sind immer auf der Suche nach Authority Sites, die Sie dafür nutzen können und das wird wohl auch ne lange Zeit so bleiben, da hier Google nicht wirklich prophylaktisch agieren kann, sondern nur reagieren und diese Reaktion zieht seine Zeit halt mit sich, in dem der Spammer sich freuen kann.

9. Stupid Webmaster Injection
Widgets, Counter, Funny Pictures, Scripte, Templates etc… Alles was ein “dummer” Webmaster auf seiner Seite einbindet, wird genutzt um ihm heimlich Links im entsprechenden Quellcode unterzujubeln und so Links auf seine Spammy Projekte zu generieren.

Ausblick: Ja auch diese Methode kann eigentlich von Google nur im Nachhinein an Footprints erkannt und entsprechend abgestraft werden. Gerade wer hier übertreibt und immer wieder die gleichen Projekte oder Unterseiten mit dem gleichen Linktext versorgt, wird früher oder später auf die Schnautze fallen. Da auch hier Footprints erkennbar sind.

10. XSS Injection
Diese Methode taucht immer mal wieder in den Schlagzeilen auf. Durch unsichere Programmierung wird über die URL oder ein ungeprüftes Formularfelder unsicherer Code eingeschleust und so auf der Zielseite sichtbar. Früher konnte man sich durch diese Methode Links von der Nasa, UNI´s oder sonstigen Institutionen besorgen.

Ausblick: Diese XSS Injection werden von Google sehr gut erkannt und gefiltert. Außerdem haben die meisten XSS gehackten Seiten keine! internen Links und sind so praktisch wertlos. Man müsst erst externe Links auf diese Seiten setzen, so das die Seite indexiert wird. Aber ohne interne Links sind diese Links eigentlich wertlos. Diese Methode ist praktisch veraltet und spielt für die heutige Black Hat Linkgenerierung keine Rolle mehr.

11. Exploits und Webseitenhacking
Der letzte Punkt ist eigentlich auch der kriminellste. Es wird versucht über Exploits oder andere Methoden Server zu hacken und die Webseiten mit Links zu infiltrieren. Gerade Wordpress, Joomla und Typo 3 und ihre unzähligen Plugins sind ein sehr hohes Risiko für Webmaster und wer nicht regelmäßig Updates einspielt, der lebt auf gefährlichem Fuss.

Ausblick: Schwerst Kriminell! Der Spammer schädigt die gehackte Seite. Google erkennt meistens relativ schnell solche gehackten Webseiten und entfernt oder straft diese Webseiten ab.

Die Methode ist meist die gleiche. Die meisten Spammer hauen in einen versteckten div-Container auch mal locker 2000 Links auf Parasite Hostings, Forumpostings oder sonstige zwilichtige Webseiten und freuen sich einen schönen Link von solch einer gehackten Seite bekommen zu haben.

Gebloggt in Böse Jungs
2 Kommentare
03/23 2009

BlackHat Technik: Cloaking

Da es in letzter Zeit eigentlich wenig Interessantes zu bloggen gibt, dachte ich mir das ich mal eine Reihe von BlackHat Techniken vorstellen möchte. Gerade bei seofm.com gibt es eine Umfrage welche Themen die Jungs denn auf der SMX bearbeiten sollen. Ganz vorne dabei ist “Black Hat 2009 – Die legalen Grenzen von SEO”.

Ich werde nun ein paar Techniken vorstellen und ein wenig weiter ausführen. Heute hab ich mir mal das Thema Cloaking vorgenommen. Ich warne eindringlich vor Cloaking, den Cloaking ist eine ziemlich fiese Methode und wird von Google mit dem Ausschluss aus dem Index geahndet.

Also Finger weg von solchen Techniken!

  • Was ist Cloaking überhaupt?

    Cloaking beschreibt eine Technik, in der der menschliche Besucher was anderes zu sehen bekommt als der Suchmaschinen Bot.

  • Was bringt einem das Cloaking?

    Gerade Seiten mit wenig Content können so unsichtbaren automatischen erstellen Text vor einem User verstecken. Aber auch Keyword Stuffing und Link Stuffing sind beliebte Bereiche die gerne versteckt werden.

  • Cloaking Methode “User Agent”

    Hier ein kleines Beispiel

    Je nachdem was man für einen Browser nutzt, sieht man halt was anderes. Genau nach dieser Methode kann man den Googlebot erkennen und ihm eigentlich was total anderes anzeigen, als einem normalen FireFox oder Internet Explorer User. Gerade diese Methode ist die gängiste und sollte mal Google mit einem normalem Browser vorbeikommen fliegt diese Methode auf.

  • Cloaking Methode “IP Adresse”

    Hier ein kleines Beispiel

    Eine IP Adresse zu verfälschen ist sogut wie unmöglich, es sei den man nutzt Proxys. Listen mit entsprechenden IP´s und den dazugehörigen Bot´s gibt es zu Haufen im Netz. Was passiert nun also bei dieser Methode?

    Bevor eine Seite ausgeliefert wird, wird überprüft von welcher IP Adresse die Anfrage stammt. Sollte es nun die IP Adresse eines bekannten Bot´s sein, so sieht der Bot was ganz anderes als z.B. der normale User mit einer T-Online IP Adresse.

  • Cloaking Methode “Referer”

    Hier ein kleines Beispiel

    Mit dieser Methode wird geprüft wie der Referer lautet und dann entsprechend eine bestimmte Seite ausgeliefert. Kommt ein User über Google sieht er Content Variante 1, kommt der User dagegen von seinen eigenen Bookmarks oder durch ein Type-In, so könnte man ihm z.B. Content Variante 2 ausliefern.

  • Cloaking Methode “HTTP Accept-Language Header”

    Hier ein kleines Beispiel

    Diese Methode wird eigentlich verwendet, wenn man auf einer Seite eine bestimmt Sprache anzeigen möchte. Gerade große Seiten versuchen damit auf die Sprache des jeweiligen Users zu reagieren. Dabei wird aus dem Browser die bevorzugte Sprache ausgelesen und dann halt der entsprechende Content angezeigt.

Lohnt sich Cloaking?

Google ist nicht doof und mittlerweile wird fast jede Art von Cloaking erkannt und sauber aus dem Index entfernt. Aus diesem Grunde, nein es lohnt sich nicht! Lasst die Finger davon, man kann sich schneller die Projekte aus dem Index schießen, als Lucky Luke seinen Schatten erschießen kann. ;)

Aber nicht alle Methoden sind Evil, gerade die Sprache zu erraten ist durchaus ein interessantes und sinnvolles Feature für den User und Webmaster. Und wie sagt Google immer so schön, baut die Seite für den User und nicht für Google.

Gebloggt in Böse Jungs
25 Kommentare
02/24 2009

Wanted – Dead or Alive….

Hey Linkzar,  ab sofort bist du Freiwild und wirst Steckbrieflich gesucht. Ich mache den Anfang und setze 500,- Euro auf dich aus.

Update: “Damit es nicht kriminell wird. Die Belohnung wird ausgesetzt, was zur Ergreifung des Linkzaren führt”

Gebloggt in Allgemein, Böse Jungs
38 Kommentare
01/26 2009

Expired Domains

Mittlerweile hat es sich ja rumgesprochen das ich doch ab und zu mal eine Expired Domain grabbe.

Mein letzter Beitrag zu diesem Thema ist knapp 1 Jahr her, zu diesem Zeitpunkt war ich nicht aktiv im “.de” Markt unterwegs. Das hat sich mittlerweile wieder geändert und da ich so oder so ein wenig mehr bloggen wollte, dachte ich mir das ich dieses Thema doch mal aufgreife, da es wirklich nur sehr wenig in der Seo Szene darüber zu lesen gibt.

Warum also zurück in den .de Markt?

Zum einem lag das am neuen Whois System der Denic. Natürlich musste ich mir diese Schnittstelle anschauen und hab bemerkt das die Denic keine Sicherheitssperre wie beim Whois eingebaut hatte. Da hat dann meine dunkle Ader mal wieder durchgeschlagen und ich konnte einfach nicht widerstehen. Diese Sicherheitslücke ist leider nicht wirklich lange offen gewesen (2 Wochen). Ob das daran lag das ich über den Tag verteilt über 30 Millionen Domaincheck Abfragen laufen hatte ???

Der Traffic war natürlich immens und es war nur eine Frage der Zeit bis die Lücke auffliegt. In dieser Zeit konnte ich eine menge Domains grabben, da waren richtige Perlen darunter. Vielleicht hat der ein oder andere das auch bei Twitter verfolgt. Ein paar sind projektiert worden, ein paar sind verkauft worden und einige sind einfach geparkt worden und werden jetzt nach und nach zu MiniSites oder richtigen Projekten umgebaut.

Natürlich hab ich Blut geleckt und konnte nicht mehr widerstehen weiter im .de Markt zu grabben, dass mache jetzt aber in einem wesentlich überschaubaren Rahmen (Kennt jemand ne gute Lücke bei der Denic? ;) ). Meine jetzige Ausbeute beläuft sich auf circa 20 bis 30 Domains im Monat. Die meisten davon baue ich zu MiniSites (10 Unterseiten) aus und hole mir so Trust und Backlinks auf meine Projekte. Was übrigens bestens funktioniert! Selbst die gegrabbten Domains ranken zu Ihren Themen immer sehr gut, also nix Neubewertung durch Google. Wer so einen Quatsch erzählt der hat von Expired Domains keine Ahnung.

Ein “kleines” Beispiel an einer Domain die ich gegrabbt habe und kurz vor Dezember projektiert habe.

Facts:
- Die Domain war 3 Monate im Denic Transit!
- Domain wurde am 02.10.2008 gegrabbt.
- Bis zum 27.11.2008, also knapp 7 Wochen, lag die Domain bei Sedo im Domainparking.
- Am 27.11. wurde ein Wordpress Blog installiert.
- Die Domain hat keinen! Dmoz Eintrag
- Domain hatte zu diesem Zeitpunkt 250 Backlinks.
- Domain hatte für diese Begriffe noch nie gerankt.
- Domain hatte einen Pagerank 5 (Hat Sie immer noch).
- Das Hauptkeyword ist nicht ein einziges mal als Linktext verlinkt worden.
- Das Hauptkeyword ist nicht im Domainnamen enthalten.

Der Chart hier zeigt den Rankingverlauf vom 01.12.2008 bis heute zum Hauptkeyword. Der Begriff hat knapp 30.000.000 Mio. Suchergebnisse. Bei Adwords wird das “exakte” Suchvolumen auf circa 110.000 Suchen im Monat geschätzt. Der durchschnittliche CPC bei Adwords liegt bei 0,65 Euro. Das Keyword ist durchaus hart umkämpft.

Der Chart hier zeigt den Rankingverlauf vom 27.11.2008 bis heute zum wichtigsten Nebenkeyword. Der Begriff hat knapp 320.000 Suchergebnisse.

Was erkennt man nun aus diesen Daten und Fakten.

  1. Google setzt den Status einer Domain definitiv nicht auf Null, auch wenn die Domain gelöscht worden ist.
  2. Ein Denic Transit schadet einer Domain nicht.
  3. Ein Domainparking Programm schadet einer Domain nicht.
  4. Google braucht aber eine gewisse Zeit von knapp 4 Wochen bis Sie der Domain wieder 100% Vertrauen schenkt.

Gerade der Sprung am Ende Dezember zeigt eindeutig das hier der Trust von Google zurückgekehrt ist.

Würde man mit einer neuen Domain versuchen diese Ergebnisse zu erreichen, würde man bedeutend länger brauchen und müsste wesentlich mehr Aufwand bei Linkaufbau betreiben.

Ich persönlich schwöre auf Expired Domains, bisher habe ich ausschliesslich positive Erfahrungen gemacht.

Gebloggt in Böse Jungs
20 Kommentare
11/6 2008

Seo Quiz

Mal ein kleines Seo Quiz für zwischendurch …
Was macht folgender Webseitenbetreiber falsch …

http://www.ex-clusiv.de/

Wer die Antwort wissen möchte muss weiterlesen…

Weiterlesen

Gebloggt in Böse Jungs
6 Kommentare
09/17 2008

Befreiphone – Befrei mich vom Hirn…

So da ja eigentlich fast jeder was zum Befreiphone geschrieben hat, will ich jetzt auch mal.

Warum zeigen einige für 1000 Euro ihr komplettes Linknetzwerk! Ich raffe das nicht?

Da gibt es doch einige, die wirklich fast Ihr komplettes Netzwerk einsetzten um bei diesem Wettbewerb vorne zu ranken!
Super das freut Google! Sicher kennt Google diesen Wettbewerb nicht! und schaut auch nicht genau hin mit welchen Backlinks und wie damit gearbeitet wird.

Anderseites muss ich mich bedanken für diesen “klasse SEO Wettbewerb“.

Erstens muss ich Randolf gratulieren, wirklich ein gelungener Linkbait und das für nur 2000,- Euro (2 Iphones) ! Damit hast du satte 400 Links für macnotes.de generiert, wahrscheinlich sogar noch ein paar mehr…

Zweitens hat es bei diesem Wettbewerb wohl 2 Seiten erwischt. Den Law-Blog und Supertopic.

Ich geh beim Law Blog davon aus, dass es Google wohl wenig geschmeckt hat, dass da für Links Geld fliessen sollte. Bäh so was mag Google überhaupt nicht.

Bei Supertopic, die praktisch die ganze Zeit auf Platz 1 standen, waren das wohl zu viele Links in zu kurzer Zeit und ein Filter hat zugeschlagen.

Sehr sehr Interessant. Das muss ich mir aber noch genauer anschauen. Ziemlich spannend die ganze Geschichte aus Seo Aspekten.

Gebloggt in Allgemein, Böse Jungs, Google
8 Kommentare
09/12 2008

“Google War” against PaidLinks oder Neue PR Abwertungsrunde…

Google´s PR Abwertungen der letzten Tage

Google´s PR Abwertungen der letzten Tage

Google kämpft weiter stark gegen den Linkverkauf. Aktuell sehe ich in Amerika wieder mal eine starke Abwertungsrunde. Das prominenteste Opfer ist wohl ddj.com die Ihren 8ter verloren haben und nun nur noch einen PR 5 haben. Wenn man sich die Seiten so anguckt, dann erkennt man meistens sehr sehr schnell das hier wirklich nur Domains abgewertet worden sind, die auch Links verkauft haben.

Vor ein paar Tagen hat es dann auch ein paar deutsche Webseiten erwischt. Prominent sind da wohl BerlinOnline.de und koeln.de beide haben Ihren 7ner verloren.  Wobei ich das bei BerlinOnline.de nicht wirklich verstehe, da ich dort keine Paidlinks erkannt habe, vielleicht gelten aber die Footerlinks als Böse…

Genauso versteh ich das auch mit Hood.de nicht. Die haben Ihren 5er verloren und haben nur noch einen PR von 3. Auch da konnte ich ausser Verlinkungen auf eigene Projekte nix finden was eine Abwertung gerechtfertig hätte.

Google lässt nicht locker, und manchmal gibts halt Collateralschäden im Krieg…

————————
Was in eigener Sache, in kürze werde ich die Übersicht die Ihr hier seht auch unter die Seo Tools zur freien Verfügung stellen. Das wird eine Art von “Pagerank History Tool” sein. Damit lässt sich von jeder mir bekannten Domain (Zur Zeit knapp 750.000 Domains) die Pagerank History zurückverfolgen. Leider hab ich nur die Daten von Ende Augst diesen Jahres.

Praktisch gesehen ist das ein Neues Tool und noch nicht bugfrei. Im Augenblick bin ich noch am testen, dauert also noch ein wenig! Ich hoffe, dass ich es fehlerfrei bis Ende des Monats bereitstellen kann.

Also Stay Tuned ;)