Gebloggt in Böse Jungs
13 Kommentare
05/7 2012

Be aware! Kritische PHP Lücke

Letzte Woche geisterte es durch die Presse. Diese PHP Sicherheitslücke ist wirklich extrem. Es betrifft eigentlich fast alle Server auf denen PHP im CGI Modus läuft. Wer genauere Infos zu dieser Lücke sucht, der kann sich den Heise Artikel mal durchlesen. Vom Prinzip her kann man sich jedes PHP Script auf einem Server anzeigen lassen, wenn man an die URL “?-s” dranhängt. Somit kann man relativ einfach prüfen, ob man selbst davon betroffen ist.

Lustigerweise hatte es auch es auch mal wieder Sony erwischt. Danke an Christian Schmidt ;)

Die Sony Jungs haben es dann aber relativ schnell wieder gefixt.

Die Lücke ist jetzt relativ simple zu prüfen und so war meine Überlegung das ganze mal zu kombinieren und einen Teil von Domains gegen diese Lücke laufen zu lassen. Das Ergebniss ist erschreckend. Von 1000 getesteten Domains waren 1,6 % betroffen.

Das sind immerhin 16 Domains. Darunter Shop Systeme, Blogs, CMS Systeme und eigene entwickelte Scripte.

Warum das wirklich so gefährlich ist? Hier sehen wir einen deutschen Shop und seine Admin Konfiguration. Den Rest kann man sich denken. Der Shop hat eine Sichtbarkeit und garantiert auch zahlende Kunden. Wenn die jetzt ihre Kreditkarten Daten dort hinterlassen haben …

Leider ist nicht immer verlass auf den Hoster. Bei den Prüfungen konnte ich einen Hoster entdecken, der knapp 300 Domains auf einem Server hostet und alle Domains waren für die Lücke verwundbar.

Mittlerweile ist auch ein Exploit zu finden, der diese Lücke ausnutzt und eine Remote Shell auf dem Server erstelllt. Aktuell hilft leider auch kein Update auf PHP 5.4.2 oder 5.3.12 (da beide Versionen leider immer noch leicht abgewandelt die Lücke nicht schliessen.). Einzig ein  .htaccess (mod-rewrite) Schutz zum abfangen von solchen Abfragen hilft im Augenblick weiter.

RewriteEngine on
RewriteCond %{QUERY_STRING} ^[^=]*$
RewriteCond %{QUERY_STRING} %2d|\- [NC]
RewriteRule .? - [F,L]

Noch was in eigener Sache. Da ich auch schon öfter mal drauf angesprochen worden bin. Mein Security Erfahrung werde ich auch bei Trust Agents zur Verfügung stellen. Wenn einer bedarf hat im Bereich Security/Web-Sicherheit, der kann gerne mit uns Kontakt aufnehmen -> http://www.trustagents.de/kontakt

P.s. Alle von mir gefundenen betroffenen Domains/Hoster sind benachrichtigt worden.

Gebloggt in Böse Jungs
9 Kommentare
09/4 2010

Domains, Blut und Konferenzen

Am letzten Donnerstag und Freitag fand in München die DomainvermarkterForum 2010 Konferenz statt. Für mich war das wirklich spannend, da ich zum ersten Mal in die Welt der Domainer reinschnuppern durfte. Ich muss sagen, dass die Domainer ein cooles Völkchen sind und jeder sehr offen war  und die Veranstaltung hat sich durchaus gelohnt mal einen Einblick in die Welt der Domainer zu bekommen. Auch die Speakerliste konnte sich sehen lassen und selbst der Domainer Pioneer Monte Cahn war zu der Veranstaltung angereist. Seine Company (Moniker/Snapnames) leitete schließlich die am Schluss stattfindende Domainauktion. Weiterlesen

Gebloggt in Böse Jungs
42 Kommentare
07/2 2010

12 Wege Wettbewerber aus den Serps zu kicken…

Thank God it´s Friday… Heute mal ein kleiner “Evil Post“, wird Zeit wieder ein wenig “Back to the Roots” Artikel zu schreiben.

1. Man setze mit automatischen Linktauschsystemen/LFE/Xrumor einfach mal 1000 Links mit harten Ankertexten für das entsprechende Keyword wo der Wettbewerber vor einem rankt. Bei großen Brands bringt es nix, kleine Seiten die auf generische Keys optimieren sind dafür wesentlich anfälliger! Die Wahrscheinlichkeit das man den Ankertext Filter auslöst ist sehr hoch. Weiterlesen

Gebloggt in Böse Jungs
40 Kommentare
06/15 2010

BlackHat China-Links + Google = Abzocke ?

Zur Campixx hatte ich einen Vortrag gehalten über die aktuellen Crap Hats die Replicas oder Fraud machen, in dem Sie Domains mit gehackten Backlinks versorgen.

Eigentlich dachte ich, dass es nur ein Einzelfall ist, aber mittlerweile ist eine riesen Welle dieser Domains in den Serps zu finden! Weiterlesen

Gebloggt in Böse Jungs
5 Kommentare
03/16 2010

Linkbuilding – Beyond the Line

[Update 10.06.2010] Ich habe lange überlegt ob ich diesen Post überhaupt veröffentliche, oder nicht? Dagegen spricht das ich Leute nicht auf diese Ideen bringen möchte. Allerdings halte ich “nichts für ungut” nur die wenigstens von euch für so gut, das Sie diese Methoden nachahmen bzw. kopieren. Vorsichtshalber hab ich den Part Angriffsziele und Angriffswege ausgelassen. Nur eine kleine Info an euch, es ist in den wenigstens Fällen wirklich das CMS ansich, sondern meistens die unsicheren Plug-Ins die man verwendet, seit euch immer im klaren umso mehr Plugins ihr nutzt umso gefährlicher lebt ihr damit, dass euer Blog gehackt werden kann! Mit Plug-ins holt ihr euch fremden Code! in euren Blog.

Ich möchte euch eher aufklären und zeigen, dass es wirklich im vollen Gange ist und nur wer sich informiert, der kann sich auch schützen.

Da ja einige nicht dabei sein konnten bei meiner Session, entweder aus gesundheitlichen Gründen oder aus Platzmangel hab ich mir gedacht stell doch mal einen Teil meiner Präsentation Online und zeig die wesentlichen Punkte.

Als Thema hatte ich Linkbuilding Beyond the Line. Wenn Xrumer Kindergartensoftware ist.

Ich überspringe jetzt ein paar Punkte (Vorstellung, Ablauf, Blackhat Tools & ihre Nachteile) und komm direkt zum Crap Hats Teil.

Was machen CrapHats? Was ist deren Ziel?

  • CrapHats überschreiten die Linie zur Illegalität!
  • CrapHats brechen auf Servern ein und manipulieren Webseiten so das der Betreiber es nicht merkt.
  • Sie holen Sich ihre Links ohne erkennbare Linkmuster
  • Sie variieren die Einbindemöglichkeit ihrer Links
  • Ziel ist es mit einer normalen Domain zu umkämpften Begriffen zu ranken!

Wie sieht so was in der Praxis aus?

Naja UK Serps… Sowas rankt doch nicht in Deutschland

Huch wie sieht denn die Backlinkstruktur aus?

Yahoo Siteexplorer Backlinks

CrapHats Variieren die Versteckten Links und lassen sich immer neue Methoden einfallen in dem Sie Links vor normalen Usern verstecken können.

žZusammenfassung

  • China Links sind die neuen Russen Links
  • žWarum China? Low Level Technik. Updates werden so gut wie garnicht gepflegt. Sprachbarriere (Englisch) für die Chinesen.
  • žGeotargeting über Backlinks klappt bei Google nicht (immer)!
  • žCraphats haben ehr UK & Ami Serps im Blick
  • žAktuell nutzen CrapHats kein Affiliate oder Adsense. Sie versuchen eigene Waren loszuwerden (z.B. Replicas) nutzen Dropshipping oder verkaufen Virtuelle Güter (z.B. WOW Gold).
  • Zuviele Webmaster vernachlässigen ihre eigene Securtiy

Angriffsziele und Angriffswege

Diesen Teil möchte ich auslassen.

Wie schützt man sich?

Einige Tools hab ich aus der Liste entfernt!

Firefox Plugins
- SQL Inject me
- XSS Me
- Access Me
žSprajax ermöglicht es, eigene Ajax-Anwendungen auf ihre Sicherheit hin zu überprüfen. Das Tool unterstützt derzeit nur mit Microsoft Atlas erstellte Anwendungen und erfordert Visual Studio.
žSWFIntruder - Sucht in Flash-Dateien nach möglichen Cross-Site-Scripting- und Cross-Site-Flashing-Schwachstellen.

Danke für eure Teilnahme!

Gebloggt in Böse Jungs
14 Kommentare
03/9 2010

Gaga Campixx und mein Vortrag

Um so näher die SEO-Campixx 2K10 rückt, umso mehr Gaga werden die Leute. Die Vorfreude ist riesig und auch ich freue mich auf die Campixx. Ich hoffe das ich meine Erkältung (mal wieder) bis dahin auskuriert habe und voll Fit in die Campixx einsteigen kann.

Letztes Jahr war ich zwar nur am Sonntag da und hab den grandiosen Samstag verpasst. Tja war leider nicht anders möglich. Dieses mal bin ich aber beide Tage anwesend und werde auch dieses Jahr einen kleinen Vortrag halten.

Das Thema lautet: Linkbuilding – Beyond the Line – Xrumer ist Kindergarten Software und wird am Samstag Nachmittag um 16.15 im TRG Raum stattfinden.

Dabei werde ich Angriffsziele, Angriffswege und die kreativen Adern der CrapHats aufzeigen und warum Google bei so was immernoch versagt inkl. aktueller Beispiele von CrapHats die sogar schon weit ins kriminelle hineingehen! Aber auch Wege des Schutzes werde ich aufzeigen, Plugins & Tools die helfen präventiv Vorzugsorgen.

Es wird eine Session in der wirklich extrem dunkle Seiten des SEO aufgezeigt werden. Deswegen würde ich alle bitten die meine Session verfolgen auf das Twittern und Bloggen dieser Session zu verzichten. Auch die Präsentation wird hier im nachhinein nicht veröffentlicht. Ich persönlich glaube nicht, dass irgendeiner aus der Session diese CrapHat Sachen nachmachen wird, da diese ein sehr sehr hohes Technisches Know How voraussetzen und ebenso auch ins Kriminelle abdriften.

Wer aber einen Einblick in diese doch eher unbekannte CrapHat-Szene bekommen möchte, ist glaube ich doch ziemlich gut in meiner Session aufgehoben.

Wie sagte SunZi so passend:

Wenn du den Feind und dich selbst kennst, brauchst du den Ausgang von hundert Schlachten nicht zu fürchten. (…) Wenn du weder den Feind noch dich selbst kennst, wirst du in jeder Schlacht unterliegen.

In sofern, wir sehen uns auf der SEO Campixx 2k10…

Gebloggt in Böse Jungs
17 Kommentare
02/3 2010

Conversion Optimierung mittels Usererkennung

Inspiriert durch SEOFM und deren Gast Jason Duke

Die perfekte Seite für den User aufzubauen, heißt den User so gut es geht zu erkennen. Wer wirklich clever ist, der nutzt eine Mischung aus Clienseitigen Hacks und Serverseitigen Hacks und kombiniert beide Hacks zu einer großen User Informations Datenbank. Das schwierige ist ehr die Kommunikation zwischen Clientseitigen Hacks und Serverseitigen Hacks, aber durch ein paar kleine Kniffe, kann man solche Daten selbst ohne Ajax und Reload von Seiten auswerten und nutzen. Wahrscheinlich wird Jason Duke genau das tun, da er gerade exakt solch einen Programmier sucht.

Auch gestern ist wieder durch die Presse gegangen, dass man mittels einem relativ alten Clienseitigen Hack die Browserhistorie auslesen kann. Deren Prinzip war es sich auf Social Media Seiten zu stürzen und die Einmaligkeit von Gruppenzugehörigen auszuwerten und so den User zu identifizeren. Das funktioniert erstaunlich gut, selbst mein kleines billiges Script kann solche Daten auslesen und in einer Datenbank zwischenspeichern. Kombiniert man das noch zusätzlich mit der IP Adresse des Nutzer und nutzt GEO IP targeting, so hat man den User schon praktisch an den Eiern.

Was man damit alles anstellen könnte, mal ein paar Gedankenspiele…

Beispiel aus der Praxis an einer Hotelvergleichsseite bei einer Unterseite eines Stuttgarter Hotels.

Wenn ich die Hotelvergleichsseite wäre, würde ich prüfen welche Seiten der User bisher besucht hat. War der User auf einer Fluggesellschaft Webseite wie Air Berlin, Lufthansa etc… oder einem Flug Preisvergleich, oder ist der User Stammuser der Deutschen Bahn?

Klasse jetzt weiss ich wie der User am liebsten reist! Warum biete ich ihm dann nicht schon das beste Angebot auf der Seite an? Er hat die Lufthansa Seite besucht, vielleicht auch sein Miles & More Konto geprüft. Na klasse besser targeten kann ich den User ja garnicht! Wenn ich jetzt noch seine IP einer Stadt zuordnen kann und so sehe das er aus Hamburg kommt, bekommt er direkt auf der Seite angezeigt:

Lufthansa bietet aktuell Flüge von Hamburg nach Stuttgart für nur 39 Euro an! Inkl. Miles & More Punkten

Sollte er halt doch lieber mit der Bahn fahren, da in seiner Browserhistory die bahn.de Seite besucht worden ist, kann ich diese Anzeige halt anpassen und so ihm diese Anzeige präsentieren:

Deutsche Bahn mit Wochenend Ticket von Hamburg nach Stuttgart für nur 19 Euro. So kommen Sie günstig und entspannt ins Hotel!

Ich muss den User auf meine Bedürfnisse erkennen und anpassen und ihm so die optimale Werbung bzw. mein Angebot schmackhaft zu machen. Bei der Hotelvergleichsseite kann ich mir durchaus vorstellen, das  so was die Conversion stark erhöhen würde.

Oder anderes Beispiel:

Ich hab eine Kredit Vergleichsseite. Naja gut eine unter vielen. Warum frag ich den User nicht ab, auf welchen anderen Vergleichsportalen er schon war? Wenn ich sehe das er schon auf  3 anderen Kreditvergleichsseiten war: Dann schreib ich ihn persönlich auf meiner Seite:

Konnte ihnen Seite 1, Seite 2 und Seite 3 nicht bei einem passenden Kredit helfen? Wir beraten Sie gerne und helfen Ihnen den perfekten Kredit für Sie zu finden.

Ich denke die dummen User würden sich freuen und sagen: “Juhu endlich eine Seite die mich versteht” Die schlauen fragen sich ehr: “Fuck, woher weiss die Seite das?” Jetzt könnte man noch schauen bei welcher Bank er sich einloggt und seinen Kontostand prüft. Den Rest denkt euch selber…

Das sind jetzt mit Sicherheit sehr extreme Beispiele und mit Sicherheit kann man solche Methoden noch verfeinern und ggf. subtiler ausliefern. Mir fallen 1000 gute Beispiele ein die man so nutzen kann, gerade als Affiliate kann man den User noch bessere Werbemittel ausliefern und so seine Conversion garantiert stark steigern.

Selbst wiederkehrende User könnten mit einer Reihe von kombinierten Daten zu einem Eindeutigen User erkannt werden. Selbst mit einer anderen IP und ohne Cookie Erkennung. Es lassen sich zu viele eindeutige Daten eines User sammeln (Browserkennung, Browserkonfiguration, Betriebssystem, DSL Provider, Standort, etc…) . Ach und wenn man es sich ganz einfach machen will, dann fragt man halt einfach mal die Alexa Top 1000 deutschen Webseiten ab. Ich denke dann kann man sich schon ein sehr sehr gutes Bild vom User machen.

Ein Nachteil hat diese Methode, leider steht man dabei schon mit einem Bein im Knast. Die Datenschützer kriegen bestimmt Pickel auf der Stirn, wenn Sie das Lesen…

Gebloggt in Böse Jungs
11 Kommentare
01/26 2010

Keimpku und Antworten auf die Fragen…

Marco fragt: Was mache ich mit Domains, welche mein Mitbewerb anlinkt und ich zwischenzeitlich neu gereggt habe?

Den Schein waren und dir von dort Links aus der 2ten Ebene auf dein Projekt ziehen.

Weiterhin fragt Marco: Wie verhalte ich mich bei besagten Domains, wenn Sie NICHT themenrelevant sind, aber von Authoritäten kommen?

Den Schein waren. Thema beibehalten und dir dort aus der 2ten Ebene Links ziehen. Reduktion der internen Links auf der Startseite. So das der Juice gut auf die 2te Ebene kommt. Dort kannst du dann thematische “Seiten Cross Relevanz” herstellen. 

Dennis fragt: Benutzt du Tools zum effektiven Linkaufbau, wenn ja, welche?

Tools und Effektiv in einem Satz ist schon so ne Sache. Gerade Software von der Stange ist meistens ehr Schrott. Aber im Augenblick spiel ich ein wenig mit einer Software rum, von der ich sehr angetan bin. Aber grundsätzlich kann solche Software nur dafür dienen, um die Basis (Low Level Links) einer natürlichen Linkpyramide aufzubauen. Für Nischen kann sowas aber durchaus reichen.  Aber um die Frage zu beantworten, Nein ich nutze keine Tools von der Stange. Ich hab ein paar kleine helferchen Tools programiert, die mir einige Dinge erleichtern, aber das meiste ist gute alte Handarbeit.

dzvo fragt:  Autotextgenerierung würde mich interessieren. Sprich gibt es Tools oder Ansätze damit auch sinnvolle Texte entstehen?

Sinnvoll für den User oder die Maschine? ;) Sind immer zwei Sachen. Für den User ist es durchaus möglich, aber du brauchst eine sehr gute Synonmdatenbank. Die Texte werden aber meistens Schrott. Die alternativ ist RSS ReScrambling (Satzzeichen Filterung) mit Synonymisierung ohne Stopwords Filterung.  Problem ist da das du zwar halbwegs vernünftige neue Sätze bekommst, aber die in keinem richtigen Context zueinander stehen. Für eine Maschine ist sowas nur extrem schwer zu erkennen, ein Quality Rater sieht aber sowas sofort. Die beste Autotextgenerierung sind Content Sklaven, bei dem krassen Preisen die man mittlerweile zahlt, lohnt sich ja schon fast garnicht sich sowas zu programmieren. Die Alternaative ist Content Spinning. Zieh dir von verschiedensten Quellen Daten und mixe sie zu deinem Thema wieder zusammen. Sowas kann sogar einen mehrwert bieten und DC Probleme bekommst du ebenfalls nicht.

Filip fragt: Linkbuilding allgemein: Wie machst du es für deine Projekte? Linktausch, Spam (Blogkommentare, Gästebücher, Foren), Linkbaits oder andere Taktiken?

Kommt immer auf das Projekt drauf an.Da die meisten Projekte aber auf Expireds von mir liegen, entfällt ja praktisch das Basislinkbuilding, und du kannst  dich den etwas besseren Links konzentrieren. Und da kaufe, tausche und zieh ich mir die Links aus meinem Netzwerk.

Flo fragt: Was sagst Du zum Thema Webkataloge / Artikelverzeichnisse, bringen diese Links noch etwas. Sollte man gänzlich darauf verzichten?

Schrott, aber… In einer gut gemixten Backlinkstruktur können Sie mit dazu gehören. Also ruhig mitnehmen, solange man sein Linkbuilding nicht ausschliesslich auf diese Art von Links beschränkt. Erhöht die Class C, IP sowie Domain Pop.

Mark: Mich würde ein Vergleich von themenrelevanten contra themenfremden Links interessieren.

Totaler Bullshit… Aber es gehört ja zum guten SEO Ton mittlerweile, dass Google themenrelevante Links höher bewertet als themenfremde Links. ATM & IMHO “Totaler Bullshit”, ich hab noch keine einzige Studie oder Versuchsreihe gesehen, die das bestätigen soll. Vielleicht in ein paar Jahren sieht die Welt anders aus. Durchaus sehr wahrscheinlich das Google da in naher Zukunft den Algo besser anpassen wird.  Aber dieser ganze Hype um Themenrelevanz ist im Augenblick sowas von overhyped… Aber pssst sowas darf man ja nicht mehr sagen…

Ja, themenrelevante Links sind besser als themenfremde Links!

Andi fragt: Zieht Deiner Meinung nach die Keywordabfrage mit Akzent ” ´ ” noch, um Filter in den Serps auszuschalten?

Diese Theorie ist ja schon seit Jahren sehr umstritten. Ich bin der Meinung, dass man damit durchaus Filter umgehen kann. Meiner Erfahrung nach passen sich die Ergebnisse einer Abfrage mit Akzent und ohne Akzent über die Zeit an. Hab ich schon öfters miterlebt.

Denis fragt: Was mach ich mit einer Domain die seit 2006 stillgelegt ist, NICHT themenverwandt ist, ABER follow Links von großen Handyseiten hat Insgesamt ca. 80 Domain-Backlinks. Einfach auf meine themenfremde Seite mit 301 weiterleiten?

Nö, mach ein Restoring der Seite. Lass Sie indizieren. Lass Sie ruhig ein wenig laufen, dann holst du dir aus der 2ten Ebene themenrelevante Links. Zusätzlich kannst du die Seite als Linktauschdomain nutzen.

NED fragt: Gibt es eine BH Technik die langfristig für gute Resultate sorgt? Wenn ja, welche und wieviel kostet die SW (wenn es welche gibt) die mithilft?

Ja, die Software nennt sich Keimpku (Kreative eigene Idee mit Programmierung kombinieren und umsetzen). Ne aber mal ernsthaft, solange man verschiedene Tools miteinander kombiniert und etwas kreativtät mit reinbringt, kann man echt nette Sachen machen. Ich hab da auch schon mehrere Jungs gesehen, die mit BlackHat durchaus richtig ein paar Euros verdienen. Diese Jungs nutzen aber fast ausschliesslich eigene Software, in einem kleineren Rahmen geht das aber durchaus auch mit den gängigen Tools.

Matze fragt: Wie schaut es aus, wenn man sich für ein neues Projektvorhaben bei SEDO eine gute Keywoddomain kauft, die geparkt ist. Wie dann am besten vorgehen?

Wie mit jeder anderen Domain auch! Einzig wenn die Domain mal verbrannt war und du Sie nach dem Setzen von Links nicht in den Index kriegst, würde ich dann einen zusätzlichen Reconsideration Request stellen, dann sollte die Domain auch wieder nutzbar sein.

Mike fragt: Wie genau kann ich meine Chancen “ohne teures tool” erhöhen wenn ich eine in kürze frei werdende Domain unbedingt haben möchte und ich wahrscheinlich nicht der einzige bin. Reicht es sich bei names. anzumelden od besser mehrer ?

Kommt immer auf die TLD an. Bei .de kannst du das vergessen, die Domains gehen innerhalb von Sekunden wieder weg. Bei CNOIB ist das sogar im Milisekundenbereich! Also Ja, wenn es CNOIB ist, dann hast du keine andere Wahl, als über Snapnames, Pool oder Namejet zu gehen. Meistens landet Sie dann bei einem der Snapdienste.

Andreas fragt: Wie komme ich an Backlinks von Trustrank gebenden nahen Seiten? Auch die zweite Reihe ist schwer zu “knacken”

Wenn du die “angeblichen” ca. 200 per Hand ausgewählten Domains meinst, den Google besonders vertraut, dann ist es schwer da was pauschal zu sagen. Aber möglich ist es immer, schau da mal(http://www.thegooglecache.com/uncategorized/getting-links-from-the-top-50-domains/), da hat einer doch tatsächlich die Top 50 Ami Webseiten untersucht und versucht von jeder Domain sich ein Linkchen zu sichern, teilweise erfolgreich, teilweise etwas veraltet. Aber die Grundsatzgedanken sind richtig.

Es sind noch ein paar nachträgliche Fragen eingetrudelt. Die werde ich dann in kürze hier auch noch mal beantworten.

Gebloggt in Böse Jungs
1 Kommentar
11/18 2009

Presell Pages

Nein diesmal gibts nicht wirklich einen informativen Beitrag zum Thema Presellpages von mir, sondern ein wenig was in eigener Sache.

In den vergangenen 2 Jahren hab ich praktisch jede Woche immer wieder mehrere Anfragen bekommen, ob ich nicht Expired Domains verkaufe oder ob ich nicht Links auf den Expired Domains verkaufen möchte. Bisher hab ich mich standhaft geweigert zu verkaufen. Ich werde mich auch weiterhin weigern Expired Domains zu verkaufen. Klar es gab immer wieder mal Ausnahmen. Aber solche Ausnahmen bestätigen nun mal die Regel, und die sieht vor das ich keine Expired Domains verkaufe. Weiterlesen

Gebloggt in Böse Jungs
39 Kommentare
11/5 2009

10 Tipps zum Thema Expired Domains

Da ich immer mehr das Gefühl habe, dass die Leute mehr Twittern als Bloggen möchte ich heute ein wenig Futter für euren Feedreader geben.

Ich werde häufig gefragt, wie man denn nun am besten Expired Domains grabbt. Viele verstehen das Prinzip dahinter nicht richtig und denken das Sie eine revolutionäre Technik dazu entwickelt hätten, bis ich ihnen ihre Träume platzen lasse wie Seifenblasen.

Dennoch gibt es auch im Expired Domain Bereich Gebiete die kaum beackert werden, auch ich habe mich in neue Regionen und Gebiete eingearbeitet und schon wieder wirklich klasse Domains gegrabbt (z.B. 10 jahre alte Domain mit 300er Class C IP Pop und davon zig High PR Edu Backlinks!). Kreativität mit technischen Know How ist in der heutigen Zeit schon praktisch das A und O vom erfolgreichen Grabbing… Weiterlesen