Gebloggt in Google
87 Kommentare
04/25 2012

Google räumt weiter die Serps auf

Aua, das hat gesessen Google. Respekt für das Update! Damit habt ihr so einge SEOs ordentlich getroffen. Doch der Reihe nach.

Was ist passiert?

Die Serps sind ordentlich durchgewürfelt worden. Gerade viele Top Keywords haben ein ordentliches shuffling hingelegt. Auf der Gewinner Seite sind es “mal wieder” die Brands, auf der Verlierer Seite die “dünnen” (Affiliate) Seiten. Nichts gegen die Brands, den die machen es Richtig!

Wen hat es erwischt?

Da zitiere ich aus dem Post den Google heute Online gestellt hat. Der Schrecken aller SEOs högscht (Ein bisschen Jogi muss auch sein, so kurz vor der EM) persönlich Matt Cutts hat ihn verfasst. -> Another step to reward high-quality sites

Sites affected by this change might not be easily recognizable as spamming without deep analysis or expertise, but the common thread is that these sites are doing much more than white hat SEO; we believe they are engaging in webspam tactics to manipulate search engine rankings.

The change will go live for all languages at the same time. For context, the initial Panda change affected about 12% of queries to a significant degree; this algorithm affects about 3.1% of queries in English to a degree that a regular user might notice. The change affects roughly 3% of queries in languages such as German, Chinese, and Arabic, but the impact is higher in more heavily-spammed languages. For example, 5% of Polish queries change to a degree that a regular user might notice.

We want people doing white hat search engine optimization (or even no search engine optimization at all) to be free to focus on creating amazing, compelling web sites. As always, we’ll keep our ears open for feedback on ways to iterate and improve our ranking algorithms toward that goal.

Das geht hier ganz klar über das normale erkennen von Black Hat Stuff wie Hidden Text oder Link Spamming hinaus. Zwar sind es bei uns nur 3% aller Search Queries die betroffen sind und deutlich weniger als bei Panda, dafür sind es meist umkämpfte Keywords im Shorthead Bereich.

Gerade eine Menge Keyworddomains die keinen wirklichen Mehrwert für den User hatten, hat es dann doch ordentlich erwischt. Man muss nur in den umkämpften Bereichen (z.B. Finanzen, Versicherungen, Telekommunikation) sich umschauen und man findet genügend Beispiele, seinen es Minisites oder nur simple Affiliate Linkschleudern.

Es hat mal wieder die Falschen erwischt?

Hat es das wirklich? Auch ein paar Domains von mir hat es erwischt und da muss ich auch sagen zurecht. Die Domains waren jetzt nicht wirklich gut projektiert, hatten das übliche von SEO Gedöns um gute Rankings zu haben. Also SEO Texte, eine passende Keyworddomain und Backlinks aus dem eigenen Satelietten Netzwerk. Hat ja bisher auch wunderbar funktioniert. Kaum hattest das nach Schema F durchgezogen, waren dir die Rankings relativ sicher. Ist ja auch mittlerweile kein großes Geheimnis mehr, dass du so relativ schnell und gut auf der ersten Seite gelandet bist. Trotz der Brandupdates, Panda Updates und so weiter ging diese Masche immer bestens auf, bisher zumindestes.

Was heisst das für die Zukunft?

Klingt mies abgedroschen, aber mach einfach das beste Projekt zu dem Thema. Sind Keyworddomains tot? Sind Backlinks tot? Sind Affiliate Seiten tot? Nein sind Sie nicht! Sie sind aber nix wert, wenn du sie mies projektierst und schnell mit Backlinks vollballerst und 2 Sterne Texte für 1,50 € schreiben lässt. Spar dir die Zeit! Wir SEOs müssen uns zurück auf Qualität besinnen. Wir müssen Produktmanager sein, uns als User Experience Experten erweisen und Online Marketeers sein, die zukunftsweisend vorausdenken und keinen Schrott liefern. Fokusierung auf einige wenige Projekte und diese dann Richtig machen.

War SEO früher leichter? Ja war es! Hast dein Schema F gefunden, konntest du relativ berechnend gute Rankings einfahren.

Die Grauzonen in denen wir uns bewegen werden immer schmaler und Google schärft die Krallen im Katz und Maus Spiel, sei es Panda, unnatürliche Links oder jetzt “dünne” Seiten.

UPDATE (03.07.2012)

Die vom Update betroffenen Seiten mögen nicht ohne eine weitergehende Analyse sofort als Spam zu erkennen sein, sie haben jedoch gemein, dass sie viel mehr als nur Whitehat-SEO praktizieren; wir glauben, sie nutzen Techniken um gezielt ihre Positionierung in den Suchergebnissen zu verbessen.

Die Änderung wird in allen Ländern zur selben Zeit aktiviert. Zum Verständnis, vom eigentlichen Panda-Update waren ca. 12% der Suchanfragen betroffen, diese Änderung hier betrifft ca. 3.1% der häufig genutzten englischsprachigen Suchanfragen. Die Änderung betrifft ungefähr 3% der Suchanfragen in Sprachen wie Deutsch, Chinesisch und Arabisch, wobei der Einfluss in Ländern mit einem höheren Spamaufkommen auch größer sein kann. In Polen beispielsweise sind 5% der Suchanfragen betroffen.

Wir möchten Webseitenbetreiber dazu bringen Whitehat-SEO (oder sogar gar kein SEO) zu betreiben und sich voll und ganz darauf zu konzentrieren, inhaltlich hervorstechende Webseiten zu erschaffen. Wie immer sind wir auch bei diesem Update offen für jegliches Feedback zur Verbesserung der Qualität unserer Suchergebnisse.

Update: Danke an Gretus von SEO-united.de – Suchmaschinenoptimierung für die nachträgliche Übersetzung des Statements von Matt Cutts. Nett von dir.

Gebloggt in Google
5 Kommentare
06/27 2011

OMG Pagerank Update!!!!

OMG! WTF! LMAO! Serious???? Ich glaubs ja nicht!!!!

So haben wir das auch geklärt und ich hab mal wieder gebloggt…

Gebloggt in Google
60 Kommentare
09/9 2010

Ein Blick auf Google Instant…

Ich hab mir die Google Instant Ajax Suche ein wenig genauer angesehen und versuch euch mal ein wenig zu erklären wie die Google Instant Suche aus der technischen Sichtweise funktioniert. Meiner Meinung nach schadet es nicht zu verstehen was Google tracked (bzw. schon traced, da auch Zeitdaten erfasst werden) und was Google wirklich versucht von uns herauszukriegen. Nur so kann man sich entsprechend einstellen und die richtigen Maßnahmen ergreifen. Persönliche Meinungen zu Instant gibt es wie Sand am Meer, darüber noch zu schreiben finde ich langweilig. Warum also nicht mal den Background von Instant erforschen. Weiterlesen

Gebloggt in Google
4 Kommentare
07/8 2009

Ohhh Gott ein Google OS…

Google will das OS Land erobern. Wie ich eben bei Sistrix und auf dem offziellen Google Blog lesen durfte, plant Google ein OS zu veröffentlichen. Man möchte seine Idee eines OS an den Mann bringen.  Schnell, leicht und einfach soll es sein.

Das hat man auch vom Chrome Browser gedacht. Der aktuelle Marktanteil ist sowas von irrelevant, daß kann man schon kaum noch in Prozent ausdrücken.

Wenn es Apple im OS Markt nicht mal schafft sich einen bedeutenden Marktanteil zu sichern, wie soll das dann Google schaffen?

Selbst über die schiene Netbooks, kann es nix werden. Der Markt für Netbooks wächst zwar am stärksten, doch auch der wird in kürze wieder einbrechen (Sättigungseffekt). Ich sehe realistisch maximal einen Marktanteil von 1% wenn überhaupt und das ist schon exterm optimistisch. Real schätze ich den Marktanteil 1 Jahr nach Veröffentlichung des OS auf circa 0,3%.

Ausserdem ist das Image von Google und der Datenkrake nicht gerade förderlich. Sorry selbst bei Microschrott weiss man nie was das OS wirklich nach Hause sendet. Da werde ich mit Sicherheit kein Google OS auf meinem Netbook installieren. Auch wenn das Zeug OpenSource ist. Irgendwann ist mal schluss mit Lustig und diesem permanenten Daten sammeln.  

Das Ding wird ein Rohrkrepierer. Da bin ich mir schon ziemlich sicher…

Gebloggt in Google
23 Kommentare
06/16 2009

Pagerank Sculpting und meine zwei Gedanken dazu…

The Holy Google Spamhunter Matt Cutts hat sich zu Wort gemeldet und das Thema Pagerank Sculpting angeschnitten. Jens hat sich ebenfalls dem Thema gewidmet. Und nun gebe ich meine 2 Gedanken dazu.

Matt Cutts sagt das wenn Google 100 Pagerank Punkte von einer Seite zu vergeben hat und auf dieser Seite gibt es 10 Links, so würde jede Seite 10 Pagerank Punkte bekommen. So weit so Gut. Google hat dann das NoFollow Attritube (Nein es ist kein Tag!) unterstützt und so konnte man 5 unnötigen Links das Nofollow verpassen und so wurden dann diese Seiten nicht mehr bei der Pagerank Vergabe berücksichtigt. Ergo hatten dann die 5 Links ohne Nofollow 20 Pagerank Punkte bekommen.

Genau dieses hat Google wohl schon vor über einem Jahr geändert. Google teilt die 100 Punkte praktisch auf die 10 Links egal ob Nofollow oder nicht. Jede Seite hat somit 10 Pagerank Punkte.

Klar ist das man Seiten wie das Impressum nicht mit irgendwelchen Methoden versucht zu maskieren. Denn sowas kann dazu führen, dass man sich rechtlich in eine Grauzone begibt. Auf die Seite sollte ein Noindex und gut ist.

Also was tun damit man wichtigen Seiten verstärkt Linkjuice geben kann?

Super hätte ich gesagt und alle unnützen Links würde ich mit Javascript für Google unkenntlich machen. Aber halt da war doch was, dass Google nun auch Javascript Links mittlerweile folgt und wertet. Also nicht wirklich eine Alternative. Welch Zufall auch das beide Infos relativ Zeitnah veröffentlicht worden sind.

Das neue Pagerank Sculpting ist die Reduktion von erkennbaren Links.

- Bei Blogkommentaren wird die URL einfach entfernt.
- In Foren werden Signaturen und weitere Linkmöglichkeiten entfernt.
- Iframes werden wieder vermehrt zum Einsatz kommen.
- Flash könnte durchaus öfter zum Einsatz kommen.
- Vercrypetes Javascript wird wohl wieder vermehrt zum Einsatz kommen. Wobei Google das technisch durchaus wieder entcrypten könnte.
- Weitere Methoden werden entwickelt um den User Links anzuzeigen und Google diese Links nicht erkennt. Jede Seite wird überprüft welche Links unnütz sind und diese werden entfernt. Es wird aufgeräumt.

Oder was denkt ihr?

Gebloggt in Google
12 Kommentare
04/25 2009

Google´s Whois Privacy Service oder Admin-C Popularität

Julian hatte vor kurzem etwas zur Admin-C Popularität geschrieben. Ich stimme in weiten Teilen Julian zu, aber ich muss eins festhalten, was sich mittlerweile zum SEO Mythos gemausert hat. Google ist KEIN offzielles Denic Mitglied und somit auch kein “de” Registrar. Damit hätte Google wenn überhaupt nur Zugriff über externe Quellen oder auf die normale Whois Abfrage der Denic. Sollte aber Google auch diese Abfrage Methode verwenden, was ja durchaus möglich wäre, so würden Sie sich rechtswidrig diese Daten holen! Dazu mal die Nutzungsbedingungen der Denic:

———————————————————————————————–

Die in der whois-Abfrage ersichtlichen Domaindaten sind rechtlich geschützt. Sie dürfen nur zum Zwecke der technischen oder administrativen Notwendigkeiten des Internetbetriebs oder zur Kontaktaufnahme mit dem Domaininhaber bei rechtlichen Problemen genutzt und ohne ausdrückliche schriftliche Erlaubnis der DENIC eG weder elektronisch noch in anderer Art gespeichert werden. Insbesondere die Nutzung zu Werbe- oder ähnlichen Zwecken ist ausdrücklich untersagt.

———————————————————————————————–

Sorry, aber die whois Daten sind für Google zur technischen Notwendigkeit des Internetbetriebes absolut irrelevant.

Es ist durchaus richtig, dass Google mittlerweile Domain Registrar ist, dazu hier der Artikel der NYTimes aus dem Jahre 2005! Google ist aber nur Registrar für folgende Top Level Domains .com/.net/.org/.info/.biz. Auch sehr schön zu sehen bei Google Apps (Link zur Domainregistrierung über Google). Übrigens mit Whois Protection (Private registration to protect your personal information) wenn man möchte. Ein Schelm wer dabei Böses denkt… :) Und Nein ich habe diesen Service noch nie genutzt und kann dazu auch nix sagen…

Jetzt kommen wir aber zu dem Teil der vermuten lässt das Google deutsche .de whois Daten kennt. Vor kurzem ging durch die Presse das Google deutsche whois Daten in den Serps anzeigt. (Heise) Diese Daten basieren aber auf den whois Pool von Domaintools und Domaintools soll mit Google zusammenarbeiten. Wäre das der Fall, hätte Google einen Teil der 12.000.000 “.de” whois Daten vorrätig! Und intern könnten diese Daten genutzt werden. Ich geh aber ganz stark davon aus, dass Domaintools diese Daten rechtswidrig abspidert und für teures Geld wieder verkauft. Fies und absolut Mist. Sorry und Google wird sich nicht auf so ein Glatteis begeben.

Ich konnte auch keinen einzigen Beweis finden, dass Google wirklich mit Domaintools zusammenarbeitet. Ich gehe ehr davon aus, dass Google einfach die entsprechenden Seiten abspidert und die Seiten so toll findet, dass er praktisch diese Seite als Info dann dem User anzeigt. Es ist also praktisch nur ein Serps Ergebnis was ein spezielles Flag bekommen hat, halt wie eine Bahn Suche in Deutschland zum Beispiel. Google wird in den Algo keine Drittdaten einbauen, wo sie sich nicht selbst diese Daten besorgt haben. Wenn Google etwas macht, dann machen Sie es auch richtig und nicht so etwas dahin geklatschtes.

Ganz anders sieht die Welt bei den cno Domains aus. Google ist ja mittlerweile soweit das man die Domains ja nicht mal anlinken muss, damit solch eine Domain in den Index kommt. CNO Domains landen relativ schnell im Index, was natürlich dafür spricht das Google dort die offizielle Registrar Schnittstelle nutzt. Somit könnte auch eine interne Google Domain Whois History vorhanden sein. Da bin ich mir zu 100% sicher, dass diese auch vorhanden ist. Ob diese aber in den Algo mit einfließt oder ein Ranking Faktor ist, kann leider nur spekuliert werden. Möglich wäre es. Aber da hat sich Julian ja schon ein paar Gedanken dazu gemacht.

Sollte man sein Netzwerk mit cno Domains aufbauen, so sollte man sich die Tips von Julian zu Herzen führen.

Gebloggt in Google
8 Kommentare
12/31 2008

Es ist mal wieder so weit… PR Update

Das Pr Update ist durch. Die meisten Datacenter sind auch schon mit den neuen Werten unterwegs. Entdeckt hats mal wieder der liebe Sistrix.

Matt Cutts hat es auch schon per Twitter bestätigt.

Was mich wundert ist das Google mittlerweile eine andere Technik einsetzt die Daten schnellstmöglich an alle Datacenter zu verteilen. Gerade beim letzten Update und bei diesem Update sind die Datacenter extrem schnell geupdatet worden. Die Zeiten wo die PR Daten auf einem IP Class C Block zuerst zu finden ware, ist wohl vorbei.

Hoffe das für euch der Start so ins neue Jahr positiv beginnt.

Aber vergisst nie PR != Serps Positionen ;)

Gebloggt in Google
4 Kommentare
11/24 2008

Googles Pagerank Änderungen nach Kalenderwochen…

In letzter Zeit konnte ich messen, daß Google seinen Pagerank öfter Updatet als bisher.

Eine nette kleine Flash Grafik zeigt eigentlich ziemlich deutlich das Google immer mehr Änderungen am Pagerank macht. Waren noch in den ersten Kalenderwochen selten PR Änderungen zu sehen, so ist das in der letzten Woche schon im 5 stelligen Bereich.


Die ganz große Änderung kommt vom letzten Pagerank Update.

Google reagiert wesentlich schneller auf Domains die eine Weiterleitung [301, 302] eingerichtet haben. Genauso bei gedroppten Domains oder Domains die eine längere Zeit nicht mehr erreichbar sind.
Diese hatten früher meistens erst mit einem Pagerankupdate ihren PR verloren, nun aber kastriert Google den Pagerank wesentlich schneller.

Auch kleinere Domains die Footerlinks oder Links aufweisen, die darauf hindeuten das Links verkauft werden, werden nun mit Pagerank Entzug bestraft. Vorher waren es meistens größere Projekte mit PR von > 4. Mittlerweile sehe ich das auch bei PR 2 und 3 Domains.

Wer glaubt das Google den Pagerank als TOT ansieht der irrt sich. Google hat in den Pagerank investiert. Sie wollen ihn aktueller und glaubwürdiger denn je halten.

Möglich das per Feedreader die Grafik nicht angezeigt wird.

Gebloggt in Google
3 Kommentare
09/30 2008

Der älteste Google Index

http://www.google.com/search2001.html

Ohne Worte einfach nur Geil!
In honor of our 10th birthday, we’ve brought back our oldest available index. Take a look back at Google in January 2001.

Gebloggt in Allgemein, Böse Jungs, Google
8 Kommentare
09/12 2008

“Google War” against PaidLinks oder Neue PR Abwertungsrunde…

Google´s PR Abwertungen der letzten Tage

Google´s PR Abwertungen der letzten Tage

Google kämpft weiter stark gegen den Linkverkauf. Aktuell sehe ich in Amerika wieder mal eine starke Abwertungsrunde. Das prominenteste Opfer ist wohl ddj.com die Ihren 8ter verloren haben und nun nur noch einen PR 5 haben. Wenn man sich die Seiten so anguckt, dann erkennt man meistens sehr sehr schnell das hier wirklich nur Domains abgewertet worden sind, die auch Links verkauft haben.

Vor ein paar Tagen hat es dann auch ein paar deutsche Webseiten erwischt. Prominent sind da wohl BerlinOnline.de und koeln.de beide haben Ihren 7ner verloren.  Wobei ich das bei BerlinOnline.de nicht wirklich verstehe, da ich dort keine Paidlinks erkannt habe, vielleicht gelten aber die Footerlinks als Böse…

Genauso versteh ich das auch mit Hood.de nicht. Die haben Ihren 5er verloren und haben nur noch einen PR von 3. Auch da konnte ich ausser Verlinkungen auf eigene Projekte nix finden was eine Abwertung gerechtfertig hätte.

Google lässt nicht locker, und manchmal gibts halt Collateralschäden im Krieg…

————————
Was in eigener Sache, in kürze werde ich die Übersicht die Ihr hier seht auch unter die Seo Tools zur freien Verfügung stellen. Das wird eine Art von “Pagerank History Tool” sein. Damit lässt sich von jeder mir bekannten Domain (Zur Zeit knapp 750.000 Domains) die Pagerank History zurückverfolgen. Leider hab ich nur die Daten von Ende Augst diesen Jahres.

Praktisch gesehen ist das ein Neues Tool und noch nicht bugfrei. Im Augenblick bin ich noch am testen, dauert also noch ein wenig! Ich hoffe, dass ich es fehlerfrei bis Ende des Monats bereitstellen kann.

Also Stay Tuned ;)