Kategorie: SEO

  • Deutschlandliebe gewinnt SEO Award

    Meine Gebete wurden erhört 🙂 Wie durch ein Wunder ging der SEO Pokal für die beste SEO Content Marketing Kampagne in diesem Jahr nicht nach München, sondern ins beschauliche Holzwickede. Das Team von Uniq konnte die Fachjury mit dem Projekt „Deutschlandliebe“ überzeugen. Mit den klaren Content-Strukturen auf einer bereits starken Branchen-Domain, leicht verdaulichem- und ansprechendem Content sowie einer technisch sauberen Umsetzung, wenn auch noch weit von perfekt entfernt, treffen die /deutschlandliebe/* – Seiten augenscheinlich den Google-Zahn der Zeit. Offpage zeigt sich ein Mix aus guter PR, internem Network-Cross-Linking, earned Links, triggered Links, umgelenkten Link-Juice aus dem Reisemagazin… ebenso vertreten sind ein paar miese Links sowie ein klein bisschen Paid.

    Huch: alter Wein in neuen Schläuchen?

    Auffällig bei der Offpage-Analyse sind die umgezogenen Artikel aus dem Reisemagazin. Während /deutschlandliebe/ es auf gute 4 Sichtbarkeitspunkte schafft, verliert hat das /reisemagazin/ seit Ende Februar 2019 gute 9 Sichtbarkeitspunkte verloren – ein rechnerischen Netto-Sichtbarkeitsverlust von 5 Punkten, um mal bei den Punkten zu bleiben. Irgendwie auch logisch, wenn man Artikel aus dem /reisemagazin/ nach /deutschlandliebe/ umzieht, dass der eine verliert und der andere gewinnt, oder?

    SIQuelle: Sistrix Toolbox

    Aus www.urlaubsguru.de/reisemagazin/silvester-in-berlin/ wird www.urlaubsguru.de/deutschlandliebe/silvester-in-berlin/ der Kreidefelsen aus Rügen wandert von www.urlaubsguru.de/reisemagazin/kreidefelsen-auf-ruegen/ auf www.urlaubsguru.de/deutschlandliebe/kreidefelsen-auf-ruegen/ usw. Die interne Verlinkung wird dabei direkt gerade gezogen, wie man bei diesem Artikel aus Mitte 2017 sieht: https://www.urlaubsguru.de/reisemagazin/berlin-tipps-fuer-ein-traumhaftes-wochenende/ – einer Zeit als es das Projekt /deutschlandliebe/ noch nicht gab.

    Die Strategie sieht mir mehr nach einer Umstrukturierung des Reisemagazins (Content-Recycling) aus, in dem extrem viel Content schlummert und nun in ein sinnvolleres, thematisch besser passendes Raster gepresst werden soll. Kombiniert mit ein wenig (Content)-Marketing-Buzz und einem Layout-Rebrush, angereichert mit neuen Inhalten und ergänzt mit bestehenden aus dem Reisemagazin – schafft man eine gute Frequenz an Inhalten und gleichzeitig fließt Deep-Link-Juice in die neue Struktur.

    Was bleibt ist der Nettoverlust an SI im Magazin. Das neue Folder kann den Rückgang aktuell noch nicht ausgleichen. Aber Sichtbarkeit ist ja auch nur ein SEO Wert von Vielen.

    Herzlichen Glückwunsch zur Besten SEO/Content Marketing Kampagne 2019.

     

  • Ungültige URL: 5XX Serverfehler vermeiden, 404 präferieren

    Auf Twitter hat sich John Mueller von Google dazu geäußert, wie eine ungültige URL am Besten behandelt werden sollte – mit einem 404-Statuscode.

    Ein 404-Fehler ist für Google ein klares Indiz dafür, dass die betreffende URL nicht mehr existiert. Der 5xx-Fehler hingegen weist auf ein serverseitigen Missstand hin.

    Tipp: Eine Übersicht über die verschiedenen Fehler-Statuscodes erhält man hier.

    Muellers Ratschlag erfolgte auf eine Frage eines SEOs: der Fragensteller erhielt in der Google Search Console einen Hinweis auf einen 5XX-Serverfehler. Dieser versteckte sich in einem PDF-Dokument in den Fußnoten. Ein Semikolon am Ende der URL führte zu diesem Fehler.

    Daraufhin riet Mueller, 5XX-Fehler generell zu vermeiden. Wenn eineURL ungültig für die jeweilige Webseite ist, dann sollte man diese Ungültigkeit mit einem 404-Fehler kenntlich machen.

    Anschließend wurde diesbezüglich eine weitere Frage gestellt:  Gibt es ein definiertes Zeitfenster, nach dem Google die 404-Fehlerseite nicht mehr crawlt?

    Muellers Antwort: Nein, sofern die URL irgendwelche Signale besitzt, beispielsweise durch einen verweisenden Link, wird Google dir URL von Zeit zu Zeit wieder und wieder crawlen.

     

  • Google: Suchanfragen mit „best“ um 80% gestiegen

    Das Google Marketing Live Team äußerte sich im Rahmen einer Ankündigungsmeldung für die Google Marketing Live Veranstaltung zu der Entwicklung von Suchanfragen. Demnach sind Suchanfragen mit „best“ in den letzten zwei Jahren um 80% gestiegen. In Untersuchungen wurde festgestellt, dass es Personen gibt, die sich über 50 Tage lang mit Ergebnissen der Suchanfrage „best chocolate“ beschäftigen, bevor sie eine finale Entscheidung treffen.

    Ein weiteres Wort, das den klassischen „Testsieger Test ++NEU++ Rezensionen Vergleich 2019“-Affiliate Title zum Platzen bringt.

  • robots.txt: Unterschied zwischen Groß- und Kleinschreibung beachten

    Die robots.txt ist ein kleines Text-Dokument, das das Crawling der Suchmaschine steuert. Individuell können verschiedenen Suchmaschinen wie z.B. der Googlebot, Googlebot-Image, Bingbot, … angesprochen werden sowie einzelne Bilder, Seiten oder gar Verzeichnisse vom Crawling exkludiert werden.

    Hinsichtlich der Groß- und Kleinschreibung innerhalb der robots.txt sollte man besondere Vorsicht walten lassen. Bei unkorrekter Schreibweise können betreffende Verzeichnisse oder URLs (ungewollt) in den Index aufgenommen werden. Auf die Wichtigkeit der Groß- und Kleinschreibung wies John Mueller von Google auf Twitter hin:

    Unabhängig von der robots.txt kann eine Webseite auch dann im Index landen, wenn sie extern angelinkt wird. Möchte man in einem solchen Fall die Indexierung verhindern, dann sollte man ein noindex-follow-Tag auf der betreffenden Seite implementieren. So wird sichergestellt, dass die Webseite nicht in den Index gerät bzw. aus dem Index entfernt wird und die Linkpower vom externen Backlink sich auf die intern verlinkten Dokumente verteilen kann. Bevor man den noindex-follow-Tag einbindet, sollte man diese Webseite allerdings aus der robots.txt löschen, damit Google den noindex-Tag crawlen/ erkennen kann. Erst nachdem die Webseite nicht mehr im Index ist, kann sie wieder per disallow in der robots.txt vom Crawling ausgeschlossen werden.

  • Google: 1 Suchanfrage=1 Impression trotz mehrerer URLs der gleichen Domain

    Google zählt eine Suchanfrage als eine Impression, auch wenn man mit mehreren URLs der gleichen Domain auf der Google-Ergebnisseite vertreten ist.

    Dieser Umstand kommt vor allem durch Featured Snippets oder Doppel-/Tripple-Rankings in Folge von gleichwertiger Relevanz bezüglich einer Suchanfrage zu Stande.

    John Mueller von Google stellt nun klar, dass die Impressions in der Google Search Console unterschiedlich gehandhabt werden: Während man in einem solchem Falle für eine Suchanfrage nur eine Impression bei den Suchanfragen erhält, werden den betreffenden URLs (Seiten) jeweils eine Impressions zugeordnet. Das heißt: für Suchanfrage 1 Impression, für Seiten 2 Impressions.

    Weiter fügt er an, dass für die Berechnung der durchschnittlichen Ranking-Position die URL verwendet wird, die das beste Ranking besitzt.

  • Google: Verschiedene Strukturierte Daten Typen auf alternativen Seiten ist kein Problem

    Im letzten Google Webmaster Central Hangout wurde die Frage aufgegriffen, ob es problematisch sei, verschiedene strukturierten Daten-Typen (JSON-LD, Mikrodaten) auf alternativen Seiten (AMP-Seite) zu verwenden. Vereinfacht gesagt: Schema Markup von Desktop- und Amp-Version – ist es in Ordnung auf der Desktop-Seite Mikrodaten zu verwenden und auf der dazugehörigen AMP-Seite JSON-LD?

    “Schema markup with a desktop and AMP version – is it OK if the desktop version is implemented using microdata but the AMP version is using JSON-LD?”

    Auf diese Frage hin antwortete John Mueller von Google: Strukturierte auf diese Weise einzubinden ist völlig in Ordnung.

    Man sollte allerdings bedenken, dass manche strukturierte Daten-Typen nur mit JSON-LD ausgezeichnet werden können. Zudem sollte man sich im besten Falle auf der alternativen Webseite rückversichern, ob die gewählten Mikrodaten ein adäquater Ersatz für JSON-LD sind.

    Ebenfalls ist es in Ordnung, wenn man verschiedene Markup-Typen auf derselben Webseite verwendet.

    Zwar wurde im Hangout keine Silbe darüber verloren, aber laut den offiziellen Google Guidelines wird JSON-LD als Schema Markup präferiert.

    Hier nochmal der Hangout im Videoformat:

  • Keyword-Stuffing in CSS-Klassen hat keinen SEO-Effekt

    Mit Hilfe von CSS-Klassen (Cascading Style Sheets) lassen sich HTML- oder XML-Dokumente in ein bestimmtes grafisches Format pressen. Man kann CSS-Klassen mit individuellen Formatangaben ausstatten und sich dieser beim Aufbau der Website bedienen.

    Bei der Benennung der einzelnen Klassennamen & IDs muss man sich keine Gedanken über Keyword-Stuffing machen. Keywords in CSS-Klassen hatten noch nie einen SEO-Effekt auf irgendeine Suchmaschine, das bestätigte John Mueller von Google:

  • Google: Neue JavaScript SEO Video Tutorial Reihe

    Martin Splitt, Webmaster Trends Analyst von Google, hat auf Twitter verkündet, dass er eine neue Video Tutorial Reihe rund um das Thema JavaScript SEO auf Youtube starten möchte:

    Die Videos kann man sich auf dem Google Webmasters Channel auf Youtube anschauen.

    Das erste Video mit dem Thema „wie indexiert Google JavaScript ist bereits online:

  • SEO-Effekt von Amerikanischen, Australischem & Britischem Englisch

    Auf Twitter hat Jeffrey Cammack die Frage gestellt, inwieweit sich die englische und die amerikanische Schreibweise auf die SEO Performance auswirken. Weiter fragt er, ob die amerikanische Schreibweise in Australien ebenso gut performen würde, wie die australische.

    John Mueller antwortete darauf: die unterschiedlichen Schreibweisen haben keinen Einfluss auf SEO. Möglicherweise könnten aber Nutzer von der ortsfremden Ausdrucksweise abgeschreckt werden, das wiederrum könnte negative Auswirkungen auf die Conversion Rate haben.

    Wenn man sicherstellen möchte, dass Google die Website dem richtigen Land zuordnet, dann empfiehlt es sich hreflang Tags zu setzen. Ebenso sollte die Länderauswahl in der Google Search Console richtig eingestellt werden.

  • Google: Strukturierte Daten nicht über den Google Tag Manager auszeichnen

    Mit dem Google Tag Manager lassen sich nicht nur Trackingpixel implementieren, sondern auch strukturierte Daten – das wird von Google allerdings nicht empfohlen.

    Technisch gesehen funktioniert die Einbindung mit dem Google Tag Manager zwar, doch Google erkennt das Markup nicht ordnungsgemäß. Das Problem hierbei ist, dass die strukturierten Daten mittels Javascript ausgezeichnet werden – doch „it’s hard for Google’s algorithms to give something appropriate weight if we determine that it’s never visible. For example, when adding structured data, our goal is to only use it when we see that it’s visible on the page.„, so John Mueller von Google.

    Strukturierte Daten, in diesem Falle JSON-LD, sollten direkt im Quellcode implementiert werden, damit Google die Informationen leichter bzw. überhaupt verarbeiten kann. Das bestätigt John Mueller wiederholt auf Twitter: