Autor: Nils Buske

  • Gesetzesänderung zwingt Google zu neuen Meta-Tags

    Google hat neue Meta-Tags eingeführt, die eine feingranulare Anzeigensteuerung der Suchergebnis-Snippets ermöglicht. Mit Hilfe der drei neuen HTML-Tags lässt sich die maximale Zeichenzahl der Text-Snippets definieren, die Dauer der Video-Vorschau und die Bildgröße der Preview-Bilder festlegen. Nähere Informationen zu den neuen Meta-Tags findet man hier.

    Interessant an der ganzen Geschichte ist, wie die Einführung der neuen Meta-Tags verkauft worden ist. Google gibt sich freundlich & sozial und spricht davon, dass die Tags den Webmastern helfen und ihnen mehr Freiheit bei der Aussteuerung der Ergebnis-Snippets verleihen. Dass Google zu diesem Schritt von der EU gezwungen worden ist, wird dabei verschwiegen.

    Fußen tut das Ganze auf folgendem Sachverhalt: Websites, die gemäß EU-Richtlinie 2019/790 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt als „europäische Presseveröffentlichung“ gekennzeichnet werden, unterliegen den neuen Richtlinien. Diese Information wurde betroffenen Webmastern über die Google Search Console mitgeteilt:

    europaeische-presseveroeffentlichung-google

    Diese Vorankündigung wird ab Ende Oktober 2019 in der Google Suche in Frankreich aktiv sein.

  • Yoast SEO: erstes WordPress Tool mit korrekter Schema Markup Implementierung

    Yoast SEO hat ein neues Update veröffentlicht und ermöglicht nun die Schema Markup Implementierung via Tool. Zwar existieren auch andere Schema-Tools auf dem Markt, das innovative bei Yoast ist hingegen die korrekte Vernetzung der einzelnen Entitäten. Was vorher ein „fragmentiertes Chaos“ war ist nun ein geordnetes strukturiertes Auszeichnungskonstrukt.

    Das Schema Markup lässt sich mit Hilfe des Testtools für strukturierte Daten analysieren. Ein „fragmentiertes Chaos“ sieht im Testtool so aus:

    Fragmentiertes Schema Markup

    (Quelle)

    Zu sehen sind 6 unvernetzte Markups. Für eine Suchmaschine ist es schwer, dieses Gewirr aufzulösen bzw. dieses Markups in eine sinnvolle Beziehung zu setzen.

    Das neue Yoast SEO Update sorgt für eine sinnvolle Vernetzung aller Markups:

    In our implementation, which we’re releasing today, all of the pieces “stitch together”: we form them into a nested structure. Without this nesting, a search engine doesn’t know how all these pieces relate to each other, and what the most important piece on a page is. Our implementation also clearly and explicitly defines the “main thing” on that page. This removes all of the guesswork and adds a lot of context for search engines.

    Eine korrekte Umsetzung der Markup Einbindung sieht im Testtool laut Yoast so aus. Zu sehen ist ein klares Artikel->Webpage->Website->Organization->author Schema. Auffällig ist, dass es in diesem Fall keine fragmentierten Schemen gibt, sondern lediglich ein ineinandergreifendes Schema.

     

  • Zitate: Eine Duplicate Content Gefahr?

    Zitate (Blockquotes) sind eine gute Methode, um die eigenen Behauptungen zu untermauern. Ferner können sie als inhaltlicher Aufhänger eines gesamten Artikels dienen.

    Ein Nutzer hat auf Reddit die Fage gestellt, ob Zitate anders als herkömmlicher Content von Google behandelt werden. Können Zitate als Duplicate Content (DC) angesehen werden? Kurze Antwort: Nein, Zitate werden von Google nicht gesondert bewertet. Ja, Zitate können bei unsachgemäßem Gebrauch als DC angesehen werden, beispielsweise dann, wenn ganze Seiten zitiert werden. Hier John Muellers, Web Master Trends Analyst von Google, Statement:

    Google doesn’t treat „blockquote“ or any of the other elements in a special way when it comes to quoting other pages. The important part is really just to make sure that whatever you’re publishing has unique value of its own. If it’s just a rehash of someone else’s content (quoting it) with no added value, then that doesn’t really leave a good impression, neither to Google, nor to users.

    For example, if someone were to take this reply and copy it 1:1, and add more information on how duplicate content in general is handled by search engines (eg, for page-by-page copied content, or just parts of a page), linking to other articles on duplicate content, explaining how duplicate content doesn’t result in penalties, etc. then that could be quite useful.

    Wie immer ist es also empfehlenswert, dass der veröffentlichte Inhalt einen Mehrwert für den Leser hat. Mehrwerte können durch folgende Stilmittel geschaffen werden:

    • weiterführende inhaltliche Informationen ergänzen
    • Links zu weiterführenden Quellen setzen
    • anschauliche Infografiken, Tabellen, Bilder, Videos, … zur Verfügung stellen

    Um dieser Empfehlung folge zu leisten, ist es für den Leser in diesem konkreten Fall nützlich zu wissen, dass DC nicht in einer Penalty (Abstrafung) von Google resultieren muss. Google sieht DC nicht gerne, die Konsequenzen sind aber nicht so radikal wie bei einer Penalty. DC ist ein weit verbreitetes Phänomen und kommt sogar in den besten Online-Shops vor.

    Weiter lässt sich festhalten, dass Google die Originalquelle gegenüber der Zitatquelle (im Ranking) präferieren wird. Die Originalquelle wurde (in der Regel) schließlich zuerst gecrawlt und erhält damit den „Pionierstatus“. Leider trifft das in den Google-News nicht immer zu. Einer der Gründe ist vermutlich der QDF (Query Deserve Freshness)-Rankingfaktor, der in den News besonders stark ins Gewicht fällt. Je aktueller die News, desto eher die Honoration durch Google.

     

  • Google Discover Position: Die -1 Screen / -1 Platzierung

    Die Google Search Console liefert nun auch Daten, die aus Google Discover (ehemals Google Feed) entstammen. Die Daten kann man zwar auch in Analytics in der Zeile „discover.google.de“ auslesen, jedoch nur, wenn die Nutzer nicht über die Google Startseite kommen.

    Den Traffic über Google Discover erhält man ohne dass der Nutzer einer Suchanfrage getätigt hat (Die URL-Adressleiste ist leer). In diesem Zusammenhang spricht Malte Ubl, AMP Spezialist bei Google, auch von einem -1 Screen Ergebnis bzw. eine -1 Position:

    Neben den klassischen 1-10 Ergebnissen auf der ersten Google-Ergebnisseite, dem Platz 0 in Form eines Featured Snippet gibt es nun also die -1 Position für Google Discover.

    Wo finde man den Google Discover Eintrag in der Search Console?

    Nicht jeder kommt in den Genuss, die Google Discover Daten in der Search Console auszulesen. Für die Anzeige muss die Website „meaningful visibility in Discover“ generiert haben, also bedeutende Discover-Impressions generiert hat. Erfüllt man diese Voraussetzung, dann tauchen jene Daten in der Search Console Sidebar auf. Alternativ hier klicken. Offizielle Informationen zum Discover-Leistungsbericht erhält man hier.

    Ist die Platzierung in Google Discover ein Rankingfaktor?

    Kurze Antwort: Nein. Barry Schwartz, SEO-Journalist, bezweifelt es sehr stark. John Mueller, Webmaster Trend Analyst bei Google, bezeichnet es als „das sind zwei verschiedene Dinge“:

    Glenn Gabe hingegen sieht ein Korrelation zwischen Webseiten, die im Zuge von Google Core Updates honoriert worden sind (die also anscheinend SEO-technisch den Zahn der Zeit getroffen haben) und einen Leistungsanstieg in Google Discover.

    Braden Becker sieht den Grund dafür weniger in den Google-Updates. Vielmehr steigen die Leistungsdaten im Discover-Report an, wenn man im organischen Bereich stark präsent ist. Die Auswahl der Discover-Inhalte basiert nämlich auf der personalisierten Suchhistorie.

    Auf jeden Fall muss man bestimmte Kriterien erfüllen, um in Google Discover angezeigt zu werden.

  • Google Deindexierungsproblem: sind 4% vom Google-Index dem Bug zum Opfer gefallen?

    Nach der großen Histerie über das Deindexierunsproblem von Google vergangene Woche (pünktlich zum Wochenende), kehren die betroffenen Webseiten nun allmählich in den Index zurück. Dennoch berichten vereinzelt Nutzer davon, dass einige Ihrer Seiten immer noch nicht im Index sind. Der Bug sei aber nun endgültig gefixt worden, so Google:

    Nun kann man sich die Frage stellen, wie groß das Ausmaß dieses Index-Bugs war. Dr. Pete Meyers, Marketing Wissenschaftler beim Toolanbieter MOZ, hat sich mit dieser Fragestellung näher auseinandergesetzt. Er kommt zu dem Ergebnis, dass etwa 4% vom Google-Index deindexiert worden sind. Eine beachtliche Zahl. Er sagt jedoch: „…don’t guarantee this was de-indexing“ – es gibt also keine 100%-ige Sicherheit. In diesem Zusammenhang ist es zudem nützlich zu wissen, dass die Toolanbieter nur einen kleinen Teil vom großen Google-Index-Kuchen sehen. Hier sein Statement:

  • Welche App hat den größten Anteil an Mobile Traffic?

    Dass der Internetverkehr nun zu einem Großteil durch mobile Endgeräte verursacht wird, ist nichts neues. Wahrscheinlich ist auch diese Statistik, die den prozentualen Anteil der Apps mit dem größten Mobile Traffic Volumen analysiert, für viele wenig überraschend – aber dennoch „nice to know“.

    Traffic wird in Megabytes gemessen. Daher ist es wenig verwunderlich, dass die Videoplattform Youtube mit Abstand den größten Trafficanteil für sich beansprucht. Der App Mobile Traffic teilt sich wie folgt auf:

    • YouTube: 37%
    • Facebook: 8.4%
    • Snapchat: 8.3%
    • Instagram: 5.7%
    • Web browsing: 4.6%
    • Facebook video: 2.5%
    • Netflix: 2.4%
    • WhatsApp: 3.7%
    • App Store: 2.1%
    • Google Play: 1.9%
    • Others: 23.4%

    Auffällig ist, dass der Traffic-Anteil von Snapchat etwa gleich groß ist, als der von Facebook, trotz geringerer Nutzerzahlen. Würde man Facebook und Facebook Video allerdings zusammenlegen, dann wäre die Verteilung eindeutiger.

     

  • Ungültige URL: 5XX Serverfehler vermeiden, 404 präferieren

    Auf Twitter hat sich John Mueller von Google dazu geäußert, wie eine ungültige URL am Besten behandelt werden sollte – mit einem 404-Statuscode.

    Ein 404-Fehler ist für Google ein klares Indiz dafür, dass die betreffende URL nicht mehr existiert. Der 5xx-Fehler hingegen weist auf ein serverseitigen Missstand hin.

    Tipp: Eine Übersicht über die verschiedenen Fehler-Statuscodes erhält man hier.

    Muellers Ratschlag erfolgte auf eine Frage eines SEOs: der Fragensteller erhielt in der Google Search Console einen Hinweis auf einen 5XX-Serverfehler. Dieser versteckte sich in einem PDF-Dokument in den Fußnoten. Ein Semikolon am Ende der URL führte zu diesem Fehler.

    Daraufhin riet Mueller, 5XX-Fehler generell zu vermeiden. Wenn eineURL ungültig für die jeweilige Webseite ist, dann sollte man diese Ungültigkeit mit einem 404-Fehler kenntlich machen.

    Anschließend wurde diesbezüglich eine weitere Frage gestellt:  Gibt es ein definiertes Zeitfenster, nach dem Google die 404-Fehlerseite nicht mehr crawlt?

    Muellers Antwort: Nein, sofern die URL irgendwelche Signale besitzt, beispielsweise durch einen verweisenden Link, wird Google dir URL von Zeit zu Zeit wieder und wieder crawlen.

     

  • Google: Suchanfragen mit „best“ um 80% gestiegen

    Das Google Marketing Live Team äußerte sich im Rahmen einer Ankündigungsmeldung für die Google Marketing Live Veranstaltung zu der Entwicklung von Suchanfragen. Demnach sind Suchanfragen mit „best“ in den letzten zwei Jahren um 80% gestiegen. In Untersuchungen wurde festgestellt, dass es Personen gibt, die sich über 50 Tage lang mit Ergebnissen der Suchanfrage „best chocolate“ beschäftigen, bevor sie eine finale Entscheidung treffen.

    Ein weiteres Wort, das den klassischen „Testsieger Test ++NEU++ Rezensionen Vergleich 2019“-Affiliate Title zum Platzen bringt.

  • robots.txt: Unterschied zwischen Groß- und Kleinschreibung beachten

    Die robots.txt ist ein kleines Text-Dokument, das das Crawling der Suchmaschine steuert. Individuell können verschiedenen Suchmaschinen wie z.B. der Googlebot, Googlebot-Image, Bingbot, … angesprochen werden sowie einzelne Bilder, Seiten oder gar Verzeichnisse vom Crawling exkludiert werden.

    Hinsichtlich der Groß- und Kleinschreibung innerhalb der robots.txt sollte man besondere Vorsicht walten lassen. Bei unkorrekter Schreibweise können betreffende Verzeichnisse oder URLs (ungewollt) in den Index aufgenommen werden. Auf die Wichtigkeit der Groß- und Kleinschreibung wies John Mueller von Google auf Twitter hin:

    Unabhängig von der robots.txt kann eine Webseite auch dann im Index landen, wenn sie extern angelinkt wird. Möchte man in einem solchen Fall die Indexierung verhindern, dann sollte man ein noindex-follow-Tag auf der betreffenden Seite implementieren. So wird sichergestellt, dass die Webseite nicht in den Index gerät bzw. aus dem Index entfernt wird und die Linkpower vom externen Backlink sich auf die intern verlinkten Dokumente verteilen kann. Bevor man den noindex-follow-Tag einbindet, sollte man diese Webseite allerdings aus der robots.txt löschen, damit Google den noindex-Tag crawlen/ erkennen kann. Erst nachdem die Webseite nicht mehr im Index ist, kann sie wieder per disallow in der robots.txt vom Crawling ausgeschlossen werden.

  • Google: 1 Suchanfrage=1 Impression trotz mehrerer URLs der gleichen Domain

    Google zählt eine Suchanfrage als eine Impression, auch wenn man mit mehreren URLs der gleichen Domain auf der Google-Ergebnisseite vertreten ist.

    Dieser Umstand kommt vor allem durch Featured Snippets oder Doppel-/Tripple-Rankings in Folge von gleichwertiger Relevanz bezüglich einer Suchanfrage zu Stande.

    John Mueller von Google stellt nun klar, dass die Impressions in der Google Search Console unterschiedlich gehandhabt werden: Während man in einem solchem Falle für eine Suchanfrage nur eine Impression bei den Suchanfragen erhält, werden den betreffenden URLs (Seiten) jeweils eine Impressions zugeordnet. Das heißt: für Suchanfrage 1 Impression, für Seiten 2 Impressions.

    Weiter fügt er an, dass für die Berechnung der durchschnittlichen Ranking-Position die URL verwendet wird, die das beste Ranking besitzt.