Autor: Nils Buske

  • Google Bug: zu viele Ads und zu wenige organische Ergebnisse in der Serp

    Google: Es war kein Test, sondern ein Bug. Wie Fibre Marketing herausfand, wurden für die mobile Suchanfrage „cardboard baler“ zeitweise 11 Ads und 2 organische Ergebnisse, gefolgt von 7 organischen und 3 bezahlten Anzeigen auf der Google-SERP ausgeliefert. Dies sei ein „Ausrutscher“ gewesen und beträfe nur wenige Suchanfragen, so Google:

    So kann man die CTR von Ads zu Lasten der organischen Suchergebnisse natürlich auch beeinflussen – jaja, es war ein Bug. Hätte dieser Fauxpas keine mediale Aufmerksamkeit bekommen, dann würde Google vielleicht daraus schlussfolgern, dass die User kein Problem mit dieser SERP-Verzerrung haben. Als Folge könnte weiter „getestet“ werden, um die profitablen Google-Ads stärker zu etablieren.

    Das Verhältnis kippt ohnehin schon, zumindest seit 2016, zu Gunsten der Google-Ads, wie Rand Fishkin und Jumpshot herausfanden:

    • CTR Organic: EU+UK (2016) -> 66,9 %
    • CTR Organic: EU+UK (2018) -> 63,6 %
    • CTR Paid: EU+UK (2016) -> 4,5 %
    • CTR Paid: EU+UK (2018) -> 6,4 &

    Das sind natürlich nur geringfügige prozentuale Veränderungen, die sich in der Google-Kasse aber sicherlich bemerkbar machen dürften. Die Erfahrung der Suchenden, dass man nach einem Click auf eine bezahlte Suchanzeige kein zufriedenstellendes Nutzererlebnis erhält, fungiert hier wohl als Dämpfungsfaktor – eine Anzeige steht schließlich nicht aufgrund Ihrer Relevanz an oberster Position. Aber je mehr Ads ich in einer Serp anzeige, desto höher ist auch die Wahrscheinlichkeit, dass jemand (ausversehen) draufklickt. Den Umstand, dass man bei einigen Suchanfragen bis zu 4 Anzeigen an erster Stelle erhält, könnte man übrigens entgegen dem User-First-Mantra ebenfalls als Nutzer-unfreundlich beschreiben, aber der längere Hebel sitzt nunmal in Mountain View.

  • Google: Organization Schema Markup nicht auf jeder Seite einbinden

    In einem Google Webmaster Central Hangout kam die Frage eines Seitenbetreibers auf, auf welcher Seite man das Organization Schema Markup am besten einbindet. John Muellers gab darauf eine ziemlich klare Antwort:

    As far as I know it’s just the home page… it doesn’t matter for us as much because we need to be able to find it on somewhere like the home page or the contact page. But if we have it elsewhere then it doesn’t change anything for us.

    So the big thing to not compare it to is the review markup, where we sometimes see people put company review on all pages of the website with the hope of getting stars on the search results of every page on their site and that would be bad.

    But the contact information, if you have that marked up, then it’s fine. I don’t see a problem with that.”

    Folglich ist es egal, auf welcher Seite man diesen strukturierten Datentyp einsetzt, hauptsache das Markup wird nicht auf jeder Seite eingebunden. Es müssen lediglich die Voraussetzungen geschaffen sein, dass Google diese Daten crawlen kann – die Startseite oder die Kontaktseite würden sich gut dafür anbieten. Letzten Endes macht es für Google aber keinen Unterschied, ob das Organization Schema Markup auf der Start-, der Kontakt-Seite oder einer anderen Webseite zu finden sei.

    Weiter ging Mueller auf das Review Markup ein. Nicht selten sieht man Unternehmen, die ihre Review Markup auf jeder Webseite einbinden, in der Hoffnung die CTR durch die angezeigten Sterne zu erhöhen. „Das wäre schlecht„, sagt Mueller.

    Die betreffende Hangout Diskussion findet ihr in diesem Video:

  • Google: Link-Abwertung durch Disavow Tool kann andere Links stärken

    In diesem Webmaster Hangout kam das Disavow Tool von Google zur Sprache. Dieses Tool, welches im Zuge des Pinguin-Update seine Daseinsberechtigung erhielt, ermöglicht die Abwertung von unseriösen/ schadhaften Links.

    Eine Auseinandersetzung mit dieser Art der Linkentwertung kann sich lohnen: wenn die richtigen (Spammy-) Links entwertet werden, dann kann sich das positiv auf alle anderen Backlinks auswirken. Das Linkprofil als Ganzes könnte so mehr Vertrauen einheimsen.

    Es empfiehlt sich vor allem dann Gebrauch vom Disavow Tool zu machen, wenn der betreffende Link eine manuelle Bestrafung nach sich ziehen würde, sofern das Google Web Spam Team diesen genauer unter die Lupe nimmt.

    Für einen Großteil der Webseiten ist die Benutzung des Linkentwertungstools nicht von Belangen, „Because for most sites you really don’t need to focus on things that much.“, so John Mueller. Aus diesem Grund hat das Linkentwertungstool auch keinen Platz in der Google Search Console bekommen.

  • Google Chrome schafft Adblocker ab

    Für den Nutzer sind Adblocker eine hilfreiche Browser-Extension, für den Webmaster ein Graus. Für die meisten ist die Werbung nur nervig, störend und ablenkend, aber Webseiten finanzieren sich leider nicht von selbst. Das Hosting kostet Geld, man muss viel Zeit und Nerven für die Erstellung guter Inhalte in Kauf nehmen und und und. Um das zu refinanzieren bleibt dem Webmaster oft nur eine Möglichkeit – Werbung schalten.

    Adblocker haben die Funktion Werbung wegzufiltern, doch das soll für Google Chrome bald Geschichte sein. GoogleWatchBlog nahm das Manifest V3 mal genauer unter die Lupe: konnten Extensions bisher auf die webRequest-API zugreifen, so soll in Zukunft nur noch die declarativeNetRequest-API zur Verfügung stehen. Das hat zur Folge, dass die Entscheidungshoheit über die Anzeige von Werbung nicht mehr bei der Extension liegt, sondern bei der API selbst.

    Zwar ist die Umstellung noch nicht in trockenen Tüchern, aber wer davon am meisten profitieren würde, ist schon jetzt klar: Google, denn laut Statista benutzen die meisten Menschen Google Chrome und zudem hat Google das größte Werbenetzwerk weltweit.

     

     

  • Domain Eigentümer Wechsel – Google weiß bescheid

    Im Google Webmaster Central Help Forum lies sich Aaseesh vom Google-Search-Quality-Team zu folgender Aussage hinreißen:

    Hi Lawrence,

    Google understands when domains change ownership so it won’t necessarily rank for the queries it used to rank pre change of ownership. So if the sole purpose of buying a domain is to get search traffic from the old domain, I would suggest against doing so since there’s no benefit.
    But if you simply want the direct traffic, I don’t see any issue from Google’s side but you may want to think from a user’s perspective i.e are they getting what they came for?
    Hope this helps,
    Aaseesh

    Demnach legt Aaseesh potentiellen Domain-Käufern nahe, dass man nicht vom Suche-Traffic der zu kaufenden Domain profitiert. Google versteht die Domain-Übergabe: die Rankings für Suchanfragen, die die Domain vor dem Wechsel inne hatte, müssen sich nicht zwangsläufig auf die „neue“ Domain übertragen.

    Möchte man sich lediglich den direkten Traffic einverleiben, dann stellt der Wechsel allerdings kein Problem dar. Man sollte sich jedoch folgende Frage stellen: bekommt der Nutzer auf der „renovierten“ Webseite die Inhalte/ Produkte, die er erwartet hat?

    Überspitzt gesagt: Wenn ich jemandem eine Hunde-Webseite abkaufe, dann sollte ich daraus kein Online-Shop für Büromaterialien machen. Das wäre eine äußerst schlechte User-Experience mit negativen rankingrelevanten User-Signalen, zumal die Webseite noch alte Backlinks „mit in die Ehe bringt“ und womöglich auf diversen Hunde-Portalen eingetragen ist. Zwar kann man mit dem Disavow-Tool das Linkprofil bereinigen, aber bis man das Google-Categorizing von der Rubrik „Hunde“ bis zur Rubrik „Büromaterialien“ hinbekommt, dürfte es ein langer Weg sein, zumal das Tool eher für unnatürliche- Spam-Links gedacht ist.

     

  • Google macht ernst: News-Publisher Richtlinien befolgen oder Penalty kassieren

    Am 17.01.2019 veröffentlichte Google die neuen News-Publisher Richtlinien. Kernelemente dieser Guidelines sind u.a. folgende:

    • klare Überschriften formulieren
    • Datum anzeigen zwischen Überschrift und Content + Datum als strukturierte Daten ausweisen (datePublished und dateModified)
    • Artikel nur dann neu überarbeiten und mit neuem Datum versehen, wenn elementarer neuer Content hinzugefügt worden ist
    • Duplicate Content vermeiden (kein scrapen, kein umschreiben)

    Es empfiehlt sich, sich an die neuen Regeln zu halten. Danny Sullivan unterstreicht in einem Tweet die Wichtigkeit der Regelbefolgung und mahnt an:

    Demnach werden News-Publisher, die sich nicht an die neuen Guidelines halten, höchstwahrscheinlich von Google abgestraft.

  • Rankingfaktor Rankbrain: Co-Okkurenz statt Keyworddichte

    Rankbrain ist eine künstliche Intelligenz, die in der algorithmischen Bewertung von Webseiten durch Google ihre Anwendung findet. Rankbrain hat zwei Ziele: die von Google präsentierten Suchergebnisse sollen relevanter werden und bis dato unbekannte Suchanfragen sollen automatisch zutreffende Ergebnisse anzeigen.

    Fachsimpelte man früher noch über die aus heutiger Sicht primitiv wirkende Keyworddichte von etwa 5%, so bedarf es heutzutage ein wenig mehr Anstrengung in punkto SEO-Texte. Die unüberlegte Fokussierung auf die Keyworddichte (Keyword-Stuffing) hat nun entweder keinen Effekt oder führt im schlimmsten Falle zu einer Keyword-Penalty.

    Semantik ist der Schlüssel zum SEO-(Teil)-Erfolg. Content-Qualität wird u.a. durch „Co-Okkurenzen“ bestimmt, zumindest in linguistischer Hinsicht. Unter dem Dachbegriff „holistischer Content“ wird eine Co-Okkurenz als semantische Distanz zwischen zwei Begriffen definiert. Bsp: Schreibt man einen Kategorietext über Bleistifte, dann sollten Begriffe/ Unterthemen/ Entitäten wie Härtegrad oder Hilfsmittel (Anspitzer, Radiergummi usw.) nicht fehlen.

    Je näher die erwähten Entitäten beieinander liegen, desto höher der Grad der Co-Okkurenz, desto hochwertiger der Content, desto höher die Wahrscheinlichkeit eines zufriedenstellenden Nutzererlebnis und desto stärker die Ranking-Honorierung von Google. Aber: nicht nur die Breite, sondern auch die Tiefe zahlt auf die Content-Qualität ein: man sollte nicht nur schreiben, dass Bleistifte verschiedene Härtegrade haben können, sondern man sollte diese auch benennen (Härtegrad HB, B, …) und erklären.

    Rankbrain ermöglicht es den Nutzern auch (mehr oder weniger) passende Ergebnisse zu noch nie getägtigten Suchanfragen zu liefern. Es errät quasi die Bedeutung dieser Suchanfrage bzw. deren semantische Verwandheit zu anderen Suchanfragen.

  • Studie: Was kaufen US-Kunden über Voice-Assistenten?

    Eine Studie von onbuy.com hat sich damit beschäftigt, was amerikanische Kunden über digitale Voice-Assistenten kaufen. Mit Hilfe des „VoiceBot.AI“ wurden 1.203 US-Kunden analysiert, mit folgenden Ergebnis:

    Studie über das Voice-Assistent Kaufverhalten

    Demnach werden Artikel für den haushaltsnahen Gebrauch mit rund 25% am häufigsten über einen Voice-Assistenten gekauft. Dicht gefolgt: Bekleidung und Unterhaltung (Musik, Filme, …) mit jeweils 21%.

    Ebenso wurde in der Studie untersucht, was Endkunden am meisten an einem Voice-Assistenten schätzen und was Sie am meisten nervt:

    Studie darüber, was Kunden am Voice-Assistenten mögen und was sie nicht mögen

    Am besten gefällt den Amerikanern mit 27%, dass man mit dem Voice-Assistenten einkaufen kann ohne die Hände benutzen zu müssen. Zudem kann man während des digitalen Einkaufs anderen Dinge erledigen (21%).

    Zugleich sagten aber auch auch etwa 32% der Befragten, dass der Einkauf über die Stimme nicht komfortabel genug ist. Des weiteren misstrauen 23% Studienteilnehmer dem Voice-Assistenten hinsichtlich eines sicheren Umgangs mit Bezahl-Informationen.

     

  • AMP: Richtlinien für Bilder geändert

    AMP-Seiten bzw. „Accelerated Mobil Pages“ haben das Ziel, mobile Webseiten zu komprimieren. Das kommt vor allem mobilen Endnutzern entgegen, da so weniger Datenvolumen verbraucht wird und die Seite schneller geladen wird.

    Die AMP-Richtlinien für Bilder wurden nun geändert – das bedeutet viel Arbeit für Seitenbetreiber, vor allem im News-Bereich. Folgende Änderungen wurden eingeführt:

    • Neue Mindestbreite von Bildern: 1.200 Pixel
    • Neue Pixel-Mindestmenge (Höhe*Breite): 800.000 Pixel

    Alle AMP-Mindestanforderungen können hier nachgelesen werden.

  • DuckDuckGo integriert Apple-Maps: neue Konkurrenz für Google-Maps ?

    Die amerikanische Suchmaschine DuckDuckGo setzt innerhalb ihres Kartendienstes nun auf Apple-Maps. Die Google-Alternative freut sich, als erstes Unternehmen die Apple MapKit JS zu nutzen und stellt seinen USP, den Datenschutz, stets in den Vordergrund. Es werden keine persönlich identifizierbaren Informationen wie IP-Adressen weder an Apple noch an andere Dritte weitergegeben.

    So sehen die Suchergebnisse von DuckDuckGo für die Suchanfrage „Pizza in Cupertino“ aus:

     

    DuckDuckGo Suchergebnis mit Hilfe von Appel-Maps.

    DuckDuckGo Suchergebnis mit Hilfe von Appel-Maps.

    DuckDuckGo Suchergebnis mit Hilfe von Appel-Maps.