Kategorie: Google

  • Gutefrage nach intensiver SEO Optimierung auf Tiefststand

    Einer der größeren Verlierer (Top 6 von 100) des letzten Google Updates ist lt. Searchmetrics die Frage & Antwort-Plattform gutefrage.net. Dieser Absturz muss überraschend gekommen sein, nach dem Head of SEO von gutefrage, Melanie Ruf, erst wenige Wochen zuvor im Oktober 2018 mit Stolz eine Steigerung von 150% Visibility verkündete. Ziel war es mit der Unterstützung des Searchmetrics Consulting Teams die SEO Abwärtsspirale bei gutefrage.net aufzuhalten. Nach dem Medic-Update im August 2018 sah alles danach aus, dass diese SEO Strategie aufgehen sollte – die Seite legt lt. Sistrix um 89% zu und galt damit als Top-Gewinner bei diesem Update. Der nun erfolgte Einbruch revidiert diese SEO Strategie deutlich und lässt die Plattform auf einen historischen Tiefststand fallen.

    Q&A Sites haben es aktuell nicht leicht in den Google Ergebnissen, auch quora.com verlor leicht Punkten in den USA. Das Q&A Format basierend auf vom Nutzer eingereichte Fragen verliert zunehmend an Bedeutung in den Ergebnissen. Auch der damals sehr erfolgreiche internationale Versuch von Yahoo Answers rutscht mittlerweile in die Bedeutungslosigkeit. Dieses Problem scheint ein generelles Problem im Umgang mit nutzergenerierten Inhalten innerhalb des eingesetzten Algorithmus zu sein – jeder redaktionell moderierte Inhalt gewinnt dieser Tage vor einem unmoderierten nutzergenerierten Inhaltsformat – ob Forum oder Q&A. Die Wikipedia – bildet hierbei eine extreme Ausnahme.

     

  • Wikipedia Abschaltung kostet kurzfristig 20% Sichtbarkeitsverlust

    Google reagiert auf die „Abschaltung“ der Wikipedia mit einem Sichtbarkeitsverlust von ca. 20% in Deutschland. Am 21.03. legte die Wikipedia einen DIV-Layer über den kompletten Inhalt seiner Informationsseiten und änderte die Hintergrund und Schriftfarbe per CSS !important Regel auf die Farbe schwarz, sodass man nichts mehr lesen konnte. Für den normalen Nutzer gab es keine Möglichkeit den Layer, mit seiner politischem Statement gegen Artikel 13, äh 15 jetzt… wegzuklicken.

    Google reagiert ziemlich zeitnah auf diese für den Algorithmus irrelevante, für den Nutzer durchaus relevante Botschaft und demonstriert die Macht der Maschinen. Noch am selben Tag fängt Google an einzelne URLs der Wikipedia zu deindexieren bzw. aus den Top 10 zu werfen. Das kostet am ersten Tag noch nicht so viel Sichtbarkeit – am Tag darauf sieht man das Desaster besser. Knapp 20% Sichtbarkeitsverlust vermelden Enterprise SEO Tools direkt am 22.3. Seiten die am 21.3. frisch gecrawlt und bewertet wurden, fliegen instant raus oder werden stark abgerankt.

    wikipedia abschaltung sichtbarkeitsverlust google

    Allerdings war die Wikipedia Deutschland weit von einer totalen Indexierung entfernt – Grund hierfür ist sicherlich die Trägheit des Crawlers – der die Wikipedia nicht an einem Tag komplett durchcrawlt – bei dem Tempo hätte die Wikipedia die Aktion schon gute fünf Tage lang durchziehen müssen, um in Richtung 0 zu kommen.

    Nachtragend ist der Algorithmus jedoch nicht, denn sobald der Layer und die CSS Spielerein entfernt wurden – geht es wieder auf die gewohnt alten Top-1 Positionen zurück. Für den Detail-Analysten hier ein paar Beispiele für einzelne betroffene Keywords die es erwischt hat:

    • wald
    • normandie
    • song
    • hexenverfolgung
    • webcam

    Spannend ist, dass Google beim „Rauswurf“ der „de.wikipedia.org“ in einigen Fällen auf die „de.m.wikipedia.org“-Äquivalente zurückgreift (Beispiel: „mittelalter“) und diese ins Ranking schickt, da die Desktop Variante noch nicht neu gecrawlt wurde aber die Mobile-Variante schon den Layer entfernt hatte. Die „Bad-Signals“ hängen demnach zu urteilen an der exakten URL. DC Varianten ohne den Makel können dann die Position des Dokuments mit Makel oder Bad.-Signal übernehmen. Sicherlich spannend für alle die schnell und hektisch ranken wollen.

    Weitere SEO Schlussfolgerungen findet Ihr bei Wingmen.

     

  • Traffic Limit bei der Google Suche?

    Jeder der sich mal ein wenig mit den Traffic-Zahlen seiner Webseite beschäftigt hat kennt Bilder wie diese:

    traffic limit google

    Jeden Tag suchen ungefähr gleich viele Menschen nach total unterschiedlichen Suchbegriffen und zufällig sind das – Wochentag zu Wochentag verglichen – nahezu exakt soviele wie am selben Wochentag zuvor… Im obigen Beispiel sehen wir 300.000 tägliche Suchanfragen, bestehend aus täglich 200.000 völlig unterschiedlichen Suchbegriffen und keiner von den schlauen Leuten da draußen wundert sich über diese statistische Geradlinigkeit auf der man locker eine Tasse Kaffee abstellen kann?

    Doch, ein paar schlaue Leute gibt es jedes Jahr. Sie stellen sich dann die Frage: Könnte es möglich sein, dass Google den Traffic deckelt, dass es eine Art Traffic-Limit bei Google in der organischen Suche gibt und Google über die Vielzahl an Begriffen steuert, wie viel Traffic eine Seite bekommt? Steuert Google so etwa den wirtschaftlichen Erfolg oder Mißerfolg verschiedener Seiten?

    Jedes Jahr schafft es dann auch einer von den schlauen Leuten seine Frage in einem Google-Frage-Antwort-Format zu präsentieren und jedes Jahr dementiert Google und sagt, dass kein Traffic-Counter für Seiten existiert und keine Traffic-Bremse in den Algorithmus eingebaut wurde. Die Geradlinigkeit ist völliger Bullshit und existiert gar nicht, schau halt woanders hin.

    Wir sagen stimmt. Ein organisches Traffic-Limit für eine Seite existiert nicht. Es ist vielmehr ein CTR Limit welches an die (Sub)Domain gekoppelt ist:

    google ctr limit

    Schaut einfach selbst… seid ihr ein 3% CTR Typ, ein 5% CTR Typ oder eine 7% CTR Typ… Branchen-Gewinner kommen im Schnitt zwischen 7% und 10% ohne Ihre eigene Brand. (Filter Deutschland, damit 80% des ganzen Tool-Bot-Traffic raus fällt).

    Die CTR (Click-Through-Rate) bleibt zwischen den Core-Updates ziemlich konstant, selbst wenn sich die „Nachfrage“ in Form der Impressions verändert, auch gemerkt?

    Vielleicht erlaucht sich einer der schlauen Leute im kommenden Jahr einfach seine Frage besser zu formulieren – Google, gibt es ein CTR-Limit auf Host-Level? Übrigens kennen wir sowas auch unter den Namen Host-Trust oder Domain-Trust oder Whatever-Trust.

    Tipp für alle schlauen Leute mit Seiten ab 200 organischen Besucher / Tag: testet mal diese Hypothese -> wenn die CTR aus Gründen mal für einen kurzen Zeitraum einbricht, versucht Google die CTR in den nachfolgenden Tagen wieder hochzuziehen, um auf den zugesicherten Threshold zu kommen…

  • Google Jobsuche / Stellenangebote jetzt live in Deutschland

    Zusammen mit dem Core Update vor wenigen Tagen, hat Google auch die Google Jobsuche für Suchanfragen im Jobbereich freigeschaltet. Um in diesem sehr präsenten Modul aufzutauchen müsste Ihr eure Stellenanzeigen nur mit dem richtigen HTML-Markup versehen. Damit habt Ihr nun auch erstmals eine echte Chance mit eurer ganz individuellen Jobanzeige euch gegen die Big-Player wie Indeed, Stepstone etc durchzusetzen und von dem Traffic in der Google-Suche zu profitieren. Aber erwartet nicht zu viel – denn die Jobportale haben in den letzten Jahren Ihre Präsenz derart stark in die Köpfe der Nutzer gepflanzt, sodass die Google Suche nicht die Nummer 1 ist, wenn es darum geht einen neuen Job zu finden. Viele steuern die Jobanzeigenportale oder lokalen Verlagsangebote direkt an oder werden aus Businessplattformen wie Xing oder Linkedin aber auch Spezialanbietern wie SEO united, SEOJobBörse oder Get in IT bedient. Darüber hinaus gibt es mittlerweile jede Menge reale Jobbörsen und Direktakquise-Instrumente an den Hochschulen und Universitäten, um den die wenigen gut ausgebildeten Fachkräfte  am leergefischten Markt zu platzieren. Über die Suche orientieren sich unserer Beobachtung nach Quereinsteiger sowie Menschen mit Berufserfahrung und einem Wechselwillen, denn um einen spezialisierten Jobtitle bzw. eine Berufsbezeichnung zu suchen, muss man dieser erstmal kennen.

    Google Job Suche live Deutschland Stellenanzeigen

    Mehr dazu hier.

  • Update Baby, Update!

    Seit gestern (13.3.) überrollt ein neues Google Update die Ergebnislisten der Websuche. Auch wenn Sistrix un die Google Search Console die tagesaktuellen Schwankungen in den Daten noch nicht sehen, so melden andere Tools sowie ein Blick in die Ergebnisse bereits heftigste Schwankungen in den Resultaten. Das Update wurde in den Staaten Florida 2 getauft und ist eines der wenigen Core Updates im Jahr die Google tatsächlich mal bestätigt hat.

    Update im Update: Sistrix zeigt die Rankingveränderungen des Florida 2 Updates nun am 15.03. mit gut 24h Verspätung auch an. #vortagesaktuell sozusagen.

  • All eggs in one Google shopping basket

    eCommerce Unternehmen – mit hohem PLA Ad Anteil:

    Liebes Google, gerade habe ich eine Meldung bekommen, dass alle meine Shopping Ads aus Policy-Gründen suspendiert und abgeschaltet wurden. Leider gab es zu dieser Meldung keine weiteren Hinweise.

    Google so:

    I hope this email finds you well, thank you for contacting Google! My name is John and I will be the Google Online Specialist taking care of the case about your suspended Merchant Center account.
    I have taken a look into the account and your website and couldn’t find any reason for the account to be disapproved. I have now sent this forward to the policy team that will take a look. As soon as I have an answer I will contact you again. 
    Danach – Stille.
  • 45% weniger Traffic für News Verlage

    Google berichtet, dass die Beschneidung der Suchergebnisse durch die Umsetzung eines möglichen Leistungsschutzrechtes in einem Experiment zu einem Traffic-Einbruch für die News-Publisher von bis zu 45% führte. Damit will der Konzern sagen, dass die Umsetzung den Verlagen selbst schaden würde und ruft zur Unterzeichnung der Petition gegen den Uploadfilter auf.

    Mal ehrlich, Google ohne die Inhalte der Webmaster wäre? Richtig, nichts. Ist es nicht so, dass Google sich der Inhalte kostenfrei bedient, um diese in seinem Index zu speichern und anschließend nach eigenen Maßstäben sortiert und zum Teil mit viel Werbung auszugeben?

    Wer hätte langfristig wohl das größere Problem Google ohne Content oder die Verlage mit 45 weniger Besucher?

     

  • Google Search Console: Leistungsdaten basieren jetzt auf kanonischen URLs

    Wie erst gestern im offiziellen Google Webmaster Blog angekündigt, gibt es bereits heute die neuen, konsolidierten Chart-Daten auf Basis der kanonischen URLs zu sehen!

    kanonische-daten-zusammengefasst

    Was ist daran neu?

    Google zeigt in seinem Leistungsdaten-Report die Klick, Impression, CTR und Ranking-Daten in aggregierter Form an. Metriken, die bislang einer URL zugeordnet wurden, welche trotz eines Canonical-Tags oder der eigenen URL-Auswahl von Google in den Suchergebnissen angezeigt wurden, werden nun der Original-URL (bzw. von Google bevorzugten) zugeordnet und damit vereinheitlicht, rückwirkend bis zum 01.01.2018.

    Beispiel:

    Bislang – sah man die Impressions einer meinedomain.de/beitrag/amp/ URL in der Search Console als eigenständige URL – da die meinedomain.de/beitrag/amp/ URL jedoch eine inhaltliche Dublette der Desktop-Variante meinedomain.de/beitrag/ ist zeigt Google nun die Klicks, CTR, Impression und Rankingdaten zusammengefasst nur noch für die meinedomain.de/beitrag/ an. Die Impressions und anderen Metriken werden im Bezug auf die Impressions und die Klicks einfach addiert. Aus einer  CTR  von 2,7% und 3,4% hat Google nun 2,9% gemacht – rein rechnerisch hätte 3,05% – (2,7 + 3,4)/2 bzw. gerundet 3,1% rauskommen müssen. Auch bei der Position wurde aus 71,1 und 69,3 am Ende 70,6 statt der rechnerisch korrekten 70,2. Ich denke, hier wird zusätzlich noch gewichtet, d.h. die Anzahl der Impressions und Klicks fließt in die Neukalkulation des Rankingverlaufs und der CTR mit ein.

    Für welche Fälle ist das interessant?

    • Seiten die AMP im Einsatz haben
    • Seiten die viel mit 302 arbeiten und Google die 302 URL anzeigt, statt der eigentlichen Content-URL
    • Seiten mit vielen ähnlichen, doppelten Seiten bei der Google selbst kanonische URLs je nach Suchanfrage definiert

    Warum?

    • Mehr Datenkonsistenz für ein und den selben / oder ähnlichen Inhalt.
    • Weniger Transparenz für einen SEO, kann nun niemanden mehr in der Analyse überfordern.
    • Mehr Freiheit für Google verschiedenste URL-Varianten im Index auszuprobieren – ihr werdet es nach dem 10. April nie erfahren 🙂
    • Höhere Abweichung der Daten von externen Tool-Anbietern – denn eine Zusammenfassung verschiedener URL Daten gestaltet sich für externe Toolanbieter schwierig – da hinter dem Wort „Google selected“ kein fester Wert steht. Es im besten Fall also dem Toolanbieter obliegt die „kanonische URL“ zu finden – ob das die gleiche ist, die Google selected hat bleibt dabei offen. Am Ende weichen die Performance-Daten der Tools eh von einander ab.

    Eine weitere Änderung aus der Kategorie: Konsolidierung, Filterung, Harmonisierung, Anonymisierung – wer braucht schon granulare Daten – ein ungefährer Trend reicht doch. Am Ende bleibt nur ein Gefühl… ein Verdacht, eine Eingebung – auf Basis derer dann harte personelle Business-Entscheidungen getroffen werden sollen. #bigdata, nicht

  • 2 Googler one Cup – Crawl Budget

    Für den einen Googler ist es over-rated:

    https://twitter.com/JohnMu/status/1001814463320903680

     

    Für den anderen Googler hängt das Crawling vom Crawl-Budget ab:

  • „google-speakr“: neuer Googlebot crawlt für Google Go

    Einige Webmaster haben in Ihren Log-Files einen neuen Googlebot, den „google-speakr“, identifizieren können:

    Nach einigen Rätselrunden über den Zweck des neuen Googlebots haben wir nun Klarheit von Danny Sullivan erhalten:

    „google-speakr“ ist ein Crawler, der für Google Go im Einsatz ist. Er hat das Ziel Seiten auf Ihre Inhalts-Aktualität zu prüfen, bevor sie den Nutzern vorgelesen werden.

    Google Go ist eine ressourcenschonende App, die für Android ausgelegt ist.