Der Google Core

Bevor es mit den Google Updates losgeht, werfen wir noch einen kurzen Blick auf den Core Algorithmus – kann ja nicht schaden! Der Core enthält all jene Teile der „Algorithmus-Familie“, die sich als stabil und beständig erwiesen haben im Vergleich zu vielen laufenden Änderungen im Google-Algorithmus, die weniger gravierende Auswirkungen haben. Wir sagen Dir, welche Google Updates welche Änderungen am Algorithmus-Kern bewirkt haben.

Updates, die es in den Core geschafft haben

Getreu dem Motto „never touch a running system“ werden Core-Algorithmen nur selten angefasst und erneuert. Google vertraut also darauf, dass sie funktionieren. Es gab aber durchaus auch Ausnahmen, in denen der Core angepasst werden musste, um die qualitativen Standards der Suchmaschine wirksam durchzusetzen:

  • Panda etwa stürzte sich ab 2011 auf dünnen Content und zu viel Werbung,
  • Penguin verbannte ab 2012 Seiten mit auffällig unnatürlichem Backlink-Profil aus den SERPs,
  • Hummingbird (Kolibri) lernt seit 2013 stetig, die Suchintention hinter Anfragen zu verstehen.
  • Pigeon band 2014 die lokal relevanten Suchergebnisse mit ein.
  • RankBrain als zweite KI ist zudem seit 2015 für die logische Auswertung der Zusammenhänge zwischen Anfrage und Suchergebnissen verantwortlich und sorgt so für noch relevantere Suchergebnisse.

Jedem Tierchen also sein Pläsierchen. Als mopsfidele Familie machen die eigenwilligen Tierchen und Wesen in der Tat einen großartigen Job. Damit das richtig gut funktioniert, wollen sie aber auch regelmäßig mit relevantem Content gefüttert und der richtigen Technik gestreichelt werden.Dein Lieblings-SEO als versierter SEO-Tierpfleger weiß genau, was die Tierchen mögen und hilft gern auch Dir, sich mit ihnen anzufreunden.

Google Updates von 2000 bis heute

Google führt mittlerweile jährlich zwischen 1000 und 1500 Updates durch. Größere Updates sind keine Seltenheit, doch seit der Umstellung auf den Hummingbird-Algorithmus und der Hinwendung zur semantisch-holistischen Suche (zwischen 2013 und 2015) arbeitet Google bevorzugt mit kleineren Updates, um möglichst wenig Aufsehen zu erregen. Gerade die großen Penalty-Updates (Penguin, Panda) gingen oft so weit, dass ganze Existenzen vernichtet wurden, die auf der Sichtbarkeit ihrer Webseiten beruhten. Wie entschieden wird, welche Seite im Ranking wo platziert wird, darüber gibt Google gestern wie heute nur ungern und auch nur unzureichend Auskunft.

Das Ergebnis: Google und SEOs spielen Katz und Maus nach einer festen Dramaturgie. SEO-Analysten beobachten große Schwankungen in den Rankings und vermuten, die bevorzugte Suchmaschine habe ein Update durchgeführt. Google beschwichtigt die Rankingschwankungen und weist zurück, dass es ein Update gegeben habe. Das ging und geht manchmal immer noch so, obwohl Google inzwischen vereinzelt Updates ankündigt. Der Grund dafür ist simpel: Beide Seiten blicken zwar auf das Gleiche, nämlich die SERPs (Suchergebnisseiten) – jedoch aus ganz unterschiedlichen Richtungen. Hier gibt es die komplette Google-Update-Historie, zusammengefasst von Deinem Lieblings-SEO – natürlich inklusive aller wichtigen Updates wie Panda, Penguin, Pigeon, Hummingbird oder RankBrain.

Google Content & Ads Updates

Content ist König! Oder Kaiser? Oder vielleicht doch allmächtig? Ok, erwischt, das war natürlich etwas überspitzt dargestellt. … Dass er dennoch eine sehr wichtige Rolle für den Erfolg Deiner Website spielt, zeigt sich nicht zuletzt auch an der Anzahl und Häufigkeit contentbezogener Google Updates seit dem Jahr 2000. Damals war hier zunächst einmal nur wichtig, dass stich(wort)haltiger Content für die Suchmaschine vorhanden ist. Inzwischen haben sich die Anforderungen jedoch grundlegend geändert.

Mit dem Fortschreiten der Content Updates wurde klar, dass Inhalte künftig für Menschen produziert werden müssen – nicht mehr für Maschinen – und daher nicht nur die richtigen Keywords in der richtigen Menge bieten, sondern auch

  • Relevanz zur Suchintention aufweisen,
  • Expertise aufzeigen und Vertrauen erwecken,
  • nützlichen Mehrwert bringen,
  • ausreichend lang, gut strukturiert und spannend geschrieben sein sollten,
  • thematische Tiefe erzeugen und Geschichten erzählen (Storytelling) und
  • vom Snippet (Meta-Daten) über den Startseitentext bis hin zum Blog-Artikel eine einheitliche und positive Customer Journey erzeugen.

Kurzum: Dein Content muss eine Daseinsberechtigung vorweisen und zu Googles Service-Claim passen. Doch mit den Google Content Updates sind auch Updates zu Ads (Werbung) auf der Seite verbunden, denn zu viel oder zu aufdringliche Werbung lenkt nicht nur vom Inhalt ab, sondern wirkt auch unseriös, weshalb Googles Panda auch hierauf ein wachsames Adlerauge wirft und zu viel Werbung konsequent abstraft. Du willst die Entwicklung durch Google Updates detaillierter nachvollziehen? Nachfolgend fasst Dein Lieblings-SEO Dir sämtlichen nachvollziehbaren Content & Ads Updates in chronologischer Reihenfolge zusammen.

Google Core Update - 1. Juli 2021

Im zweiten Teil des Google Core Updates für den Sommer liegt der Fokus auf Qualität. Domains, die hochwertigen Content und Relevanz enthalten, sind die klaren Gewinners dieses Updates, das sein Rollout vom 1. bis zum 12. Juli hatte.

Google Page Experience Update - 15. Juni 2021

Das angekündigte Google Update enthält auch die Core Web Vitals und verursacht aufgrund der langen Rollout-Zeit von zweieinhalb Monaten nur sehr geringe Ranking-Veränderungen. Das Rollout des Page Experience Updates hat am 15. Juni 2021 begonnen und wird laut Ankündigung von Google erst Ende August 2021 abgeschlossen sein.

Google Core Update - 2. Juni 2021

Dieses Google Core Update ist der erste Teil des Sommer Updates. Der Konzern kündigte zeitgleich mit dem Juni-Update auch neue Ranking-Veränderungen für Juli an. Es handelt sich um ein klassisches Core-Update, das Domains betrifft, die keine exklusiven Inhalte anbieten und verteilt besonders die Sichtbarkeit in der Reisebranche neu.

Google Core Update - 5. Dezember 2020

Zu den Verlierern des Google Core Updates im Dezember gehören besonders Lexika und Wörterbücher. Doch auch in vielen anderen Branchen, wie beispielsweise Immobilienportalen, Familienseiten und karrierebezogenen sozialen Netzwerken, wurde die Sichtbarkeit neu sortiert.

Google Core Update - 4. Mai 2020

Auch bei diesem Update sind wieder einige Seiten aus dem Gesundheitsbereich betroffen, allerdings ist kein Fokus darauf oder auf einen anderen Bereich erkennbar. Sichtbar ist, dass auch die Reise- und die Automobilbranche betroffen sind. Insgesamt sind sowohl die starken Gewinner als auch die starken Verlierer eher große Domains.

Google Core Update - 13. Januar 2020

Mit dem Januar 2020 Core Update hat Google auf Basis von Machine-Learning-Technologie das Vertrauen der Suchmaschine in ganze Domains neu justiert, was vor allem auf den Gesundheits- und Finanzbereich Auswirkungen hat, da Glaubwürdigkeit bei ihnen besonders wichtig ist.

Google Core Update - 24. September 2019

Mit dem September 2019 Core Update wird die Bewertung von Inhalten noch einmal verändert: Der Faktor Vertrauen wird schwerer gewichtet. Dabei weitet Google seinen Wirkungsradius über den Bereich „Your Money, Your Life“ hinaus auf den Reisebereich sowie Tierfutter- und Weinhändler aus, die nun ebenfalls verstärkt auf Expertise und Vertrauen setzen sollten.

Explicit Content Update - 16. Juli 2019

Weniger pornografische Inhalte für Suchanfragen wie „Lesbian“, „Teen“ oder „School Girl“ – das bewirkt das Google Update im Juli und reduziert damit die nicht jugendfreien Suchergebnisse in den SERPs. Google will Suchabsichten bestmöglich verstehen – und nicht immer wollen solche Suchanfragen als Anfragen der pornografischen Art verstanden sein, weshalb Google diese nun neu und genauer bewertet und fallbedingt bevorzugt jugendfreie Inhalte anzeigen wird.

Verkürzung der Snippets - Mitte Mai 2018

Erst im Dezember 2017 hatte Google den Snippets (also den Kurzdarstellungen bzw. Linktipps auf den Suchergebnisseiten) mehr Platz spendiert. Statt der lediglich über zwei Zeilen laufenden Meta-Description waren drei oder sogar vier Zeilen drin. Jetzt zeigt Google, dass es auch die Rolle rückwärts kann und spielt Snippets ab jetzt wieder nur noch zweizeilig aus. Damit kehrt Google zur Vorgehensweise vor der Änderung im Dezember 2017 zurück, gibt aber generell keine Empfehlung für die Länge von Snippets aus. Angezeigt werde jeweils das, was die Algorithmen für die jeweilige Suchanfrage am sinnvollsten halten, gab es von Danny Sullivan, Sprecher des Öffentlichkeitsteams von Google, per Tweet zu vernehmen.

Diese „Schaut halt ob es passt“-Auskunft ist aus SEO-Sicht natürlich wenig hilfreich, schließlich beeinflusst die Darstellung auf der Suchergebnisseite die Click-Through-Rate. Studien zufolge achten User bei Snippets zwar vorwiegend auf den Title (also die Überschrift) sowie die URL, doch gibt im Zweifelsfall eben auch schon mal eine ansprechende Beschreibung den Ausschlag für User, eine Seite anzuklicken. Da Google hier nicht weiterhilft, muss sich die SEO-Szene eben selbst behelfen. Folgendes wurde bislang herausgefunden:

Wie lang sollten Meta-Descriptions sein?

Laut RankRanger lag die durchschnittlich angezeigte Länge von Descriptions am 18. Mai 2018 in Deutschland nur noch bei rund 151 Zeichen für die Desktop-Ansicht. In der Mobile-Ansicht steht noch weniger Platz zur Verfügung.

In seiner Überprüfung kam Dein Lieblings-SEO auf durchschnittliche Längen von 110 bis 115 Zeichen. Unsere Empfehlung für das Verfassen von Meta-Descriptions: Versucht, in die ersten 110 Zeichen alles Wesentliche unterzubringen, damit der User versteht, was er auf der Seite erwarten darf. Wenn Ihr Eure Kunden vor allem an Desktop-Rechnern erwartet (typisch etwa für B2B-Angebote), könnt ihr ruhig auch mit 150 Zeichen rechnen.

Da Google ohnehin in mehr als der Hälfte der Fälle selbst entscheidet, was in der Description steht (und häufig dazu auch Ausschnitte aus dem Text der Seite wählt), können und sollten Eure Descriptions dennoch länger sein. Wenn Ihr das Wichtigste bereits innerhalb der 110/150-Marke ausgedrückt habt, könnt ihr ruhig noch einmal soviel Text verwenden, um etwa einen Call to action unterzubringen.

Wer profitiert von der erneuten Umstellung?

Das kommt immer darauf an, an welche User man denkt. Für Mobile User ändert sich im Grunde nicht sehr viel. Sie sind wesentlich stärker durch die erst kürzlich vorgenommene Streichung der Paginierung in der mobilen SERP-Anzeige beeinflusst. In der Mobile-Nutzung gehört das Herunterscrollen ohnehin zum normalen Habitus.

Anders sieht das bei der Desktop-Nutzung aus. Hier wird nicht so gerne gescrollt. User entscheiden sich daher oft für eines der Ergebnisse, die sie auf den ersten Blick (above the fold) angezeigt bekommen. Durch die Umstellung auf wieder kürzere Beschreibungen rücken bei üblichen Standeinstellungen (1366*768 bzw. 1920*1080) zwei bis zweieinhalb Ergebnisse mehr in den Blick. Damit profitieren vor allem die Positionen sieben und acht in den Suchergebnissen von dieser jüngsten Kehrtwende Googles.

Google Core Update - 03. Juni 2019

Die Video-Karusselle haben Zuwachs erhalten. Der Anteil der Keywords, die ein solches hervorrufen, erhöht sich auf ca. 54 %. YouTube gewinnt dadurch kräftig an Sichtbarkeit. Gleichzeitig werden mit dem Juni-Update aber auch „schwache“ News-Seiten abgestraft, während solche mit einem guten Ruf für hochwertigen Content belohnt werden.

Broad Core Algorithm Update - 16. April 2018

Nachdem sich bereits zahlreiche Gerüchte um ein Update im April rankten, bestätigt Google die Durchführung eines solchen. Es sei aber nur ein routinemäßiges Update gewesen. Die Empfehlung von Google: Qualität der Website stetig optimieren.

Google Core Update - 07. März 2018

Ein Update im Zeichen des Content. Seiten mit qualitativ hochwertigeren und relevanteren Inhalten, die bisher (zu) schlecht gewertet wurden, gewinnen deutlich an Visibility. Als Gewinner gehen YouTube, Amazon und Xing hervor, die Verlierer heißen Duden, Focus und OTTO, die eigentlich doch für guten Content stehen…

Google beteuert, dass die Verlierer des Updates nichts falsch gemacht haben und keinesfalls abgestraft würden. Man solle sich darauf konzentrieren, „großartigen Content“ zu bauen – wahrscheinlich um auch der KI, die nun wieder an ihrem Verständnis von Inhalten arbeitet, ein besseres Verstehen zu ermöglichen.

Maccabees-Update - 15. Dezember 2017

Mitte Dezember 2017 kam es zu auffälligen Schwankungen in den SERPs. Betroffene Seiten verloren zwischen 20 und 30 Prozent an organischem Traffic. Schuld daran war das Maccabees Update, das in der langen Tradition der Updates stand, von denen Google behauptete, es gäbe sie gar nicht. Erst am 20. Dezember meldete sich Google zum Update – wie gewohnt abwiegelnd und vermeldete lieber „routinemäßige Änderungen“, wie sie immer vorkämen.

Kurze Geschichte des Maccabees Updates

Von Google hieß es also, es handle sich um kein Update, daher gebe es auch keinen Namen dafür. Da in diese Zeit das jüdische Lichterfest (Chanukka) fiel, gab Barry Schwartz auf seiner Seite „Search Engine Roundtable“ dem Update den Namen Maccabees, auf Deutsch: Makkabäer. Kleiner Exkurs: Der erfolgreiche Makkabäeraufstand ermöglichte die Wiedereinweihung des zweiten jüdischen Tempels in Jerusalem, woran Chanukka erinnert.

Was bewirkt das Maccabees Update?

Da Google die Existenz eines größeren Updates (mal wieder) verneinte, blieb der SEO-Gemeinde erstmal nichts anderes übrig als (mal wieder) munter zu raten. Die am häufigsten genannten Vermutungen standen mit der Mobile-First-Strategie, einer vorweihnachtlichen Strategie oder mit Backlinks in Verbindung.
Der Namensgeber des Updates, Barry Schwartz, kam aufgrund seiner Analysen zu dem Schluss, das Maccabees Update zeige

  • einerseits typische Symptome des Fred-Updates.
  • andererseits seien auffällig viele Seiten vom Update betroffen, deren Existenzberechtigung sich allein darauf beschränke, Variationen von Keywords zu bedienen.

Auch das Fred-Update (März 2017) wurde nie offiziell von Google bestätigt. Abgestraft wurden damals vor allem Webseiten, deren Hauptzweck zu eindeutig darin besteht, Geld zu machen (entweder durch Werbung oder durch Affiliate-Links). Typisch für solche Seiten ist, dass sie ihren Usern

  • Inhalte bieten, die zu alt, minderwertig oder schlicht zu dürftig für die von Google angenommene Suchabsicht sind
  • übermäßig viel Werbung zumuten
  • letztlich nur Affiliate-Angebote machen (also auf Shops verlinken und sich für diese Links bezahlen lassen)

Da dabei immer Seiten mit wenig relevantem Content abgestraft wurden, gilt das Fred-Update auch als Quality-Update. Dieser Kategorie lässt sich auch das Maccabees Update zuordnen.

Der richtige Umgang mit Keyword-Variationen

Regel Nr. 1: Finger weg von Landing Pages für einzelne Keyword-Varianten! Mit dem Maccabees Update schiebt Google dieser Strategie nun offenbar einen Riegel vor. Die Idee hinter dieser Strategie ist in den meisten Fällen tatsächlich sehr spammy: Man möchte nicht nur mit einem Keyword ranken, sondern gleichzeitig mit vielen Varianten dieses Keywords.

Ein Beispiel: Ein Handwerker will mit seiner Dienstleistung bei Google gefunden werden. Da er diese nicht nur in Düsseldorf, sondern auch in Köln, Frankfurt, Hannover und vielen anderen deutschen Städten anbietet, legt er für jede Stadt eine eigene Unterseite als Landing Page an nach dem Muster: Keyword = DIENSTLEISTUNG + STÄDTENAME.

Da die Dienstleistung in allen Städten gleich ist, unterscheiden sich die Seiten inhaltlich nur hinsichtlich des Städtenamens. Da Google immer vom Suchenden ausgeht und versucht, dessen Absicht zu bedienen, ist die Strategie der Landing Pages für Keyword-Variationen aus Sicht der Suchmaschine unnötig, ja sogar ärgerlich.

Google will Usern schließlich passende Seiten zur Suchanfrage anzeigen. Aus der Sicht der Suchmaschine reicht es daher, wenn im Beispiel einfach auf einer Seite die Dienstleistung beschrieben wird, und zwar möglichst gut und nur so ausführlich wie nötig. Wird die DIENSTLEISTUNG wieder und wieder auf Unterseiten beschrieben, steht Google vor dem Problem, welche dieser Seiten in den SERPs angezeigt werden soll. Das Maccabees Update gibt darauf jetzt eine Antwort: keine davon.

Was Dein Lieblings-SEO empfiehlt

Mid- und Long-Tail-Keywords werden für den SEO-Wettbewerb immer interessanter. Das liegt vor allem daran, dass sich immer mehr Menschen mit Voice-Search-Tools wie Alexa, Cortana oder Siri anfreunden. Im Mündlichen verwenden wir gerne längere Begriffe. Wer auf diese Veränderung eingeht, hat daher gute Chancen, auch in Zukunft noch gut zu ranken. Das bedeutet jedoch eben nicht, dass jedes Mid- oder Long-Tail-Keyword eine eigene Unterseite benötigt.

Die bessere Strategie ist, jeweils in einem Thema zu denken. Bezogen auf unser Beispiel bedeutet das: Es reicht aus, eine Seite für die Dienstleistung zu schreiben, auf der dann auch der Hinweis eingebaut wird, dass man diese bundesweit bzw. in verschiedenen deutschen Städten anbietet.

In der Praxis kommt es aber auch häufiger vor, dass jemand eine Dienstleistung anbietet, die sich von Ort zu Ort unterscheidet, weil diese sich nach den jeweiligen Bedingungen vor Ort richtet. In solchen Fällen können mehrere Landing Pages durchaus sinnvoll sein. Allerdings nur dann, wenn es sich auch um Dienstleistungs-Varianten handelt. Ähnliches gilt auch für Produkte oder Produkt-Kategorien. Es reicht aus, ein Produkt auf einer Seite gut zu beschrieben. Es muss dann beispielsweise nicht noch für einzelne Zielgruppen (noch einmal) beschrieben werden, nur um damit das Keyword PRODUKT PLUS ZIELGRUPPE „abzufrühstücken“.
Seiten, die offensichtlich nur dazu da sind, User mit irgendwelchen Keyword-Taktiken auf die Seite zu locken, werden nach und nach in den Rankings nach hinten geschoben. Wer seine Dienstleistungen oder Produkte gut beschreibt und dabei mögliche Fragen seiner Kunden im Text (implizit) beantwortet, muss sich nicht nur über Maccabees keine Sorgen machen – er ist auch bestens für die sicher noch kommenden weiteren Quality-Updates gerüstet.

Längere Meta-Description - 30. November 2017

Google hebt die Beschränkung von Meta Descriptions auf 156 Zeichen auf und spendiert somit Platz für ausschweifende Beschreibungen… könnte man meinen. Doch Vorsicht: Eine exakte Längenvorgabe gibt Google nicht. Die Suchmaschine entscheidet von Fall zu Fall, wie lange die Description sein darf. Als Richtwert gilt jetzt: Die Meta-Description sollte nicht länger als ca. 300 Zeichen sein.

Fred Update - Google-Guidelines im Fokus - 13. März 2017

Google rollt ein großes Update mit starken Wellen in der SEO-Gemeinschaft aus. Gary Illyes bezeichnet es scherzhaft als „Fred-Update“ und der Name setzte sich durch, er macht später deutlich, dass dies keine offizielle Bestätigung war. Als Ziel wurde von Gary später genannt: Die Einhaltung der Webmaster-Guidelines. Erste Analysen der Auswirkungen, die bei vielen Webmastern für graue Haare sorgten, haben bestätigt, dass scheinbar nicht nur die Inhalte von Webseiten neu ausgewertet wurden, sondern auch, wie viel der angezeigten Fläche einer Seite von Werbebannern und Anzeigen eingenommen wird. Über Nacht verloren viele Webseiten massiv an Ranking und rutschten teilweise Dutzende von SERPs nach hinten. Es gab allerdings auch einige wenige Gewinner, die plötzlich, ohne die Inhalte ihrer Seite irgendwie verbessert zu haben, weit nach vorne katapultiert wurden.
 Im Ergebnis zeigten sich häufig benachteiligt:

  • Seiten, auf denen für den User wenig bis gar keine Informationen zu ihrer Suchanfrage ersichtlich wurden
  • Seiten, auf denen im Verhältnis weniger Inhalt als Werbeflächen auftauchte
  • Seiten mit vielen Affiliate-Einbindungen
  • Seiten mit veraltetem oder minderwertigem Inhalt

In kommerziellen Portalen oder Onlineshops gehören Affiliate-Links und Werbeeinblendungen aber oft zum Marketing-Konzept der Seite. Eine Verbesserung des Contents ist hier möglicherweise gar keine Option. Tatsächlich wirkte das Update aber viel differenzierter. Komplette Werbefreiheit war kein Garant dafür, seine alten Rankingpositionen wieder zu erlangen.

Es zeigte sich bald, dass nicht zwangsläufig die Gesamtzahl der Anzeigen ausschlaggebend war, sondern auch die Positionierung. Banner, Pop-ups und Einblendungen „above the fold“, die also beim ersten Laden der Seite ohne Scrollen schon sichtbar sind, wirkten sich deutlich negativer auf die Bewertung aus. Wie so oft nach größeren Veränderungen am Algorithmus haben sich die krassen Schwankungen in der Sichtbarkeit nach einigen Wochen relativiert, nachfolgende Updates schwächten die Auswirkungen von „Fred“ ab. Voreilig von Werbung bereinigte Seiten, die im Vergleich zu ihrer Konkurrenz Rankingplätze verloren hatten, konnten wieder etwas aufholen.

Was bedeutet Fred für Webmaster?

Für Webmaster heißt das vor allem, den Inhalt ihrer Websites gemäß Googles Richtlinien für gutes Webmastering zu optimieren:

  • Seiten für den Nutzer und nicht für die Suchmaschinen erstellen
  • den Nutzer nicht täuschen
  • nicht mit Tricks das Suchmaschinen-Ranking verbessern (→ Black Hat SEO)
  • seine Webseite einzigartig, wertvoll und einnehmend machen

Phantom 5 Update - 01. Februar 2017

Länger andauernde Schwankungen, keine Verlierer-Branchen, ständiges Auf und Ab in den SERPs – das kennen wir doch! Es scheint, als sei das Phantom zurück, womit wir bereits bei der 5. Heimsuchung dessen angelangt wären. Seit 2015 geschieht das ca. alle sechs Monate und sie alle drehen sich um die Qualität der Inhalte im Bezug auf die User (Usability und Content). Man gewinnt den Eindruck, als bessere Google stetig an den damaligen Neuerungen nach, denn betroffen sind wieder hauptsächlich dieselben Domains, die schon die letzten Male unter Visibility-Einbußen gelitten oder sich an plötzlichen Höhenflügen erfreut haben. Google verhält sich diesbezüglich wie immer: Schweigen ist Gold.

Phantom 4 Update - 03. Juli 2016

Zuerst in den USA und später dann auch in Europa melden SEOs und Messtools heftige Ausschläge in den Rankings. Wie immer schweigt sich der Suchmaschinenkonzern dazu aus. Unbestreitbar jedoch ist, dass Google die SERPs mit einem neuen Update zu diesem Zeitpunkt zum Tanz auffordert. Erneut rückt Google damit die Qualität des Contents in den Fokus und berücksichtigt noch einmal stärker die Absicht der Suchenden als das bislang schon der Fall war. Damit bestätigt, verstärkt und beschleunigt Google sein erklärtes Ziel, eine semantisch-holistische Suchmaschine zu sein, die immer besser versteht, was Suchende mit ihrer Suchanfrage wirklich meinen und wollen. Das Phantom-4-Update fällt nahezu zeitgleich mit der Nachricht von Google zusammen, dass der RankBrain mittlerweile an jeder Suchanfrage und damit auch an jeder Suchergebnisseite (SERP) beteiligt sei.

Google verschärft seine Qualitätsoffensive

Bereits bei den beiden letzten Phantom-Updates (Mai und Dezember 2015) waren unter den Verlierern Seiten, deren Inhalte von zu geringer Qualität waren. Auch durch das Phantom-4-Update verlieren Seiten mit zu dünnen Inhalten erneut an Sichtbarkeit. Betroffen sind diesmal vor allem

  • Seiten, auf denen deutlich mehr Werbung zu finden ist als Content
  • Seiten mit zu vielen 404-Fehlern
  • Seiten, deren User Experience eher negativ als positiv ausfällt

Folglich schmieren FAQ-Seiten und Foren, die zu wenig Tiefe aufwiesen und deren Fragen nur unzureichend oder mit mangelnder Seriosität beantwortet wurden, ab. Sie sollen daher künftig nur in Ausnahmefällen indexiert und belohnt werden. Und zwar immer nur dann, wenn ein Beitrag auf eine mögliche Suchantwort ein gutes Ergebnis liefert und die Kompetenz des Users gewinnbringend für andere in Stellung bringt. Searchmetrics nennt das Beispiel von Rezeptseiten, die an Sichtbarkeit verloren, weil sie im Vergleich zur Konkurrenz einfach nicht so tief ins Thema einstiegen. Während Konkurrenten etwa auch Bilder zur Zubereitung der Rezepte und sogar Weintipps zum Essen gaben, fehlten solche Inhalte auf den jetzt schlechter gerankten Seiten. Kurz gesagt: Google sucht nach relevanten Seiten, die eine Suchanfrage jeweils möglichst umfassend beantworten.

Was ist nach dem Phantom-4-Update zu tun?

Wer viele 404-Fehler oder zu viel Werbung auf seiner Seite hat, muss nicht lange überlegen. Die Fehler sollten beseitigt, die Zahl der Werbe-Anzeigen reduziert werden. Für alle anderen gilt, sich konsequent einmal die Seiten anzusehen, auf denen User überproportional häufig schnell abspringen. Dies werden aller Voraussicht nach Seiten sein, die zwar Keywords bedienen, jedoch auf eine Weise, die nicht den Erwartungen von Usern entsprechen.

Damit Seiten auch mittel- und langfristig bei Google zünden, benötigen Sie Content, der sich mit der Suchabsicht deckt. Auch kürzere Texte können greifen, vorausgesetzt sie werden klug flankiert mit Bildern oder Videos, aus denen User die Informationen ziehen können, die sie suchen. Für SEOs und Webseiten-Betreiber hat das den Nachtteil, dass die einfachen Rezepte, die in der Vergangenheit verlässlich als Rankingbooster taugten, nicht mehr mit der gleichen Verlässlichkeit zum Erfolg führen werden. Gefragt sind dagegen individuelle Strategien und Konzepte, durch die sich Webseiten von der Konkurrenz abheben können.

Adwords Shake-Up - 23. Februar 2016

Google hat größere Veränderungen bei AdWords vorgenommen. Anzeigen sind nun nicht mehr in der rechten Spalte zu sehen. Dafür werden drei statt vier Anzeigen oberhalb der organischen Suchergebnisse ausgespielt. Obwohl dies eine reine AdWords-Änderung war, zeigen sich auch Auswirkungen in der CTR organischer Suchergebnisse.

Google Core Update - 8. Januar 2016

Im Januar konnten größere Veränderungen im Ranking festgestellt werden. Im Fokus des Updates stand König Content: Hochwertige Inhalte, die ein Thema ganzheitlich betrachten, zählten zu den Gewinnern, wobei nicht nur die Textlänge, sondern auch die Abstimmung auf Suchkriterien (Relevanz) ins Auge gefasst werden. Es handelte sich jedoch nicht wie zunächst angenommen um ein Penguin Update, sondern um ein Update des Kernalgorithmus.

Phantom 3 Update - 1. Dezember 2015

Das Phantom bringt mal wieder Schwung in die SERPs. Die Auswirkungen bekommt vor allem der E-Commerce kräftig zu spüren: Besonders Kategorieseiten bekamen diesmal ihr Fett weg, wenn es sich nicht um eine echte Kaufberatung handelte, die zur Suchabsicht des Users passte.

Doch auch Brand-Listing-Pages verloren, da der Suchende eben nicht auf den Seiten landet, die er wahrscheinlich gern sehen möchte. Das Update fand vermutlich zur Anpassung an die unlängst veröffentlichten Google Quality Rater Guidelines statt, die Content und Relevanz nicht nur adelten, sondern regelrecht zum Kaiser krönten.

Panda 4.2 - 17. Juli 2015

Nach einer längeren Pause führt Google ein weiteres Panda Update durch, zu dessen Inhalten jedoch nicht viel kommentiert wurde. Es gab jedoch keine typischen Muster und Anzeichen für ein größeres Algorithmus Update. Der Rollout dauerte einige Monate und betraf knapp 3 % der Suchanfragen.

Phantom 2 - Quality Update - 3. Mai 2015

Nach mehreren signifikanten Änderungen im Ranking glaubten viele in der SEO-Szene buchstäblich, Gespenster zu sehen – und sprachen deshalb vom „Phantom Update“ bzw. vom „Phantom Update II„. Google bestätigte wieder einmal kein Update, sondern nur eine Änderung des Kernalgorithmus, die sich auf Qualitätssignale auswirkte.

Zwei Jahre zuvor, im Mai 2013, wurden schon einmal ähnliche „tanzende SERPs“ beobachtet, ohne dass Google sich dazu äußerte. Die SEO-Szene gab den Änderungen einen Namen, der darauf anspielte, dass sich so recht niemand erklären konnte, was es mit den Bungee-Sprüngen mancher Seite (bis zu 80% Verlust an Sichtbarkeit, durchschnittlich waren es 10 – 15%) auf sich haben konnte: Das „Google Phantom Update“ war geboren. Da sich dieses Phänomen nun wiederholte, wurde besonders im angloamerikanischen Raum diesmal vom „Phantom Update II“ gesprochen. Ähnlich uneinheitlich wie die Bezeichnung dieser jüngsten Google-Änderungen fielen die Analysen dazu in der SEO-Szene aus. Manche sprachen sogar von einem „Versehen“ und verwiesen darauf, dass sich manche Seiten schnell wieder im Ranking erholt hatten. Anfangs hielten viele SEO-Analysten Phantom II für ein Refresh des Panda Updates, zumal viele Seiten, die früher von Panda betroffen waren, nun auch von Phantom II gebeutelt wurden. Was es damit jedoch wirklich auf sich hat:

Google bewertet „Qualitätssignale“ neu

Das Update betrifft vor allem die Art und Weise, wie Google die Signale für die Qualität einer Seite beurteilt. Im Gegensatz zum Beispiel zum Panda Update ist das Phantom Update II jedoch kein Filter. Es wird also nicht ausgesiebt, sondern die Qualitätssignale werden untereinander neu gewichtet. Im Endeffekt führt zu dünner Content damit häufiger zum schlechterem Ranking.

Das Phantom Update II betrifft nicht in erster Linie die Domain als Ganzes, sondern operiert auf der Ebene der (Unter-)Seiten. Für betroffene Webmaster dürfte das allerdings nur in den seltensten Fällen eine Beruhigung sein, da in aller Regel dennoch die Domain an Sichtbarkeit verlieren wird, zumal meist viele Unterseiten betroffen sind.

Direktanbieter gewinnen, Affiliate-Seiten verlieren

Seiten (auch Mobile-Seiten), auf denen Aktionen wie der Kauf eines Produkts direkt abgeschlossen werden können, gehören insgesamt wohl zu den Gewinnern von Phantom II. Dazu passt auch, dass umgekehrt Seiten, die lediglich informieren, wie es typische Affiliate-Seiten (mit Tests und Kritiken) tun, auf breiter Front an Sichtbarkeit einbüßten. Da Google mit seinem Mobile Update auf die immer größer werdende Zahl von Mobile Usern und deren verändertem Suchverhalten eingegangen ist, dürfte auch Phantom II in diese Richtung zielen. Schließlich macht es auf Mobil-Geräten wesentlich weniger Spaß, sich von einer Seite auf die nächste zu klicken. Google dürfte daher Anbieter, bei denen die Suchanfragen („Herrenschuhe schwarz“) direkt zu einem zu kaufenden Produkt führt, höher ranken. Ganz sicher ist diese Änderung jedoch von der jeweiligen Keyword-Gruppe abhängig.

Eigentor Kommentar-Funktion

Ebenfalls häufig vom Phantom Update II betroffen waren „How-To“-Seiten, auf denen es zwar durchaus viel Content gibt, der jedoch häufig auf anderen Seiten – etwa in Kommentaren – geteilt wird. Für Google scheint es hier durchaus ein Problem zu sein, zu entscheiden, woher der Content ursprünglich stammt. Die Gefahr, sich durch Kommentare „Duplicate Content“ einzuholen, ist offenbar gestiegen. Umgekehrt kann der von Usern generierte Content auch zur Verwässerung des eigenen Contents führen.

„Ungepflegte“ Seiten

Einige wenige Seiten verloren an Sichtbarkeit, obwohl sie starken Content aufwiesen und auch sonst keines der oben genannten Kriterien auf sie zutraf. Auffällig an diesen Seiten war jedoch ein wenig ansprechendes Design, das offenbar schon seit vielen Jahren nicht mehr überarbeitet worden war und ein wenig an die alte Yahoo! Directory erinnerte. Zu diesem Befund passt auch, dass Seiten von Phantom II betroffen waren, die viele 404-Fehler aufwiesen, was ein typisches Zeichen für wenig „gepflegte“ Seiten ist.

Pop-ups, Autoplay-Videos und zu viel Werbung

Im Ranking fielen zudem Seiten ab, die zu viel Werbung präsentieren. Vor allem Pop-Ups, aber auch selbst anlaufende Videos oder Audios wirken sich seit Phantom II noch negativer auf das Ranking aus. Zu vermuten ist, dass viele User solche eher nervigen Seiten schnell wieder wegklicken. Wer mag es schon, wenn er erst ein Pop-up wegklicken muss, dann womöglich erst noch nach dem Video suchen muss, dass irgendwelche Töne ausspuckt, nach denen man nicht verlangt hat? Eine stärkere Gewichtung der Absprungrate dürfte daher mit Sicherheit auch Teil des Phantom Update II sein, zumal dieses Kriterium auch für Mobile User besonders wichtig ist.

Veränderung der lokalen Suche

Eine durch die jüngsten „Anpassungen“ des Algorithmus ausgelöste Änderung in der Google-Suche betrifft lokale Suchergebnisse. Google verlässt sich bei der lokalen Suche offenbar nun stärker auf die Browser. Suchterme wie „Schuhe Berlin“ oder „SEO Hamburg“ würden damit in Zukunft überflüssig. Der Browser führt über die IP-Adresse und die Ortskennung quasi in die Suche mit ein. Wer in München nach Schuhen sucht, erhält automatisch München-spezifische Suchergebnisse. So die Theorie. Ob sich das durchsetzt und die User wirklich dauerhaft damit die Suchergebnisse erhalten, die sie sich wünschen, muss sich erst noch erweisen. Für Begriffe wie „Bäckerei“, „Maler“ oder „Restaurant“ ist die lokale Suche sicher Standard, das gilt aber sicher nicht für alle Keywords.

Pirate 2.0 - 21. Oktober 2014

Mehr als zwei Jahre nach dem ersten DMCA/„Pirate“ Update brachte Google ein weiteres Update heraus, um gegen Software- und Medienpiraterie vorzugehen. Dieses Update war sehr zielgerichtet und führte zu erheblichen Rankingverlusten einer kleinen Gruppe von Seiten, die illegale oder zumindest fragwürdige Inhalte präsentierten und folglich aus dem Index ausgeschlossen wurden.

Doch auch seriöse Websites sollten jetzt mehr denn Vorsicht walten lassen und Urheberrechte sorgfältig abklären, um eine DMCA-Penalty zu vermeiden. Schon ein einziger Verstoß kann deutliche Einbußen beim Ranking bedeuten, während mehrere oder auch wiederholte Verstöße im Handumdrehen zum Ausschluss aus den SERPs führen.

Panda 4.1 - 23. September 2014

Google kündigte ein signifikantes Update für Panda an, das auch eine Algorithmus-Komponente enthielt. Es sollten etwa 3-5 % der Suchanfragen betroffen sein. Da das Roll-Out über einen langen Zeitraum erfolgte, waren konkrete Effekte nur schwer zu erkennen. SEO-Experten gingen allgemein davon, dass mit dem neuen Update kleinere und mittelgroße Seiten gestärkt werden, die konsequent auf hochwertigen, relevanten Content setzen.

Neue Chance für Panda-Abgestrafte

Das neue Update ermöglicht es Google offenbar, weniger wertvolle Inhalte besser zu erkennen. Entsprechend kann Google nun relevanten Content besser gewichten. Google hat dafür Daten von Benutzern und Webmaster in den Panda-Algorithmus eingearbeitet.

 Wer von der Einführung des letzten Panda-Updates abgestraft wurde, für den bietet sich nun die Chance, in den Google SERPs wieder nach oben zu steigen, vorausgesetzt, er hat seine Website auf Panda hin optimiert. Umgekehrt gilt natürlich auch, dass jetzt Seiten betroffen sein können, die bislang vom Panda-Update unberührt blieben. So oder so wird es also wichtig, sich auf Panda einzustellen. Und das bedeutet vor allem, kontextbezogene wertvolle Inhalte anzubieten.

Payday Loan 3.0 - 12. Juni 2014

Weniger als einen Monat nach dem Anti-Spam-Update Payday-Loan 2.0 legt Google nach. Während 2.0 gegen bestimmte Seiten vorging, richtet sich 3.0 verstärkt gegen Spam-anfällige Suchanfragen (Kredit, Pornographie, Glücksspiel, Drogen oder Pharmazeutika).

Panda 4.0 - 16 Mai 2014

Mit dem Panda-4.0-Update entwickelt Google seine Technologie zur Erkennung von minderwertiger Inhalte weiter und verbessert sie. Es handelt sich dabei aber nicht um eine zusätzliche Iteration, sondern um einen neuen, eigenständigen Filter-Algorithmus aus der Panda-Reihe. Gleichzeitig wurde eine Index-Aktualisierung durchgeführt. Offiziell waren etwa 7,5 % der englischsprachigen Suchanfragen betroffen.

Payday Loan 2.0 - 16. Mai 2014

Google aktualisierte seinen Payday Loan Algorithmus, um besser gegen unerlaubte SEO Maßnahmen und Webspam vorzugehen.

Page Layout #3 - 6. Februar 2014

Google hat seinen Page Layout Algorithmus aufgefrischt und straft so weiterhin Seiten mit zu vielen Werbeanzeigen ab.

In-Depth Articles - 6. August 2013

Mit diesem Update stellte Google ein neues Feature in den Suchergebnissen vor. Die In-depth Articels bilden einen separaten Block aus drei Snippets und verweisen auf längere Fachartikel zu den Suchanfragen. Damit erhöhte Google die Relevanz von Evergreen Content.

Panda Recovery - 18. Juli 2013

Mit einem weiteren Panda Update mildert Google die Abstrafungen leicht ab.

Payday Loan - 11. Juni 2013

Mit einem weiteren Algorithmus-Update nahm Google besonders Spam-belastete Suchanfragen ins Visier.

Penguin 2.0 - 22. Mai 2013

Mit den umfassenden Änderungen im Algorithmus durch das Update Penguin 2.0 verbesserte Google die Möglichkeiten der Webspam-Erkennung deutlich.

Phantom - Mai 2013

Dieses Update wurde von Google nie bestätigt. Und auch da Google sich außerdem nie dazu äußerte, welche Website-Bereiche davon betroffen sind, erhielt es den inoffiziellen Namen Phantom. Obwohl nichts genaues zu diesem Update bekanntgegeben wurde, erlebten einige Seiten erhebliche Einbußen in den SERPs. Erst wesentlich später sollte klar werden, dass das Phantom ebenfalls den Content und die Relevanz behandelt.

Panda #25 - 14. März 2013

Matt Cutts kündigte ein weiteres Panda Update an, bevor dieses vollständig in den Kernalgorithmus integriert werden würde.

Panda #24 - 22. Januar 2013

Ein weiterer Refresh von Panda wurde von Google angekündigt. Die Veränderungen wirkten sich auf etwa 1,2 % der Suchanfragen aus.

Panda #23 - 21. Dezember 2012

Quasi als kleines Weihnachtsgeschenk stellt Google ein weiteres Panda Update vor, das offiziell als „Auffrischung“ bezeichnet wurde und 1,3 % der englischen Suchanfragen betrifft. Damit erzielt dieses Update einen etwas höhere Auswirkung als seine beiden Vorgänger.

Panda #21 und #22 - November 2012

Die 21. Auffrischung von Panda beeinflusste laut Google 1,1 % der englischen Suchanfragen. Google bestätigte nach einigem Hin und Her auch das 22. Panda Update. Dieses sorgte für ein verbessertes Datenmanagement.

Page Layout #2 - 9. Oktober 2012

Google kündigte ein Update des bereits im Januar geänderten Seitenlayout-Algorithmus an. Dieses Update zielt vor allem auf Seiten mit zu viel Above the Fold Werbung ab.

Panda 3.9.1 (#18) und 3.9.2 (#19) - August und September 2012

Das 18. und 19. Panda Update waren lediglich kleinere Data Refreshs, die weniger als 0,7 % der Suchanfragen beeinflussten.

DMCA-Abstrafung und 86er Update-Pack - 10. August 2012

Nach einer offiziellen Ankündigung zur Copyright-Verstößen geht Google nun härter gegen Seiten vor, die durch Urheberrechtsverletzungen auffallen. Zeitgleich wurde bestätigt, dass im Juni und Juli mehrere kleine Updates vorgenommen wurden, die vor allem vertrauenswürdigen Seiten zu einem Ranking Boost verhalfen.

Panda 3.7, 3.8 und 3.9 - Juni und Juli 2012

Die neuen Panda Updates sorgten vor allem für eine verbesserte Datensammlung, was den Algorithmus kaum beeinflusste und weniger als 1 % der Suchanfragen betraf.

Panda 3.4, 3.5 und 3.6 - März und April 2012

Um die Veröffentlichung von Penguin herum arbeitete Google auch an zwei weiteren Panda Updates. Die Routine-Updates zeigten keinen großen Einfluss auf die SERPs.

Page Layout Algorithmus - 19. Januar 2012

Google hat seinen Seitenlayout-Algorithmen aktualisiert, um Websites mit zu viel Above the Fold Werbung abzustrafen. Obwohl dieses Update aus SEO-Sicht extrem wichtig ist, wurde es von Google mit keinen eigenen Namen bedacht.

Panda 3.2 - 18. Januar 2012

Google bestätigte ein weiteres Panda-Update – gleichzeitig wurde aber auch mitgeteilt, dass der Algorithmus sich nicht geändert habe.

Panda 3.1 - 18. November 2011

Nach Panda 2.5 begann Google damit, kleine Updates in kürzeren Abständen zu veröffentlichen. Zum Teil wurde das Update vom 18. November als 3.1 bezeichnet, auch wenn es kein offizielles 3.0 gab.

Freshness Update - 3. November 2011

Google kündigte an, dass eine Algorithmus-Änderung im Hinblick auf Aktualität bis zu 35 % der Suchanfragen beeinflussen wird. Das Update betrifft vor allem tagesaktuelle Suchergebnisse, zeigt aber auch einen erhöhten Fokus auf frischen Content.

Panda "Flux" - 5. Oktober 2011

Matt Cutts kündigt via Twitter einen wahren Strom an Panda Updates für die nächsten Wochen an. Kleine Updates erfolgten am 3. Oktober, 13. Oktober und 18. November.

Panda 2.5 - 28. September 2011

Nach mehr als einem Monat bestätigte Google ein weiteres Panda Update. Genaue Inhalte wurden nicht bekannt, jedoch berichteten einige Seitenbetreiber von deutlichen Einbrüchen.

Panda 2.4 - 12. August 2011

Das Panda Update wurde nun auch international ausgerollt und betrifft nun sowohl englischsprachige als auch nicht-englischsprachige Suchanfragen, ausgenommen Chinesisch, Japanisch und Koreanisch. Google berichtete, dass sich dies 6-9 % der Suchanfragen der betroffenen Länder auswirkt.

Panda 2.3 - 23. Juli 2011

Webmaster Chatter deuteten den Roll-Out eines weiteren Updates an. Unklar blieb jedoch, ob dabei neue Faktoren eingeführt wurden oder dies lediglich ein Update auf die Panda Daten- und Rankingfaktoren war.

Panda 2.2 - 21. Juni 2011

Google fuhr mit dem Update der von Panda betroffenen Daten und Seiten fort und bestätigte so offiziell Panda 2.2. Das Update betraf eher Ranking-Faktoren als den Algorithmus.

Panda 2.1 - 9. Mai 2011

Google rollte weitere Veränderungen von Panda aus. Da diese von Google jedoch nicht im Detail diskutiert wurden, scheint dieses Update relativ gering zu sein und kann daher nicht unbedingt als Panda 3.0 bezeichnet werden.

Panda 2.0 - 11. April 2011

Das neu veröffentlichte Panda Update von Google betrifft alle englischen Suchanfragen, ist jedoch nicht auf englischsprachige Länder begrenzt. Dabei wurden neue Signale integriert, wie etwa Daten von Seiten, die Nutzer direkt über die SERPs oder über Chrome geblockt haben.

Panda - 23. Februar 2011

Das große Algorithmus-Update Panda zeigte starke Auswirkungen auf bis zu 12 % der Suchergebnisse, wie Google selbst mitteilte. Panda ging vor allem gegen dünnen Content, Content Farmen, Seiten mit erhöhten Werbung-Content-Verhältnis und weitere Qualitätsprobleme hart vor. Das Panda Update wurde über mehrere Monate ausgerollt und erreichte Europa im April 2011.

Attribution Update - 28. Januar 2011

Um weiter gegen das hohe Aufkommen von Spam-Fällen vorzugehen, rollte Google ein weiteres Update aus, um Content Attribution auszusortieren und Scraper zu stoppen. Laut Matt Cutts betrifft dies etwa 2 % aller Suchanfragen. Dieses Update ist klar als Vorbote von Panda zu sehen.

Caffein-Rollout - Juni 2010

Nach monatelangem testen wurde der neue Kern von Google ausgerollt. Caffein garantiert eine 50% frischere Suchergebnisseite mit aktuelleren Ergebnissen dank schnellerem Crawling und schnellerer Indexierung.

May Day - Mai 2010

Ende April und Anfang Mai 2010 bemerkten Webmaster signifikante Einbrüche in ihrem Traffic. Matt Cutts bestätigt später, dass Mai-Day eine Algorithmus-Änderung mit starken Auswirkungen auf die Long-Tails war. Seiten mit dünnen Inhalt wurden besonders hart getroffen, weshalb man an Panda dachte.

Caffein-Preview - August 2009

Mit Realtime Search wurden dieses Mal Twitter Feeds ins Ranking genommen, gerade veröffentlichte News und auch andere veröffentlichte Inhalte werden in Echtzeit in die Suchergebnisse aufgenommen. Mehr und Mehr Inhalte die in Echtzeit eingefügt werden sollten folgen.

Bourbon - Mai 2005

Ein GoogleGuy im Webmasterforum (vermutlich Matt Cutts) hat einen Update-Rollout angekündigt. Das Bourbon Update, nach einigen Spekulationen wird vermutet, dass die Behandlung von doppelten Inhalten angepasst wurde.

Allegra - Februar 2005

Allegras Ziele blieben unklar. Ob Google die Semantik verbessert hat oder doch anfing verdächtige Links zu bestrafen kam nie heraus. Allegra ist vermutlich die Optimierung der Latent-Semantischen-Indexierung (LSI).

Brandy - Februar 2004

Mit Brandy kamen mehrere Änderungen auf die Rankings zu. Unter anderem die Latent-Semantische-Indexierung (LSI), das Konzept der Link-Nachbarschaft (Link-Neighborhoods) und das verstärkte Achten auf Relevanz von Ankertexten. Das Brandy Update und die LSI ermöglicht es Google, Synonyme zu verstehen (im Jahr 2004) und hob die Keywordanalyse auf ein neues Level!

Austin - Januar 2004

Die Old-School SEO-Techniken die Florida übersehen hatte, mit denen räumte das Austin-Update auf. Auf der Liste von Austin standen unter anderem versteckte Texte und Keyword-Stuffing in Meta-Tags. Für viele SEOs wurde klar, das Google künftig die „Relevanz einer Seite, zu einem Thema“ deutlich ernster nehmen würde.

Florida - November 2003

Das Ende der End-90er-Jahre SEO-Techniken kam mit Florida. Viele Seiten haben ihr Ranking verloren. Techniken wie Keyword-Spamming und Co. haben mit Florida ihr Ende gefunden und die Suchmaschinenoptimierung wurde deutlich schwieriger.

Das erste dokumentierte Google Update - September 2002

Noch vor dem ersten von Google benannten Update (Boston im Jahr 2003) gab es im Jahr 2002 massive Änderungen in den Google SERPs. Von Webmastern wurde deutlich mehr Bewegung wahrgenommen, als es bis dahin üblich war. Die Ursache liegt darin, dass der Fokus von den Backlinks weggehend erstmals auf den Inhalt sowie die Qualität desselbigen gerückt wurde, um dem unnatürlichen Backlinkaufbau das Handwerk zu legen. Schon hier fasste Google also König Content als einem der wichtigsten Wertungsfaktoren ins Auge… faszinierend!

Google Technik Updates

Jetzt gehen wir noch eine Ebene tiefer und werfen einen Blick auf die Technik – genauer gesagt die Seitenarchitektur. Der Google Algorithmus klopft nämlich nicht nur den Inhalt ab, sondern schaut auch unter die Haube der Websites (Quellcode, Serverkonfiguration, Verlinkungen, Weiterleitungen, etc.).

Waren die Optimierungsmöglichkeiten hier anfangs noch relativ gering, erwies sich Google im Laufe der Zeit auch hier als äußerst ordnungsliebend und sorgte mit seinen Technik-Updates nach und nach für einen umfangreichen Anforderungskatalog: klare und minimalistische Strukturen, Sitemaps (2005) und einen gemeinsamen Standard für strukturierte Daten (2011). Doch auch auf technische Trends wie das vermehrte Surfen mit dem Smartphone reagiert Google als Trendsetter, macht die mobile Optimierung zur Pflicht, bevorzugt mobil optimierte Seiten bei der Indexierung und sagt Seiten mit langen Ladezeiten per Speed Update (2018) den Kampf an. Und auch auf das steigende Bedürfnis der User nach Datenschutz ist der Suchriese um keine Antwort verlegen und diktiert die SSL-Verschlüsselung.

Fast verhält sich Google mit seinen Technik Updates ein bisschen wie eine Marie Kondo der SEO-Welt: Was den Algorithmus nicht glücklich macht, kommt weg! Das volle Ausmaß von Googles Putz- und Ordnungsfimmel hat Dir Dein Lieblings-SEO nachfolgend zusammengefasst.

Nofollow als Hinweis - 01. März 2020

Ab März 2020 gilt das Nofollow-Attribut nicht mehr als Anweisung, bestimmte Links zu ignorieren. Stattdessen wird Google ab dann auch Nofollow-Links crawlen und indizieren.

Mobile Speed Update - 09. Juli 2018

Die Ladegeschwindigkeit für die mobile Suche per Smartphone und Co. wird zum Rankingfaktor für Google. Google behauptet in diesem Zusammenhang, dass dies nur die langsamsten Seiten betreffe, doch tatsächlich dürften einige Seiten rasant abgerutscht sein, da es derzeit durchschnittlich ca. 22 Sekunden dauert, eine Mobile-Seite zu laden. Schnarch… Als Richtwert werden nun 3 Sekunden gefordert.

Chrome Security Update - 17. Oktober 2017

Ab jetzt spuckt der zur Google-Familie gehörende Browser Chrome eine HTTPS-WARNUNG aus und warnt damit vor Seiten, die über keine oder eine fehlerhafte bzw. unvollständige HTTPS-Verschlüsselung verfügen. Die Folge der fehlenden Verschlüsselung: Dritte können auf Passwörter und Kreditkartendaten etc. zugreifen, was für den Nutzer schwerwiegende Folgen haben kann. Auch wirft diese Tatsache kein besonders gutes Licht auf den Inhaber und sorgt nicht gerade für Vertrauen, was schnelle Trafficverluste zur Folge haben dürfte. Seiteninhaber, die eine solche Meldung von Google vorgeschaltet bekommen, sollten sich daher schnellst möglich um die Implementierung eines SSL-Zertifikats bemühen.

Mobile-Friendly 2 - 12. Mai 2016

Die Reise zur Mobile-First-Indexierung schreitet voran: Über ein Jahr nach dem ersten „Mobile-Friendly“-Update rollt Google einen weiteren Ranking Boost für mobil-optimierte Seiten in der mobilen Suche aus und rückt die Freundlichkeit für Mobilgeräte damit weiter in den Fokus.

HTTPS/SSL Update - 6. August 2014

Nach Monaten der Spekulation kündigte Google an, künftig sichere Websites zu präferieren. Das Hinzufügen einer Verschlüsselung sollte sich positiv auf das Ranking auswirken.

EMD Update und Panda #20 - 27. September 2012

Mit dem EMD (Exact Match Domain) Update rückte Google die Relevanz hochwertiger Inhalte für Keyword-Domains als Rankingfaktor stärker in den Fokus. Zeitgleich wurde ein etwas größeres Panda Update veröffentlicht, das 2,4 % aller Suchanfragen betrifft. Da zudem die Zählung der Panda Updates zunehmend unübersichtlich wurde, wurde dieses Update mit #20 beziffert.

Query Encryption - 18. Oktober 2011

Ergebnisse von Suchanfragen werden zukünftig verschlüsselt übertragen, um den erhöhten Bedürfnis nach Sicherheit im Internet Rechnung zu tragen. Dies sorgt jedoch auch dafür, dass Keyword-Daten nicht mehr vollständig an die Zielseiten weitergegeben werden.

Schema.org - 2. Juni 2011

Google, Yahoo und Microsoft geben mit schema.org einen gemeinsamen Standard für strukturierte Daten von Webinhalten bekannt. Damit sollen künftig noch bessere Suchergebnisse möglich sein.

Real-Canonical - Februar 2009

Google, Microsoft und Yahoo gemeinsam hatten es angekündigt, das Canonical-Tag wird seit Februar 2009 von den großen Suchmaschinen unterstützt. Webmaster können seither Kanonisierungs-Signale an Bots senden, ohne Auswirkungen auf menschliche Besucher.

Big Daddy - Dezember 2005

Big Daddy war ein Update von Googles Infrastruktur, etwa wie Caffein 2010. Allerdings war Big Daddy technischer versiert und hatte damit auch weniger Einfluss auf die SERPs. Das Big Daddy Update veränderte primär die Handhabung von Canonisierung und den berühmten 301 und 302 Redirects, sowie weitere technische Aspekte.

XML Sitemaps - Juni 2005

Erst im Juni 2005 ermöglichte Google es den Webmaster dieser Welt, mit der Search-Console eine XML-Sitemap an Google zu übermitteln.

Nofollow - Januar 2005

Die Einführung des NoFollow-Attributes für Links wurde im Januar 2005 gemeinsam von Google, Yahoo und Microsoft bekanntgegeben. Das Attribute soll helfen, die Links einer Website besser zu kontrollieren und speziell bei spammigen Blogkommentaren Anwendung finden. Die Einführung des NoFollow-Attributes ist kein traditionelles Update, hatte aber einen erheblichen Einfluss auf die Linkkraft und Rankings diverser Websites.

Supplemental Index - September 2003

Um ohne Performanceverlust noch mehr Dokumente zu indexieren, führte Google einen Zusatzindex ein (Supplemental-Index). Dieser Schritt wurde lange in der SEO-Welt diskutiert, bis Google den Zusatzindex wieder Re-Integrierte.

Esmeralda Update - Juni 2003

Esmeralda war das letzte, reguläre, monatliche Update von Google. Der Google Dance wurde durch Everflux ersetzt. Google Everflux bedeutet nichts weiter, als ein beständiger, leichter, Wechsel von Rankingpositionen in den SERPs. Esmeralda hat vermutlich einige erhebliche Änderungen an der Infrastruktur des Google-Ranking-Algorithmus vorgenommen.

Google Usability Updates

Google ist die marktführende Suchmaschine – und das nicht umsonst, denn als Dienstleister der Spitzenklasse will Google seine Nutzer mit schnellen, zu 100 % relevanten und funktionalen Ergebnissen verwöhnen. Damit das funktioniert, schraubt Google nicht nur stetig an der Usability seiner Suchmaschine, sondern stellt auch umfangreiche Anforderungen an die Barrierefreiheit der als passend gefilterten Websites. So müssen diese etwa auf jedem Endgerät (Smartphone, Desktop, Tablet) einwandfrei aussehen, flüssig und intuitiv bedienbar sein und mit authentischen Inhalten zur Interaktion einladen. Wie gut das funktioniert, ermittelt Google unter anderem über seine hauseigenen Analysetools (Analytics und Search Console), die das Verhalten der User auf Deiner Website (Aufenthaltsdauer, Anzahl der besuchten Seiten, Absprungrate u.v.m.) und die Funktionalität Deiner Website tracken.

Doch auch die Usability der SERPs ist Google äußerst wichtig, denn mit ihnen beginnt die User Experience. Um seinen Nutzern also den virtuellen roten Teppich auszurollen und den Weg darüber luxuriös, kurzweilig und unterhaltsam zu gestalten, wird auch hier stetig mit Usability Updates aufpoliert und nachgebessert. So konnte man z. B. ab 2006 auf häufig gesuchte Themen aufspringen (Google Trends), mit vorformulierten Anfragen Zeit und Tipparbeit einsparen (Google Suggest, 2008) und die wichtigsten Infos vorab direkt auf den SERPs zusammenfassen lassen (Knowledge Graph, 2012). Durch die Einführung mehrerer KI kann Google Suchabsichten inzwischen nicht nur verstehen, sondern sogar vorhersagen. Die spannende Entwickung dieser und vieler weiterer Fähigkeiten, zeigt Dir Dein Lieblings-SEO mit einem chronologischen Überblick sämtlicher bekannter Google Updates für SERPs und Usability.

Google Core Update – Mai 2021

Seit Mai 2020 hat sich Google mit Core-Updates zurückgehalten. Auch dem Suchgiganten ist bewusst, dass viele Unternehmen in eine unsichere Zukunft blicken und SERP-Schwankungen daher gerade jetzt schwer zu verkraften sind. Das heißt aber nicht, dass das nächste Update nicht schon in der Pipeline steht:

So hat Google am 10. November angekündigt, dass es im kommenden Mai ein weiteres Core Update geben wird, das die „Page Experience“ als Rankingfaktor in den Algorithmus integriert. Zu den vier bekannten Kriterien kommen dabei noch drei Weitere Kennzahlen hinzu: Ladezeit, Interaktivität und Stabilität der Seite – die sogenannten „Core Web Vitals“. Der neue Ranking-Faktor „Page Experience“ soll dann mitentscheidend beim Ranking sein, wenn es mehrere Seiten mit ähnlich großartigem Content gibt. Die Uhr tickt also und wer in diesen Punkten noch schwächelt, sollte jetzt unbedingt mit geeigneten SEO-Maßnahmen vorsorgen, um in 6 Monaten fit für das Update zu sein.

Was sind Core Web Vitals

Die sogenannten Core Web Vitals sind messbare Kennzahlen (Hard Facts) zur Bewertung des Seitenerlebnisses und sollen nachempfinden, was der User auf Deiner Seite erlebt, wenn diese ihm als relevantes Suchergebnis vorgeschlagen werden sollte. Die Bewertung erfolgt dann nach einem Ampelsystem. Die Kennzahlen stellt Dein Lieblings-SEO Dir an dieser Stelle kurz vor:

Largest Contentful Paint (LCP)

Beim LCP wird gemessen, wie lange es dauert, bis auch das größte Element des Hauptinhalts Deiner Seite geladen ist. Geschieht das innerhalb von 2,5 Sekunden (je schneller, desto besser), gibt Google grünes Licht. Bei einer Ladezeit bis 4 Sekunden solltest Du beim Pagespeed nochmal Hand anlegen. Benötigt Deine Seite länger als 4 Sekunden, ist sie bei Google als User „unten durch“… Denn wenn der User etwas so gar nicht mag, dann ist das nun einmal das Warten.

First Input Delay (FID)

Mit dem FID misst Google, wie lange es dauert, bis der Browser auf eine Nutzeraktivität (Interaktion) wie etwa das Klicken eines Buttons oder Links auf Deiner Seite reagiert. Alles unter 0,1 Sekunden gefällt Google. 0,1 bis 0,3 Sekunden gelten als „verbesserungswürdig“ und Reaktionszeiten über 0,3 Sekunden werden abgestraft.

Cumulative Layout Shift (CLS)

Beim CLS handelt es sich um eine Kennzahl zur visuellen Stabilität Deiner Website. Sie bewertet, wie stabil das Layout ist sowie ob und wie stark sich einzelne Elemente dessen während der Nutzung verschieben. Als ideal gilt für diese Kennzahl ein Wert von 0,1 oder niedriger. Ab einem Wert von 0,25 ist Google not amused und zeigt die rote Ampel. Und wie entsteht dieser Wert? Verschieben sich Elemente, sind zwei Werte zu beachten: Impact Fraction (Wie viel Prozent der Website sind von der Verschiebung betroffen?) und Distance Fraction (Größte Distanz, um die sich das Element verschiebt). Diese werden prozentual betrachtet und miteinander multipliziert.

Diese Werte sind jedoch nicht für die Ewigkeit festgeschrieben: Google will die betreffenden Metriken auch weiterhin ergänzen und verbessern. Da hierbei auch die sich ständig wandelnden Erwartungen der Nutzer ausschlaggebend sind, wird Google die Core Web Vitals bei Bedarf auch in diesem Hinblick stetig anpassen.

Wozu braucht man die Core Web Vitals?

Eine Frage, die auch Du Dir sicher beim Lesen des vorigen Absatzes gestellt hast. Die Antwort ist relativ einfach: Die Core Web Vitals sollen für Google etwas schaffen, was mit den bisher zahlreichen Tools und Metriken noch nicht möglich war: eine einheitliche Bewertungsgrundlage für Websites. Denn so hilfreich die verschiedenen Metriken und Tools wie PageSpeed Insights, Lighthouse und Search Console auch sein mögen, Googles Performance-Experte Ilya Grigorik gab zu, dass diese nicht nur Vorteile, sondern auch Probleme mit sich brächten, da sie sich auf unterschiedliche Rankingfaktoren fokussierten. Deshalb habe man sich für drei neue und einheitliche Bewertungskriterien entschieden, um besser nachvollziehen zu können, wie gut Deine Besucher auf Deine Webseite oder Deinen Online-Shop zugreifen können.

Weitere Signale zur Page Experience

Lasset die Hochzeitsglocken läuten: Insgesamt setzt sich die Page Experience aus sieben Kriterien zusammen. Neben den drei neuen Core Web Vitals werden auch die vier bekannten Signale zur User Experience in die Bewertung der Page Experience mit einbezogen und miteinander kombiniert:

Mobile Friendliness

Und noch einmal gewinnt die Mobile-Optimierung, die schon seit 2015 zum Rankingfaktor wurde, an Gewicht. Achte darauf, dass Deine Website auch auf dem Smartphone gut lesbar, unmittelbar verständlich und leicht zu navigieren ist. Da sich die Anforderungen auch hier ändern können, solltest Du die Mobile Friendlyness Deiner Website stetig nachkontrollieren und bei Bedarf zeitnah nachbessern…

Safe Browsing

Sich beim Surfen einen Virus oder Datenklau einzuhandeln, ist natürlich keine schöne Nutzererfahrung. Google achtet deshalb darauf, dass Deine Website keinen schadhaften Code und keine Phishing-Inhalte enthält und gibt andernfalls eine Warnung vor deiner Website aus, die User vor dem Besuch abschreckt.

HTTPS

Wer A sagt, muss auch B sagen: Eine Seite ohne schadhaften Code oder Phishing-Inhalte zu betreiben genügt allein noch nicht aus. Nur wer mit HTTPS-Verschlüsselung arbeitet, kann wirklich von sicherem Datenaustausch sprechen. 
Deshalb schreibt auch Google diese seit 2014 vor.

No Intrusive Interstitials

Der siebte und letzte Faktor, der für die Page Experience den Ausschlag gibt, ist das Vorhandensein von aufdringlicher („intrusive“) Werbung, die die Interaktion mit Deiner Website unterbricht („Interstitial“). Befinden sich auf Deiner Seite also zum Beispiel Pop-ups, die den eigentlichen Inhalt Deiner Seite mit Werbung verdecken und erst weggeklickt werden müssen, um die Inhalte ansehen zu können, fällt Deine Page Experience also eher bescheiden aus.

Und jetzt das große „Aber“: Content bleibt König! Rudy Galfi, Produktmanager bei Google, äußerte hierzu: „Großartiger Inhalt wird immer noch der wichtigere Faktor sein und großartiger Inhalt mit einer schlechten Seitenerfahrung kann in der Google-Suche immer noch einen hohen Stellenwert haben.“ Gary Illyes ließ zudem verlauten, dass Googles Ziel die qualitativ hochwertigsten und relevantesten Ergebnisse für die Suchanfragen seiner Nutzer sei, dass aber die Core Web Vitals mit keinem von beidem etwas zu tun haben. Es sei daher „äußerst unwahrscheinlich“, dass diese der „primäre Faktor für den organischen Verkehr“ würden – was aber nicht heißt, dass man sie ignorieren könne!

Core Web Vitals messen

Wo die neuen Web Vitals gemessen werden können? In puncto Tools hast Du weiterhin freie Wahl, denn Google will die Core Web Vitals in alle seine gängigen Analysetools einbinden:

  • Search Console
  • PageSpeed Insights
  • Lighthouse
  • Chrome DevTools
  • Chrome UX Report
  • Web Vitals Extensions für CMS wie WordPress und Co.

Die gute Nachricht: Laut Google bedarf es dafür keiner nennenswerten Performance-Expertise, um die Metriken in den Tools lesen zu können. Schwieriger wird es dann allerdings dabei, angemessene SEO-Maßnahmen abzuleiten und die Website auf dieser Basis zu verbessern.

FAQGeddon - Unbestätigtes Update - 15. Juli 2020

Ein weiteres unbestätigtes Google Update macht sich Mitte Juli 2020 bemerkbar: Plötzlich finden sich auf den SERPs weniger Rich Snippets (von ca. 25 % auf ca. 15 %) und How-to-/FAQ-Snippets (von 19 % auf ca. 13 %). Google beschneidet damit also den Frage-Antwort-Teil in den organischen Suchergebnissen.

Google Core Update - User Signals - 04. Mai 2020

May the fourth be with you denkt sich Google und wirbelt mit dem ersten Core Update in der Corona-Pandemie die SERPs durcheinander. Das volle Ausmaß ist noch nicht absehbar, gewonnen haben jedoch augenscheinlich Seiten mit starken User Signals. Das Nutzerverhalten rückt also verstärkt in den Fokus des Google Algorithmus, was gerade bei kleineren Händlern zu enormen Sichtbarkeitsverlusten und damit zu großem Unmut geführt hat.

Nach dem zweiwöchigen Rollout ist klar: Google zielt ein weiteres mal auf die Qualität des Contents ab, zieht die User Signals mehr in den Fokus und gleicht die Gewichtung des E-A-T-Grundsatzes (Expertise, Authority, Trust) damit wieder etwas aus. So können auch kleinere Seiten ohne besonders großen Trust wieder im Ranking aufsteigen, sofern sie „großartigen Content“ bieten. Ein Bug aus dem Bereich Local SEO, der sich eingeschlichen hatte, wurde erkannt und behoben.

Layout Update - 13. Januar 2020

Am selben Tag wie das Core Update wird im Januar ein zweites Update eingespielt, das das SERP-Layout betrifft. Die Favicons der Websites werden in den SERPs sichtbar, statt der URL stehen nun die Breadcrumbs über der Meta-Description und Google Ads werden mit dem Wort „Anzeige“ gekennzeichnet.

BERT kommt nach Deutschland - Dezember 2019

Das BERT-Update wurde im Oktober zunächst nur in den USA ausgerollt, erst im Dezember kommt es nun auch über die deutschen Suchergebnisse. Insgesamt wird BERT in 70 Sprachen ausgerollt, es dauert also etwas, bis das Rollout vollständig ist. Und die Auswirkungen? Für komplexe Suchanfragen, etwa solche in ganzen Sätzen oder Voice Search, können dann bessere Ergebnisse ausgegeben werden, da die Google-KI die menschliche Sprache mit diesem Update wieder ein klein wenig besser versteht.

Namenloses Google Update - 7. November 2019

Drastische Ranking- und Trafficverluste (> 30 %) für Websites der Gesundheits-, Reise-, Food- und Tech-News-Branche sowie für B2C-Onlineshops und Affiliate-Projekte weisen auf ein unangekündigtes Google Update hin. Ranking-Tracker zeigten jedoch keine Auffälligkeiten. Google gibt wieder nur den Ratschlag, sich auf hervorragenden Content zu konzentrieren.

BERT - Update - 25. Oktober 2019

BERT, das steht für „Bidirectional Encoder Representations from Transformers“. Gemeint sind keine Autobots, sondern eine KI, die seit Herbst 2018 die Semantik (menschliches Sprachverstehen) der Suche verbessern soll, um passendere Suchergebnisse liefern zu können. Oder anders gesagt: Komplexe Suchanfragen sollen besser interpretiert werden. Vorerst findet das Rollout aber nur für die USA statt.

Angekündigtes Google Update? - 4. September 2019

Ein angeblicher Google Insider spricht Ende August über einen Test-Rollout, der alle Tests bestanden habe… Scheinbar steht ein größeres Update bevor. Gleichzeitig lässt der Google Insider durchblicken, dass die Verweildauer als Rankingfaktor eine wichtige Rolle dabei spielen könnte und man deshalb seine Website-Besucher besser dazu bringen solle, möglichst viel Zeit dort zu verbringen.

Site Diversity Update - 06. Juni 2019

Hierbei sollen die SERPs verbessert werden, in denen bestimmte Websites mehr als zwei organische Einträge besitzen. Auf Seite 1 konnten leichte Verbesserungen vernommen werden, ansonsten entpuppen sich die Auswirkungen als geringfügig.

Florida II - 12. März 2019

Lang ist’s her. Das erste Florida Update, das den 90er-Jahre-SEO-Praktiken ein Ende setzte, kam 2003. Nun meldet sich ein weiteres Florida-Update zu Wort und wieder sind die Medic-Gewinner/-Verlierer betroffen. Google betonte in diesem Zusammenhang erneut, dass Content dabei eine wichtige Rolle spiele und verwies auf die Quality Rater Gudelines.

Als Verlierer kristallisieren sich Websites aller Branchen heraus, die in puncto Usability, Mobile Friendlyness und Pagespeed versagen. Kurzum: Wer seine User vernachlässigt, wird von Google vernachlässigt.

Namenloses Update - 07. Februar 2019

Dieses mal auch von Google bestätigt: Diverse Ranking-Tracker meldeten starke Schwankungen, auf einen bestimmten Rankingfaktor schien das Update jedoch zunächst nicht abzuzielen. Weitere starke Schwankungen derselben Art werden jedoch auch am 13. und 22. Februar auffällig und ziehen sich bis in den März hindurch.

Da jedoch verstärkt Seiten betroffen waren, die viel Expertise erfordern (Gesundheit, Wissenschaft, Gesetzgebung), liegt die Vermutung nahe, dass die E-A-T-Schrauben justiert wurden. Doch auch Seiten zu den Themen Autos, Tiere und Haustiere waren betroffen, was eine Fokussierung des Contents wahrscheinlich macht – vielleicht sogar beides.

Allgemeines Algorithmus-Update - 07. Januar 2019

Das Jahr 2019 beginnt mit einem automatischen Algorithmus-Update, das von Google weder kommuniziert noch bestätigt wird. Bemerkbar macht sich das Update um den 7. Januar durch kurze, aber deutliche Schwankungen in Mobil- und Desktop-SERPs. Da keine speziellen Branchen betroffen waren, liegt die Vermutung nahe, dass es sich um ein kleines Usability-Update für Googles Hauptziel handelte: die schnelle und genaue Beantwortung Deiner Suchanfragen.

Halloween-Update - 08. November 2018

Den Namen bekam das Update eigentlich nur aufgrund des Rollout-Zeitpunkts: Am 31.10. und 1.11. machen sich leichte Ranking-Schwankungen bemerkbar. Google schwieg sich – wie üblich – erst einmal über die Durchführung von Updates aus. Doch etwas später gab es dann doch noch Feedback von Danny Sullivan, der bestätigte, dass Google die letzten Monate am sogenannten „Neural Matching“ gearbeitet habe. Dabei geht es darum, missverständliche oder auch mehrdeutige Suchanfragen besser und treffender zu interpretieren und Synonyme zu erkennen. Bis zu 30 % der Suchanfragen führen dadurch nun zuverlässiger zum Ziel. Fast schon gruselig, was Google inzwischen alles kann, oder? Gruselig genug jedenfalls, um den Namen doch wieder zu rechtfertigen…

Birthday Update - 27. September 2018

Das Birthday Update erfolgt zu Googles Jahrestag, daher der Name. Erneut wird an den Qualitätsstandards geschraubt und obwohl Google es als „kleines Core Update“ bezeichnete, machen sich wieder deutliche Zuwachse oder Verluste bemerkbar. Betroffenen wird empfohlen, Traffic-Quellen zu streuen und auf wiederkehrende Besucher zu setzen, um den Effekt eines Updates abzumildern.

Video Carousels Update - 14. Juni 2018

Mit dem Juni-Update von Google geht die lustige Fahrt los: Ab jetzt findet sich auf Seite 1 der SERPs über den ersten organischen Suchergebnissen eine Auswahl von themenrelevanten Videos, die nach Links und rechts gescrollt werden kann — wie ein Karussell eben.

Mobile First Index - 26. März 2018

Nicht nur die Relevanz wird im März 2018 verbessert, auch der lange angekündigte Mobile-First-Index wird ausgerollt. Da die Frequenz der Anfragen über mobile Endgeräte wie Smartphone und Co. die per Desktop-PC gestellten schon lange übersteigt, priorisiert Google bei der Indexierung also ab jetzt mobile Seiten. Der Index ist jedoch kein Ranking-Faktor.

Google über die Mobile-First-Indexierung

Mobile Seiten behandelt Google vorrangig gegenüber Desktop-Seiten. Die Indexierung von Seiten erfolgt unmittelbar nach dem Crawlen (grob gesagt: dem „Scannen“) von Webseiten. Mit der Indexierung weist Google den gecrawlten Seiten jeweils Bedeutungen zu. Passen die Bedeutungen einer Seite (X) mit denen einer Suchanfrage (Y) zusammen, kommt die Seite (X) als Ergebnis der Suchanfrage (Y) zumindest schon einmal in Frage. Die Indexierung ist also ein zentraler Baustein der Suchmaschine. Entsprechend bedeutsam ist der Switch der Priorisierung von Desktop auf Mobile für das Ranking von Seiten. Da es eine gewisse Verwirrung über die Implikationen und Folgen der Mobile-First-Indexierung gab, rückte Google per Twitter einige Missverständnisse zurecht:

Angezeigte URLs auf der Suchergebnisseite:

Gibt es bei einer Seite eine Mobile- UND eine Desktop-Version, indiziert Google zwar immer die Mobile-Version, verweist auf Desktop-Geräten jedoch immer auf die Desktop-Version

Anzahl der Crawlings:

Google wird Seiten künftig weder häufiger noch seltener als vor der Umstellung auf die Mobile-First-Indexierung crawlen. Lediglich bei der Umstellung auf die Mobile-First-Indexierung werden Seiten vorübergehend öfter gecrawlt

Im Cache gespeicherte Seiten:

Derzeit zeigt Google für einige (bereits als Mobile First indexierte) Seiten keine Cache-Version an. Das ist keine Absicht, sondern ein Bug, an dessen Beseitigung Google arbeitet

Page Speed und Mobile-First:

Im Juli 2018 rollt Google sein „Speed Update“ aus. Die Geschwindigkeit, mit der Mobile-Seiten geladen werden, wird damit zwar zum Rankingfaktor. Dieses Update hat aber nichts mit der Mobile-Indexierung zu tun.

Design (1):

„Akkordeons“ (Aufklappmenüs) und „Hamburger-Menüs“ (drei Querstreifen als Symbol für dahinterliegende Menüs) sind auf mobilen Webseiten aus Sicht von Google gute Lösungen

Design (2):

Für die Mobile-First-Indexierung spielt es keine Rolle, wie die Seite designt ist, ob als externe Mobile-Seite, als Responsive Design oder gar nur für Desktop-Geräte. Den Umstieg auf mobile-freundliche Designs empfiehlt Google zugleich allerdings auch

Der Mobile-Index selbst ist kein Rankingfaktor:

Mobile-Freundlichkeit ist es dagegen schon

Die wichtigsten FAQ zur Mobile-First-Indexierung

Die Indexierung setzt ein, sobald Deine Seite gecrawlt wurde. Google nimmt, vereinfacht gesagt, alle Inhalte einer Seite, weist diesen Inhalten Bedeutungen zu und macht diese dann dem Algorithmus zugänglich. Der Algorithmus kann so prüfen, ob die Bedeutungen/Inhalte auf einer Seite zu einer Suchanfrage passen. Das ist jetzt wirklich sehr grob dargestellt, aber das ist ungefähr das Prinzip. Mit anderen Worten: Indexierung ist ziemlich wichtig für Suchmaschinen. Die Umstellung auf Mobile-First ist daher alles andere als ein Pappenstiel. Warum Du vermutlich dennoch keine Schweißausbrüche zu fürchten hast, klärt der folgende Frage-Antwort-Reigen.

Wird die Desktop-Version durch Mobile-First überflüssig?

So formuliert: nein! Allerdings werden es reine Desktop-Versionen in absehbarer Zeit immer schwerer haben. Der Ankündigung zufolge experimentiert Google derzeit zwar noch mit der neuen Priorisierung von Mobile-Seiten, doch klingt alles danach, als sei der Strategiewechsel bereits beschlossene Sache. An eine Rückkehr zum Desktop-First ist jedenfalls an keiner Stelle in der Ankündigung die Rede. Die Sprachregelung als „Experiment“ lässt freilich ein Hintertürchen offen. Für eine noch unbestimmte Übergangszeit wird es einen Desktop-Index und einen Mobile-First-Index geben. Google will beide Indexe an Usern ausprobieren und sich so in das Wagnis Mobile-First vortasten. Auf Dauer soll es jedoch nur noch den Mobile-Index geben.

…Und wenn ich gar keine Mobile-Seite habe?

Das sei kein Problem, hat Google mittlerweile verkündet. Gibt es keine Mobile-Version wird einfach wie bislang auch die Desktop-Version gecrawlt und indexiert. Du solltest dabei jedoch bedenken, dass der Desktop-Index künftig seltener aktualisiert wird.

Was muss bei Mobile-Versionen mit eigener URL beachtet werden?

Wenn die Inhalte beider Versionen nicht miteinander übereinstimmen, kann Dir das künftig einige Probleme einhandeln. Hat Deine Mobile-Version weniger Content als die Desktop-Version (was aus Ladezeitgründen ja gerne gemacht wird), verlierst Du aller Voraussicht nach wertvolle Keyword-Indexierungen. Google prüft also nicht etwa, ob es noch eine Version dieser Seite gibt, die mit mehr Inhalt ausgestattet ist. Die Suchmaschine hält sich stattdessen künftig einfach an die Mobile-Variante.

Was ändert sich durch Mobile First für Responsive Design Seiten?

Responsive Design Seiten werden zu den Gewinnern der neuen Mobile-First Strategie von Google gehören. Im Responsive Design passt sich das Design mitsamt aller Inhalte dem jeweiligen Device an. Es gehen dabei keine Inhalte verloren. Google indexiert und berücksichtigt daher alles, was auf diesen Seiten eingestellt wurde. Wenn Du bereits eine Responsive Design Seite hast, besteht für Dich durch die Änderung also kein Handlungsbedarf.

Verlieren Backlinks durch Mobile First an Bedeutung?

Diese Vermutung liegt nahe, da in der Mobile-Welt Backlinks eine viel geringere Rolle spielen. Schließlich haben User auf Mobile-Devices nur selten Lust, zwischen verschiedenen Seiten hin und her zu springen. Da das Ganze derzeit noch als „Experiment“ ausgelobt ist, wird man sicher noch abwarten müssen. Auch Google muss schließlich erst Erfahrungen sammeln, wie sich der Index-Wechsel auf das Rankingsignal Backlinks auswirkt.

Mobile First könnte der „KI First“-Strategie den Weg ebnen

Vieles spricht dafür, dass Mobile-First lediglich der Einstieg in eine Strategie ist, die die künstliche Intelligenz (KI oder englisch AI) in den Mittelpunkt stellt. Interessanterweise war es sogar Googles CEO Sundar Pinchai, der bereits im Oktober 2016 darauf aufmerksam machte. Ausgerechnet auf einem Launch-Event, bei dem neue Smartphones vorgestellt werden sollten, sprach Pinchai von „Mobile First to AI First“. Statt sich über die Hardware des Konzerns auszulassen, malte der Google-Chef die schöne neue Welt der Voice-Search aus.

Intelligente Sprachassistenten wie Amazons Alexa, Apples Siri oder Cortana von Microsoft werden bereits als das „Next Big Thing“ der Szene gehandelt. Bei Google heißt dieses nächste größere Ding schlicht „Assistent“. Pinchai glaubt – und damit steht er nicht allein da – dass diese Sprachassistenten mittelfristig sogar das Smartphone ersetzen könnten. Ihr Charme besteht vor allem darin, dass sie für User jederzeit ansprechbar sind. Es genügt, ein „Ok Google“ (oder „Alexa“) zu sagen. Schon erwacht der Assistent und sucht für uns. Anschließend liest er uns das Ergebnis vor oder spielt die Musik ab, die wir hören wollen. Weitere Anwendungen sind bereits in Entwicklung.

In dieser schönen neuen Welt der Sprachassistenten werden Webseiten noch stärker als bislang schon zu Dienstleistern werden müssen, die Bedürfnisse von Usern befriedigen. Der Wechsel zur Mobile-First-Strategie bei der Indexierung bietet dafür die Grundlage. Es zwingt Webseiten-Betreiber künftig stärker auf Long-Tail-Keywords zu achten. Sie fallen typischerweise bei Sprachanfragen eher an als bei Suchanfragen, die eingetippt werden.

Google Tests - 14. März 2018

In diesem Monat fanden wohl einige Tests an der Suchmaschine statt, so wurden etwa einzelne organische Suchergebnisse aus den SERPs ausgeschlossen (z. B. Zeit- und Datumsabfragen sowie Umrechnungsergebnisse zwischen verschiedenen Einheiten). Gleichzeitig kam eine Schaltfläche mit der Beschriftung „Alle Ergebnisse anzeigen hinzu“. Die Tests wurden gestoppt und der Ausschluss wurde nicht zur Praxis, aber weiß, vielleicht folgt das eines Tages noch…

Namenloses Update - 14. November 2017

Dass Algorithmen einfach so ausgelassen „freidrehen“, ist in aller Regel entweder die Folge eines Updates oder eines Bugs. Dass Google kurz vor Weihnachten nochmal ein Update reinhaut, ist schon eine regelrechte Tradition. Nach 36 Stunden ausgelassenem Tanzens schien dann klar, dass es sich um kein Major-Update handeln kann. Es gab keine klar erkennbaren Muster und weder Content noch Linkprofile standen im Fokus. Am wahrscheinlichsten ist daher, dass es ein allgemeines Usability-Update war, mit dem vielleicht die KI wieder etwas dazu gelernt hat.

Namenloses Update - 16. September 2017

Schwankungen in den SERPs gehören zum Alltag. Gelegentlich fallen sie jedoch stärker aus. So auch um den 20. sowie 27. September 2017 herum. Ob es tatsächlich ein Update war, ist nicht ganz klar. Da sich aber besonders in den mobilen Ergebnissen Änderungen zeigten, könnte es sich um Tests für die Mobile-Indexierung gehandelt haben.

Wörterbuch-Update - 25. Juni 2017

Und noch einmal schraubt Google diesen Monat an seinem Algorithmus, wobei Wörterbücher, Lexika und Übersetzungsseiten an Visibility gewinnen. Bei kurzen generischen Suchbegriffen mit hohem Suchvolumen ohne eindeutig erkennbare Suchintention werden für eine bessere Ergebnisvielfalt nun am Ende der ersten Ergebnisseite Ergebnisse aus Wörterbüchern, Lexika und Übersetzungstools für das gesuchte Wort angeboten.

Infrastructure Update - 22. Januar 2017

Halleluja, werft Konfetti: Google kündigt ein Infrastructure Update für Google Search Console für den 22. Januar an – und weist sogar noch darauf hin, dass es dabei Veränderungen in den Daten geben könne. Es geschehen halt doch noch Zeichen und Wunder… etwa, dass Google Updates ganz von allein ankündigt. Mit diesem Update könnte sich das Tracking der User Signals leicht verändern und gewährt womöglich dann noch tiefere Einblicke. Letztlich dient das – wie alles was Google sonst so tut – natürlich der Verbesserung der Usability für Suchende.

Intrusive Interstitial Penalty - 10. Januar 2017

Google hat bekanntgegeben, dass Seiten mit „störenden Interstitials auf mobilen Websites“ herabgestuft werden. Techniken, die zur Herabstufung führen können:

  • Pop-ups, die den eigentlichen Inhalt einer Seite verdecken
  • Ein eigenständiges Interstitial, das geschlossen werden muss, um auf den eigentlichen Inhalt zugreifen zu können
  • Durch Interstitial wird der eigentliche Inhalt nur durch Scrollen erreichbar („Below the Fold“)

Für Google eher ungewöhnlich: Eine Warnung vor diesem Update – und das sogar schon 5 Monate im Voraus…

Mililonen Penalties und Abmahnungen im Jahr 2017

2017 hat Google nicht nur viele Updates implementiert, sondern auch millionenfach Penalties verhängt und Webmaster abgemahnt. Googles Suchmaschine lebt davon, Usern möglichst immer relevanten Content zu Suchanfragen zu liefern. Um das zu gewährleisten, fahnden die Algorithmen nicht nur nach den jeweils besten Suchergebenissen, sie identifizieren auch Seiten, die mit Tricks den Anschein erwecken wollen, sie seien für bestimmte Suchanfragen (Keywords) relevant.

Google nennt solche Seiten Search-Spam und zieht damit ganz bewusst eine Analogie zum bekannten Mail-Spam (Filter). Neben dem Search-Spam, der gegen Google-Richtlinien verstößt, bekämpft Google aber auch Spammy Pages wie Fake-Shops, Seiten, die zu Abo-Fallen führen oder gehackte Seiten zur Verbreitung von Malware und ähnliches.

Mithilfe eigener Systeme sowie durch die Zusammenarbeit mit Website-Betreibern, setzt Google viel daran, das Web gesund zu halten. Wie Google jetzt auf dem hauseigenen Blog bekannt gab, wurden 2017 über 45 Millionen Website-Betreiber abgemahnt bzw. auf mögliche Probleme auf ihren Websites hingewiesen. Rund 6 Millionen Webmaster erhielten 2017 eine Penalty, wurden also konkret aufgefordert, bestimmte Dinge auf der Website zu ändern. Im schlimmsten Fall führt eine solche Penalty zum Ausschluss von Domains aus den Rankings. Google bittet weiterhin darum, sich weiterhin an das Unternehmen zu wenden, wenn User auf Search-Spam oder Spammy Pages stoßen.

RankBrain-Update - 26. Oktober 2015

Google enthüllt in einer großen Ankündigung, dass bereits seit Monaten das KI-System RankBrain Teil des Suchalgorithmus ist, um Suchanfragen intelligent zu interpretieren. So sollen Suchanfragen bessern verarbeitet werden, die noch nie zuvor getätigt wurden.

Was macht RankBrain?

Der RankBrain übersetzt menschliche Sprache in mathematische Entitäten, genauer gesagt in Vektoren, die für Computer berechenbar sind und unser Verständnis von Worten und Begriffen recht gut abbilden. Lesen wir beispielsweise das Wort „Berlin“, vermuten die meisten von uns, dass es sich dabei um Deutschlands Hauptstadt handeln muss. Entdecken wir im gleichen Text auch noch Begriffe wie Politik, Kanzlerin oder Bundestag finden wir unsere Annahme unmittelbar bestätigt, selbst wenn wir den Text nur oberflächlich scannen. Wir können den Begriff nun auch mühelos in Zusammenhang mit Madrid, Washington oder Rom bringen und würden uns wundern, würde Mettmann in dieser Reihe genannt.

Ein Wort hat also sehr verschiedene Dimensionen der Bedeutung. Vektoren können die Dimensionen eines Begriffes erfassen. Und nicht nur das: Im Vektorenraum eines Terms (Begriffs) lässt sich auch festhalten, wie häufig dieser Term in welchen Dokumenten vorkommt. Genau das macht das Arbeiten mit den sogenannten Termvektoren für Google so interessant.

Schließlich erfasst die Suchmaschine einerseits riesige Mengen an Schriftsprache, die sie mithilfe von Crawlern und Bots auf Webseiten weltweit ausliest. Andererseits erfasst sie aber auch eine unfassbar große Zahl an Suchanfragen in Schriftform (gehen wir der Einfachheit zuliebe davon aus, dass die „Google Now“-Sprachanfragen letztlich auch nur schriftlich verarbeitet werden).

Das gesammelte Sprachmaterial übersetzt der RankBrain in Termvektoren. Diese lassen sich sehr gut auf Ähnlichkeiten hin abgleichen. Je ähnlicher der Vektor einer Suchanfrage dem Vektor eines Sprachmusters auf einer gecrawlten Seite ist, desto besser passt die Seite zur Suchanfrage. Entsprechend höher kann diese ranken. Googles Spitzname bezieht sich augenscheinlich auf diese Fähigkeit. Der RankBrain gibt für die Suchanfrage passende Ranking-Positionen aus.

Ähnlichkeiten von Vektoren sind übrigens nicht gleichzusetzen mit 1:1-Übereinstimmungen von Worten oder Phrasen. Das in Vektoren gefasste „Verständnis“ von Begriffen geht wesentlich tiefer. Daher ist es für RankBrain auch möglich, selbst für bislang noch nie eingegebene Suchanfragen passende Ergebnisse zu liefern. Um noch genauer zu verstehen, wie das gelingen kann, ist es sinnvoll, den RankBrain …

  • … als eine Maschine
  • … als Teil des gesamten Such-Algorithmus sowie
  • … isoliert als Rankingfaktor zu betrachten

Laut Google funktioniert der RankBrain so gut, dass er innerhalb kürzester Zeit zum drittwichtigsten Rankingfaktor aufstieg. Mit dieser selbstlernenden Maschine setzt Google den mit Hummingbird beschrittenen Weg hin zu einer semantischen Suchmaschine konsequent fort.

RankBrain als selbstlernende Maschine

Der RankBrain ist so konstruiert, dass er selbstständig aus Fehlern lernt und Optimierungen eigenständig vornimmt. Es handelt sich also um ein selbstlernendes System. Genutzt wird dafür das sogenannte Machine Learning, eine Disziplin der AI (Artificial Intelligence/Künstliche Intelligenz), weshalb wir hier auch von einer selbstlernenden Maschine sprechen.

Da Google sich nur selten über Rankingfaktoren auslässt, ist es vermutlich allein der Fähigkeit zum Selbstlernen zu verdanken, dass wir überhaupt vom RankBrain erfahren haben. Schließlich investiert Googles Mutterkonzern Alpha viel Zeit und Geld in die Entwicklung der AI (etwa das Leuchtturmprojekt selbstfahrender Google-Schiffe). Insofern ist die Bekanntgabe des RankBrains sicherlich NICHT der Einstieg in die Offenlegung aller Rankingfaktoren, sondern eher PR in Sachen Künstlicher Intelligenz.

Die Maschine arbeitet laut Google allerdings auch nur weitgehend selbstständig. Sie wird „vorsichtig überwacht“ und regelmäßig mit neuen Daten gefüttert, die dazu beitragen sollen, dass die Maschine selbstständig neue Konzepte ausprobiert. Diese werden aber offenbar erst offline getestet, ehe sie dann online gehen.

Google hat die Maschine über mehrere Jahre hinweg entwickelt und seither ausführlich getestet, u.a. offenbar mit A/B-Tests. Sie ergaben, dass User Suchergebnisse, die mithilfe von RankBrain zustande kamen, durchweg positiver und treffender bewerteten als die, an denen die Maschine nicht mitwirkte. Selbst ihre Kollegen bei Google konnte die Maschine spielend schlagen. Die Suchmaschinen-Experten sahen sich dafür beliebige Seiten aus dem Netz an und sollten raten, auf welcher Position diese Seite rankt. Ihre Trefferquote lag bei stolzen 70 Prozent, RankBrain brachte es jedoch sogar auf 80 Prozent.

RankBrain im allgemeinen Google Algorithmus

RankBrain funktioniert laut Google so gut, dass nur zwei Faktoren im Such-Algorithmus wichtiger sind. Welche das sind, verrät Google allerdings nicht. Es herrscht in der SEO-Szene jedoch weitgehend Einigkeit darüber, dass für die beiden Spitzenpositionen nur Seiteninhalte und vermutlich noch Backlinks in Frage kommen. Die Backlinks dürften allerdings große Konkurrenz durch User Signals haben. Faktoren wie Absprungrate, Verweildauer oder Click-Through-Rate (ein Maß für die Anzahl von Seiten, auf die im geklickten Suchergebnis gesurft wird) gewichtet Google seit Jahren immer stärker.

User Signals sind hilfreiche Indikatoren dafür, wie gut ein Suchergebnis zu einer Suchanfrage passt. Das sind Backlinks natürlich auch. Wird häufig auf eine Seite verlinkt/verwiesen, kann sie so schlecht ja nicht sein. Der Nachteil von Backlinks ist, dass sie hochmanipulativ sind. Mit den Penguin-Updates versucht Google zwar das Problem in den Griff zu bekommen, problematisch bleiben Backlinks aus Google-Sicht dennoch. Durch die Einführung des RankBrain löst sich Google ein weiteres Mal von seiner einstigen Abhängigkeit von Backlinks. Und zwar schlicht und ergreifend dadurch, dass ein weiterer Faktor beim Algorithmus mitspielt.

Als Teil des allgemeinen Google Algorithmus ist der RankBrain quasi eine vermittelnde Instanz zwischen Suchanfragen und Seiteninhalten. Mit RankBrain verbessert Google nicht zuletzt auch die semantische Suche. Sie bildet seit dem Hummingbird-Update von 2013 sozusagen den Fixpunkt des Google-Algorithmus. Google tritt seither als semantische Suchmaschine in Erscheinung. Dahinter verbirgt sich der nicht ganz unbescheidene Anspruch, eine Suchmaschine zu sein, die sowohl die Suchanfragen als auch die Seiteninhalte so versteht, wie Menschen sie verstehen.

RankBrain als Rankingfaktor

Da Google den RankBrain auch als Rankingfaktor bezeichnet, drängt sich die Frage auf, was das für Webseitenbetreiber und für SEO im Allgemeinen bedeutet. Die Antwort darauf ist zum Glück simpel und folgt der Linie, die Google seit Jahren fährt:

  • Content Marketing wird für Webseiten noch zentraler. Noch häufiger als bisher schon wird vor allem Content ranken, der für die Suchanfrage relevant ist.
  • Um die semantische Suche von Google optimal zu bedienen, benötigen Webseiten vor allem viele gute Texte. Diese müssen sowohl auf die zentralen Keywords als auch auf sinnverwandte Begriffe optimiert sein.
  • Seitenbetreiber und SEOs müssen sehr genau nachfragen und nachforschen, mit welchen Suchanfragen nach dem Angebot auf der Seite gesucht werden könnte.
  • Auch wenn eine Seite auf ein Keyword (oder ein Longtail-Keyword) optimiert wird, sollten themenrelevante Begriffe auf der Seite vorkommen und im Text behandelt werden.

Mobile Friendly Update - 22. April 2015

Ein seltener Fall: Google kündigt ein Update bereits im Vorfeld an. Mobile Benutzerfreundlichkeit wurde als Rankingfaktor in den Algorithmus aufgenommen, was für nicht-responsive Seiten teils zu erheblichen Positionsverlusten in den SERPs führte. Zwar sind vordergründig zunächst einmal „nur“ die mobilen Suchanfragen betroffen, doch wird geschätzt, dass das neue Rankingsignal bis zu 50% dieser Suchanfragen beeinflussen könnte. Zum Vergleich: Vom Panda-Update waren bis zu 12%, bei Pinguin bis zu 4% der Suchanfragen betroffen. Da Mobile-Devices immer wichtiger werden, sollte aber ohnehin niemand die kommenden Änderungen einfach ignorieren. Dein Lieblings-SEO hat mit seiner SEO-Agentur daher zehn Fragen und Antworten zur „Mutter aller Google Updates“ zusammengetragen:

I. Was bezweckt Google mit dem Mobile Friendly Update?

Weltweit gibt es derzeit bereits 2,5 Milliarden mobile Internetnutzer. Allein in Deutschland nutzen rund zwei Drittel aller User Mobilgeräte zum Surfen. Rund 30% der Deutschen kaufen über Mobile-Devices im Internet ein. Und dabei wird es nicht bleiben. All diese Kenngrößen wachsen kontinuierlich weiter. Google passt mit dem Mobile-Friendly-Update also im Grunde seinen Algorithmus lediglich an das veränderte Nutzungsverhalten der User an – und das wird eben immer mobiler.

II. Was versteht Google unter „Mobile Friendly“?

Vereinfacht gesagt: eine Seite soll vor allem auf Smartphones gut lesbar, unmittelbar verständlich und leicht zu navigieren sein. Google beschränkt das Signal „Mobilfreundlichkeit“ explizit auf Smartphones. Tablets gehören dank ihrer größeren Bildschirme für Google zu einer eigenen Geräteklasse und stehen entsprechend nicht im Fokus des geplanten Updates. Dass Google nicht von „Smartphone-Freundlichkeit“ spricht, liegt an zwei weiteren Geräteklassen, den Multimedia-Telefonen sowie Feature-Phones, die technisch nicht ganz Smartphones entsprechen, im allgemeinen Sprachgebrauch aber in der Regel als solche durchgehen.

III. Welche Kriterien müssen dafür erfüllt sein?

Die Auszeichnung mit dem Label „Für Mobilgeräte geeignet“ erfolgt, sobald der Googlebot folgende Kriterien erkennen kann:

  • Schriftgröße: Die Inhalte der Website sind auf dem Mobilgerät gut lesbar – und zwar so, dass man nicht ständig zoomen muss, um etwa den Text zu lesen.
  • Display: Die Größe der Website wird automatisch an die Bildschirmgröße des jeweiligen Mobile-Device angepasst
  • Software: Auf Programmiersprachen, die von Mobilgeräten nicht genutzt werden wie etwa Flash, wird verzichtet
  • Links: Sie werden so dargestellt, dass der Abstand zwischen den Links groß genug ist, um den richtigen Link per Touchfunktion auswählen zu können.

IV. Kann das Mobile-Friendly-Update dazu führen, dass meine Website im Ranking abfällt?

Ja! Zumindest, was die Suchergebnisseseiten angeht, die Google auf Smartphones ausspielt. Ob Handlungsbedarf besteht, kann jedoch jeder einfach auf der von Google eingerichteten Mobile-Testseite (https://search.google.com/test/mobile-friendly) überprüfen. Anhand der URL klopft Google – meist in weniger als 60 Sekunden – die entsprechende Seite darauf hin ab, wie gut sie für das Update gerüstet ist. Falls Handlungsbedarf besteht, werden darunter die Punkte, die zu optimieren sind (etwa zu klein dargestellter Text, zu nah beieinander liegende Links, nicht definierter mobiler Darstellungsbereich u.ä.) aufgelistet.

V. Wird es einen eigenen Index für mobile Suchanfragen geben?

Obwohl Google im Vorfeld des Mobile Friendly Updates mit Informationen so großzügig ist wie bei keinem Update zuvor, ist bislang unklar, ob das Update letztlich zu einem mobilen Index führen soll bzw. wird. Klar ist immerhin, dass Google mit dem Update seine Crawler in die Lage versetzt, speziell mobile Seiten sowie Apps zu durchsuchen. Angenommen wird deshalb, das künftig häufiger „Deep Links“, also tieferliegende Unterseiten in den Suchergebnissen aufgelistet werden könnten. Das entspricht auch dem mobilen Surfverhalten von Usern, da auf Smartphones ja seltener „tief“ gesurft wird als auf Desktop-Rechnern. Kurz gesagt, bedeutet das aber wohl auch: es lohnt sich künftig noch mehr, auch Unterseiten für Google zu optimieren.

VI. Wie stark werden nicht-mobilfreundliche Seiten vom Update betroffen sein?

Das hängt von zwei Faktoren ab:

  1. wie hoch der Anteil an mobilem Traffic auf Deiner Seite ist, also wie viele Deiner Nutzer bereits jetzt schon Deine Seite auf einem Mobil-Gerät direkt ansteuern und dort etwas kaufen.
  2. wie hoch der Prozentsatz der Keywords ist, die vor allem über Mobile-Geräte eingegeben werden und zu Deiner Seite führen.

Während Du beim ersten Punkt vielleicht noch zu der Meinung kommen könntest, Deine Seite wäre vom Mobile-Friendly-Update nicht betroffen, wird beim zweiten Punkt rasch klar: niemand kann die Folgen des Updates auf seine Seite wirklich abschätzen. Selbst Seiten, die bislang Mobile-Devices ignorieren konnten, dürften nun zumindest indirekt – über die Keywords – vom Mobile-Friendly-Update betroffen sein. In welchem Maß genau hängt, wie so oft, vom Einzelfall ab. Selbstverständlich muss niemand fürchten, gänzlich aus dem Ranking zu stürzen. Schließlich werden mit dem Update nicht all die anderen rund 200 Faktoren abgeschafft, die für ein gutes Ranking sorgen. Mobilfreundlichkeit wird mit dem 21. April zum Google-Algorithmus hinzugefügt. Das Gleichgewicht der Signale wird dadurch verändert, aber natürlich nicht abgeschafft.

VII. Welche Möglichkeiten gibt es, um Seiten mobilfreundlich zu gestalten?

Es gibt derzeit drei gängige Lösungen, um Seiten mobilfreundlich zu gestalten:

Eine mobile Website

Sie wird mit eigener URL neben der Desktop Website etabliert (etwa „m.website.com“). Aus Sicht der Suchmaschinenoptimierung bringt das natürlich etliche Probleme mit sich, wie etwa die Gefahr von Duplicate Content und einem Linkaufbau, der sich nun auf zwei Seiten spreizt, statt alle Backlinks auf einer Seite zu sammeln. Allerdings können all diese Probleme auch mit entsprechenden Kniffen gemeistert werden.

Dynamische Bereitstellung durch eine adaptive oder liquide Website

Die adaptive Website passt die Inhalte jeweils dem definierten Bildschirm an. Das Design der adaptiven Website fließt nicht mit den wechselnden Größen der Bildschirme mit, es gibt also auch keine „fluide“ Anpassung an die Viewports wie etwa beim Responsive Webdesign. Bei der liquiden Website werden etwa Bilder einfach proportional zur Gesamtdarstellung der Seite verkleinert. Das Design reagiert nicht auf die Umgebung, auf die sie ausgespielt wird.

Responsive Design

Die Darstellung passt sich dem jeweiligen Bildschirm möglichst optimal an. Das Design reagiert auf die Umgebung, in der es ausgespielt wird.

VIII. Muss eine Seite responsive sein, damit Google sie als Mobile Friendly einstuft?

Nein. Grundsätzlich sind alle Lösungen für Google zulässig. Google empfiehlt jedoch Responsive Design, weil es vom Ansatz her gleich mehrere Herausforderungen löst, wie etwa die Vermeidung von Duplicate Content. Google erkennt jedoch durchaus an, dass es Fälle gibt, in denen eine getrennte Mobile-Seite vorteilhaft sein kann, etwa bei Newsseiten, deren Desktop-Versionen oft eine Tiefe an Unterseiten anbieten, die auf Mobile-Seiten nur zu unüberbrückbaren Navigationsschwierigkeiten führen würde. Die Empfehlung für Responsive Design gründet vor allem darin, dass mit dieser Lösung alle Kriterien für Mobilfreundlichkeit erfüllt werden und in aller Regel dabei auch weit weniger Fehler gemacht werden als bei den Alternativen. Nicht verschwiegen werden sollte jedoch, dass Responsive Design mit dem Verlust von Inhalten bei der Darstellung auf verschiedenen Geräten einhergehen kann.

Zusammengefasst: Es gibt keinen Königsweg, um Seiten mobilfreundlich zu gestalten. Responsive Design dürfte zwar für die überwiegende Zahl der Seiten der beste und einfachste Weg sein, muss es aber nicht. Letztlich sollte die Entscheidung von Fall zu Fall getroffen werden.

IX. Meine Seite verfügt über Responsive Design, scheitert jedoch am Google-Test. Welche Gründe kann es dafür geben?

Manche Seiten mit Responsive Design scheitern am Google Test, weil sie Dateien in ihrer robots.txt-Datei blockiert haben. CSS, JavaScript und ähnliches dürfen nicht blockiert werden. Die Bots von Google erkennen an diesen Scripts die Mobile-Freundlichkeit von Seiten.

Da gerade bei mobilen Geräten die Ladegeschwindigkeit ein Thema ist, sollten CSS und JavaScript ausgelagert werden. Bilder müssen unbedingt komprimiert und die Verwendung von Videos und anderen Multimedia-Elementen eingeschränkt werden. Werden Videos angeboten, sollten diese immer mit einer Beschreibung versehen werden. Schließlich ist kaum etwas ärgerlicher für User, als unterwegs die lange Ladezeit eines Videos in Kauf zu nehmen, um erst beim Abspielen erkennen zu können, ob das Video überhaupt interessant ist.

X. Kann ich weiterhin Flash auf der Seite einsetzen?

Flash ist für Mobile-Devices meist nicht geeignet. Google zeigt Mobile-Device-Nutzern künftig auf der SERP wohl auch an, dass eine Seite Flash benutzt und dies womöglich nicht auf dem Gerät dargestellt werden kann. Kurz: Flash wird zum negativen Rankingsignal, weshalb man besser darauf verzichten sollte.

"In the News"-Box - Oktober 2014

Google erweiterte die Links der „In the News“-Box um eine größere Auswahl potenzieller Newsseiten. Die Präsenz von News-Ergebnissen in den SERPs stieg an und größere Nachrichtenportalen berichteten von erheblichen Traffic-Veränderungen.

Hummingbird - 20. August 2013

Etwa einen Monat nach dem Rollout gab Google die Veröffentlichung des Hummingbird Updates bekannt. Die erheblichen Veränderungen des Algorithmus wirkten sich auf über 90 % der weltweiten Suchanfragen aus. Der neue Such-Algorithmus kann Suchanfragen jetzt mittels KI noch besser interpretieren, um den Usern noch hochwertigere Suchergebnisse liefern zu können.

Mit dem wählerischen kleinen Kolibri zog eine völlig neuartige und wohlgemerkt eine der wichtigsten Verbesserungen des Algorithmus in die Suchmaschinenoptimierung ein, denn der Pagerank, der mit einer Skala von 0 bis 10 die Anzahl der eingehenden Links unter Einschluss deren jeweiliger PageRanks als Basis der Berechnung nutzte, erhielt nun smarte Unterstützung.

Der perfektionistische Google Hummingbird restrukturiert die Wertigkeit des früheren PageRanks und bewertet neben der Linkstruktur nun auch die zugehörigen Inhalte, um die Wichtigkeit einer Webseite zu einem Thema zu bestimmen. Erfasst werden von diesem KI-Algorithmus also nicht nur die Keywords mit ihren Synonymen und Wortverwandtschaften, sondern auch die themenrelevanten Bezüge zu den Webseiten mit eingehenden und ausgehenden Links.

Knowledge Graph Expansion - 19. Juli 2013

Ein weiteres Update des Knowledge Graph sorgte dafür, dass dieses nun bei mehr Suchanfragen anzeigt wird.

Domain Crowding - 21. Mai 2013

Domain Crowding nennt man es, wenn Websites mithilfe mehrerer unterschiedlicher Domains Traffic auf derselben Seite generieren. Eine Spam-Technik, unter der die Vielfalt der Suchergebnisse in den SERPs enorm leidet, denn im Ergebnis hat der Suchende eine Aufreihung der immer gleichen Website vor sich. Ärgerlich! Mit diesem Update ging Google massiv gegen das Domain Crowding vor und ermöglichte so eine größere Vielfalt in den Suchergebnissen.

Knowledge Graph Expansion - 4. Dezember 2012

Google erweiterte die Knowledge Graph Funktionalität auf nicht-englischsprachige Suchanfragen, wie Deutsch, Spanisch, Französisch, Portugiesisch, Japanisch, Russisch und Italienisch.

65er Update-Pack - 4. Oktober 2012

Anfang Oktober gab Google bekannt, dass bereits im August und September mehrere kleine Updates vorgenommen wurden, die vor allem den Knowledge Graph, die Bewertung der Seitenqualität und Änderungen in den lokalen Suchergebnissen beeinflussten.

7-Result-SERPs - 14. August 2012

Google reduzierte die Anzahl der angezeigten Suchergebnisse von 10 auf 7 für viele Anfragen aufgrund zunehmender Sitelinks.

Knowledge Graph - 16. Mai 2012

Google machte einen weiteren Entwicklungsschritt in Sachen semantischer Suche und stellte den Knowledge Graph vor. Dieses in die SERPs integrierte Display zeigt ergänzende Objekte und Informationen zu den organischen Suchergebnissen.

10er Update-Set - Dezember 2011

Google kündigte ein zweites Set aus 10 Updates an, die nun monatlich erfolgen sollen. Die Updates beziehen sich auf die Verfeinerung von Abfragen, das Erkennen geparkter Domains sowie eine verbesserte Blog- und Bildersuche. Das exakte Datum der einzelnen Updates wurde nicht bekannt gegeben.

10er Update-Set - 14. November 2011

Matt Cutts veröffentlichte einen Post mit den zehn neuesten Algorithmus-Updates. Diese Änderungen wurden am Algorithmus vorgenommen:

  • Übersetzung von relevantem Content für Sprachen, die nur wenige Ergebnisse bieten, darunter Afrikaans, Swahili, Hindi, Catalan, Walisisch, Isländisch und einige mehr.
  • Verbesserung der Snippets: Mehr Seiteninhalt, weniger Inhalte aus Menü und Headlines
  • Verbesserung der Seitentitel in den SERPs durch Umgewichtung von Ankertexten als Rankingfaktor.
  • Integration von Rich Snippets für Apps in die SERPs, die Auskunft über Inhalte, Kosten und Nutzerbewertungen der App geben.
  • Höhere Gewichtung der Aktualität in den SERPs für höhere Relevanz
  • Verbesserung datumsbezogener Suchanfragen
  • Verbesserung des Google Suggest Autocomplete für Anfragen mit nicht lateinischen Zeichen (z. B. Hebräisch, Russisch, Arabisch)
  • Bessere Autocomplete-Vorschläge für die Suche auf Russisch
  • Anpassungen der Bildersuche: Ausblendung eines überflüssiger (weil wirkungsloser) Rankingsignale
  • Bessere Indexierung und Rank-Boost für offizielle Websites

Somit handelte es sich zwar nur um kleinere Veränderungen, es wurde jedoch deutlich, wie Google künftig Algorithmus-Änderungen kommunizieren wird…

Pagination Elemente - 15. September 2011

Um Crawling- und Duplikationsfehler zu beheben, die durch die Pagination hervorgerufen werden, stellte Google die Linkattribute rel=“next“ and rel=“prev“ vor. Google erklärte zudem, dass die automatische Konsolidierung und Kanonisierung von „View All“-Seiten verbessert wurde.

Instant Preview - November 2010

Ein Vergrößerungsglas-Symbol erschien in den Google-SERPs. Damit konnten sich die Besucher schnell eine Vorschau von den Zielseiten direkt in den SERPs anzeigen lassen. Dies signalisierte einen erneuten Schwerpunkt für Google auf die Landing-Page Qualität, Design und Benutzerfreundlichkeit. Weil diese Feature nicht von Usern genutzt wurde, wurde es 2013 (leider) wieder eingestellt.

Google Instant - September 2010

Als Erweiterung von Google Suggest wurde Google Instant gestartet. Damit wurden Suchergebnisse schon angezeigt, noch bevor die Frage überhaupt fertig eingetippt war. SEOs von überall her ahnten Böses und drehten spontan durch, mussten dann aber doch erkennen, dass die Auswirkungen auf die Suchergebnisse letztlich ziemlich klein war.

Google Real-Time-Search - Dezember 2009

Mit Realtime Search wurden dieses Mal Twitter Feeds ins Ranking genommen, gerade veröffentlichte News und auch andere veröffentlichte Inhalte werden in Echtzeit in die Suchergebnisse aufgenommen. Mehr und Mehr Inhalte die in Echtzeit eingefügt werden sollten, folgen.

Google Suggest - August 2008

Im August 2008 wurde die Autovervollständigung (Google Suggest) eingeführt. Die Grundlage für Google Instant Answers und der erste Schritt in Richtung längere Suchanfragen. Das Logo und die Startseite selbst wurden ebenfalls angepasst.

Buffy - Juni 2007

Zu Ehren von Vanessa Fox, die Google verließ, wurde das Update „Buffy“ getauft. Niemand war ganz sicher, was in den SERPs passiert war. Am Ende sprach Matt Cutts davon, dass Buffy nur eine Ansammlung von kleineren Veränderungen war.

Universal Search - Mai 2007

Kein typisches Algorithmus-Update, 2007 integrierte Google in die traditionellen Suchergebnisse die Nachrichten, Video, Bilder und lokale Ergebnisse. Die Vertikalen Suchergebnisse, veränderten das Format der SERPs dramatisch, das Ende der 10-blue-links-SERPs war nun offiziell.

Personalisierte Suche - Juni 2005

Part Eins der personalisierten Suche wurde am 28. Juni 2005 von Google bestätigt. Der erste Schritt zu den personalisierten Suchergebnissen von Google war es, die Suchhistorie für Rankings zu verwenden.

Fritz Update - Juli 2003

Mit Fritz war der Google Dance endgültig zu Ende. Statt den Google-Index monatlich durch „Überholungsupdates“ zu ändern, wechselt Google zu Schritt-für-Schritt-Änderungen. Mit anderen Worten, der Index ändert sich nun tagtäglich. Mit diesen stetigen Anpassungen des Suchindexes unternimmt Google einen weiteren wichtigen Schritt, um noch schneller auf das Verhalten der User reagieren und stetig bessere Ergebnisse ausspielen zu können.

Boston Update - Februar 2003

Das erste von Google benannte Update wurde auf der SES (Search Engine Strategies Messe) in Boston angekündigt, daher der Name. Mit Boston wurde erstmals der Suchindex erweitert. Ursprünglich war ein großes, monatliches Update geplant. Eine Kombination aus Änderungen und Index-Auffrischung (Google-Dance genannt). Als es später regelmäßigere Updates gab, wurde die Idee der monatlichen Updates schnell verworfen.

Google Toolbar Update - Juli 2001

Im Juli 2001 startet Google die Suchmaschine für Bilder, mit Anfangs Zugriff auf 250 Millionen Bilder.

Google Toolbar Update - Dezember 2000

Am 11. Dezember 2000 bringt Google die Browser-Toolbar heraus und mit ihr den Toolbar-Pagerank (TBPR).

Google Update - 8. Februar 2020

Auch im Februar tanzen die SERPs wieder einen aufregenden Tanz – sogar noch heftiger als beim Januar-Core-Update. Klare Gewinner oder Verlierer gibt es nicht, die Schwankungen betreffen Websites mit unterschiedlichsten Linkprofilen aus vielen Nischen. Einige Seiten haben Traffic verloren, ihn aber schnell wieder zurückbekommen. Da sich keinerlei Muster erkennen ließen, ist es wahrscheinlich, dass es sich bei diesem Update um Tests handelte, die kein erwünschtes Ergebnis lieferten, weshalb sie wohl zügig wieder zurückgenommen wurden.

Kommt der PageRank zurück? – 23. April 2018

Vor ca. zwei Jahren hatte Google den PageRank, mit dem man in einfachster Weise die Bewertung des aktuellen Status einer Webseite einsehen konnte, ad acta gelegt. Das Ende passte zu der seit dem Hummingbirg-Update verfolgten Strategie Googles, vermehrt Wert auf wertvollen Content von Webseiten zu legen. Nun wurde jedoch bekannt, dass Google ein neues PageRank-Patent angemeldet hat.

Geht es also bald doch wieder vermehrt darum, Backlinks zu platzieren? Und werden dadurch andere Faktoren wieder abgewertet? Aus Erfahrung kann Dein Lieblings-SEO sagen: Ganz ruhig und nicht in Panik verfallen! Patente heißen noch lange nicht, dass die Technik jemals Anwendung findet. Und selbst wenn: An der seit Jahren von Google verfolgten Ausrichtung der semantisch-holistischen Suche wird König Content auch weiterhin auf dem Thron bleiben. Insofern würde ein Comeback des PageRank wohl kaum etwas ändern.

Penguin 4.0 - 23. September 2016

Google gab ein lang erwartetes Update zu Penguin bekannt. Es wird in zwei Phasen ausgerollt: Phase 1 soll schlechte Backlinks abwerten und beginnt am 27. September, Phase 2 wertet Seiten mit übertriebener Werbung ab und folgt am 06. Oktober 2016. Nach diesem Update funktioniert Penguin in Echtzeit und wurde in den Kernalgorithmus integriert. Die erwarteten Auswirkungen waren überschaubar und es wurde kaum von Erholungen von vorherigen Penguin-Abstrafungen berichtet.

Was ändert sich mit Penguin 4.0?

Der Penguin gehört nun zum Core des Algorithmus, wird daher nicht mehr zyklisch ausgespielt, sondern arbeitet in Echtzeit, ohne Pausen, rund um die Uhr und an jedem Tag im Jahr. Entdeckt Penguin 4.0 unnatürliche Backlinks, kann eine Seite daher künftig auch schneller abgestraft werden. Die Folgen der Abstrafung sind für Webseiten-Betreiber jedoch nicht mehr so dramatisch: Von Penalties sind künftig nicht mehr ganze Domains betroffen (nicht unbedingt), sondern oft nur die Seiten, auf die unnatürliche Links führen.

Der flügge gewordene Penguin relativiert also direkt den Wert von Links, wenn sie ihm nicht geheuer scheinen. Das dürfte die Missbrauchsmöglichkeiten von Links kräftig einschränken. Zudem zeigt die Möglichkeit der Entwertung bestimmter Links auch, wie weit sich Google bereits aus der einstigen Abhängigkeit von Links verabschiedet hat. Zwar soll Penguin 4.0 ohne Deep Learning Funktion (selbstständiges Lernen) ausgestattet sein, doch es ist zu vermuten, dass es nur eine Frage der Zeit ist, bis Google auch bei der Beurteilung von Backlinks auf maschinelles Lernen setzt, um sich so noch weiter von der einstigen Abhängigkeit zu emanzipieren. Festzuhalten gilt aber bereits jetzt, dass Backlinks mit dem neuen Update nicht mehr generell als wertvolle Rankingsignale gelten können. Ihr Wert wird von Google nun flexibel eingeschätzt und ist abhängig von anderen OnPage-SEO-Kriterien oder User Signals.

Wenn nicht mehr die Domain abgestraft wird, lohnt es sich dann einzelne Seiten mit gekauften Links zu pimpen, um so Besucher anzulocken und auf sich aufmerksam zu machen? Diese Strategie klingt zunächst tatsächlich verlockend. Mit Penguin 4.0 ist Linkbuilding ja offenbar nicht mehr so gefährlich. Da oftmals nicht mehr die ganze Domain abgestraft wird, sondern nur noch einzelne mit Linkspam verseuchte Seiten, könnten Webseiten-Betreiber das Risiko eingehen, einzelne Landing Pages für Rabattaktionen oder andere kurzfristige Events mit gekauften Links im Ranking nach vorne zu pushen. Wer so denkt, vergisst, dass Penguin 4.0 in Realzeit arbeitet und den Wert von Links relativieren kann.

Sobald der Algorithmus Webspam entdeckt, wird die Seite auch schon im Ranking herabgestuft. Wer das häufiger macht, dürfte zudem riskieren, dass irgendwann auch die Domain abgestraft wird. Domain-Abstrafungen sollen durch Penguin 4.0 zwar nicht mehr die Regel sein, sind aber damit noch lange nicht vom Tisch, zumal Google ja nach wie vor auch manuelle Penalties erteilt, um etwa Linkfarmen oder notorische Betrüger aus den Rankings fernzuhalten.

Aussortieren mit dem Disavow-Tool

Wer von früheren Penguin-Updates getroffen wurde, der konnte entweder den Linkgeber darum bitten, seine Seite nicht länger mit diesen schlechten Links zuzuspammen oder – da der Spammer in aller Regel auf solche Anfragen nicht reagiert – musste zwingend mit dem Disavow-Tool unnatürliche Links quasi in Quarantäne setzen. Mithilfe der Disavow-Files erkennen die Bots von Google Spamlinks.

Googles Ansprechpartner für SEO-Sorgen, John Mueller, hat auch schon verkündet, dass das Setzen von Disavow-Files nicht mehr zwingend notwendig sei. Im Idealfall erkennt Penguin 4.0 Spamlinks und sortiert sie aus, sodass sie für das Ranking einer Seite keine Rolle mehr spielen. Wer allerdings sichergehen will, dass das auch tatsächlich geschieht, sollte nach wie vor mit dem Disavow-Tool unnatürliche Links in Quarantäne schicken. Umgekehrt sei es nach wie vor keine gute Idee, grundsätzlich alle eingehenden Links mit Disavow-Files zu versehen. Damit würden zwar alle Risiken durch Links beseitigt, mit den Risiken zugleich aber auch alle Chancen durch die Links im Ranking zu steigen.

Goodbye PageRank – 2016

Der PageRank-Algorithmus von Google bewertete seit den frühen 2000ern Webseiten anhand der auf sie eingehenden Verlinkungen. Einfach gesagt: Je mehr Links, desto wichtiger die Seite. Da dieser Algorithmus, der nach seinem Entwickler und Google-Schöpfer Larry Page benannt ist, jedoch massiv den unnatürlichen Backlinkaufbau förderte, wurde PageRank im Laufe des Jahres 2016 in Rente geschickt und vollständig von Penguin, Hummingbird und Rankbrain – den drei Musketieren der Google-Suche – ersetzt.

Penguin 3.0 - 17. Oktober 2014

Nach mehr als einem Jahr Pause seit dem letzten Penguin Update (2.1), bringt Google ein Penguin Refresh heraus. Das Update fällt viel kleiner als erwartet aus; weniger als 1 % der englischen Suchanfragen war betroffen. Google kündigte an, das Penguin Update werde das Leben von Webmastern „ein wenig leichter“ machen. Für die meisten User werde es zugleich, eine „Freude sein“. Google habe aus genau diesem Grund auch so lange an dem Update gearbeitet: um Experten wie einfache User gleichermaßen zufriedenstellen zu können. Für manche SEOs dürfte diese wärmende Wortwahl indes die Alarmglocken klingeln lassen. Schließlich sorgen Penguin Updates u.a. dafür, dass Seiten mit verdächtigen Linkprofilen abgestraft werden. Schlechte Nachrichten also für die, die damit noch ihr Geld verdienen. Dass mit dem Update bislang keine großen Ausschläge nach oben oder unten bekannt wurden, könnte darauf hindeuten, dass es Google diesmal tatsächlich vor allem darauf ankommt, Webmaster zu animieren, rascher auf durch Penguin verursachte Penalties zu reagieren.

Penguin 2.1 (#5) - 4. Oktober 2013

Nach einer mehrmonatigen Pause veröffentliche Google ein weiteres Penguin Update, das vorrangig ein Daten-Update darstellte. Die Veränderungen betreffen vor allem die Spam-Bekämpfung und beeinflussten etwa 1 % der Suchanfragen.

Penguin #3 - 5. Oktober 2012

Nachdem Google angedeutet hatte, dass das nächste Penguin-Update größer ausfallen würde, wurde lediglich ein kleineres Daten-Update vorgenommen, das nur 0,3 % der Suchanfragen beeinflusste.

Mai 39er Update-Pack - 7. Juni 2012

Google bestätigte, im Mai 39 kleinere Updates vorgenommen zu haben, die vor allem Penguin und Google News betrafen und eine bessere Aufdeckung von Linkbuilding ermöglichten.

Penguin 1.1 - 25. Mai 2012

Google veröffentlichte sein erstes Update nach dem Release von Penguin. Dabei wurde vor allem gegen Webspam vorgegangen und zudem angekündigt, dass es ähnlich wie bei Panda eine kontinuierliche Veröffentlichung von Updates geben wird.

April 52er Update-Pack - 4. Mai 2012

Als Verfeinerung des Penguin Updates bestätigte Google die Durchführung mehrerer kleinerer Veränderungen, die zum Beispiel Sitelinks und die Indexierung betrafen.

Penguin - 24. April 2012

Nach Wochen der Spekulationen rollte Google endlich das neue Update Penguin aus, das noch stärker gegen Spam vorgehen soll. Mit Penguin wurden eine Reihe von Spam-Faktoren angepasst. Vor allem Seiten, die Keyword Stuffing betrieben, wurden dabei deutlich abgestraft.

Der Penguin ist ein Algorithmus der Webspam, speziell unnatürliche Backlinks, identifiziert. Mit dem erstmals 2012 veröffentlichten Update bekämpft Google Manipulationen, die darauf zielen, eine Seite im Ranking nach oben zu bringen, obwohl sie weder inhaltlich noch technisch ein hohes Ranking rechtfertigen. Vor dem Penguin war es durchaus eine gute Strategie, sich Links zu kaufen. Auf Linkfarmen ließen sich diese positiven Rankingsignale sozusagen exklusiv für die eigene Website züchten, um sie dann in die digitale Welt zu entlassen. Google bewertete in dieser Zeit Webseiten vornehmlich danach, wie häufig andere Seiten auf diese Webseite verlinkten.

Tauchen in den Bestandteilen von Links wie dem Linkanker (dem Begriff, von dem aus verlinkt wird), dem Linktitle (zu sehen, wenn man mit der Maus über den Link fährt) sowie den Begriffen im unmittelbaren Umfeld eines Links bestimmte Keywords immer wieder auf, ist das für Google ein Zeichen, dass die verlinkte URL für diese Keywords von Bedeutung ist. Zwar spielt auch die Autorität der verlinkenden Seite eine Rolle, doch glichen die Linkfarmen mangelnde Autorität durch schiere Menge aus. Der Penguin schob solch unlauteren Methoden dann allerdings einen Riegel vor. Wer zu viele unnatürliche Links auf seiner Domain zu verzeichnen hatte, musste mit einer Penalty von Google rechnen. Eine Benachrichtigung darüber gab es, im Gegensatz zu manuellen Maßnahmen jedoch nicht! Nach oben kam dann erst wieder, wer die von Google gestellten Hausaufgaben machte.

Aber selbst das dauerte oft, da man warten musste, bis der Penguin mal wieder vorbeischaute. Nicht selten musste sogar auf manuelle Prüfungen gewartet werden. Das war vor allem für jene besonders ungerecht, die Opfer von Negative SEO wurden, also verdeckten Angriffen von Konkurrenten, die mit billig gekauften Backlinks versuchten, einer Konkurrenzseite zu schaden. Sie wurden für etwas abgestraft, das sie nicht zu verantworten hatten. Der Penguin im 4.0-Federkleid dürfte gerade dieser Ungerechtigkeit besser abhelfen können als seine Vorgänger.

Index-Update - 01. Dezember 2006

Viele Webmaster meinten, ein Update Ende November – Anfang Dezember bemerkt zu haben. Das war laut Matt Cutts lediglich falscher Alarm. Später ließ Google jedoch noch verlauten, dass es sich um eine Änderung am Index gehandelt, es aber keine größeren Änderungen gegeben habe. Vermutlich hängt die leichte Fluktuation der SERPs dann mit dem Supplemental Update zusammen.

Im Jahr 2006 schien Google Änderungen am Index vorzunehmen und z.B. daran wie gefilterte Seiten behandelt wurden. Sie behaupteten Ende des Jahres 2006, dass es nur Ergänzungen waren und keine Strafe (auch wenn manche Webmaster es als Strafe ansahen). Was hatte es also damit auf sich? Warum wurden einige Websites nun plötzlich in einem zusätzlichen Index und (scheinbar) nicht mehr im Hauptindex erfasst?

Adam Lasnik, Googles Search Evangelist, meldete sich schließlich doch noch zu Wort und gab den Hinweis, dass man sich mit hochwertigen Backlinks der Aufmerksamkeit des Main Index versichern könne… Immerhin etwas. Demnach scheint das Supplemental Update also auf die Qualität der Backlinks und des Linkprofils zu zielen.

Jagger - Oktober 2005

Jagger zielt auf Links. Das Jagger Update hat Links von schlechter Qualität zum Ziel. Dazu gehören Linkfarmen, wechselseitige Verlinkungen (reciprocal Links) und natürlich bezahlte Backlinks. Das Jagger-Update wurde in drei Stufen ausgerollt, vom September bis November 2005. Eingeordnet ist das Update im Oktober, da hier der größte Einfluss auf Rankings zu sehen war.

Gilligan - September 2005

Unter Berufung auf Matt Cutts, war Gilligan nicht wirklich ein Update. Lediglich das Sichtbarwerden von Backlink– und Pagerank-Daten in den Suchergebnissen. Gilligan war also nur eine außergewöhnlich auffällige Änderung in den Rankings. Irgendwie ist es dann doch ein Update, ein Update der Pagerank- und Backlinkdaten. Diese passieren (laut Matt Cutts) im Jahr 2015 etwa alle 3 Monate.

Dominic Update - Mai 2003

Mit dem Dominic Update von Google veränderte sich die Bewertung von Backlinks und die Erfassung derselbigen wurde verfeinert, sodass Linkbuilding über Linkfarms nur noch sehr schwer möglich war.

Cassandra Update - April 2003

Mit Cassandra hat Google einige Link-Quality-Fehler behoben. Betroffen waren viele Links von Seiten, die man ebenfalls selbst besessen hat, sowie versteckte Links. Webseiten mit verstecktem Text wurden von Cassandra ebenfalls getroffen.

Google Social Signal Updates

Social Signals sind soziale und kommunikative Signale, die über die Interaktion mit Social-Media-Plattformen generiert werden. Gemeint sind damit Kommentare, Likes, Shares oder auch Abos (Follow). Nicht immer waren solche Signale Teil des Algorithmus, doch spätestens als Facebook und Co. 2010 auch in Deutschland populär wurden, erkannte Google darin eine großartige Vernetzungsmöglichkeit und beschloss im Rahmen einiger Social Signal Updates, diese mit der Bewertung von Websites zu verknüpfen (Rankingfaktor).

Tatsächlich entwickelte Google sogar sein eigenes Social Network (Google+, auch wenn es später wieder abgeschafft wurde) und begann, die Social Media Vernetzung in vielen verschiedenen Punkten zu bewerten: Wie viele Plattformen werden betreut, wie regelmäßig wird gepostet, wie „wertvoll“ sind die Beiträge, wie viele Follower hat das Profil, wie stehen die Follower selbst da (Autorität, Vertrauen) – und natürlich: Wie oft wird geliked, retweetet, geshared und so weiter… Der Hintergrund dabei ist der, dass Google schlicht und einfach sehen will, dass wirklich Menschen hinter einer Website und einem Social Media Profil stecken, die dem Service-Claim (Multi-Problemlöser) von Google nacheifern.

Search + Your World - 10. Januar 2012

Google kündigte eine radikale Veränderung in der Personalisierung an. In viel stärkerem Maße wurden nun Google+ Daten und Profile in die Suchergebnisse mit einbezogen. Zudem baute Google einen neuen Toggle-Button ein, um die Personalisierung ausschalten zu können.

Google+ - 28. Juni 2011

Nach einigen Social Media Fehlschlägen startet Google mit Google+ einen ernstzunehmenden Angriff auf Facebook. Google+ ermöglicht das Teilen von Content und wurde fest mit anderen Produkten wie Gmail verbunden. Innerhalb von zwei Wochen erreichte Google+ bereits 10 Mio. Nutzer.

Der +1 Button - 30. März 2011

Um in direkte Konkurrenz mit sozialen Netzwerken wie Facebook und Twitter zu treten, führte Google den +1 Button ein, direkt neben den Links der Suchergebnisse. Damit können User die Suchergebnisse in ihrem Social Circle sowohl in organischen als auch in bezahlten Ergebnissen beeinflussen.

Social Signals - Dezember 2010

Google und Bing bestätigten, dass sie Social Signals beim Ranking verwenden, einschließlich der Daten von Twitter und Facebook. Matt Cutts bestätigt, dass dies eine relativ neue Entwicklung bei Google ist, obwohl viele SEOs diesen Schritt lange vorherahnten.

Google Local Updates

Erinnerst Du Dich noch daran, als man seine örtlichen Anlaufstellen vor dem Aufbruch noch minutiös aus den Telefonbüchern heraussuchte und dann unter Umständen vor verschlossenen Türen – und mangels abrufbaren Infos zu Alternativen auch erst einmal sprichwörtlich im Regen stand? Gut, dass Google bereits 2005 Google Maps als erstes Local Update launchte. Auch wenn man noch kein Smartphone hatte, konnte man am PC dann immerhin schon einmal alternative Anlaufstellen in der Nähe herausfinden und einplanen. Doch das war erst der Anfang, denn ohne Brancheintrag war das mit dem gefunden werden bestenfalls nur als schwierig zu bezeichnen.

Mit Google Places wurde 2010 eine weitere Möglichkeit für die bessere Auffindbarkeit gelegt, mit Venice (2012) wurden diese Seiten in die organische Suche integriert, mit Pigeon wurde 2014 die Einbeziehung des User-Standorts vollzogen und die „In deiner Nähe“-Suchergebnisse entstanden, sodass auch die Navigation zum lokalen Suchergebnis schnell und einfach möglich wurde. Heute ist Local SEO für kleine und mittelständische Betriebe die wirksamste digitale Marketingmaßnahme überhaupt und ist essenziell, um auch für regional ausgelegte Suchanfragen als relevante Anlaufstelle aufgezeigt zu werden. Folglich herrscht auch bei den Local Updates ständige Bewegung:

Bedlam-Update - Local Search - November 2019

Mit dem BEDLAM-Update wird die neuronale Zuordnung, ein weiterer KI-basierter Algorithmus, zum Suchprozess hinzugefügt. Google verbessert damit das Verständnis der Beziehung zwischen Wörtern und Konzepten, erkennt Synonyme und unterstützt die Generierung lokaler Suchergebnisse.

User Localization Update - 27. Oktober 2017

Anderer Standort, andere Ergebnisse: Mit dem User Localization Update wird ab jetzt der Standort des Users in die Suche mit einbezogen (Default-Lösung). Welche Top-Level-Domain eine daraufhin ausgespielte Seite hat, spielt dabei keine Rolle mehr. In der Folge werden die Suchergebnisse mit diesem Update nicht nur lokaler, sondern auch deutlich relevanter für Suchende, deren Standort nun im unteren Bereich (unterhalb der Pagination) in den SERPs angezeigt wird. Die Änderung betrifft die mobile und die Desktop-Suche. Präferenzen sollen laut Google aber auch weiterhin in den Einstellungen hinterlegt werden können.

Possum - 1. September 2016

Google rollt das größte Update zur lokalen Suche seit Pigeon aus, das inoffiziell den Namen Possum trägt. Es soll wenig relevante und doppelte Inhalte aus den lokalen Suchergebnissen entfernen.

Pigeon Expandiert (UK, CA, AU) - 22. Dezember 2014

Googles großes Local Algorithmus Update Pigeon wurde auf Großbritannien, Kanada und Australien erweitert. Das Original-Update wurde bereits im Juli in den USA ausgerollt und nun fliegt die Taube auch weitere Ziele an.

Pigeon - 24. Juli 2014

Google schockte die Local SEO Welt mit einem Update, das erhebliche Auswirkungen auf einige lokale Suchergebnisse hatte. Mit Pigeon wurde der lokale Suchalgorithmus stärker mit dem Kernalgorithmus verbunden. So kann Google noch schneller mit noch nützlicheren und relevanteren Ergebnissen im nahen Umfeld aufwarten. Mit dem Standort-Ranking-Faktor werden also Webseiten von Unternehmen am Standort des Nutzers bevorzugt behandelt.

Venice und Panda 3.3 - 27. Februar 2012

Als Teil der monatlichen Updates stellte Google Venice vor. Diese Algorithmus-Änderung steigert die Integration von Google Places in die organische Suche. Zugleich wurde das Update Panda 3.3 bestätigt.

Negative Review - Dezember 2010

Nach einem Artikel der New York Times, der darüber berichtete, dass die E-Commerce-Website DecorMyEyes auf der Grundlage von (negativen) Bewertungen rankte, reagierte Google und passte den Algorithmus an. Die Suchmaschine lernte damit, Bewertungen von Nutzern in ihrer Gesamtheit zu verstehen und den Bewertungen der User zu vertrauen. Somit erhielten also auch User Signals verstärkt Einzug in die Google-Bewertung.

Da es bis dahin im Allgemeinen als positiv gewertet wurde, viele Kundenbewertungen – unabhängig davon, ob sie positiv oder negativ ausfielen – auf seiner Website zu haben, hatten einige Seiten mit genau dieser Taktik ein gutes Ranking aufgebaut. Durch die Abänderung des Algorithmus wurden nun genau diese Seiten abgestraft und verloren durch die schlechten Bewertungen eben auch deutlich an Trust. Logisch, was User blöd finden, mag Google auch nicht.

Google Places - April 2010

Obwohl „Places“ Seiten im September 2009 ausgerollt wurden, waren sie ursprünglich nur ein Teil von Google Maps. Die offizielle Markteinführung von Google Places veränderte das My Business Center. Google Places-Seiten wurden enger mit lokalen Suchergebnissen verknüpft und Google fügte eine Reihe von Features hinzu, darunter natürlich auch neue lokale Werbemöglichkeiten.

Google Local / Maps - Oktober 2005

Google führt die Produkte Google-Local und Google-Maps zusammen. Noch heute ist bei vielen beides im Sprachgebrauch verankert. Die Zusammenführung von Maps und Local war die erste große Änderung für die Local SEO.

Google Brand & Trust Updates

Google legt großen Wert auf das E-A-T-Modell seiner Guidelines (Expertise, Authority, Trustworthiness – zu Deutsch: Sachkenntnis, Autorität, Vertrauenswürdigkeit). Und wer könnte davon mehr bieten, als eine bekannte Marke, der die User schon lange vertrauen? Der Klick auf eine Brand ist wie der Besuch eines Stammlokals und erzeugt ein Gefühl von Beständigkeit und Verlässlichkeit – und da Nutzer genau das suchen, räumt Google mittels Brand Updates und Trust Updates genau solchen Seiten auch immer eine Sonderbehandlung ein.

Da auch Google selbst schon längst eine Marke ist, wurden mit den Brand Updates nicht nur allgemeine Rahmenbedingungen festgelegt, sondern nach und nach eine feste Guideline von Google für Marken entwickelt. Schwerpunkte sind natürlich E-A-T, aber auch hervorragende mehrwerthaltige Produkte, Kundennähe durch Social-Media-Aktivität, Authentizität sowie nützliche und einzigartige Inhalte, in denen die Antworten auf eine Frage quasi schon mit der bloßen Nennung des Namens gegeben sind. Inwieweit Kunden der Marke vertrauen und diese für gut befinden, kann Google übrigens seit dem Negative Review Update 2010 auch anhand von Nutzerbewertungen erkennen. Diese exklusiven Brand & Trust Updates sind der SEO-Welt bekannt:

Brand-Update - August 2010

Mit dem Brand Update legte Google Websites das Handwerk, die auf Brands optimiert hatten, aber selbst nicht die Brands sind. Betroffen waren Domains mit besonders hohem Trust und guter Brand Verlinkung. Das Update wurde nach wenigen Tagen wieder zurückgenommen, doch die Anzahl der Suchergebnisse für Brand-Keywords wurde auf 2 heruntergeschraubt.

Teil-Rollback des User Signals Core-Updates? - 24. Juni 2020

Auch Ende Juni 2020 gab es wieder Anzeichen für ein Google-Update. Offiziell bestätigt wurde das zwar seitens Google nicht, doch die auffälligen SERP-Schwankungen und die Tatsache, dass speziell .org- und .edu-Domains plötzlich wieder an Sichtbarkeit gewonnen haben, lassen vermuten, dass es sich um Korrekturen zum User-Signals-Update im Mai 2020 handeln muss.

Google Core Update - Trust - 13. Januar 2020

Beim Core Update im Januar stand das Google-Vertrauen im Zentrum. Auf Basis des Machine Learnings wurden ganze Domains durchleuchtet und hinsichtlich Trust neu bewertet. Besonders betroffen waren dabei Websites aus Branchen, die auf Vertrauen und Glaubwürdigkeit aufbauen, also etwa aus dem Gesundheits- oder Finanzbereich (Your Money, Your Life).

Algorithmus-Update - 15. Dezember 2018

Es wurde zwar von Google nicht bestätigt, dennoch zeigten Tracking-Tools Anzeichen für ein Update – vermutlich eines der regelmäßigen Algorithmus-Updates. Zunächst schien es, als seien alle Branchen betroffen, erst etwas später sprachen einige wenige aus dem Gesundheitswesen von einer E-A-T-Recovery, was einen weiteren Dreh an der Trust-Schraube nahelegt.

Algorithmus-Update - 16. November 2018

Mitte November machte sich erneut eine hohe Suchvolatilität deutlich. Betroffen waren hauptsächlich Seiten aus den Bereichen Gesundheitswesen und Finanzen, sogenannte YMYL-Seiten (Your Money, Your Life), was eine Justierung der E-A-T-Schraube (Expertise – Authority – Trust) vermuten lässt.

Medic II - 08. Oktober 2018

Erneut wird an der E-A-T-Schraube (Expertise, Authoritativeness, Trustworthiness) herumgedoktert und die massiven Änderungen des ersten Medic Updates wieder abgemildert. Die Verlierer aus dem August können wieder aufholen, die Gewinner rutschen hingegen etwas ab.

Medic Update - 01. August 2018

Schnipp, Schnapp – Visibility ab(wärts) — oder auch aufwärts. Das hängt davon ab, ob man die hohen Bewertungsstandards erfüllt, die Google nun auferlegt hat. Hauptsächlich betroffen sind sogenannte YMYL-Seiten („Your Money, Your Life“-Seiten, die Einfluss auf die Gesundheit, Finanzsituation oder Sicherheit von Nutzern nehmen, daher „Medic“), die neuen Maßstäbe gelten aber laut Google selbstverständlich für alle Branchen. Wertvolle und aktuelle Inhalte mit hoher Expertise und Glaubwürdigkeit werden mit besseren Rankings honoriert.

Unknown Update - 08. Juni 2017

Google erfreut mal wieder mit einem unangekündigten und unbestätigten Update. Doch worauf genau zielt das nun eigentlich ab? Trotz aller Mühen hat die Analyse keine Muster im Google Update aufgedeckt. Es gibt keine offizielle Aussage von Google dazu. Ähnlichkeiten zum Fred-Update sind vorhanden, zusätzlich scheint das Ranken zu Brand-Names verändert zu sein: Viele Markenriesen, die unter anderem auch durch zahlreiche Backlinks gewonnen hatten, verloren ihre Pole-Position. Es scheint, als wolle Google hier gegen Monopolismus vorgehen und die Spitzen-Rankings lieber von einzelnen Großmarken auf viele kleinere Marken umschichten… Allerdings sind dazu noch viele Fragen offen.

Brand/E-Commerce-Update - 4. Februar 2015

Von verschiedenen Seiten wurde über einen größeren Wandel in den SERPs berichtet. Betroffen waren vor allem Marken-Websites und Online-Shops. Dabei wurde über Updates mit Fokus auf Keywords mit hohem Suchvolumen spekuliert. Google bestätigte jedoch kein Update offiziell.

Authorship entfernt - 28. August 2014

Nachdem zunächst die Fotos aus den Authorship Markups entfernt wurden, kündigte Google an, Authorship komplett zu entfernen.

Authorship ohne Fotos - 28. Juni 2014

John Mueller machte eine überraschende Ankündigung: Google entfernt alle Authorship Fotos aus den Suchergebnissen, obwohl Authorship zuvor als Verbindung zu Google+ stark promotet wurde.

Authorship Reduzierung - Dezember 2013

Wie Matt Cutts bestätigte, wurden die Authorship Mark-ups in 15 % der Rich Snippets in den Suchergebnissen reduziert.

Overstock.com Abstrafung - Januar 2011

Das öffentliche Bekanntwerden der fragwürdigen SEO Praktiken von Overstock.com führte zu einer sehr öffentlichkeitswirksamen Abstrafung durch Google. Im Februar erhielt JCPenney ebenfalls eine Abstrafung für ein ähnlich schlechtes Verhalten. Beide Situationen zeigen eine Haltungsveränderung von Google und lassen bereits das Panda Update erahnen.

Vince - Februar 2009

SEOs berichteten, dass ein wichtiges Update vorliegen musste. Es schien stark die großen Marken zu bevorzugen. Matt Cutts nannte Vince eine „kleinere Änderung“, aber andere glaubten, dass es ein tiefgehendes Update ist -mit langfristigen Auswirkungen.

Dewey - April 2008

Ein umfangreiches durcheinander ging Ende März und Anfang April 2008 durch die SERPs, aber die Einzelheiten waren natürlich unklar. Einige unterstellten Google, dass seine eigenen internen Produkte gepusht wurden, wie z.B. Google Bücher. Auch schien die Suchmaschine nur noch die halbe Arbeit zu machen, denn die Ergebnislisten erschienen teilweise etwas halbgar und ließen die Relevanz vermissen – trotz eindeutiger Anfragen. Beweise dafür hat es allerdings nicht gegeben und da sich die Effekte nach wenigen Tagen nicht mehr zeigten, blieb unklar, was genau hier bezweckt wurde.

Google Bugfixing Updates

Googles Intransparenz ist etwas, das viele Webmaster stört, denn die Sichtbarkeit von Websites ist nicht selten existenziell für den Inhaber und unvorhergesehene Schwankungen in den SERPs können diese Existenz erheblich bedrohen. Schnappatmung und Panik bei SEOs aus aller Welt sind die Folge. Doch nicht immer sind es Algorithmus-Updates, die diese Schwankungen verursachen, auch Bugs können die Ursache sein.

Zwar ist Google hochfunktional und wachsam – doch auch Maschinen sind nicht unfehlbar. Kleinere Fehler, die auf die Suchmaschine zurückzuführen sind, sind in aller Regel schnell erkannt und behoben – so schnell, dass sie nahezu ungesehen bleiben. In sehr seltenen Fällen handelt es sich aber um größere Fehler, die ganze Bugfixing Updates zur Behebung brauchen. In diesen Fällen kommuniziert Google dann den Fehler und auch das erfolgreiche Rollout seiner Bugfixing Updates ganz transparent.

Die Geschichte der Google Buxfixing-Updates ist aufgrund der Reaktionsgeschwindigkeit von Google zwar recht kurz, aber die wenigen bekannten Fälle von Google Bugs mit SERP-Einfluss hat Dein Lieblings-SEOselbstverständlich trotzdem für dich dokumentiert und zusammengefasst.

Google Indexing Glitch - 10. August 2020

Um den 10. August 2020 fällt Google durch schlechte Suchergebnisse in Europa, Asien und allen englischsprachigen Ländern auf. Grund hierfür ist ein Indexierungsfehler, der alle Sprachen, Länder und Geschäftsfelder zu betreffen scheint. Besonders E-Commerce-Seiten verzeichnen extreme Schwankungen in den SERPs. Google reagiert darauf am 15. August mit einem Update als Bugfix und behebt den Fehler erfolgreich, sodass die Rankings sich relativ bald wieder normalisierten.

Indexierungsprobleme III - 08. August 2019

Und noch eine Runde Indexierungsfehler – diesmal hauptsächlich für neue Inhalte von News-Seiten wie New York Times, Wall Street Journal, Fox News u. v. m. Zwar hat Google die Existenz des Problems bestätigt und innerhalb von wenigen Stunden lösten sich die Probleme nach und nach auf.

Indexierungsprobleme Part II - 22. Mai 2019

Und weil es so schön war gleich noch eine Runde: Neue Inhalte wurden aus unbekannten Gründen nicht indexiert. Google bestätigt den Bug und meldet am 26. Mai via Twitter die erfolgreiche Behebung des Problems.

Indexierungsfehler - 5. April 2019

Aus unbekannten Gründen wurden am Wochenende um den 5. April diverse Seiten aus der Indexierung entfernt. Google gibt einen Indexierungsfehler zu und teilt eine Woche später mit, dass die Probleme erfolgreich behoben worden seien.

Google Updates von Morgen - Prognose für 2021

Die Google Updates der letzten 20 Jahre kennst Du nun. Doch wie sehen wohl die Google Updates der Zukunft – oder besser gesagt die Updates von morgen aus? Dein Lieblings-SEO hat die Entwicklungen der Suchmaschine eingehend studiert und ein klares Muster erkannt: Der User und sein Online-Erlebnis werden auch weiterhin Googles Anforderungen an Websites dominieren. „Human Signals“– oder anders gesagt: menschliches Verhalten – wird der wohl wichtigste Knotenpunkt der SEO-Optimierung werden. Nachfolgend gibt Dir Dein Lieblings-SEO einen kleinen Ausblick, wo die Reise mit den Google Updates von morgen hinführen dürfte.

Was Google mit Updates grundsätzlich erreichen will

Google verfolgt mit seiner Suchmaschine das Ziel, sich als „Problemlöser“ Nummer 1 zu etablieren und möchte dem User dabei ohne viel Suchaufwand genau das präsentieren, was seine Fragen gemäß des aktuellsten Wissensstands beantwortet, hilfreiche und nützliche Zusatzinformationen liefert und die dazu passende Lösung in Form von relevanten Informationen, Produkten und/oder Dienstleistungen parat hält. „Wir wollen Dir helfen, die jeweils beste Antwort auf Deine Frage zu finden, selbst wenn Du nicht weißt, wo Du suchen sollst“, ließ die damalige Google-Sprecherin Marissa Meyer schon im Jahr 2007 verlauten.

Ein klar und deutlich definiertes Ziel. Nicht so klar ersichtlich war dieses jedoch beim einen oder anderen Update der letzten Jahre – zumindest, wenn man sich alle Updates einfach hintereinander weg ansehen würde. Angesichts der schieren Anzahl durchgeführter Updates, den Effekten, die diese schließlich auf die Suchergebnisse hatten, den Vermutungen, die angestellt wurden und nicht immer zutrafen und nicht zuletzt auch der Tatsache, dass die Änderungen auch gelegentlich wieder zurückgenommen oder abgemildert wurden, konnte man da schon mal den Überblick verlieren. Mit Hilfe der Kategorisierung, wie sie Dein Lieblings-SEO für Dich erstellt hat, lässt sich dann aber doch noch ein Ziel sowie ein klarer Trend erkennen: Besonders in den letzten Jahren zielte ein ziemlich großer Teil der Google Updates auf Usability und Content ab.

Human Signals im Fokus zukünftiger Updates

Schon 2019 hatte Dein Lieblings-SEO die Prognose gestellt, dass SEO wohl bald SXO (Search Experience Optimization) genannt werden müsse. Und Bingo! Google hat diese Prognose immer wieder mit seinen Updates bestätigt: Die Bedeutung der Nutzererfahrung hat in den letzten Jahren extrem zugenommen und wird nun sogar als „Page Experience Signal“ zum neuen Rankingfaktor erhoben. Damit unterstreicht Google ein weiteres Mal, was Dein Lieblings-SEO schon lange glaubt: Der einzig wichtige Faktor zur Bewertung der Seite wird in Zukunft wohl der sein, wie zufrieden User mit einer Seite sind. Nur wenn der User eine Seite mag und ausschließlich positive Erfahrungen aus der Interaktion mit dieser mitnimmt, wird auch Google noch davon überzeugt sein.

Was sind Human Signals

Kurz gesagt: Als Human Signals bezeichnet Dein Lieblings-SEO die Signale, die der Mensch durch die Interaktion mit einer Website sendet – ähnlich wie beim Flirt, bei dem nicht nur aktiv kommuniziert wird, sondern auch unterbewusste Signale gesendet werden, die oft Bände sprechen. Auch wenn der Flirt vorbei und das Date längst über alle Berge ist, sind die unterbewussten Signale etwas, was bleibt und als Erfahrung noch lange nachhallt. So ähnlich verhält es sich mit den Human Signals bei der Google Suche.

Die Historie der Google Updates zeigt: Das Nutzererlebnis wandert stetig tiefer in den Fokus. Bisher war die User Experience aber kein harter, messbarer Rankingfaktor. Um das Erlebnis einer Seite zu kontrollieren, greift Google bis dato stattdessen auf die Informationen zurück, die Websitebetreiber durch das Tracking mit Analytics sammeln – etwa die Verweildauer, die Anzahl der Seitenaufrufe, die Klickrate, die Absprungrate u. v. m. – und ermöglicht sich so Rückschlüsse über die Barrierefreiheit (Usability) einer Seite.

Wer jetzt einwerfen will „Aber das sind doch die User Signals!“, dem kann Dein Lieblings-SEO nur sagen: Stimmt! Aber die Tatsache, dass Google die vielen Hinweise und Einsichten letztlich nur durch den Menschen als Nutzer sammeln und gewinnen kann, legt die Bezeichnung „Human Signals“ einfach näher. Zudem wird es ja zunehmend auch der Mensch sein, der durch sein Verhalten beim Interagieren mit einer Website über die Bewertung dieser entscheidet.

Bis Googles aktuelle Mission einer nahtlos positiven Sucherfahrung mit großartigem Nutzererlebnis erfüllt ist, sind jedoch noch viele weitere Updates mit dem Fokus auf Human Signals zu erwarten. Und was bedeutet das für SEO?

Aus SEO mach’ SXO!

Für SEO dürfte damit endgültig klar sein, dass eine „Suchmaschinenoptimierung“ endgültig nicht mehr für die Maschine stattfindet, sondern für den Menschen. Dass Dein Lieblings-SEO für Maschinen arbeitet, hatte er aber ohnehin nie so wirklich geglaubt. Die von Deinem Lieblings-SEO beschriebene SXO als „Sucherfahrungsoptimierung“ baut daher verstärkt auf Human Signals, also das „indirekte“ Feedback des Menschen auf. SXO muss es sich also zur Aufgabe machen, den User von der Qualität der optimierten Seite zu überzeugen und damit die Such-Erfahrung so befriedigend wie möglich zu gestalten. Auf eine möglichst kurze Suchzeit erfolgt sowohl eine schnelle, als auch eine umfassende Antwort.

Bei aller Liebe zum User, sollte jedoch auch Google leicht und schnell erkennen können, worum es sich bei Seiten handelt. Die Verwendung von Keywords in Texten, Meta-Titles, Meta-Descriptions und Alt-Tags darf nach wie vor nicht vernachlässigt werden. Und auch die Technik spielt unter diesem Gesichtspunkt weiterhin eine wichtige Rolle – zum Beispiel für die Core Web Vitals, die Interaktion, Ladezeit und Stabilität ab Mai 2021 messbar machen und in die User Experience als Rankingfaktor einbeziehen. Nicht alle Mittel, die der Suchmaschinenoptimierung passend waren, müssen in der Sucherfahrungsoptimierung (SXO) über Bord geworfen werden. Allerdings reicht es nicht mehr, auf sie allein zu vertrauen.

Grundsätzlich wird es zudem immer wichtiger, ganzheitlich zu denken und die Webseite nicht nur für den organischen Index, sondern im Rahmen der Universal Search auch für Shopping-Ergebnisse, Bilder oder News zu optimieren. Dieser Blick über den Tellerrand wird im Online Marketing generell unumgänglich. So gilt es in Zukunft noch mehr, Marketing-Kräfte zu bündeln, um die eigene Seite zu einer Marke auszubauen.

Lust auf einen Kaffee?