Während die Guidelines aber nicht als Gesetz, sondern eher als Richtlinien gelten und uns verdeutlichen, wie Google eine Website betrachtet, sind es die Rankingfaktoren, die die Konformität mit Googles Website-Idealen messbar machen. Der Googlebot und seine KI-Freunde wie RankBrain oder der Google Kolibri (Hummingbird), die das menschliche Verhalten fast 1:1 nachstellen können, helfen Google ähnlich einer Testperson dabei, die Websites aus der Sichtweise des Users zu bewerten. Dabei fallen manche Rankingfaktoren übrigens stärker ins Gewicht als die anderen, sodass schon kleine Abweichungen genügen können, um Dein Ranking in den SERPs (Suchergebnisseiten) etwas besser oder schlechter dastehen zu lassen.

Damit Du also einen Überblick über die wirklich wichtigen Anforderungen an Deine Website behältst, hat der fLieblings SEO für Dich nachfolgend einmal alle Google Rankingfaktoren aufgelistet, die direkt oder indirekt einen Einfluss auf Dein Ranking nehmen können – in gut erfassbare Häppchen unterteilt. Also dann, wohl bekomm’s!

Onpage Rankingfaktoren

Die Google Rankingfaktoren sind die Bewertungs- und Arbeitsgrundlage für SEOs weltweit. Dabei gibt es Rankingfaktoren sowohl aus dem Onpage- als auch aus dem Offpage-Bereich. Der Hauptunterschied zwischen den beiden ist der, dass Du alles, was onpage (also direkt auf der Seite) geschieht, unmittelbar selbst in der Hand hast und aktiv anpassen und verändern kannst, damit Deine Website beim User gut ankommt. Denn es ist weniger der Googlebot, als vielmehr der Mensch, der über den Ranking-Erfolg Deiner Website entscheidet. Offpage-Rankingfaktoren hingegen kannst Du lediglich indirekt, allzu häufig jedoch gar nicht beeinflussen.

In den Onpage-Bereich fallen daher die Rankingfaktoren aus den Disziplinen

  • Content,
  • Technik,
  • Usability
  • und User Signals.

In den Content-Bereich fallen sämtliche Rankingkriterien zu den an die User gerichteten Inhalten und deren Potential zur Problemlösung Deiner Kunden. Die technischen Rankingfaktoren werfen einen Blick unter die virtuelle Motorhaube Deiner Website und kontrollieren, wie gründlich, sauber und regelkonform Du diese aufgebaut hast; Codefehler, unsichere Verbindungen sowie veraltete Standards lassen Deinen SEO-Motor dabei recht schnell absaufen. Anschließend heißt es: Schönheit zieht an, Charakter hält fest! Die schönste Hülle hilft schließlich nichts, wenn mit ihr kein Nutzen einhergeht. Bei den Rankingfaktoren zu Usability und User Signals geht’s daher schlussendlich um die unmittelbare Nutzbarkeit der Website.

Content

Der Content Deiner Website ist wie die Einrichtung eines Zuhauses, denn auch die sollte ein gutes Layout vorweisen (alles Wichtige schnell auffindbar), zum Bewohner passen (authentisch und einzigartig), nützlich sein (Mehrwert bringen) und dafür sorgen, dass man sich in seinem Refugium rundum wohlfühlt und gern dorthin zurückkommt (positives Erlebnis). Zu viele Möbel und zu viel Deko und man fühlt sich ruckzuck erschlagen und überfordert. Zu sporadisch eingerichtet, kann es ebenfalls schwierig werden, sich wirklich wohl zu fühlen. Doch was hat das mit Rankingfaktoren zu tun?

Auch wenn Du es gar nicht bewusst tust, verhältst Du selbst Dich bei jedem Besuch unbekannter Räumlichkeiten ein kleines bisschen wie der Googlebot, scannst zahlreiche Kriterien rund um die Attraktivität der Räumlichkeit und entscheidest nach diesen Rankingfaktoren, wo es Dir am besten gefällt. So ähnlich macht der Googlebot das nämlich auch und ist diesbezüglich sogar einer der am schwierigsten zufriedenzustellende Besucher, den Deine Website begrüßen könnte. Er ist sehr detailverliebt und schaut unglaublich genau hin. Er

  • analysiert das Thema Deines Contents,
  • prüft die Herausarbeitung der wichtigen Infos sowie die Nützlichkeit der Informationen,
  • die Lesbarkeit und Ausrichtung Deiner Inhalte,
  • den Einsatz von Bildern und sonstigen unterstützenden Medien,
  • die Anzahl und Sinnhaftigkeit interner Verlinkungen

und vieles mehr. Welche Rankingfaktoren es im Content-Bereich gibt, erzählt Dir der Lieblings SEO nachfolgend.

Hochwertiger Content mit Mehrwert

Keywords auf eine Seite klatschen und Worte drumherum bauen, um Relevanz zu erzeugen – das kann nahezu jeder. Seit dem Panda-Update 2011 achtet Google jedoch stark auf die Qualität des Contents. Als hochwertiger Content gilt solcher, der für den Nutzer und sein Vorhaben hochwertige und wertvolle Informationen liefert – und nicht zuletzt auch einen gewissen Mehrwert bietet. Mehrwert, das ist das Quäntchen mehr an Kundenzufriedenheit: Die Kirsche auf der Sahne, das Tüpfelchen auf dem „i“, die Gratisprobe zum Einkauf… Such Dir was aus!

Nur wer sich in den Kunden hineinversetzen und seine Absichten verstehen kann, kann echten Mehrwert bieten – zum Beispiel, indem er die Fragen seines Users beantwortet, noch bevor er sich diese selbst gestellt hat. Content mit Mehrwert betrifft aber nicht nur das WAS an Info, sondern auch das WIE. Auch ein übersichtlicher Aufbau und die Verwendung von multimedialen Inhalten kann für Mehrwert sorgen.

Erst dann, wenn Dein Content alle diese Anforderungen erfüllt, ist er hochwertig. Und erst dann sind User UND Google überzeugt. Die Besucher Deiner Website bleiben mit Freuden länger auf Deiner Seite. Erhöhte Verweildauer + niedrigere Absprungrate = besseres Ranking!

Punktet Deine Seite jedoch nicht mit hochwertigem Content, verbannt Google Dich auf die „billigen Plätze“, auf denen bekanntlich Stille herrscht.

Nützlicher Content

Auch wenn es so aussieht, als wäre das Erbsenzählerei: Es gibt einen Unterschied zwischen hochwertigem und nützlichem Content. Hat man zum Beispiel Schmerzen und sucht Infos zum geeigneten Schmerzmittel, bekommt man Suchergebnisse wie „Netdoktor“ und „Ärzteblatt“. Auf letzterem finden sich akkurate und hochwertige Inhalte – aber mit vielen Fachbegriffen wie „nichtsteroidal“ etc., die der durchschnittliche Leser nicht versteht. Folglich kann er auch keinen Nutzen aus der Seite ziehen. Anders verhält es sich bei Netdoktor: Hier wird in einfachen Worten erklärt, was zu wissen ist, sodass es jeder Leser versteht und einen Nutzen daraus ziehen kann.

Lange Rede, kurzer Sinn: Bewertet Google Deinen Content als hochwertig, ist das ein Anfang. Solange er aber nicht als nützlich betrachtet wird, bleibt er im Ranking etwas zurück…

Menschlich erstellter Content

Wusstest Du, dass Google nicht nur interessiert, dass Deine Website hochwertigen und nützlichen Content enthält, sondern auch, woher genau er stammt? Das fließt in der Tat auch ins Ranking ein. Maschinell erzeugte Inhalte mag Google nämlich so gar nicht. Bevorzugt werden hier Inhalte von Menschen für Menschen.

Machst Du also z. B. Angaben zum Autor (so wie es vor allem in Blogs und Guest postings üblich ist), machst Du deutlich, dass auch Deine Inhalte von echten Menschen produziert wurde. Dafür gibt’s von Google Pluspunkte für Dein Ranking.

Dieser Rankingfaktor ist aber kein Single Player, sondern wird mit noch einem andereren Faktor kombiniert: dem Ruf des Autors. Mehr dazu erfährst Du im folgenden Text unter „Reputation & Trust“.

Freshness

Es gibt Situationen (Pandemien, Naturkatastrophen, Wahlen, Sport-Events), da möchte der User akkurate Infos zur aktuellen Lage, die sich wohlgemerkt auch noch alle paar Minuten ändern kann. Hier kommt „Freshness“ ins Spiel – das Gegenstück zu ungepflegten Inhalten und Prädikat dafür, dass Dein Content sich quasi in Echtzeit mit absolut aktuellen/brisanten Themen beschäftigt. Hier ranken zum Beispiel Newsticker in der Regel sehr gut. Und auch Wikipedia kann meist sehr schnell mit aktuellen Infos aufwarten, wenn z. B. jemand verstorben ist. Von einem Moment auf den anderen steht da nicht mehr „ist“, sondern „war“. Doch nicht nur für harte Fakten, auch für Klatsch und Tratsch spielt Freshness natürlich eine wichtige Rolle. Wer will schon über die Farce von gestern lästern, wenn es längst neuen Stoff zum Mokieren gibt? Je frischer die Information, desto besser! Dafür gab es sogar ein eigenes Update im Jahr 2011.

Behandelst auch Du solche Themen und kannst noch dazu in der Kürze der Zeit mit relevanten und akkuraten Inhalten auf dem neuesten Kenntnisstand das Informationsbedürfnis der Suchenden befriedigen, wird Google das mit einem guten Ranking belohnen. Beachte aber, dass sich Rankings hier sehr schneller ändern können, wenn Deine Infos nicht mehr dem „Live“-Standard entsprechen.

Doch auch abseits von den sich sehr schnell ändernden Themen ist Freshness ein wichtiges Qualitätsmerkmal von Inhalten. Hältst Du den Content auf Deiner Website immer aktuell und bearbeitest diesen regelmäßig, sendest Du wertvolle Signale an den Google-Bot, der Dich dann übrigens auch häufiger besucht.

Uniqueness

Vielleicht hast Du es auch schon erlebt, dass Du bei Deiner Suche immer wieder dieselben Infos im selben Wortlaut vorgefunden hast. Langweilig, oder? Da auch Google sowas nicht mag und auf Duplicate Content sowieso höchst allergisch reagiert, werden Standardtexte seit einiger Zeit verschmäht. Überzeugend sind nur noch einzigartige (englisch „unique“) Texte für den User.

Einzigartige Texte sind solche, die die aufbereiteten Informationen nach Deiner ganz eigenen Art wiedergeben, anstatt dem User zusammenkopierte Inhalte von anderen Seiten anzubieten. Diese Praktik wird dagegen bestraft. Die Authentizität, die Du durch einzigartige Texte an den Tag legst, beschert Dir aber noch weitere Vorteile. So kann der User sich besser mit Dir identifizieren, fasst eher Vertrauen und wird mit Freude etwas länger auf Deiner Seite bleiben und sich genauer umsehen. Folglich steigert die Uniqueness Deiner Texte E-A-T, Verweildauer und Clickraten, sodass auch Google erkennt, dass Dein Content gut sein muss.

Duplicate Content

Duplicate Content nennt man es, wenn Inhalte doppelt (oder mehrfach) vorhanden sind. Im Allgemeinen wird dabei zwischen internem und externem Duplicate Content unterschieden.

Vom internen Content ist dann die Rede, wenn innerhalb Deiner Website bestimmte Inhalte mehrfach vorhanden und unter verschiedenen URLs erreichbar sind. Stellst Du Deine Inhalte in gleicher Form auf verschiedenen Seiten zur Verfügung, stellst Du Google vor ein Problem: Der Bot kann dann nicht mehr zweifelsfrei feststellen, welche der URLs in die SERPs gehört und liefert die Seiten abwechselnd aus. Das verfälscht die User Signals für diese Inhalte und lässt sie automatisch schlechter dastehen. Auch das Crawl Budget stößt bei Duplicate Content natürlich schnell an seine Grenzen. Für Dein Ranking ist das von Nachteil. Zur Vermeidung von internem Duplicate Content gibt es zum Glück ein einfaches Werkzeug: den Canonical-Tag (siehe „Technik“).

Externer Duplicate Content bedeutet, dass zu ähnliche Inhalte auf verschiedenen Domains von unterschiedlichen Inhabern zu finden sind. Das riecht nach Contentklau, ist aber nicht immer mit Vorsatz verbunden. Die Unterscheidung erfolgt auf schmalem Grat, doch während scheinbar unbeabsichtigte Duplikate ein wenig im Ranking absacken, wird vorsätzlicher Contentklau ganz härter abgestraft.

Duplicate Content kann aber auch positiv sein! Bei Bildern gilt die mehrfache Verwendung als Qualitätssignal (für das Bild, nicht aber für die Seite!). Ausnahmen bestätigen die Regel, nicht wahr?

Syndicated Content

Syndicated Content wird oft mit Scraped Content verwechselt. Es sind aber doch zwei Paar Schuhe, denn Scraped Content ist ein vorsätzlicher Täuschungsversuch und kann zudem Urheberrechte verletzen, während Syndicated Content lediglich Inhalte von Drittanbietern „pusht“. Dabei werden die Inhalte nicht 1:1 von A nach B kopiert, sondern im Linkformat, als Ausschnitt (iFrame), als Thumbnail oder auch im Ganzen in Deine Seite eingebettet.

Veröffentlichst Du Syndicated Content, rutscht Dein Ranking infolge dessen wahrscheinlich etwas ab, weil Google iFrames weder crawlen noch indexieren kann und Deine Seite somit keinen einzigartigen Content und keinen Mehrwert bietet. Aber Du wirst immerhin nicht so hart abgestraft wie bei Scraped Content. Du erkennst ja immerhin an, dass der Inhalt nicht von Dir ist und versuchst eben nicht, die Lorbeeren für diese Inhalte zu ernten. Klingt doch fair, oder?

Hauptkeyword

Hast Du auch brav ein Hauptkeyword definiert? Das Vorkommen eines solchen ist nämlich ein Rankingfaktor – und wohlgemerkt wieder einer, den man als Relevanzsignal verbuchen kann. Der Grund für den Einfluss aufs Ranking ist der:

Seiten, die ein Thema holistisch behandeln, können auch keywordtechnisch relativ ausufernd sein. Kommen mehrere verschiedene Keywords auf einer Seite vor, checkt Google, wie häufig das jeweils der Fall ist.

Das Wort, das besonders häufig auftaucht, nimmt der Googlebot dann als Hauptkeyword wahr und richtet sich auch beim Ranking nach der Relevanz des so ermittelten Hauptkeywords. Ist es allerdings nicht das Keyword, das Du als Hauptkeyword ausgewählt hast, rankst Du für falsche Themen. Doch das Hauptkeyword sollte nicht nur häufiger im Text vorkommen, sondern auch an richtigen Stellen: wie in den H-Überschriften, am Anfang des ersten Absatzes, am Schluss und in Bildernähe.

Keyword in H1

Die H1 wird häufig als zweiter Titel einer Website gehandelt und ist die erste und wichtigste Überschrift, die Websitebesucher auf einer Seite sehen und lesen. Erhält diese das Keyword, liefert das ein sehr wichtiges Relevanzsignal an Google und zeigt, dass sich Deine eben nicht nur nebenbei, sondern hauptsächlich mit diesem Keyword beschäftigt.

Keyword in H2 & H3 Headings

Im Allgemeinen sind die H-Überschriften wichtig, um die Struktur des Textes verständlicher zu machen. Tauchen zusätzlich dann auch die Keywords in den H2- und H3-Tags auf, sendest Du dem Googlebot ein weiteres – wenn auch schwaches – Relevanzsignal.

Aber auch dem User tust Du damit einen Gefallen: Mithilfe des Keywords in den H2- und H3-Headings erhält er nützliche Hinweise darauf, was ihn im folgenden Text erwartet und kann so schnell selbst einschätzen und entscheiden, welche Absätze für ihn interessant sein dürften.

Keyword-Dichte

Die Keyword-Dichte beschreibt, wie häufig Dein Keyword relativ zum Rest des Textes auf Deiner Seite auftaucht. Auch bei diesem Rankingfaktor geht es darum, Google (aber vor allem auch dem Leser) das Verständnis Deiner Inhalte zu erleichtern. Ein angemessenes Verhältnis von Keyword zu Text ist aus zwei Gründen wichtig:

  1. Worte, die häufig vorkommen, wertet Google als Themenbezug. Kommt Dein Keyword zu selten vor, erkennt Google unter Umständen nicht, worum es in Deinem Text überhaupt geht und kann keine Relevanz feststellen. Folglich wird auch das Ranken zu bestimmten Suchbegriffen unmöglich.
  2. Kommt das Keyword zu häufig vor, liest der Text sich nicht mehr natürlich und der Googlebot fühlt sich – zurecht – verschaukelt. Schließlich magst Du es ja sicher auch nicht, wenn man Dich so offensichtlich für doof hält.

Die Devise lautet daher also nicht „je mehr, desto besser“, sondern „je verhältnismäßiger, desto besser“.

Keyword-Phrasen

Es gibt nicht nur Keywords, sondern auch sogenannte Keyword-Phrasen oder sogar komplette Fragen. Ein sehr häufig gesuchtes Beispiel hierfür ist „Warum ist der Himmel blau?“ (> 40.000 Anfragen/Monat). Du möchtest für Google die beste Antwort auf diese Frage sein? Dann solltest Du unbedingt wissen, dass auch die Wortfolge der Keywords ein Rankingfaktor ist.

In diesem speziellen Fall (und jedem anderen, der mit Keyword-Phrasen oder Fragen arbeitet) wird Google Deine Keywords aber nur erkennen, wenn sie in Suchanfrage und Content identisch auftauchen. Stellst Du den Satz um oder fügst Füllwörter ein, kann es passieren, dass Google dann nicht mehr in der Lage ist, Deine Keywords zu finden und zu analysieren.

Keyword-Prominenz

Je prominenter man bestimmte Infos präsentieren möchte, desto auffälliger platziert man sie. Genauso funktioniert das auch mit den für den Content so wichtigen Keywords im Text: Suchmaschinen gewichten Worte, die am Anfang einer Webseite stehen, grundsätzlich stärker als die nachfolgenden.

Befindet sich ein Keyword also innerhalb der ersten 100 Wörter eines Textes, zahlt das nicht nur auf die Themenerkennung ein, es erhöht auch die Chancen, für das jeweilige Keyword gerankt zu werden.

Longtail Keywords (LSI) auf der Seite

Als themenrelevante Wortgruppe spielen Longtail Keywords – auch als Latent Semantik Indexing (LSI-) Keywords bekannt – innerhalb der Seite (onpage) eine wichtige Rolle. Zum einen interpretiert Google sie als Relevanz-Signal, wenn sie thematisch zur Suchanfrage passen. Zum anderen aber auch als Qualitätsmerkmal, denn die sogenannten Latent Semantic Indexing (LSI) Keywords deuten gleichzeitig auf eine besonders umfassende Behandlung des Themas hin. In beiden Fällen erhöht sich durch sie die Chance auf ein gutes Ranking. Zudem profitiert man bei Longtail Keywords von relevanten Besuchern, die nach dem nischigen Thema oder Produkt suchen.

Anzahl rankender Keywords

Rankt die Seite zu mehreren themenrelevanten Keywords? Prima! Denn wenn eine einzelne Seite mit mehreren verschiedenen Suchbegriffen gefunden werden kann, schließt Google daraus, dass es sich um eine qualitativ hochwertige Seite mit tiefer Themenabdeckung handeln muss. Folglich gibt es Pluspunkte fürs Ranking.

WDF*IDF

Texte sollen thematisch klar und einzigartig sein. Seit Keyword-Stuffing tabu ist, ist das gar nicht mehr so einfach. Hilfreich ist da WDF*IDF. WDF steht für „Within Document Frequency“, also dafür, wie oft bestimmte Worte im Text vorkommen. IDF steht für „Inverse Document Frequency“ und ist ein Wert, der die Bedeutung eines Keywords anhand seiner Nutzung auf anderen Seiten erfasst.

Setzt man diese mathematisch ermittelten Einheiten ins Verhältnis, ergibt sich daraus ein erster Einblick in die Termgewichtung Deiner Seite im Verhältnis zu allen anderen Seiten – und zwar in Bezug auf ein bestimmtes Keyword – und somit in die Relevanz Deines Textes zu diesem Keyword. Mit dessen Hilfe lassen sich z. B. Keyword-Stuffing und die thematische Verzerrung durch „falsche“ Keywords vermeiden. Stattdessen kannst Du für Dein Thema wichtige Begriffe identifizieren und zielführend nutzen.

WDFIDF ist aber ein eher schwaches Rankingsignal, da es eben ein rein mathematischer Richtwert ist. Trotzdem kann ein WDFIDF-Test Dich auf eine gute Spur bringen, weshalb Du WDF*IDF-Tools wie das von Seobility ruhig auch aktiv nutzen solltest.

Semantik

Schon in Bezug auf die Suchintention war die Rede von Googles KI, die die Absicht einer Suchanfrage verstehen will. Die Semantik spielt dabei eine tragende Rolle, denn sie beschäftigt sich damit, in welchem Zusammenhang Deine Seite mit einer Suchanfrage steht.

Als Keyword hinzuhalten, ist also nicht die einzige Funktion, die Worte für den Google-Algorithmus spielen. Auch die Konstellation, in der Worte auftauchen, und die Bedeutung, die sich daraus ableiten lässt (Semantik), sind wichtige Kriterien für die Relevanz von Inhalten.

Damit Google die Bedeutung Deines Contents, den Zusammenhang mit der gestellten Suchanfrage und somit die Relevanz Deiner Seite bestimmen kann, wird die Semantik („Wortbedeutungslehre“) als Rankingfaktor herangezogen.

Länge des Contents

Um ein „Problem“ zu lösen, muss eine zufriedenstellende Antwort her – wir reden ja schließlich von Google, dem Problemlöser #1! Doch wie hängt das mit der Länge des Contents zusammen? Längere Texte versteht Google als Indikator für die ausführliche Beantwortung der Suchintention.

Eine Faustregel zur exakten Wortzahl gibt es für die optimale Contentlänge allerdings nicht. Die Länge des Texts ist für Google in aller Regel dann richtig, wenn keine Fragen mehr offen bleiben.

Tiefe der Themenabdeckung

Wer sich als vertrauenswürdiger und gern zitierter Experte etablieren will, muss auf seiner Onlinepräsenz auch tiefgreifendes Wissen für sein Thema demonstrieren und thematische Tiefe erzeugen, sprich: So tief in das Thema einsteigen, dass möglichst alle Themenbereiche abgedeckt und alle Userfragen zu diesem Thema beantwortet sind – auch diejenigen, die sich erst mit dem tieferen Verständnis des Themas auftun könnten.

Sicher ist Dir das E-A-T-Prinzip in diesem Hinblick ein Begriff. Falls nicht: E-A-T steht für Expertise – Authoritativeness – Trusthworthyness (Fachwissen, Autorität und Vertrauenswürdigkeit). In seinen Rater Guidelines definiert Google diese als Qualitätskriterium. Auf diesem Ansatz basiert auch die Tiefe der Themenabdeckung als Rankingfaktor. Nur wer das E abdeckt, kann auch A und T für sich beanspruchen.

Rechtschreibung

Rechtschreibung betrifft das korrekte Schreiben von Wörtern und die korrekte Verwendung von Satzzeichen. Schon kleine Fehler können genügen, um die Bedeutung eines Satzes komplett umzukrempeln. Wie gern hätte der hauseigene Rechtschreib-Nerd Dir an dieser Stelle ein paar lustige Rechtschreibfehler zur Demonstration bereitgestellt… Aber leider sieht Google das nicht gern!

Dass die Rechtschreibung als Qualitätsmerkmal behandelt wird, hat folgende Bewandtnis: Wer schlampig arbeitet, kann kein Experte sein – und folglich auch nicht vertrauenswürdig. Viele Tipp- und allgemeine Rechtschreibfehler auf Websites sind mit Googles E-A-T-Ansatz einfach nicht vereinbar. Zudem springen User eher ab, wenn sie das Gefühl haben, die Seite wäre unprofessionell erstellt. Die hohe Bounce Rate ist ein negatives User Signal. Damit ist Rechtschreibung zwar kein direktes Rankingsignal, kann sich indirekt aber sehr wohl auf das Ranking auswirken. Und mal ehrlich: Würdest Du jemandem trauen, der einen auf seriöser Profi macht, aber offensichtlich nichts von Sorgfalt hält?

Grammatik

Die Grammatik beschäftigt sich mit der korrekten Deklination der gebrauchten Worte und ihrer korrekten Platzierung innerhalb des Satzes. Kleine Verirrungen im Dschungel der Sprache sind weit verbreitet und viele Leser sind in der Lage, die Aussage des Satzes trotzdem zu verstehen. Viele sind aber nicht alle und Google möchte doch, dass alle es verstehen.

Folglich hat Google im Sinne der Verständlichkeit Deines Contents deshalb ebenfalls ein Auge auf die grammatikalischen Zustände, die darin herrschen. Auch hier geht es wieder um die Qualität Deines Inhalts. Schlechte Qualität = schlechtes Ranking… aber das hast Du ja inzwischen sicherlich schon herausgelesen!

Lesbarkeit (Flesch index)

Es kommt halt doch nicht nur auf die Länge an… auch die Frage, wie gut Dein Text lesbar ist, spielt für Dein Ranking eine Rolle. Das prüft Google mit dem sogenannten Flesch Index, der nach dem Hamburger Verständlichkeitsmodell auswertet, wie einfach ein Text verstanden werden kann.

Am besten ist es, wenn der Text keine ewig langen Worte und Schachtelsätze, keine leeren Phrasen, kein Fachchinesisch und nicht zu viele Füllwörter enthält. Kurze Sätze, eine sinnvolle Gliederung, eine bildhafte Sprache und die Verwendung von Bildern und Grafiken zahlen auf die Lesbarkeit (Verständlichkeit) des Contents ein und bringen daher Pluspunkte.

Offiziell ist der Flesch Index von Google zwar bislang nicht als Ranking-Faktor bestätigt worden. Dennoch kommt es vor, dass der Score in SEO-Analysen einbezogen wird. Hierbei zeigt sich regelmäßig, dass Seiten mit einem Score zwischen 30 und 70 Punkten bessere Rankings erreichen.

Reading Level

Auch der „Reading Level“ als Rankingfaktor steht im Zentrum der Verständlichkeit – und somit auch wieder ein bisschen der Nützlichkeit Deines Contents. Google analysiert nämlich nicht nur das Suchverhalten seiner User, sondern auch, wie genau und intensiv Seiten von ihm gelesen werden. Dabei werden 3 Segmente unterteilt: Anfänger, Fortgeschritter und Profi.

Es geht das Gerücht um, dass einfache Texte für die breite Masse besser ranken. Bei holistischen Seiten allerdings (also solchen, die ein Thema ganzheitlich behandeln) sind idealerweise alle Reading Level in einem gut lesbaren und verständlichen Text verhaftet. Wie tief man ins Detail lesen will, kann der User dann jeweils selbst entscheiden.

Suchintention

Kennst Du das, wenn etwas Gesagtes oder Geschriebenes auf die Goldwaage gelegt und bis ins kleinste Detail analysiert wird? Genau das passiert, wenn man bei Google eine Suchanfrage startet. Warum? Google möchte Probleme lösen – egal, welcher Art! Dazu ist es entscheidend, welche Suchintention (Suchabsicht) hinter einer Anfrage steckt: Wer zum Beispiel „Katze“ als Suchbegriff eingibt, könnte nämlich sowohl allgemeine Informationen zu den possierlichen Stubentigern als auch den Kauf eines solchen anstreben. Um also die richtigen Ergebnisse ausspielen zu können, prüft Google, ob und wie präzise Deine Inhalte sich mit der Suchintention des Suchenden decken.

Userausrichtung

Die Userausrichtung ist ein direkter Rankingfaktor und das Gegenstück zur Suchintention. Um das beste Suchergebnis aus der Sicht des Users zu liefern, achtet Google auf die richtige Userausrichtung Deiner Seite. Mit anderen Worten also darauf, wie gut Deine Inhalte auf die Suchabsicht des Users abgestimmt sind. Zu unterscheiden sind dabei drei Haupt-Suchtypen:

  • DO-Suche: Der User beabsichtigt bereits eine bestimmte Interaktion, sei es kaufen, downloaden, erlernen oder ähnliches.
  • KNOW-Suche: Der User möchte etwas wissen oder sich zu etwas informieren. Dabei kann es um eine kurze Info oder die Beantwortung einer komplexeren Frage gehen oder sogar um Vergleiche handeln – etwa verschiedener Produkte, die zu kaufen er bereits in Erwägung zieht, aber noch unsicher ist.
  • GO-Suche: Der User weiß genau was er will – sei es der Besuch eines Lokals/Geschäfts oder der einer bestimmten Website. Er will dorthin navigiert werden und vielleicht sogar schnellere Wege und Abkürzungen nutzen.

Google bewertet dabei hauptsächlich, wie gut Du diesen User-Bedürfnissen entgegenkommst und unterteilt dabei fünf Kategorien:

  • Fully Meets: (vollständige und perfekte Antwort auf die Suchanfrage, sodass keine weiteren Ergebnisse notwendig sind, damit alle oder fast alle Benutzer vollständig zufrieden sind – also alle Bedürfnisse bestens erfüllt und noch bisschen mehr…)
  • Highly Meets (hohe Qualität der Antwort & Autorität der Quelle, unterhaltsam und/oder aktuell, deckt große Teile der Suchintention ab, aber eine Kleinigkeit fehlt vielleicht noch)
    Moderately Meets (weniger umfassend, weniger aktuell, aus weniger autoritären Quellen etc., erfüllt zumindest im Großen und Ganzen die Bedürfnisse, könnte aber besser sein)
  • Slightly Meets (hilfreich und zufriedenstellend für einige oder wenige Benutzer. Die Inhalte sind von geringer Qualität, enthalten veraltete oder überholte Informationen oder kleinere Ungenauigkeiten, sind zu spezifisch oder nischig oder zu breit gefächert, um für die breite Masse relevant zu sein)
  • Fails to Meet (nur für sehr wenige User zufriedenstellend oder komplett nutzlos, hat nichts mit der Suchanfrage zu tun, enthält irrelevante und/oder unrichtige Informationen und so ziemlich jeder User würde weitere Suchergebnisse besuchen müssen, um sein Bedürfnis zu erfüllen.)

Im Klartext heißt das: Holst Du mit einer guten Userausrichtung Deine Websitebesucher mit Deinen Inhalten genau dort ab, wo sie stehen, erfüllst ihre Suchintention und stellst sie rundum zufrieden, wird Google Deine Website als gutes, passendes Ergebnis erachten und diese oben in den SERPs ausspielen.

Mit dem Anstieg der Klickrate (CTR) gewinnt Deine Website dann an Autorität, mit der längeren Verweildauer sinkt zudem die Absprungrate. Beides sind Signale, die Google belohnt, weshalb Du das Bereitstellen von „großartigen“, vor allem aber einzigartigen Inhalten in entsprechender Userausrichtung keinesfalls versäumen darfst.

Seitenarchitektur

Die Seitenarchitektur beschreibt, wie eine Website strukturell aufgebaut ist – und das nicht nur technisch, sondern auch thematisch. Idealerweise verfügt Deine Website über flache Strukturen mit möglichst wenigen Ebenen. Nichts ist schließlich schlimmer, als sich Infos zusammenpuzzeln zu müssen. Das gilt sowohl für User als auch für den Googlebot.

Müssen für die Suche zu viele Ebenen durchkämmt werden, springen nicht nur User ab – auch Google kann so nur schwer ausmachen, worum es auf Deiner Seite überhaupt geht. Eine klare, logische und zielführende Struktur spart dagegen Ressourcen: das wertvolle Crawl-Budget, das bestimmt, wie tief Deine Website gecrawlt wird. Je umfangreicher die Seitenarchitektur, desto wahrscheinlicher können nicht alle Unterseiten gecrawlt werden. Dadurch verlierst Du wertvollen Traffic, auf den Du eigentlich nicht verzichten müsstest.

Anzahl der Seiten

Die Anzahl der Seiten ist für Google zwar nur ein kleines Signal, aber es ist eins. Umfasst Deine Website mehrere Seiten, geht Google davon aus, dass Du auch mehr Inhalte bietest. Das wertet Google dann als kleines Qualitätssignal.

Aber Vorsicht. Stellt Google bei Dir viele Seiten mit schlechtem Inhalt fest, dreht sich das Blatt ganz schnell wieder und Du darfst Dich auf eine Rutschpartie freuen – nach unten, versteht sich! Wohin auch sonst?

Above the Fold

Zeit ist Geld, so sagt man. Auch beim Ranking spielt der Zeitfaktor eine Rolle – und das nicht nur bezüglich der Ladezeit, sondern auch der Frage, wie schnell der User inhaltlich an die gewünschten Infos kommt. Idealerweise natürlich sofort beim „Betreten“ der Website, damit er gar nicht erst suchen muss. „Above the fold“ heißt hier die Zauberformel, die auch ein Rankingfaktor ist. Das ergibt auch durchaus Sinn, denn wenn der von Natur aus ungeduldige User erst suchen muss, wird er Deine Website eher schnell wieder verlassen und woanders weitersuchen.

Kurz zur Erklärung: Analoge Dokumente wie Zeitungen werden in der Regel immer gefaltet geliefert, sodass man nur die obere Hälfte oder auch nur ein Viertel des Inhalts sieht (je nach Größe). Damit die wichtigen Infos sofort ins Auge stechen, werden sie deshalb in genau diesem zuallererst sichtbaren Bereich platziert, damit man sofort im Bilde ist. So funktioniert auch das „Above the fold“-Prinzip für Websites.

Hältst auch Du Dich daran und präsentierst zum Beispiel Bilder oder eine kurze Zusammenfassungen des Textinhalts ganz oben, tust Du nicht nur dem User, sondern auch Deinem Ranking einen Gefallen: Die Verweildauer verlängert sich, die Bounce Rate sinkt und Du sendest ein Qualitätssignal an Google.

Inhaltsverzeichnis

Was ist das einfachste Mittel, den Inhalt eines Textes kurz und knackig darzustellen? Richtig, ein Inhaltsverzeichnis (Table of Content, auch TOC genannt) – das übrigens auch als Rankingfaktor bei Google zählt. Wie das aussieht? Neben dem Textbereich (wahlweise links oder rechts) erscheint ein kleines Inhaltsverzeichnis, das Auskunft über die behandelten Punkte auf der aktuellen Seite geht.

Aus der User-Sicht hat das diesen Grund: Lesen ist nicht jedermanns Hobby – und schon gar nicht, wenn erst ein halber Roman gelesen werden muss, um an gesuchte Infos zu kommen. Und besonders dann, wenn es schnell gehen muss und der Search Intent ohnehin nur auf die schnelle Info-Beschaffung abzielt (Quick Search), ist es sinnvoll, einen schnellen, aussagekräftigen Überblick über den Textinhalt zu schaffen – am besten verlinkt, um schnell und easy an die entsprechende Textstelle zu springen. Auch Sitelinks sind hier möglich.

Das Vorhandensein eines Inhaltsverzeichnisses ist jedoch nicht nur für die User Experience relevant: Mit einem TOC als Inhaltsverzeichnis versteht auch der Googlebot die Inhalte Deiner Seite besser und kann so auch die Thematik schneller erfassen.

Der Lieblings-SEO kann die Nutzung eines TOCs nur wärmstens empfehlen. Auch er nutzt diesen einfachen, aber sehr effektiven Kniff auf seinen Seiten. Na, schon entdeckt?

Startseitentext

Ob User oder Bot: Von der Startseite aus beginnt der Weg durch Deine Seiten. Anders als der User ist Google aber nicht in der Lage, die Schönheit des Designs oder die grafischen Inhalte einer Seite wahrzunehmen. Hierfür ist der Algorithmus quasi blind, denn er ist auf Texte spezialisiert und braucht diese, um Relevanz, Qualität und Mehrwert des Contents einschätzen zu können. Verzichtest Du auf einen Startseitentext, ist Deine Seite für Google unattraktiv.

Mit einem guten Startseitentext kannst Du deshalb Dein Ranking klar beeinflussen: Holst Du den User ab und zeigst ihm, was ihn auf Deiner Website erwartet, verbesserst Du beispielsweise die User Experience. Nutzt Du die richtigen Keywords, wächst zudem Deine Relevanz. Und indem Du Dich schon auf der Startseite als Experte etablierst, zahlst Du auch auf Expertise und Vertrauen ein (E-A-T). Alles wichtige Chancen für gute Rankings, die Du keinesfalls verschenken solltest!

Textstruktur

Die Struktur Deiner Texte entscheidet darüber, wie einfach der User es haben wird, die gesuchten Informationen auf Deiner Seite zu finden. Stell Dir vor, Du willst schnell was nachschauen, besuchst eine Seite, die in den SERPs vielversprechend wirkte und findest auf der Website Fließtext so weit das Auge reicht – ohne Überschriften, ohne Absätze und am besten noch in verschnörkelter Schönschrift… Hand aufs Herz, würdest Du die Seite schnell wieder verlassen oder hättest Du Bock, das alles zu lesen?

Google jedenfalls möchte dem User sowas lieber ersparen und fordert grundsätzlich übersichtlichen und barrierefrei konsumierbaren Text. Saubere Strukturen (Einsatz von H-Überschriften, angemessene Absatzlängen, Listings, genügend White Space und Medieninhalte) werden dabei als Hinweis für Qualität und leichtes Verständnis gewertet. Je einfacher Du es dem User also machst, Deine Texte zu lesen, desto besser Dein Ranking.

Aufzählungen/Listings

An diesem Punkt steigt Dein Lieblings-SEO mal mit ein bisschen unnützem Wissen ein: Das englische Wort „set“ beinhaltete laut Oxford English Dictionary 1989 insgesamt sage und schreibe 430 verschiedene Bedeutungen, darunter das Setzen von Segeln, das Einsetzen von Pflanzensamen, das Übertragen einer Aufgabe sowie die Feststellung, dass alles geklärt oder bereit ist oder auch den Sonnenuntergang.

Das besagte Wörterbuch führte dabei übrigens alle Bedeutungen hintereinander weg auf. Diese Aufzählung birgt jedoch ein winziges Problem: Je länger man die Liste der Bedeutungen fortführt, desto unübersichtlicher wird der Text – und umso schwieriger wird es anschließend, eine bestimmte Info darin wiederzufinden – zumindest ohne Suchfunktion.

Da das Lesen so weder Usern noch Google Spaß macht, verlangt Google als Rankingfaktor für die Qualität Deines Contents, dass

  • Aufzählungen mit Bullet Points und
  • Ranglisten mit Listings (nummeriert)

aufgeführt werden. Damit trägst Du zur Übersichtlichkeit Deines Contents bei und signalisierst Google, dass Du dich um eine gute Aufbereitung für den User bemühst.

Deine Leserschaft gewinnt viel schneller den Überblick und kann sich die gebotenen Infos auch leichter merken – allerdings nur, wenn es sich um eine proportional angemessene Zahl an Stichpunkten handelt. Ein kurzer Text mit 430 Stichpunkten hintereinander Weg wäre zum Beispiel schon wieder nicht mehr so schön zu lesen…

Individuelle 404-Seite

Es kann passieren, dass dem Nutzer ein Fehler unterläuft, wenn er eine Seiten-URL aus dem Gedächtnis abrufen möchte. Es kann aber auch vorkommen, dass eine Seite nicht mehr existiert (Statuscode 404 – toter Link). Wird eine Seite nicht gefunden, erhält der User eine relativ leere und langweilige „Ersatz“-Seite mit dem Hinweis, dass die gesuchte Seite nicht gefunden werden konnte.

Auch hier kannst Du beim User (und auch bei Google) punkten, wenn Du eine schicke, nützliche und vielleicht sogar unterhaltsame selbst erstellte 404-Seite vorweisen kannst, denn auch solche Seiten können als hochwertig gewertet werden, wenn sie für ihren Zweck zufriedenstellende Informationen und hohen Nutzen bieten. Wie das aussieht? So viel sei verraten: Viel Text brauchst Du dafür nicht! Ein ansprechendes Hintergrundbild, ein gut lesbarer und nett formulierter Hinweis und eine Suchfunktion für die Inhalte Deiner Website genügen schon.

Die Wirkung ist nicht zu verachten, denn zum einen verbessert sich dadurch die Usability erheblich. Zum anderen wird aber auch die Qualität der Seite gesteigert, denn es ist klar, dass Du Dir Gedanken über das Nutzererlebnis gemacht hast und Zeit, Mühe und Talent in die Erstellung dieser Seite geflossen sind. So kannst Du die Toter-Link-Problematik zwar nicht ganz umschiffen, aber zumindest geschickt abfedern.

Interne Verlinkung

Google versteht interne Links als Signal dafür, welche Seiten Deiner Onlinepräsenz wirklich wichtig sind. Eine gute interne Linkstruktur vereinfacht Google jedoch nicht nur die Erfassung und Interpretation Deines Onlineauftritts: Internes Linkbuilding kann auch als zusätzliche, vereinfachte und themenübergreifende Navigation durch Deine Website betrachtet werden, mit der Du Dein Nutzererlebnis aufpolierst. Indem Du die User Experience verbesserst, erhöhst du Verweildauer, CTR und Conversions. Dafür belohnt Dich Google wiederum gleich noch einmal mit besserer Sichtbarkeit.

Doch noch etwas Wichtiges schaffen interne Links: Sie übertragen (vererben) Vertrauen (Trust) auf die jeweils verlinkte Seite. Interne und externe Links hängen dabei eng zusammen. Je mehr Linkjuice über externe Links auf die verlinkende Seite kommt, desto besser steht auch die verlinkte Seite da.

Linktitel/Hovertext

Links bestehen nicht nur aus dem Ankertext, sie besitzen auch einen Titel, der meist per Mouseover sichtbar wird (Hovertext). Auch der Linktitel gilt als Rankingfaktor, wenn auch als schwacher. Genau genommen handelt es sich dabei um ein Relevanz-Signal, denn im Linktitel wird noch einmal kurz auf den Punkt gebracht, worum es beim Linkziel geht – idealerweise unter Verwendung des dortigen Keywords. Damit wird umso deutlicher, inwiefern die Verlinkung relevant sein wird.

Doch auch aus User-Sicht ist ein Hovertext hilfreich, denn egal, ob es sich um interne oder externe Links handelt: Der durchschnittliche Websitebesucher weiß einfach grundsätzlich gern, worauf er sich einlässt. Ist er nicht sicher, was der Link vor ihm beim Klicken bewirken wird, kann der Linktitel als Hovertext darüber näher Aufschluss geben. Das zahlt dann auch wieder auf die Usability ein, denn mit aussagekräftigen Linktiteln bleiben keine Fragen offen.

Guest Posting

Gastbeiträge (Guest Postings) sind ein beliebtes Mittel zur Promotion. Sie dienen dabei auch dem Linkbuilding und sind Teil der White Hat SEO. Dieses Vorgehen findet besonders bei Blogs häufig Anwendung, um Backlinks zu generieren. Doch auch für die Seite, die den Gastbeitrag dann veröffentlicht, sind positive Auswirkungen zu erwarten.

Zuerst kurz zur Wirkung für den Autoren: Verfasst ein Blogger (m/w/d) einen Beitrag für einen anderen Blog und lässt ihn dort veröffentlichen, enthält der Gastbeitrag in der Regel auch einen Link auf die eigene Website (oder den eigenen Blog). Mit einem solchen Backlink können dann der eigene Traffic und die Autorität der eigenen Website gesteigert und das eigene Ranking verbessert werden.

Und nun zur Wirkung für den Publisher: Hast Du als Publisher es geschafft, einen guten und beliebten Blogger o. ä. (mit gutem Ruf) zu einem Gastbeitrag auf Deiner Website zu überzeugen, kannst Du Dir gratulieren. Der hochwertige Content des Gastautors vererbt nämlich auch ein bisschen Autorität und Vertrauen auf Deine Website. Zusätzlich promotet der Autor sein Guest Posting oft auch selbst noch einmal, was Dir viel Aufmerksamkeit und Traffic einbringt. Spätens dann macht sich das Guest Posting als Tuning deines Contents auf jeden Fall auch bei Dir mit einem besseren Ranking bemerkbar.

Doch warum sind Guest Postings ein Rankingfaktor? Du ahnst es bestimmt schon: Google ist ein großer Fan von Selbstgemachtem. Machst Du also viel hochwertigen Content selbst und veröffentlichst nur gelegentlich Guest Postings, ist das ein positives Signal, denn du erweiterst Dein Angebot auf nützliche Weise für Deine Kunden. Zu viele Gastbeiträge heißen hingegen, dass du es selbst nicht drauf hast und lieber andere machen lässt. Wie heißt es so schön: Von nix kommt nix – auch kein besseres Ranking!

Einsatz von Multimedia

Mit dem Einsatz von Multimedia kannst Du Deine Inhalte gezielt unterstützen. Findet übrigens auch Google und sieht in der Verwendung von Fotos, Videos, Infografiken etc. ein Qualitätssignal Deiner Seite.

Neben der genererellen Verwendung von Multimedia (Bilder, Videos, Audiodateien, Dokumente etc.) schaut Google natürlich auch auf die technisch korrekte Anwendung der multimedialen Inhalte. Genauer gesagt darauf, dass diese technisch einwandfrei vorbearbeitet wurden, über ein gängiges Format verfügen, dass die Dateien nicht zu groß sind und so weiter.

Ist das nämlich nicht der Fall, könnte das den Pagespeed (besonders den so wichtigen mobilen Pagespeed) Deiner Website negativ beeinflussen und somit die Usability beeinträchtigen. Hohe Absprungraten und ein schlechteres Ranking könnten dann die Folge sein und der Versuch, nützliches Material für den User bereitzustellen, ginge somit kräftig nach hinten los.

Bildersuche

Bilder sagen mehr als 1.000 Worte, heißt es… Bilder auf Deiner Website sind daher grundsätzlich wichtig, denn sie lockern den Text optisch auf und unterstützen den Kern Deiner Aussage.

Damit tust Du damit aber nicht nur den Augen des Lesers einen Gefallen: Das Vorhandensein von (idealerweise gut optimierten) Bildern ist auch für Google ein Qualitätssignal, das für Deinen Content spricht und Dich im Ranking aufsteigen lassen kann. Im Ergebnis erhältst Du durch Bilder also vielfältige Relevanz-, Traffic- und Ranking-Boosts.

Seit einigen Jahren führt Google aber auch in den organischen Suchergebnissen Bilder auf, die zum Suchbegriff passen. Wird eines von Deinen Bildern angezeigt, ist das DIE Chance, zusätzlichen Traffic zu generieren.

Bilder-SEO

Damit das Bildmaterial Deiner Seite in den organischen Suchergebnissen aufgeführt werden kann, muss es – genau wie Deine Website – erst einmal SEO-optimiert sein. Aber mal ganz davon abgesehen ist die Bilder-SEO auch für Deine Website ein Rankingaktor, den Du nicht vernachlässigen solltest. Im Fokus dessen stehen

  • Bildgröße und Format (in pixel) Zu klein gehalten, lässt sich auf dem Bild nichts wirklich gut erkennen. Ein schlecht erkennbares Bild nutzt dem User nichts und wird daher auch dem Ranking eher schaden als nützen. Zu groß bedeutet hingegen höheren Datenverbrauch, was besonders Smartphone-User ärgern wird. Eine Seitenlänge von mindestens 300 pixeln ist daher empfehlenswert. Auch das Seitenverhältnis ist dabei wichtig: Passende Seitenverhältnisse sorgen für die korrekten Proportionen des Bildinhalts. Ein verzerrtes Bild macht weder dem User noch Google Freude. Bilder im Querformat (Seitenverhältnis 4:3) machen sich hier sehr gut und werden in der Bildersuche häufiger geklickt.
  • Dateiformat und Dateigröße Idealerweise sind es nur die gängigen Formate: JPG, PNG oder GIF. Beachte auch die Dateigröße: Bevor Du Bilder hochlädst, sollte diese noch durch geeignete Komprimierung optimiert werden. Je kleiner, desto besser – solange die Bildschärfe nicht darunter leidet.
  • Dateiname, Meta-Daten und Alt-Tag Auch die Benennung der Bilddatei spielt eine wichtige Rolle. Dateiname und Bildtitel (später als Hovertext sichtbar) sowie Meta-Daten sollten aussagekräftig und möglichst themenrelevant sein. Vorteilhaft wirkt sich dabei die Nennung des Keywords im Dateinamen aus, mindestens aber im Alt-Tag sollte es vorhanden sein, um die Relevanz zum Text nachzuweisen.
  • Markup Noch weiter verbessert wird die Interpretation deiner Bildinhalte durch die Nutzung eines passenden Markups. Damit kannst Du Dein Bild mit strukturierten Daten versehen, die die Google dann besser auslesen, zuordnen und crawlen kann. Mehr Infos zu Markups und strukturierten Daten findest Du unter Technik beim Rankingfaktor „schema.org“.
  • Bildposition Zu guter Letzt spielt auch die Position des Bilds im Content eine Rolle. Je wichtiger das Bild für Deine Inhalte ist, desto weiter oben (ggf. sogar „above the fold“) sollte es demnach zu finden sein, damit es auch beim Crawling schnell erfasst werden kann.

Warum Google Deine Bilder-SEO als Rankingfaktor betrachtet? Die Ursache dessen ist in der Relevanz, der User Experience und der Usability verankert:

  1. Relevanz: Bilder können vermitteln, was Worte nicht zu sagen vermögen! Mit Bildern unterstreichst Du den thematischen Gesamtkontext und kannst so die Relevanz Deiner Website zu bestimmten Suchanfragen ordentlich boosten, was Deine Sichtbarkeit durch Relevanz ebenfalls stärkt.
  2. User Experience: Google will, dass Deine Seite schnell lädt und innerhalb weniger Sekunden alles zeigt, was Deine Seite ausmacht. Brauchen Bilder aufgrund ungeeigneter Dateiformate, Bild- und Dateigrößen etc. zu lange zum Laden, muss der User entweder auf die Bilder verzichten oder ordentlich Daten blechen – beides sorgt für schlechte Nutzererlebnisse und somit für ordentlich Verdruss beim Besucher. Bilder-SEO verhindert genau das und sorgen für ein positives Nutzererlebnis ein.
  3. Usability: Vor allem die Alt-Tags als Bereich der Bilder-SEO zahlen stark auf die Usability ein. Sie sagen Google und dem Leser Deiner Seite, was auf dem Bild zu sehen ist. Google versteht damit besser, wie das Bild in den Kontext passt; User können erfahren, was zu sehen wäre, wenn die Bilder einmal nicht geladen werden. Und dann sind da ja auch noch sehbehinderte Menschen, die sich Websites nur Vorlesen lassen können. Dank Alt-Tags können auch sie einen Eindruck vom Bild erhalten.

Youtube-Videos

Wer zu lesen keinen Bock hat, schaut ein Video! Diese zählen neben Bildern, Grafiken und Texten zu den bevorzugten Informationsquellen und erlauben es, große Informationsmengen, Anleitungen und vieles mehr innerhalb von wenigen Minuten gut verständlich darzustellen, ohne dass dabei der Unterhaltungsfaktor zu kurz kommt. All das trägt natürlich immens zur User Experience bei, erhöht Relevanz, Traffic und Verweildauer und erfreut besonders diejenigen, die nicht so gern lesen… Aber auch Audio-Inhalte können sehr gut über Youtube verbreitet werden. Ausschlaggebend ist natürich auch hier wieder die Video-Optimierung.

Ob Image- oder Brand-Video, Produkt- oder Erklärvideo, Interview oder Musik: Videos in den Content einzubinden, erhöht die Qualität der Seite und die Usability. Du kannst sie auf deinen eigenen Server hochladen, musst dann aber enorm auf die Dateigröße achten (Komprimierung verpflichtend!).

Da Google Video- und Audiodateien aber vor allem aus YouTube bevorzugt, ist es sinnvoll, Video- und Audio-Dateien dort hochzuladen und schließlich in Deine Website einzubetten. So steigerst Du nicht nur deine Chance, im Google Video-Karrussell aufzutauchen, sondern erhöhst auch Deine Reichweite. Doch auch dem User tust Du dabei einen Gefallen, indem Du ihm große Datenverbrauchsmengen ersparst – und somit auch Ladezeit! Auch hier gilt natürlich vieles, was für Bilddateien auch gilt:

  • kurze, aber aussagekräftige, den Inhalt beschreibende Titel verwenden
  • Beschreibung hinzufügen (hier können auch andere Videos von Dir sowie Deine Website verlinkt werden…)
  • Keyword nicht vergessen (Titel und Beschreibung)

Denke auch daran, ein Thumbnail (Vorschaubild) zu verwenden. Videos ohne Thumbnail sind wenig ansprechend, denn niemand klickt gern die Katze im Sack. Achte deshalb darauf, den User mit einem ansprechenden, stimmungsvollen Vorschaubild zusätzlich zum Klicken zu animieren. Das gilt ganz besonders für Audio-Inhalte!

PDF-Dateien

Eine weitere Möglichkeit, nützliche Inhalte in Deine Website einzubinden, ist die Bereitstellung von PDFs. Du möchtest deinem Kunden informative (Manuals und Anleitungen), unterhaltsame (Witzsammlungen oder ähnliches) oder interaktive Dokumente (zum Beispiel Formulare) zur Verfügung stellen? Dann ist die PDF-Datei dein bester Freund, denn mit ihr stellst Du sicher, dass die Datei überall geöffnet werden kann und noch dazu überall exakt gleich dargestellt wird.

Auch beim PDF sind einige Punkte zu beachten. Der Hauptteil der Optimierung findet dabei übrigens in der Datei selbst statt.

  • Titel & Beschreibung Wie Websites Meta-Daten haben, sollten auch Deine PDF aussagekräftige Titel und Beschreibungen erhalten, die in den SERPs herangezogen werden können. Das Keyword sollte darin möglichst enthalten sein.
  • Dateiname Hast Du keinen Titel für Deine PDF hinterlegt, wird der Dateiname in den SERPs angezeigt. Auch ist der PDF-Name ein Teil der URL, weshalb es sehr wichtig ist, ihn knackig kurz und vor allem relevant zu gestalten.
  • Alt-Attribute für Bilder Sind in deiner PDF-Datei Bilder enthalten, vergiss bitte nicht, in der PDF die entsprechenden Alt-Texte zu hinterlegen. Sollten die Bilder in der Datei nämlich nicht angezeigt werden können, können Deine Leser so trotzdem noch erkennen, was hier eigentlich zu sehen sein sollte. Auch Google versteht den Bildinhalt so besser.
  • Überschriftenstruktur im PDF Wusstest Du, dass Du auch in PDF-Dateien Überschriften festlegen kannst – und das sogar auch nach untergeordneten Hierarchien (ähnlich H1-H6)? Jetzt da Du’s weißt, solltest Du das auch immer akribisch einhalten.
  • Interne Verlinkungen einbauen Auch Google kann PDFs übrigens vollständig Indexieren – inklusive Verlinkungen, die Linkjuice vererben können! Mit Links zur PDF-Datei von Deiner Seite und Links aus der Datei zu Deiner Website verbesserst du übrigens auch den Navigationsflow Deiner Website und verbesserst so das Crawling. Lässt Du die Verlinkungen einfach weg, schaffst Du stattdessen eine Sackgasse, die Dein Ranking verschlechtern kann.

Beachtest Du all diese Punkte, schafft eine PDF-Datei nicht nur für Deine User, sondern auch für Dein Ranking einen echten Mehrwert.

Keyword im Domainnamen

Taucht das (Haupt)Keyword Deiner Seite auch im Domainnamen auf, hilft es Google, den Inhalt Deiner Seite schneller zu verstehen. Früher war das ein sehr bedeutender Faktor, heute weniger. Trotzdem haben es Keyword-Domains nach wie vor etwas einfacher im Ranking…

Keyword am Anfang der Domain

Das Hauptkeyword Deiner Website auch in der Domain zu haben, ist ein guter Anfang. Da Google zum Crawlen nur sehr begrenzt Zeit hat, ist es von Vorteil, dass die Suchmaschine schneller an Informationen wie das Thema der Website kommt. So kann sie mehr Zeit für die untergeordneten Seiten verwenden, ohne dabei wichtige Details zu übersehen. Eine Garantie für gutes Ranking ist das allein allerdings nicht.

Keyword in der Subdomain

Betreibst Du eine kostenlose Website auf Basis der beliebten Homepage-Baukästen, erhältst Du meist eine Subdomain – zumindest bei den meisten Anbietern. Das bedeutet, dass die Domain einer anderen untergeordnet ist und eben nicht ausschließlich Deinen Wunsch-Domainnamen hat, sondern dass die Wurzel-Domain (Root Domain) des Anbieters zwischengeschaltet wird (www.subdomain.root-domain.de). Subdomains können aber auch genutzt werden, um bestimmte Teile der Website bewusst vom Hauptinhalt abzugrenzen, etwa einen Blog (blog.root-domain.de).

Das macht es Google erst einmal schwer zu erkennen, worum es in diesem Teil Deiner Website überhaupt geht. Findet sich dafür das Keyword (möglichst weit vorn) in der Subdomain, kann Google das Thema der Website besser erfassen.

Meta-Daten

Die Meta-Daten sind das, was Du von einer Website in der organischen Suche auf den Suchergebnisseiten als Allererstes siehst. Sie bestehen aus Meta Title und Meta Description und können von Dir relativ frei festgelegt werden. Wichtig ist, dass Du Sie mit aussagekräftigen Informationen befüllst, damit der User einschätzen kann, ob Deine Seite die richtige Antwort auf seine Anfrage bietet.

Sind keine Meta-Daten vorhanden, fällt es Google schwerer, Deine Seite zu interpretieren und thematisch richtig einzuordnen. Die Wahrscheinlichkeit, dass sie dem Nutzer bei einer relevanten Anfrage angezeigt wird, sinkt. Auch Nutzer können die Seite dann weniger gut einschätzen und klicken dementsprechend seltener. Zwar wird Google versuchen, Meta Title und Description mit relevanten Textstellen des jeweiligen Contents zu befüllen. Diese können weniger aussagekräftig ausfallen und nicht die wichtigsten Infos bereitstellen. Zudem stuft die Suchmaschine die Relevanz und die Qualität Deiner Seite als weniger hoch an. Weil das Ranking damit beeinflusst werden kann, zählen Meta-Daten somit zu den Rankingfaktoren.

Keyword im Meta Title

Der Meta Title, oft auch Title Tag genannt, ist das Erste, was Suchende in den SERPs von Deiner Seite zu sehen bekommen. Du möchtest für einen bestimmten Suchbegriff ranken? Dann solltest Du schon im Meta Title aufzeigen, dass Du die gesuchten Infos zum Keyword auch liefern wirst, denn der Title Tag zählt neben Deinem eigentlichen Content zum wichtigsten Inhalt Deiner Website und sendet eines der stärksten SEO-Signale aus dem Onpage-Bereich.

Dabei ist es übrigens auch wieder ausschlaggebend, an welcher Position des Meta Title das Keyword zu finden ist. Je weiter vorn sich das Keyword antreffen lässt, desto besser Deine Ranking-Chancen.

Keyword in der Meta Description

Die Meta Description verschafft Besuchern einen ersten Einblick in den Inhalt Deiner Seite und sollte daher kurz und knackig zusammenfassen, was den Besucher dort erwartet. Im Idealfall kommt natürlich auch hier das Keyword bzw. sein Synonym vor. Denn je relevanter die Description, desto besser die Chance aufs gute Ranking. Zudem werden im SERP-Snippet die enthaltenen Keywords fett markiert. Das erhöht die Klickrate, was wiederum ein positives Signal an Google sendet.

Longtail Keywords (LSI) in Meta-Daten

Latent Semantic Indexing (LSI) Keywords, auch als Longtail Keywords bekannt, versteht Google als themenrelevante Wortgruppen. Kommen diese im Meta Title und/oder der Meta Description vor, helfen sie dem Googlebot dabei, die korrekte Bedeutung einer mehrdeutigen Suchanfrage zu erkennen und die richtigen Ergebnisse zu listen.

Beispiel: Das Wort „Bank“ kann sowohl eine Sitzgelegenheit als auch ein Finanzinstitut meinen. Gibt man hingegen „Bank wechseln“ an, wird klar, dass wohl eher das Finanzinstitut gemeint ist. Denn wie man seinen Allerwertesten von einer auf eine andere (Park)Bank pflanzt, dürfte auch ohne Anleitung bekannt sein…

Google Shopping

Es ist noch nicht so lange her, da hieß es „Brauchst Du eine Info, geh zu Google. Willst Du etwas kaufen, geh zu Amazon.“ Dass Google nur für Infos „missbraucht“ wurde und der Shopping-Riese dafür die Lorbeeren (Conversions) erntete – das gefiel der Suchmaschine natürlich nicht! Google hatte die Monopolstellung satt und antwortete mit einer eigenen Shopping-Suchmaschine bzw. einem hauseigenen Preisvergleichsportal, das sogar ein eigenes Karussell mit den günstigsten Angeboten in den organischen SERPs innehat – und so oftmals noch vor Amazon-Ergebnissen rankt. Friss das, Amazon!

Willst Du auch auf die Position 0? Dann bedarf es eines Google Ads Kontos (denn darüber finanziert sich Google Shopping) und eines Merchant-Center-Kontos. Produkte können dann wahlweise automatisch oder auch manuell in einen Produktfeed eingepflegt werden. Gelingt Dir das Position-0-Ranking tatsächlich, kannst Du dadurch mehr hochwertigen Traffic (also Besucher, die wirklich kaufen wollen) auf Deine Seite holen und Deine Conversions verbessern. Coole Sache, oder?

Google News Box

Bestimmt kennst Du die News Box von Google. Sie wird immer dann in den SERPs ausgespielt, wenn Keywords zu Marken oder Themen mit Nachrichtenpräsenz gesucht werden. Bietest Du auf Deiner Seite Inhalte an, die diese Keywords abdecken, kann es passieren, dass auch Deine Seite in der News Box angezeigt wird, was dann ein Zeichen von hoher Relevanz ist und Dir zumindest kurzfristig mehr Traffic beschert…

Kategorien/Tags

Jede Website wird von Google einer oder mehreren Themenkategorien zugeordnet. Oder anders gesagt: In Schubladen gesteckt. Ganz wie im echten Leben… Diese Kategorien sind für das Rankingkriterium „Relevanz“ wichtig. Liegt die Seite thematisch nah an der Kategorie, der sie untergeordnet wird, erhält sie einen Relevanz-Boost.

Tatsächlich kann man Google bei der Kategorisierung seiner Seiten auch ein bisschen zur Hand gehen. In Homepage-Baukästen und CMS-Systemen gibt es dafür Funktionen, mit denen Du die entsprechende Kategorie selbst zuweisen kannst. Mit sogenannten Tags kannst Du außerdem einen Überblick zu themenübergreifenden Inhalten geben. Doch auch hierbei ist Vorsicht geboten, denn passen Deine Angaben nicht mit Googles Einschätzung zusammen, kann das Ganze auch nach hinten losgehen.

Technik

Wusstest Du, dass der Googlebot auch ein Architektur-Fan ist? Er schaut sich nicht nur die inneren Werte Deiner Website an, sondern scannt und beurteilt auch das Fundament und das Gerüst, kurz gesagt die technische Aufstellung Deiner Website mithilfe verschiedener Technik-Rankingfaktoren. Er prüft zum Beispiel

  • in welchem Zustand sich die Bausubstanz (der Code) befindet,
  • ob die verwendete Technik den aktuellen Normen und Standards entspricht (W3C),
  • ob Deine Website schnell und unkompliziert lädt (Pagespeed),
  • ob die Inhalte technisch korrekt eingebunden wurden,
  • wie lange es die Domäne schon gibt und in welcher Umgebung sich die Website auf dem Server befindet.

Denn der Googlebot imitiert auch dabei den Menschen und weiß erstaunlich gut, was Deine Seitenbesucher erwarten und was sie nervt. Hand aufs Herz, würde es Dich nicht auch abschrecken, wenn die Nachbarschaft beängstigend wirkt, das Gebäude verwahrlost aussieht, das Öffnen der Tür scheinbar ewig dauert, wenn Du endlos von einem Raum zum nächsten geschickt wirst, Dich in einem Labyrinth-ähnlichen Aufbau verirrst oder ständig in Sackgassen landest? Selbst tapfere User haben bald die Nase voll und gehen lieber wieder dahin, wo sie sich auskennen und wohlfühlen. Damit ausschließlich die beiden letzten Attribute auch auf Deine Website zutreffen, lohnt es sich für Dich, die nachfolgend aufgeführten Rankingfaktoren zur Technik zu berücksichtigen.

AMP

Ok, es handelt sich nicht direkt um einen Rankingfaktor von Google, aber es beeinflusst Dein Ranking möglicherweise trotzdem ganz ordentlich: Die Nutzung von AMP (Accelerated Mobile Pages), einem speziell für mobile Websites entworfenen Format mit eigenem Quellcode, das die Ladezeit dieser merklich kürzt und die sich blitzschnell aufbauenden Seiten nur auf mobilen Geräten ausspielt. Ein kleiner Blitz kennzeichnet AMP-Seiten in den Suchergebnissen.

Doch nicht nur die Mobile Friendliness und die schnelle Ladezeit beeinflussen Dein Ranking positiv: Die AMP-Sites haben (genau wie Bilder und Videos) ebenfalls ein eigenes Karussell in den organischen SERPs, das über den regulären organischen Suchergebnissen thront…

Pagespeed

Früher begann der Ladeprozess einer Website mit einem Geräusch, das heute kaum noch einer kennt. Die besuchte Website baute sich dann in etwa so schnell auf, als würde eine Oma sie in Echtzeit häkeln. Heute ist das undenkbar! Der Pagespeed, auch als Ladezeit bekannt, ist einer der wichtigsten Rankingfaktoren für Google. Und das gleich aus zweifacher Sicht:

  1. Usability: 3 Sekunden gesteht man einer guten Seite zu, bis alles zu sitzen hat. Dabei darf sie übrigens maximal 1 MB groß sein… Ist sie größer bzw. braucht die Seite länger, wendet sich der User meist entnervt ab und greift lieber auf eine andere, schnellere Seite zu. Und schon hast Du Traffic verloren, Deine Bounce Rate erhöht und rutschst im Ranking ab.
  2. Crawling: Zeit ist Geld! Für das Crawling, also das Erfassen Deiner Seite, hat Google ein sogenanntes Crawl Budget, nach dem sich die Tiefe des Crawlings richtet. Ist das Crawl Budget aufgebraucht, hört der Googlebot auf zu crawlen – und hat dann er unter Umständen nur die Spitze des Eisbergs erkundet, weil es einfach zu lange dauert. Dabei stellt das Crawling die Voraussetzung für die Indexierung und damit auch für das Ranking von Seiten dar. Konnte Google nicht die gesamte Website erfassen, verlierst Du an Rankings, Sichtbarkeit und Traffic.

Der Pagespeed – auch als Performance bezeichnet – ist übrigens kein Einzelfaktor, sondern eine Zusammensetzung aus mehreren messbaren Faktoren:

  • First Contentful Paint Hier wird die Dauer von der Serveranfrage bis zur Zeichnung des ersten Pixels gemessen – also die Zeit, innerhalb der Deine Website das erste Bruchteilchen ausspuckt.
  • First Meaningful Paint Wenn Deine Seite sich schnell aufbaut, ist schon mal ein guter Anfang. Nun widmet sich Google aber auch der Frage, wie lange es dauert, die wirklich wichtigen Inhalte zu laden – zum Beispiel den „Above the fold“-Bereich.
  • Speed Index Wie schnell werden die Inhalte Deiner Website auch sichtbar dargestellt? Genau damit beschäftigt sich der Speed Index. Je schneller Deine Inhalte sichtbar sind, desto besser für die User Signals.
  • First CPU Idle Sicher kennst Du die CPU schon von Deinem Rechner: Ist die Rechen- und Steuereinheit voll ausgelastet, können Eingaben nur sehr langsam verarbeitet werden. Auch der Server, auf dem Deine Website liegt, hat natürlich eine CPU. Der First Input Idle testet, wie lange diese ausgelastet ist, bis sie auf Userinteraktionen reagieren kann – oder anders gesagt, wann sie den ersten Leerlauf hat, der die Verarbeitung solcher zulässt. Im Idealfall unterschreitet Deine Website hier die 5-Sekunden-Marke.
  • Time to interactive Dieser Faktor gibt an, wie lange es dauert, bis Deine Website ganz und gar interaktionsfähig ist.
  • Estimated Input Latency Schätzung und Messung, das passt nicht wirklich zusammen – zumindest auf den ersten Blick. Auf den zweiten aber doch, denn hier geht es darum, wie der User die Verarbeitungszeit seiner Eingaben wahrnimmt. Alles, was über 50 Millisekunden liegt, findet der User ziemlich lahm… und Google auch.

Möchtest Du wissen, wo Deine Seite auf diesem Gebiet steht? Dann lass Dir von Googles Leuchtturm (Lighthouse-Test) den Weg weisen.

Time to first Byte

Die Time to first Byte (TFFB), ein technischer Rankingfaktor, beschreibt die Reaktionszeit Deiner Website. Genau genommen geht es dabei um Zeit, die vergeht, bis die Seite nach dem Aufruf den ersten Byte des Gesamtkonstrukts Deiner Website geladen hat. Alles unter 100 Millisekunden ist hier der Referenzwert für ein gutes Ranking. Als schlecht gilt alles, was 600 Millisekunden übersteigt.

Den Impact eines schlechten Werts kannst Du Dir bestimmt schon vorstellen: Dauert es zu lange, bis sich Deine Website aufbaut, hat der User keine Lust mehr zu warten und springt ab – weiter zum nächsten Suchergebnis. Das erhöht die Bounce Rate, die die User Signals dann natürlich insgesamt etwas herunterzieht. Mit der Zeit macht dann auch ein gutes Ranking die Biege, denn lahme Seiten sind für den User nicht nützlich.

W3C-Validität

Das W3C (World Wide Web Consortium) ist die Organisation, die die Standards der Website-Programmierung (HTML, CSS etc.) vorgibt – quasi das Normungsinstitut des Internets, wenn man so will. Für ein gutes Ranking ist es natürlich wichtig, diese Standards einzuhalten (= W3C-Validität). Die W3C-Validität ist als Rankingfaktor wieder aus zwei Gründen wichtig:

  1. Usability: Liegt ein Fehler im Quellcode vor, nehmen sich die verschiedenen Browser gewisse Freiheiten beim Interpretieren Deiner Website. Die Folge: unterschiedliche Darstellungen. Dabei kann es leider auch passieren, dass Buttons (z. B. Call to Action) und andere Bedienelemente überlagert werden, sodass A) die Seite nur noch eingeschränkt nutzbar ist und B) der CTA eventuell gar nicht mehr sichtbar ist. Verkäufe kannst Du Dir dann leider abschminken. Noch dazu schicken Dich Conversionabbrüche und erhöhte Bounce Rates dann auf eine Rutschpartie in den Rankings…
  2. Crawling: Stell Dir den Code wie einen Text vor: Kleine Fehler kann man verzeihen, mittelschwere mit etwas Glück noch richtig interpretieren, doch manchmal wird die Bedeutung dadurch so entfremdet, dass gar nichts mehr hilft. Findet der Googlebot solche Fehler, versucht zwar auch er bis zu einem gewissen Punkt noch eine Interpretation, doch im Zweifelsfall bricht er dann das Crawling Deiner Seite ganz einfach ab – und alles nur wegen eines W3C- bzw. Code-Fehlers. Ärgerlich!

SSL

Du hast nichts zu verbergen? Na dann macht es Dir ja sicher auch nichts aus, auf unsicheren HTTP-Seiten zu surfen und Hinz und Kunz sensible Daten wie Wohnort, Bankverbindung, Passwörter und Co. zur Verfügung zu stellen – oder? Google jedenfalls findet Datenklau überhaupt nicht lustig und verlangt deshalb seit 2015 die SSL-Verschlüsselung als Rankingfaktor. Das Vorhandensein einer solchen wertet Google dabei als Qualitätssignal Deiner Seite.

Auch wenn der Impact auf Dein Ranking mit vorhandener SSL-Verschlüsselung eher gering ist: Ohne diese ist er dann doch ziemlich groß! Besitzt Deine Website nämlich keine, spielt Google beim „Betreten“ Deiner Website eine dicke fette Warnung aus, dass diese nicht sicher sei. Da in unserer datenschutzbewussten Gesellschaft keiner gern mit einer solchen Seite arbeitet (besonders dann, wenn es um Verkäufe und Online-Zahlungen geht), werden sich die meisten User dann eher von Deiner Seite abwenden und der Traffic somit deutlich abnehmen oder ganz ausblieben – genau wie die User Signals, die Google ebenfalls für die Bewertung Deiner Website nutzt.

Gleichzeitig leidet aber auch das Vertrauen zu Deiner Website bei Google. So oder so, ein gutes Ranking geht leider nur noch mit SSL… Ob Deine Seite safe ist oder nicht, sagt Dir die URL: Beginnt sie mit https und weist ein Schloss-Symbol auf, ist alles in Butter. Tut sie’s nicht, solltest Du schnell handeln…

HTTP/2

Das World Wide Web wächst mit seinen Aufgaben. Und um mit den stetig wachsenden Anforderungen klarzukommen, entwickelte die IETF (Internet Engineering Task Force) das HTTP/2-Protokoll, das nun etwas veraltete HTTP/1.1 ablöst und den neuen Standard vorgibt. Der Vorteil des neuen Protokolls liegt in der deutlich verbesserten Geschwindigkeit, Effizienz und Sicherheit der Datenübertragung. Besonders die Geschwindigkeit ist hierbei ein technisch relevanter Faktor und wirkt sich damit auch auf Deinen Pagespeed aus.

Verwendest auch Du HTTP/2, sorgst Du dafür, dass die wichtigen Daten für den Seitenaufbau gleich zuallererst an den Browser übermittelt werden. Das Ergebnis: Die Website baut sich schneller auf, der User kann seine Reise durch Deine Website schneller beginnen. Und während der User es Dir unter anderem mit mehr Conversions und insgesamt besseren User Signals für die bessere Usability dankt, wirst Du von Google gleich doppelt belohnt: Du verbesserst nicht nur Dein Ranking, sondern wirst auch öfter gecrawlt und indexiert, sodass sich Änderungen an Deiner Website schneller bemerkbar machen.

Auch wenn HTTP/2 vieles besser macht: SSL bleibt weiterhin obligatorisch und auch die meisten anderen Optimierungsmaßnahmen werden dadurch nicht* überflüssig!

Server-Standort

Wusstest Du, dass der Server-Standort beeinflussen kann, wie Deine Seite rankt? Nein? Jetzt weißt Du es! Mit der bloßen Info möchte sich Dein Lieblings-SEO aber nicht begnügen und gibt Dir daher noch etwas mehr Informationen dazu:

Der Server-Standort ist nämlich gar kein klassischer Rankingfaktor und hat nichts mit Vertrauen, Usability oder Qualität zu tun. Er kann aber Einfluss darauf nehmen, wie Deine Seite in den verschiedenen geografischen Regionen rankt. Für Googles Nutzererlebnis ist es ja wichtig, dass Suchergebnisse auch zu Deinem Standort passen. Befindet sich der Server in Deutschland, ist es damit relativ unwahrscheinlich, in Österreich gut zu ranken. Stimmen der Standort und die Zielregion, in der Du ranken möchtest, überein, gewinnst Du an Authentizität gegenüber Google. Zudem lädt Deine Website schneller, wenn sich der Server im gleichen Land befindet.

Server Uptime

Stell Dir vor, Du willst eine bestimmte Website besuchen, doch das klappt nicht, weil sie komischerweise ständig nicht verfügbar ist. Irgendwann lässt Du es frustriert einfach bleiben, weil Du davon ausgehst, dass sie ohnehin unerreichbar ist.

Googles bevorzugtes Usererlebnis beinhaltet, dass Deine Seite jederzeit und überall performt, wie sie soll. Befindet sich Deine Website also auf einem Server, der dafür bekannt ist, öfters und/oder für längere Zeit wegzubrechen, sodass Deine Seite häufiger nicht erreichbar ist, wird ihr Ranking dadurch negativ beeinflusst.

Dedicated Server

Ein Dedicated Server (zu Deutsch: dezidierter Server) ist ein eigenständiger Server, der exklusiv einem einzelnen Kunden zwecks Webhosting (Website und E-Mail, Shop und Datenbanken etc.) zur Verfügung steht. Google wertet den Dedicated Server als Qualitätssignal. Kein Wunder, denn er bietet viele Vorteile:

  1. Höhere Sicherheit Niemand außer dem Inhaber des Servers kann ihn konfigurieren und auf die vorhandenen Dateien zugreifen – somit werden Sicherheitslücken minimiert und außer Dir kann auf dem Server auch niemand Unfug anstellen… Das gibt natürlich Pluspunkte beim Vertrauen!
  2. Höhere Verfügbarkeit Viele Köche verderben den Brei – oder anders gesagt: Viele User (Shared Hosting) können die Leistung negativ beeinflussen oder den Server gar ausfallen lassen und Deine Seite unerreichbar machen. Mit einem Dedicated Server passiert das nicht: Deine Website ist immer verfügbar und Google sieht und belohnt diese Zuverlässigkeit mit einem besseren Ranking.
  3. Höhere Geschwindigkeit Speed kills – außer bei Google, da wird die Geschwindigkeit gefordert und gefeiert. Auf dem Dedicated Server ist Deine Website fast und Google kein bisschen furious, denn das verbessert natürlich das Nutzererlebnis immens.
  4. Bessere Optimierungsmöglichkeiten Auf einem dezidierten Server hast Du natürlich auch keine lästigen Nachbarn, die Dich mit ihrem Image runterziehen könnten… Die IP gehört Dir ganz allein, was bei Google noch einmal mehr für hohe Qualität spricht.

Zwar sind dezidierte Server etwas teurer, dafür sind sie aber gerade für umfangreichere kommerzielle und datenbanklastige Projekte wie große Onlineshops hervorragend geeignet.

IP Neighborhood

Bevor Du Deine neue Wohnung anmietest, ist es von Vorteil, Deine Nachbarschaft zu kennen. Läuft es blöd, können sich Nachbarn als ziemlich lästig entpuppen und Dir das Leben schwer machen. So ähnlich kannst Du Dir das auch mit dem Rankingfaktor „IP Neighborhood“ vorstellen.

Die IP-Nachbarschaft bezieht sich darauf, wie viele Domains sich eine IP teilen und welchen Ruf diese innehaben. Auch das ist wieder wie im echten Leben, denn lebst Du in einem Viertel mit schlechtem Ruf und hoher Kriminalität, wirst Du schnell über einen Kamm geschert und trägst unverdient die Konsequenzen mit: Befinden sich zum Beispiel bekannte Spammer, Hacker oder schwarze Hüte tragende Seiten in Deiner IP-Nachbarschaft, kann es tatsächlich passieren, dass Google die gesamte IP blockt. Damit wird Deine Seite natürlich gleich mit bestraft und bis zur Unsichtbarkeit heruntergezogen, obwohl sie sauber und vertrauenswürdig ist.

Auch in puncto Backlinks kommt die Nachbarschaft übrigens wieder ins Spiel und kann Dein Ranking ziemlich stark mitbeeinflussen. Schau daher immer genau, mit wem Deine Seite sich eine IP teilen wird, um auf ein möglichst gutes Ranking nicht verzichten zu müssen, nur weil andere sich nicht benehmen.

Responsiveness / Mobile Friendliness

Die mobile Internetnutzung ist in den letzten Jahren rasant gewachsen. Fast 75 % aller Anfragen erfolgen inzwischen über das Smartphone – Tendenz weiter steigend. Auf diesen Trend reagiert natürlich auch Google mit einem Rankingfaktor: Seit 2015 müssen Websites „mobile friendly“ sein – also auf dem Smartphone und anderen Mobilgeräten gut nutzbar – um als Suchergebnis für die mobile Suche zu ranken.

2018 gesellte sich dann noch der Mobile-First-Index hinzu, der bevorzugt mobile Seiten crawlt und indexiert, was das Crawling der Desktop-Website weniger häufig erlaubt. Responsive Design ist daher ein wichtiger Rankingfaktor, um mobil UND stationär gut ranken zu können. Das ansprechendste Design und der beste Content nützen hingegen nichts, wenn sie auf Laptops, Tablets und Smartphones nicht richtig oder gar nicht angezeigt werden können.

Beherrscht Deine Website die Kunst der Responsiveness, ist sie auf dem Smartphone und vielen anderen Gerätearten auf Kurs und wird von Google als hochwertig angesehen. Zudem wird sie öfter gecrawlt, sodass Änderungen schneller erfasst und übernommen werden können, was auch die Aktualität Deiner Seite verbessert und Dein Ranking positiv beeinflusst.

Mobile Speed

Zur Mobilfreundlichkeit zählt auch die Ladezeit für mobile Seiten. Innerhalb von maximal 3 Sekunden muss der Lade- und Aufbauvorgang abgeschlossen sein und alles muss „sitzen“ – stabil, zoomfrei navigier- und lesbar und ohne lästige Verschiebungen des Inhalts während der Bedienung. Websites, die schnell und einfach genutzt werden können, haben deshalb einen Vorteil beim Ranking, weil sie als nutzerfreundlich gelten. Googles Service-Claim, Du erinnerst Dich?

Versagt Deine Seite bei Mobile Friendliness und Mobile Speed (zusammengefasst auch Mobile Usability), gehen Dir täglich viele Klicks durch schlechte Darstellung und unlesbare Inhalte verloren und Deine Seite rutscht im Ranking ab. Damit ist Mobile Speed ein wichtiger Rankingfaktor.

Domainalter

Das Domainalter ist nicht nur im Hinblick auf Deine Seite wichtig, sondern kommt auch beim Thema Backlinks wieder zum Tragen – diesmal aber im Hinblick auf die verweisende Seite. Je älter die Backlink-Domain, desto wertvoller der Backlink und desto positiver der Impact auf Dein Ranking.

Das liegt vor allem daran, dass älteren Domains von Google eine gewisse Expertise zugetraut wird und dass sie über viel mehr Autorität und Vertrauen (E-A-T) verfügen als neue bzw. jüngere Domains. Diese müssen sich das erst noch verdienen…

Auch hier gibt es aber natürlich Ausnahmen, denn auch ältere Domains können aufgrund ihrer Historie negativ belastet sein… Backlinks von solchen Seiten sind Google dann auch wieder weniger schmackhaft.

Alter der Seite

Google mag es zwar gern frisch (Content), doch das Alter Deiner Seite beeinflusst das Ranking ebenso! Der Hintergrund ist erneut das E-A-T-Prinzip von Google. Wer lange dabei ist und seine Seite regelmäßig auffrischt, besitzt für Google eine größere Autorität als Newcomer, die sich erst noch beweisen müssen – ist fast wie im Berufsleben…

Domain Registrierungsdauer (Seriosität)

Während sich das Domainalter um die Online-Aktivität dreht, geht es bei der Registrierungsdauer als Rankingfaktor eher um die Seriosität. Um Dir den Impact auf Dein Ranking näherzubringen, müssen wir erst einmal kurz etwas Hintergrundwissen aufgreifen:

Wenn Du mit Deiner Website auf die lange Sicht erfolgreich sein willst, bindest Du Dich auf lange Sicht (oft mehrere Jahre im Voraus) an eine Domain, mit der Du gut ranken kannst. Die Domain erhält dabei ein „Ablaufdatum“, das dann aber noch weit in der Zukunft liegt. Da Spammer und Betrüger aber oft schnell wieder von der Bildfläche verschwinden müssen, können sie sich nicht so lange an eine Domain binden, was ein zeitnahes Ablaufdatum für die Seite bedeutet. Und dann gibt es da noch die sogenannten Doorway Domains, die für bestimmte Keywords erstellt und optimiert sind, aber auf eine andere Domain weiterleiten, um das Ranking zu boosten. Auch diese werden selten länger als ein Jahr genutzt.

Aus diesem Umstand heraus prüft Google also, wie lange Deine Domain schon registriert ist und wie lange sie es voraussichtlich noch sein wird und zieht daraus Rückschlüsse, wie seriös (vertrauenswürdig) Deine Domain ist. Je mehr Google Deiner Domain vertraut, desto besser Deine Rankingchancen…

Domainhistorie

Die Domainhistorie (Domain History) gibt Google weiteren Aufschluss über die mutmaßliche Vertrauenswürdigkeit Deiner Website. Hat Deine Domain vor Dir zum Beispiel häufig den Besitzer gewechselt und haben frühere Besitzer Schabernack mit dieser getrieben, kann es durchaus passieren, dass Google erst einmal Vertrauensschwierigkeiten hat. Eine abgestrafte Domain kann diese Strafen auch auf neue Besitzer übertragen. Du weißt ja, wer einmal lügt…

Top Level Domain

Die Top Level Domain (TLD) ist nichts anderes als die Domainendung (.de, .berlin, .org, .com oder ähnlich). Unterschieden wird zwischen länderspezifischen/geografischen (.de, .at, .ch und so weiter) und generischen TLDs (.com, .net, .org etc.).

Im Allgemeinen ist die TLD kein offizieller Rankingfaktor, hat aber trotzdem einen indirekten Einfluss aufs Ranking, weshalb es für Dich schon bei der Wahl Deiner Wunschdomain wichtig ist, welches Ziel Du mit Deiner Onlinepräsenz eigentlich verfolgst. Welche Variante was bewirkt, erfährst Du nachfolgend.

Geografische TLD

Eine geografische TLD (Top Level Domain) ist dann die richtige Wahl für Dich, wenn Du mit Deiner Seite innerhalb eines bestimmten Landes (.de, .it, .es, .fr …) oder lokal/regional (.berlin, .brandenburg, …) ranken willst.

Entscheidest Du Dich für eine solche, muss Dir aber auch klar sein, dass Deine Möglichkeiten für ein globales Ranking damit von vornherein eingeschränkt werden. Willst Du global ranken und besitzt eine geografische (länderspezifische) Top Level Domain, kann Google Dir damit also einen Strich durch die Rechnung machen…

Generische TLD

Du willst hoch hinaus und international ranken? Oder willst Du einen Shop anbinden (kommerzielle Nutzung)? Dann solltest Du besser zur generischen TLD wie etwa .com, .net, .org und so weiter greifen, damit Google Dich nicht in die regionalen Ergebnisse verbannt.

Falls Du Dich fragst, wie das dann mit der korrekten Sprachausgabe funktioniert: Viele Global Player lösen das, indem sie die verschiedenen Sprach- und Länderversionen in Unterverzeichnissen ablegen. Aber auch hier gibt es einiges zu beachten.

Exact Match Domain (EMD)

EMD, das steht für Exact Match Domain und beschreibt im Grunde einfach nur eine Domain, die 1:1 mit einem bestimmten Suchbegriff übereinstimmt – zum Beispiel „kosmetik-online-kaufen.de“. Die Nutzung einer solchen ist allerdings nur hilfreich, wenn es sich um eine hochwertige Seite handelt. Richtig angewendet sendest Du Google mit einer Exact Match oder auch Keyword-Domain ein unmissverständliches Relevanz-Signal, dass Dein Ranking dann positiv beeinflussen kann.

Domainname

Die gute Nachricht: Deinen Domainnamen kannst Du Dir relativ frei aussuchen. Hauptsache er erfüllt die Bedingungen, die Google dafür vorsieht:

  1. Beschreibung Deiner Tätigkeit Stichwort „sprechende URL“: Dein Domainname sollte zu dem passen, was Du tust/anbietest, um Google und potenziellen Besuchern schon über die Domain erste Rückschlüsse auf den Inhalt Deiner Seite zu geben.
  2. Keyword im Domainnamen Einen weiteren Ranking-Boost verschaffst Du Dir auch, wenn Du das Keyword im Domainnamen unterbringst. Möglichst weit vorn, versteht sich!
  3. Adäquate Trennung der Worte Besteht Dein Domainname aus mehreren Worten, schreibe sie bitte nicht hintereinander weg, sondern achte darauf, diese mit Bindestrichen zu trennen. Das erleichtert die Lesbarkeit und macht die Domain prägnanter.
  4. Keine Sonderzeichen! Deine Domain sollte darüber hinaus auch keine Sonderzeichen (Umlaute, Frage- oder Ausrufezeichen, Eszett u.s.w.), denn dadurch entstehen kryptische URLs, die Google nicht so gern sieht…
  5. Zum SEO-Ziel passende TLD Denke auch daran, die TLD entsprechend Deiner Ziele auszuwählen. Willst Du regional oder national gut ranken oder willst Du Geschäfte abwickeln und international ranken? Geht es z. B. nur um Informationen, kann auch eine .info-Seite gut ranken.

Um es also kurz nochmal auf den Punkt zu bringen: Mit der richtigen Domain stärkst Du allgemein das Vertrauen in Deine Website und kannst so Dein Ranking positiv beeinflussen.

www oder non-www

Es gibt sowohl URLs mit www vorne als auch ohne. Der Rankingfaktor dahinter ist die nicht die Frage, für welche Variante Du Dich entscheidest (beides kann gleich gut ranken), sondern ob es eine Weiterleitung zu der von Dir ausgewählten Variante gibt.

Fängt Deine URL zum Beispiel mit www. an, ist der User jedoch zu faul und gibt nur den Teil danach ein, könnte es passieren, dass ein 404-Fehler erzeugt wird, der besagt, die Seite existiere nicht. Und das, obwohl Du bestimmt eine tolle und nützliche Seite anzubieten hast. Ein fatales Missverständnis, dass Dich wertvollen Traffic kosten kann. Um das Rankingruder also rumzureißen, ist es wichtig, dass Du mit einer 301-Weiterleitung dafür sorgst, dass Deine Website trotzdem erreicht wird.

Das Netz muss hier aber tatsächlich noch ein bisschen weiter gesponnen werden, denn es ist auch entscheidend, ob Deine Website ein http oder ein https voranstellt, was beim Weglassen im ungünstigsten Fall noch mehr Fehlermeldungen verursacht, obwohl eigentlich alles paletti ist. Es gibt also insgesamt vier Varianten, von denen erstmal nur eine die richtige sein kann.

Da die https-Verschlüsselung auch ein Rankingfaktor ist, besitzt Du im Idealfall natürlich die „https://www.“-Variante. Das heißt dann für Dich, dass Du die drei anderen Varianten („http://www“., „https://…“ und „http://…“) per 301 jeweils auf die von Dir gewählte „https://www.“-Variante weiterleitest. So machst Du alle Varianten zu richtigen.

Verwirrt? Fragen Deinen Lieblings-SEO, er erklärt es Dir jederzeit gern bei einem Käffchen!

URL-String

Dieser Weg… wird kein leichter sein… Ups, da sind wir doch kurz abgeschweift…. Beim URL-String – übrigens auch ein Rankingfaktor – handelt es sich um den Pfad, den der User durch Deine Verzeichnisse gehen muss, um zur Zielseite zu gelangen.

Je tiefer Deine Verzeichnisse aufgebaut sind, desto länger ist der Weg dorthin. Nicht gut, denn umso schwieriger wird’s dann auch für den Googlebot beim Crawling, weil das Crawl Budget dann wahrscheinlich nicht für alle Seiten reicht. Aber auch für Deine Besucher sehr unschön, denn so gestaltet sich die Suche unnötig kompliziert. Zudem erachtet Google die unteren Strukturen auch als weniger wichtig. Die Gleichung dazu lautet also: zu tiefe Verzeichnisse = unzureichendes Crawling + unwichtiger Content + schlechte UX = schlechteres Ranking. Wäre doch schade um die Arbeit!

In Kombination mit einer flachen Verzeichnis-Hierarchie ergeben sich dagegen wundervoll kurze, aber sehr prägnante Internetadressen, mit denen Du User und Googlebot einen Gefallen tust. Wenn Du beispielsweise möchtest, dass Deine URL in den Suchergebnissen nicht abgeschnitten dargestellt wird, hast Du übrigens gerade einmal 74 Zeichen zur Verfügung. Allein das sagt schon eine Menge aus…

Sprechende Urls

Oh mein Gott, es kann sprechen?! Nein, wir befinden uns nicht in einem kultigen SciFi-Klassiker mit unbekannten Wesen. Die Rede ist hier von der URL (Uniform Resource Locator, also der gesamten Internetadresse einer Website), die in der Tat sehr aussagekräftig sein kann – und es auch sein sollte, damit Du bei Google gut ranken kannst.

Wann handelt es sich um eine „sprechende URL“? Eine URL gilt dann als sprechend, wenn sie

  • kurz beschreibt, worum es auf der Seite geht,
  • das Keyword der Website beinhaltet,
  • das Keyword möglichst prominent (weit vorn, möglichst am Anfang) präsentiert und
  • easy zu merken ist.

Die KPIs der sprechenden URL gelten im Übrigen für das gesamte Website-Konstrukt: Auch die Unterseiten, Bilder und Co. müssen kurze, prägnante Benennungen aufweisen und immer das Keyword enthalten. Zahlen und kryptische Zeichen in der URL sind absolut tabu!

Suchmaschinen behandeln die „Speaking URL“ oder „Clean URL“ als positiven Rankingfaktor, weil sie für den User einen Gewinn darstellt und die Usability verbessert: Sie ist leichter zu merken, zu teilen (Social Media) und zu bookmarken (Lesezeichen) und gibt noch dazu einen besseren Überblick, was den User auf der Seite erwartet. Dadurch führt sie auch zu mehr Vertrauen und höheren Klickraten. Du siehst also: Sprechende URLs sprechen nicht nur für sich, es spricht auch vieles für sprechende URLs….

HTML Head

HTML-Dokumente bestehen grundsätzlich aus einem Dokumentenkopf (Head) und einem Dokumentenkörper (Body). Während der Body alle inhaltlichen und sichtbaren Elemente Deiner Seite enthält, bekommst Du den Head im Grunde nicht zu sehen. Dass er nicht sichtbar ist, heißt aber nicht, dass er nicht wichtig wäre.

Tatsächlich enthält der HTML unter anderem Informationen wie

  • Seitentitel und Kurzbeschreibung (Title Tag und Meta Description)
  • Viewport (also für welche Ansicht die Seite optimiert ist)
  • Canonicals (Markierung als Original-Seite)
  • Tracker für Google Analytics
  • Robots (zum Ausschluss aus dem Index)
  • hreflang für die korrekte Sprachausgabe
  • 301-Weiterleitungen und vieles mehr.

Der HTML Head versorgt den Googlebot also schon vorab mit vielen wichtigen Infos, die ihm die technische Interpretation Deiner Seite so gut wie möglich vereinfachen. Wer den Googlebot bei seiner Arbeit gut unterstützt, wird dann in aller Regel auch mit besseren Rankings belohnt.

Schema Markups

So wie Englisch eine Sprache ist, auf die sich große Teile der Welt verstehen, ist das Schema Markup eine Art Standardsprache, auf die sich Suchmaschinen zum besseren Verstehen von Websites geeinigt haben. Genau genommen ist ein solches Schema Markup ein HTML-Code für strukturierte Daten, der auf der Seite eingebunden wird. Es gibt jedoch nicht nur eines, sondern hunderte Markups für verschiedenste Arten von Websites. Alle davon findest Du auf schema.org.

Warum die Nutzung dieser Schema Markups Auswirkungen auf Dein Ranking hat? Stell Dir vor, Du unterhältst Dich mit vielen verschiedenen Leuten, die alle verschiedene Dialekte sprechen. Ungefähr so „fühlt“ sich wohl auch der Googlebot. Deshalb dankt er es Dir mit einem besseren Ranking, wenn Du Dich stattdessen für eine Sprache entscheidest, die er sofort versteht.

Denn so kann er nicht nur schneller crawlen und ranken, auch das optische Ergebnis sieht einfach noch besser aus – Pluspunkt für die Usability! Das wiederum freut Deine Website-Besucher und trägt zur längeren Verweildauer, höheren CTR und der identischen Darstellung in verschiedenen Browsern bei.

Präsenz einer Sitemap

Wer viel zu tun hat, greift gern auf To-do-Listen zurück. So ähnlich macht das übrigens auch Google gern beim Crawling und verlangt dazu eine Sitemap als Rankingfaktor. Die Sitemap dient dem Googlebot beim Crawling als vollständige Auflistung aller Über- und Unterseiten und gibt ihm so einen Überblick über Gesamtanzahl und hierarchische Struktur der Einzelseiten.

Mit der Sitemap kann also effektiv dazu beigetragen werden, dass die Suchmaschine alle Seiten berücksichtigen und für User bereitstellen kann, was letzten Endes natürlich auf die Sichtbarkeit Deiner Seite einzahlt.

Prio der Seite auf Sitemap

Die Sitemap listet alle Seiten Deiner Website hierarchisch auf. Sie ordnet den einzelnen Seiten aber auch eine Priorität zu. Wie gut eine Seite rankt, hängt also auch davon ab, wo sie auf der Sitemap zu finden ist.

Je tiefer eine Seite im Verzeichnis angesiedelt ist, desto unwichtiger, denkt Google. Hinzu kommt noch, dass das Crawling die unteren Ebenen unter Umständen gar nicht abdeckt – umso schwieriger wird für diese ein gutes Ranking.

Statt also Deine Seiten endlos tief durchzukategorisieren, versuchs mal mit etwas weniger. Denn Seiten, die sich näher an der Startseite befinden, erhalten noch dazu einen kleinen Autoritäts-Boost. Uh yeah!

Robots.txt

Kaum etwas ist so ärgerlich wie die Verwendung von Energie auf Tasks, die gar nicht erledigt werden müssen. Die Zeit, die dafür verloren geht, hätte sich problemlos für sinnvollere Aufgaben nutzen lassen… Auch Google weiß es deshalb zu schätzen, wenn man klare Verhältnisse schafft – mit der sogenannten robots.txt.

Die robots.txt ist das Gegenstück zur Sitemap. Es handelt sich dabei um eine Textdatei, die Du Dir wie einen Guide oder eine Eintrittskarte vorstellen kannst. Währen die Sitemap eine Art Lageplan über Deine Website darstellt, vermerkt die robots.txt, welche Bereiche besucht bzw. gecrawlt werden sollen und welche nicht. Dementsprechend wird die robots.txt zuerst gelesen.

Meine Empfehlung: Hier sollte nichts als die Sitemap-URL eingefügt werden. Google hat gerne freie Hand und belohnt Dich mit Trust, wenn keine Bereiche Deiner Website gemieden werden sollen.

Solltest Du allerdings technische Probleme wie Serverüberlastungen und lange Ladezeiten feststellen, kann es sinnvoll sein, gewisse Teile oder Crawler in der robots.txt auszuschließen.

Rich Snippets

Snippets (Meta-Daten oder kurzer, suchtechnisch relevanter Textausschnitt aus einer Seite) sind bekanntlich das Erste, was User in den organischen SERPs zu sehen bekommen. Da geht aber noch was, denn Google hat es gern etwas reichhaltiger – mit sogenannten Rich Snippets. Zwar wirkt sich ihre Verwendung nur indirekt auf Dein Ranking aus, vernachlässigbar sind sie aber keinesfalls!

Mit Rich Snippets ergänzt Du Deine regulären Snippets mithilfe von Markups (Strukturierte Daten im Quellcode) um nützlichen Mehrwert, den Google in regulären Snippets nicht findet. Das können zum Beispiel ein Bild oder eine Preisangabe sein, Veranstaltungsdaten oder auch Infos dazu, wie viele Artikel noch auf Lager sind oder wie diese vom User bewertet wurden (5-Sterne-System).

Google generiert Rich Snippets allerdings nicht selbst. Du musst diesen zusätzlichen Mehrwert im HTML-Code einfügen – mit Hilfe von Markups (den strukturierten Daten im Quellcode).

Mit diesem Mehrwert erfreust Du Google und User: Beim ersteren sorgst Du damit für größere Relevanz, bei Letzteren führen diese zusätzlichen Infos zu erhöhter Aufmerksamkeit und damit auch zu höheren Clickrates und weiteren User Signals, die dem Ranking Deiner Website einen Boost verschaffen können.

hreflang-Attribut

Hast auch Du schon erlebt, dass Du auf eine englischsprachige Website geklickt hast und die Inhalte plötzlich auf Deutsch ausgespielt bekommst? Die Domain endete dann plötzlich mit „.com/de/“? Dann hast Du Bekanntschaft mit dem hreflang-Attribut gemacht! Es kommt bei mehrsprachigen Websites zum Einsatz, um Websites mit identischen oder nur minimal unterschiedlichen Inhalten in unterschiedlichen Sprachen vor der Abstrafung als Duplicate Content zu bewahren.

Es sorgt aber eben auch dafür, dass der User die richtige Sprachvariante mit den richtigen Infos erhält und unterstützt damit das Nutzererlebnis. In der Folge erhöht sich die Verweildauer, die Bounce Rate sinkt, die Conversions erhöhen sich mit etwas Glück und das Ranking profitiert dann natürlich auch davon. Damit ist das zwar kein direkter Rankingfaktor, gehört aber wie einige andere auch zu denen, die indirekt Einfluss auf den SEO-Erfolg einer Website nehmen.

Damit das funktioniert, müssen die hreflang-Inhalte aber ebenfalls untereinander verlinkt werden, damit Google auch dort die Architektur der Webseite verstehen kann – sonst gibt’s gleich wieder Punktabzug…

Canonicals

Manchmal können doppelte Inhalte nicht vermieden werden. Insbesondere bei Onlineshops, die viele ähnliche Produkte führen, ist es oft der Fall. Verkaufst Du z.B. Smartphones und bietest die verschiedenen Modelle auf verschiedenen Seiten an, wertet Google den sehr ähnlichen Content (es bleibt ja das gleiche Smartphone) als Duplicate Content. Wird also derselbe Inhalt auf mehreren Seiten angezeigt, kann sich Google nicht entscheiden, welche dieser Seiten in den Suchergebnissen ausgespielt werden sollte.

In Folge kann es passieren, dass die Rankingkraft auf die Seiten aufgeteilt wird, wodurch keine von ihnen gut rankt. Alternativ entscheidet sich die Suchmaschine für eine Seite und schließt die anderen aus dem Index aus. Diese sind nun gar nicht mehr für den Nutzer über die Suchergebnisse erreichbar. Trifft es auch noch die falsche Seite (weil eine ausgeschlossene Seite eigentlich wichtiger ist), fällt das Ergebnis noch dramatischer aus.

Damit das nicht passiert, kommen Canonicals zum Einsatz. Ein Canonical Tag ist ein Linkelement, der im Head der Kopieseiten eingebunden wird und per Link zur Originalseite verweist. Somit erfährt die Suchmaschine, welche Seite sie bevorzugt behandeln, indexieren und in den Suchergebnissen anzeigen soll. Kann also Duplicate Content nicht vermieden werden, stellen Canonicals eine Arbeitshilfe für Google dar und helfen Dir, Abstrafungen zu umgehen.

Wichtig: Auch wenn es diese Möglichkeit gibt, sind Canonicals eine Notlösung, die mit Bedacht eingesetzt werden sollte. Ich empfehle Dir, bei Produktverkäufen die verschiedenen Modelle immer als Varianten auf einer einzigen Seite anzuzeigen. Unabhängig von Shops, solltest Du generell sehr ähnliche Themen immer auf einer Seite zusammenfassen, sofern dies möglich ist.

"Für Kinder"-Tag

Auch unsere nachfolgenden Generationen sind schon fleißig im Internet unterwegs. Um sicherzustellen, dass nur kindgerechte Websites angezeigt werden, können Mama und Papa Einstellungen im Browser tätigen. Damit Deine Seite – sofern sie an Kinder gerichtet ist – auch dann noch sichtbar bleibt, gibt es einen Tag, mit dem Du

  • die gesamte Domain/Subdomain
  • bestimmte Verzeichnisse (inkl. Unterseiten)
  • einzelne Seiten
  • einzelne Beiträge

als kinderfreundlich kennzeichnen kannst. Das hat zwar keine Auswirkung auf Dein Ranking, aber es wäre doch schade, wenn Du Dir schon die Arbeit machst und die Kleinen es dann gar nicht sehen und nutzen können…

Seitenstruktur

Die Seitenstruktur ist ein weiterer wichtiger technischer Bewertungsfaktor mit Bezug auf die Website als Gesamtkonstrukt, auf den strukturellen Aufbau der Seiten und die Menüführung.

1. Website-Struktur (Verzeichnisse): Flache Verzeichnisse haben viele Vorteile – darunter schnelles und effizientes Crawling – aber nur, wenn auch der Code im Hintergrund fehlerfrei erfassbar ist, 1 MB nicht überschreitet und die Seite sich schnell aufbaut.

2. Einzelne Unterseiten Bei der technischen Seitenstruktur geht es darum, wie userfreundlich die Seiten aufgebaut sind:

  • Finden sich H-Überschriften in korrekter Hierarchie auf der Seite?
  • Sind die Absätze Deines Texts gut definiert und nicht zu lang?
  • Sind die wichtigen Infos gut sichtbar („Above the Fold“, gefettet oder sonstiges)?
  • Werden Listings und Bullet Points genutzt?
  • Befinden sich geeignete Medien auf der Seite, die den Content unterstützen und verdeutlichen?

Je besser all diese Punkte beim Seitenaufbau umgesetzt werden, desto einfacher werden sich Deine User auf den Seiten zurechtfinden und Du punktest mit einer guten User Experience.

3. Menü: Google möchte, dass der Nutzer schnell und einfach mit nur wenigen Klicks und ganz intuitiv durch Deine Website huschen kann und dabei unkompliziert an die gewünschten Infos rankommt. Die Menüführung der Website sollte daher leicht verständlich sein und höchstens 3 Klicks in die Tiefe gehen. Das Vorhandensein von Breadcrumbs als Navigationshilfe zählt ebenfalls als Qualitätssignal. Wer schnell findet, was er sucht, ist zufriedener und hinterlässt bessere User Signals (geringere Bounce Rates).
Alle drei Punkte gehen Hand in Hand mit anderen Rankingfaktoren, sie verbessern die Usability, sorgen für eine positivere User Experience, bessere Auffindbarkeit von relevanten Inhalten und eine längere Aufenthaltsdauer und können somit Dein Ranking positiv beeinflussen.

Statuscode

Wenn eine Online-Suche in einem 404-Fehler endet, guckt der User sprichwörtlich in die Röhre. Was es damit auf sich hat? Es handelt sich dabei um einen von vielen verschiedenen Statuscodes, die der Server als Antwort auf eine Anfrage ausspielt. Es gibt Codes

  • zur Information (1xx)
  • zur erfolgreichen Operation (2xx)
  • zur Umleitung (3xx, z. B. 301 & 302)
  • zu Client-Fehlern (4xx)
  • zu Server-Fehlern (5xx) und
  • zu proprietären Fehlern (9xx, entstammen i.d.R. Software-Produkten)

Der Statuscode an sich ist für SEO nicht wichtig, die dahinter stehenden Fehler, Probleme oder Umleitungen allerdings schon: Sie alle können Dein Ranking beeinflussen. Lautet der ausgegebene Statuscode 200 (OK – „Anfrage erfolgreich bearbeitet und das Ergebnis der Anfrage wird in der Antwort übertragen“), ist das sehr vorteilhaft für Dein Raking.

Redirects

Redirects leiten Deine Besucher von einer Seite auf eine andere weiter. Auch in puncto Weiterleitungen gilt: Google is watching you! Doch warum sind Redirects nun eigentlich ein Rankingfaktor? Eine gute Seite besitzt meist auch einen guten PageRank und TrustRank und bietet somit eine gewisse Verknüpfungsstärke (Linkjuice). Zieht eine solche Seite um, verliert sie Linkjuice, schwächt also die Wertigkeit Deiner Website, sodass auch kleinere Rankingverluste auftreten können. Wie viel das sein wird, richtet sich allerdings nach der Verwendung des Statuscodes:

301-Weiterleitungen gelten als „für immer“, während 302 lediglich einen temporären Redirect bedeuten. Mit der permanenten 301-Weiterleitungs gehen ca. 20-40 % des Linkjuice verloren. 302-Redirects hingegen führen zum vollständigen Verlust der Linkwertigkeit, denn Google geht davon aus, dass die Seite bald wieder unter derselben URL erreichbar ist und überträgt den Linkjuice daher nicht.

Verfügt Dein Online-Auftritt über Seiten, die eine lange, komplizierte und nicht sprechende URL innehaben, sind 301-Weiterleitungen Deine beste Möglichkeit, auch im Nachhinein noch für Klarheit zu sorgen. Dennoch sollte dieser Trick nicht zu häufig angewandt werden, denn das macht im Hause Google keinen allzu guten Eindruck. Auch besteht die Gefahr, dass Redirects ineinander übergehen. Dabei entstehen Weiterleitungsketten, die das Laden und Crawlen massiv negativ beeinflussen können.

Weiterleitungsschleifen

Stell Dir vor, Du landest im Callcenter, weil Du eine kurze, simple Info brauchst und wirst dabei von Agent A zu Agent B, dann C und letzten Endes doch wieder zu Agent A weitergeleitet, nur um das Spiel dann wieder von vorn zu beginnen. Nervig, oder? Exakt dasselbe „Service-Erlebnis“ entsteht durch exzessive 301-Weiterleitungen auf Deiner Website. Da das dem User bei seinem Problem überhaupt nicht hilft und auch bei Google gar nicht gut ankommt, dürfte klar sein, was darauf folgt: eine Verschlechterung im Ranking.

WhoIs Protection

Mit einer WhoIs-Abfrage erhält man nützliche Infos zu einer bereits registrierten Domain, etwa das Datum der Domain-Registrierung, das Ablaufdatum und die verwendeten Nameserver. Früher war so übrigens auch der Name des Domaininhabers herauszufinden, seit dem Inkrafttreten der DSGVO (Mai 2018) allerdings nicht mehr.

Geht man offen mit diesen Infos um, ist alles in Ordnung. Versucht man jedoch mit der sogenannten WhoIs-Protection die Ermittlung dieser Daten zu verhindern, schließt Google daraus, dass es hier etwas zu verheimlichen gibt und bestraft die Domain umgehend mit einem schlechteren Ranking. Umgekehrt fördert also die öffentliche Zugänglichkeit der WhoIs-Informationen das Vertrauen in Deine Seite und ermöglicht so ein besseres Ranking.

Dieser Rankingfaktor ist seit der DSGVO in Europa eher für außereuropäische Websites von Relevanz – ihn zu kennen, schadet aber mit Sicherheit nicht!

CMS

CMS, das steht für Content-Management-System. Ein prominentes Beispiel dafür ist WordPress. Ob Du ein CMS nutzt oder nicht, kann sich auf Dein Ranking auswirken. Es ist jedoch kein direkter Rankingfaktor, denn auch Websites, die auf CMS basieren, können gut ranken. Der Teufel steckt hier im Detail, besser gesagt im Quellcode!

Dadurch, dass CMS (und Homepage-Baukästen wie Wix, Jimdo und Co.) vorgefertigte Code-Schnipsel verwenden, besteht die Gefahr, dass der Code mit dem Einbau der verschiedenen Content-Elemente unsauber wird und sich viel unnötiger (überflüssiger) Code anhäuft. Das kann zu technischen Störungen und schlechten PageSpeed-Werten (und dadurch einer schlechten Usability) führen und Dein Ranking somit trotz toller Inhalte herunterziehen.

Nicht, dass wir uns missverstehen: Es ist nicht falsch, ein CMS oder einen Baukasten zu verwenden. Es erfordert einfach ein wachsames Auge, regelmäßiges Monitoring und idealerweise etwas Erfahrung, um den Code sauberzuhalten. Viele Anbieter geben außerdem an, bereits SEO-konform zu arbeiten. Wenn Du Zweifel hast, unterstützt dein Lieblings-SEO Dich gern und schaut Deiner Website unter die Haube.

Regelmäßige Updates an Server, CMS, Plugins und Themes

Was für die Freshness des Contents gilt, gilt auch für die Pflege des großen Ganzen – also des Gesamtkonstrukts Website inklusive seiner Basis: das genutzte Theme (Darstellung), das CMS, die genutzten Plugins und nicht zuletzt natürlich auch der Server. Wer seine Software hier auf dem neuesten Stand hält, sendet ein Qualitätssignal an Google und kann sich nicht nur neueste Technik-Standards, sondern auch ein besseres Ranking sichern. Also dann, bleib fresh!

Kopierschutz

Wer eine technische Lösung sucht, um den Raub seiner Inhalte zu verhindern, nutzt manchmal einen Kopierschutz per CSS und Javascript oder per Plugin. Dieser Kopierschutz führt dazu, dass Deine Besucher Texte auf Deiner Website möglicherweise gar nicht erst markieren, geschweige denn kopieren können. Ein Rankingfaktor ist so ein Kopierschutz zwar nicht, dennoch kann er auf verschiedene Weisen indirekt Einfluss auf Dein Ranking nehmen.

Denn Fakt ist: Je krasser der Kopierschutz, desto mehr leidet darunter das Nutzererlebnis; wer Texte etwa nur markiert, um sich ein temporäres Lesezeichen zu schaffen oder Infos für Referate und Schularbeiten etc. zusammentragen möchte, wird hier nicht besonders glücklich. Ein schlechtes Nutzererlebnis verkürzt aber auch die Verweildauer und erhöht die Bounce Rate (Absprungrate) und kann Dein Ranking somit negativ beeinflussen.

Du kannst mit einem solchen Kopierschutz den einen oder anderen Diebstahl verhindern, vollumfänglichen Schutz gegen Contentraub bietet diese Methode aber leider nicht, denn Maschinen und geübte User können Deinen Text trotzdem noch aus dem Quellcode kopieren. Setze den Kopierschutz also mit Bedacht und in angemessener Tragweite ein.

Nutzung von Analytics & Search Console

Wie Du inzwischen sicher schon erkannt hast, sind User Signals für Google wichtig, um die Zufriedenheit der User mit Deiner Seite zu interpretieren. Diese Daten lassen sich am besten mit Google Analytics sammeln. Doch auch die technischen Daten Deiner Seite (PageSpeed, Mobile Friendliness und Co.) zieht Google über die Search Console zur Bewertung heran. Am besten gefällt es dem Suchmaschinenriesen deshalb, wenn Du beides nutzt und ihm so den Blick hinter die Kulissen ermöglichst.

Auch wenn es kein direkter Rankingfaktor ist: Öffnest Du Google Tür und Tor zu Deiner Seite und hilfst dem Googlebot bei der Interpretation Deiner Website, belohnt er Dich mit gesteigertem Vertrauen und einem besseren Ranking, denn Du hast offensichtlich nichts zu verbergen und bist klar an einer Zusammenarbeit mit Google interessiert.

Tipp von Deinem Lieblings-SEO: Auch der Google Tag Manager & Search Console bilden ein gutes Team! Der Tag Manager macht dabei sogar noch detailliertere Auswertungen als Analytics und ist zudem auch in Drittanbieter-Scripte sehr unkompliziert einzubinden.

Usability

Davon ausgehend, dass Deine Website technisch einwandfrei aufgestellt und ansprechend eingerichtet ist, kommen wir nun zum nächsten wichtigen Bereich der Rankingfaktoren: der Usability (Nutzerfreundlichkeit) Deiner Website. Vergleiche es am besten mit dem Besuch eines Freundes in Deiner Wohnung. Im Idealfall empfängst Du ihn mit einer freundlichen Begrüßung an der Eingangstür, bietest ihm ein Käffchen an, erklärst ihm wo sich Badezimmer, Küche und Wohnzimmer befinden und was er von seinem dortigen Aufenthalt erwarten darf, sodass Dein Gast sich abgeholt, sicher und willkommen fühlt. Ob Du virtuell ein ebenso guter Gastgeber bist, beurteilt Google mithilfe seiner Usability-Rankingfaktoren und beachtet dabei unter anderem

  • ob Deine Website intuitiv bedienbar ist,
  • ob Du Deinen Besuchern kurze Wege bescherst
  • und diese gut ausschilderst
  • sowie ob Du Deinen Gästen nützliche Service-Angebote zur Verfügung stellst.

Fakt ist: Auch wenn Deine Website noch so schön und informativ ist – solange sich Deine User in Deinen virtuellen Räumlichkeiten nicht schnell und einfach zurechtfinden können, macht der Besuch Deiner Website keine allzu große Freude (negative User Experience). Damit Dir das mit Deinen Usern nicht passiert, erklärt der Lieblings SEO Dir nachfolgend, welche Rankingfaktoren zur Usability es zu beachten gilt.

Webdesign

Das Webdesign geht Hand in Hand mit SEO: Während letzteres Deine Besucher auf die Seite holt, sorgt großartiges Webdesign dafür, dass sie dort auch bleiben. Es beeinflusst zudem, wie User Deine Website wahrnehmen (nutzerfreundlich oder kompliziert) und bestimmt damit, welche Signale sie auf dieser Basis für Google hinterlassen.

Ist Dein Webdesign authentisch (Farbschema passt zur Markenidentität), intuitiv und unkompliziert bedienbar, sind die Inhalte gut einsehbar und ist das Gesamtkonstrukt Deiner Website auch für den User gut überschaubar, trägt das zu besseren User Signals und somit auch einem besseren Ranking für Deine Website bei.

Usability der Seite

Die Usability ist die Nutzerfreundlichkeit Deiner Website. Zwar kann sie nicht direkt in Zahlen gemessen werden, aber anhand der User Signals wie Bounce Rate, Dwell Time, CTR und einigen weiteren kann Google trotzdem erkennen

  • wie tief der User in die Website-Architektur vorgedrungen ist
  • wie viele Deiner Seiten er im Laufe seiner Sitzung aufgerufen hat
  • wie lange er bei Dir verweilt
  • wie viele neue und wiederkehrende Besucher jeweils zu verzeichnen waren

Anhand dieser Erkenntnisse kann Google auch schlussfolgern, wie nutzerfreundlich und hochwertig Deine Seite ist. Kann sie viele positive User Signals vorweisen, ist die Wahrscheinlichkeit einer guten Usability ebenfalls hoch. Gute Usability sorgt somit auch für besseres Ranking!

Mobile Usability

Was auf dem Desktop top aussieht, macht auf dem Smartphone nicht immer eine gute Figur – besonders dann nicht, wenn sich Text und Bedienelemente überlagern, der Inhalt schlecht lesbar ist oder der Seitenaufbau einfach zu lange dauert… Da die Anzahl der Suchanfragen über mobile Endgeräte aber stetig wächst, behandelt Google seit 2015 auch die mobile Nutzerfreundlichkeit (Mobile Usability) als Rankingfaktor. Ist Deine Website nicht mobiloptimiert, wird sie seitdem doppelt abgestraft:

  1. Indexierung: Google indexiert seit 2018 bevorzugt und hauptsächlich die Inhalte von mobilen Seiten. Desktop-Seiten werden dadurch seltener gecrawlt, sodass Änderungen, Neuerungen etc. erst wesentlich später auffallen und kaum Beachtung finden. Schon allein das seltenere Crawling kann Rankingverluste bedeuten.
  2. Nutzersignale: Ist Deine Website mobil nicht nutzerfreundlich, hagelt es schlechte User Signals, die Google negativ wertet und die (un)lustige Ranking-Rutschpartie in Gang bringt…

Nutzung von CTA

Der CTA – also Call to Action – ist eine von Dir gegebene Handlungsaufforderung an den User. Du kannst mir ihm eine Kaufaufforderung stellen: „Kaufe jetzt!“, weitere Informationen anteasern: „Erfahre mehr“ oder andere Interaktionen von Deinen Usern implizieren. CTAs werden z.B. als Buttons oder als Linktext angelegt. Am besten platziert sind sie dort, wo der Blick Deines Users definitiv hinfällt.

Die Nutzung des Call to Action ist kein direkter Rankingfaktor, nimmt aber dennoch einen kleinen Einfluss auf Dein Ranking.

Der CTA macht es dem User einfach, zu konvertieren. Er ist nutzerfreundlich, da Dein User nicht erst suchen muss, um eine von Dir gewünschte Handlung auszuführen. Ein guter CTA hat also eine gute Conversion Rate zur Folge. Und wer auf seiner Website gut konvertiert, ist was? Richtig, für Google relevant.

Eine anregende Wirkung haben CTA-Elemente aber auch auf andere User Signals. So kann für die aktuelle Sitzung die Anzahl der besuchten Seiten erhöht werden. Außerdem registriert Google dadurch, dass Deine Website stringent und flüssig navigier- und nutzbar ist und auf den vorgesehenen Wegen keine Bedienungsfehler aufweist.

Mehrwert durch Tools

Nützlicher Content ist großartig! Und mit hilfreichen Tools wie einem Umrechnungstool für Geld- oder Maßeinheiten, einem Veranstaltungskalender u. v. m. auf Deiner Website wird er sogar noch großartiger, denn damit schaffst Du zusätzlichen Mehrwert und trägst so zur positiven User Experience auf Deiner Website bei – und zur längeren Verweildauer Deiner Besucher noch dazu. Die Verwendung hilfreicher Website-Boosts kann somit Überraschung! ebenfalls einen Rankingvorteil einbringen.

Bevor Du nun aber schnell anfängst, neue Tools zu integrieren, denk daran, dass diese auch wieder eine Verlängerung des Quellcodes und der Ladezeit zur Folge haben können. Also nur sinnvoll einsetzen: Weniger ist mehr!

Safesearch

SafeSearch ist eine Art Kindersicherung, die im Google-Konto aktiviert wird und die meisten anstößigen Inhalte (etwa pornografische Bilder und Videos sowie Seiten, die Links zu solchen enthalten) aus den Suchergebnissen herausfiltert. So weit, so gut.

Enthält Deine Seite z. B. pornografisches Material, heißt das aber nicht, dass Deine Seite grundsätzlich nicht mehr gerankt wird – das hängt nämlich immer noch hauptsächlich von der Relevanz zur Suchanfrage ab, die auch SafeSearch nicht aus den Augen lässt. Wird explizit nach solchen Inhalten gesucht, kannst Du weiterhin erfolgreich in den Suchergebnissen ranken.

Usersignals

Die User Signals, also die konkreten Nutzerreaktionen auf den Besuch Deiner Website, liefern als Rankingfaktoren nicht nur Dir, sondern auch Google einen sehr interessanten und spannenden Aufschluss darüber, wie Deine Website bei den Nutzern ankommt. Im Grunde handelt es sich dabei um nichts anderes als eine Form der Marktforschung, nur ohne die nervigen Fragebögen. Mittels des vom User generierten Feedbacks prüft Google dabei unter anderem

  • wie viel Aufmerksamkeit (Traffic) Deine Website erhält,
  • wie gut Deine Website zu den Interessen des Users passt,
  • wie lange die Besucher bleiben,
  • wie häufig sie zu Gast waren und von welchem Gerät sie hauptsächlich auf Deine Website zugreifen.

Je nachdem, wie Deine User sich auf Deiner Website verhalten, kann sich das positiv oder negativ auf Dein Ranking auswirken. Das gute an den User Signals ist jedoch, dass sich mit ihnen ergänzende Informationen zur Usability, Technik und zum Content gewinnen lassen. Bleiben User länger auf Deiner Website, klicken sich durch mehrere Seiten durch und kommen vielleicht sogar regelmäßig wieder, dann hast Du vermutlich schon vieles richtig gemacht. Verlassen Sie die Seite relativ schnell wieder, kann das bedeuten, dass Deine Inhalte ihr Problem noch nicht lösen konnten, dass ein technisches Problem vorliegt oder dass die Ausrichtung Deiner Website (informativ oder transaktional) nicht zu ihrer Suchabsicht passt. Du willst alles richtig machen? Dann lies unbedingt weiter!

Suchverlauf User

Dass Google gern hinter die Kulissen schaut und auch so einiges über seine Nutzer weiß, dürfte Dir nicht neu sein. Aber wusstest Du schon, dass Google auch den Suchverlauf der User als Rankingfaktor heranzieht?

Über den Suchverlauf des Users lernt Google zusätzlich, seine Suchintention zu verstehen und zu bewerten – und kann so auch besser interpretieren, was ihn als nächstes Interessieren dürfte. Danach kann er auch besser entscheiden, wie relevant Deine Website für den User ist. Es lohnt sich also, genau zu wissen, wen Du mit Deiner Website ansprechen willst…

Browserverlauf User

Ähnlich wie der Suchverlauf hilft auch der Browserverlauf Deiner User Google bei der Bewertung Deiner Website. Besucht ein User Deine Seite häufiger oder gar regelmäßig, sieht Google das natürlich auch. Für Deine Seite heißt das, dass sie auch bei zukünftigen Anfragen zu diesem Thema bevorzugt gerankt werden könnte.

Markenbezogene Suchanfragen

Da weiß man, was man hat: Der Mensch ist ein Gewohnheitstier und greift gern zu bewährten Angeboten, deren Qualität er bereits kennt und schätzt. User suchen deshalb sehr oft gezielt nach Marken. Je öfter Interessenten direkt nach Deiner Website oder Deinen Produkten suchen, desto mehr geht Google davon aus, dass es sich um eine Marke handelt und wird Dich somit auch schneller als solche identifizieren.

Dieses mächtige Markensignal sorgt dafür, dass man in den Rankingfaktor „Markenwebsite“ (eine Art Ausnahme-Rankingfaktor) mit hineinrutscht und somit mehr Vertrauen von Google erhält. Je mehr Google dann davon ausgeht, dass es sich bei Dir um eine Marke handelt, desto wahrscheinlicher wird auch, dass Deine Website in der organischen Suche häufiger und höher rankend ausgespielt wird. Wer höher rankt, erhält natürlich mehr Klicks. Mehr Klicks verbessern in der Folge auch die User Signals (z. B. höhere CTR) und sorgen für eine zusätzliche Verbesserung Deines Rankings.

Erfüllst auch Du mit Deiner Website die Anforderungen für den Rankingfaktor „markenbezogene Suchanfragen“, gewinnst Du gleich auf mehreren Ebenen… Brandbuilding ist also äußerst zuträglich für den Erfolg Deiner Website.

Direct Traffic

Als Direct Traffic (direkte Zugriffe) bezeichnet man es, wenn der Besuch auf einer Website durch das Eintippen der URL im Browser zustande kommt statt durch eine Google Suche. Direct Traffic übt aber trotzdem einen Impact auf Dein Ranking aus, denn Websites mit hohem direkten Traffic betrachtet Google als hochwertiger und rankt sie deshalb auch etwas besser.

Das Qualitätssignal, das Google dadurch empfängt, spricht unter anderem dafür, dass Du eine kurze und einprägsame URL-Struktur verwendest, die dann auch wieder flache Verzeichnishierarchien und saubere URL-Strings ohne kryptische Zeichen vermuten lässt – sonst hätte der User sich diese ja kaum merken können, nicht wahr? Außerdem geht die Suchmaschine von einer höheren Bekanntheit und vielen Stammkunden aus.

Wiederkehrender Traffic

Besonders dann, wenn ein User zum Serientäter wird – also regelmäßig zu Deiner Website zurückkehrt – sieht Google das übrigens auch als Signal dafür, dass Deine Seite hochwertiger sein muss als andere. Wiederkehrender Traffic ist daher ein Rankingfaktor aus dem Bereich User Signals, der für Dich spricht und Dein Ranking somit positiv beeinflussen kann.

Organische CTR der Website

Die CTR (Click Through Rate, auch Klickrate genannt) gibt wieder, wie häufig Nutzer sich in den SERPs für Deine Website entscheiden – im Verhältnis dazu, wie oft Sie dort als Ergebnis ausgespielt wird. Wie die Conversion Rate soll auch die CTR laut Google kein offizieller Rankingfaktor sein. Dein Lieblings-SEO erklärt Dir, warum sie trotzdem eine Rolle spielt:

Mithilfe der CTR und der anschließenden Verweildauer auf Deiner Website lassen sich Rückschlüsse darüber ziehen, wie ansprechend Dein Snippet in den SERPs war und wie gut Du dieses Versprechen (und damit auch die Erwartungen der User) auf der Zielseite erfüllt hast. Um das zu erkennen, unterscheidet Google zwischen drei Klickarten:

  • Short Clicks Sind die User mit Deiner Seite nicht zufrieden, kehren sie wieder zu den SERPs zurück und besuchen andere Seiten (negatives Signal). Wiederholt sich das bei mehreren Seiten, nennt man das übrigens Pogo Sticking (ständiges Hin-und-her-Springen zwischen SERPs und Ergebnissen).
  • Long Clicks Der User bleibt einige Zeit, und kehrt nicht direkt wieder zu den SERPs zurück. Das schließt zwar nicht aus, dass das später noch der Fall sein könnte, aber zumindest scheint der User mit der Seite nützliche Infos gefunden zu haben… (eher positives Signal)
  • Last Clicks Ist Deine Website der Last Click, heißt das, dass der User seine Suche mit Deiner Website beendet. Das muss dann wohl bedeuten, dass er die gesuchte Lösung seines Problems auf Deiner Seite gefunden hat (Jackpot! bestes Signal) – oder einfach keinen Bock mehr hatte weiter zu suchen… keine Panik, Google schlussfolgert daraus natürlich ersteres.

Damit aber nicht genug: Ob der Klick auf Deine Seite final positiv oder negativ gewertet wird, hängt auch wieder von der Suchintention hinter der Anfrage ab. Geht es um Vergleiche, werden häufig mehrere Suchergebnisse besucht. Schnelle Informationen hingegen sind oft schon nach nur einem oder wenigen Klicks erhältlich. Das Springen zwischen Ergebnissen muss nicht unbedingt für schlechte Qualität sprechen.

RankBrain erkennt, was der User will. Wie er dann agiert, das sieht Google an den Nutzerdaten in Chrome. Daraus kann Google befinden, ob Deine Website wirklich relevant und hochwertig ist oder mit dem Snippet vielleicht doch nur so tut als ob. Googles Urteil darüber spiegelt sich dann letzten Endes in SERPs wider.

Die CTR kann aber auch noch in weiteren Bereichen relevant werden und sich dann jeweils auf unterschiedliche Sachverhalte beziehen:

  1. SEA Beim Schalten von Suchmaschinenwerbung geht es meist darum, die Conversion zu steigern. Hier ergibt sich die CTR aus dem Verhältnis zwischen der Häufigkeit der Anzeigenschaltung in den SERPs und den so erzielten Klicks.
  2. Bannerwerbung Wird stattdessen Bannerwerbung in einem Werbenetzwerk geschaltet, geht es meist darum, Markenbekanntheit und Engagement aufzubauen. Die Klickrate gibt dabei Auskunft über die Effizienz des dortigen Werbemittels.
  3. Affiliate-Marketing Beim Affiliate-Marketing wird der Website-Betreiber für jede Conversion, die User infolge eines Klicks auf die geschaltete Werbung durchführen, mit einer Provision belohnt. Eine hohe CTR erhöht hier auch die Wahrscheinlichkeit einer Conversion beim Werbepartner.

Organische CTR für ein Keyword

Natürlich begnügt sich Google aber nicht mit der allgemeinen CTR Deiner Website, sondern wirft dabei auch noch gleich einen Blick darauf, wie diese für ein bestimmtes Keyword performt. Je höher die Relevanz Deines Snippets, desto mehr Klicks. Und je häufiger Deine Website über die organischen Suchergebnisse für ein bestimmtes Keyword angeklickt wird, desto höher wird Deine Seite in der Folge für dieses ranken.

Organische CTR für alle Keywords

Rankt Deine Website für gleich mehrere Keywords gleichzeitig, schaut sich Google natürlich parallel auch die CTR für alle Deiner anderen Keywords an und entscheidet dann fallbezogen, wie gut Deine Website für eine entsprechend lautende Suchanfrage rankt… möglicherweise aber etwas schlechter, wenn es sich nicht gerade um das Hauptkeyword handelt, anhand dessen Google in Sachen Relevanz vorsortiert…

Absprungrate

Stell Dir vor, Du suchst den Namen eines ganz bestimmten Songs, den Du irgendwo aufgeschnappt hast, aber Shazam nicht griffbereit hattest… Natürlich weißt Du auch den Künstlernamen nicht, sondern lediglich ein paar Textzeilen – wär ja sonst zu einfach! Unter diesen Bedingungen klickt man sich schon mal durch einige Suchergebnisse durch. Stellst Du fest, dass Du die gesuchte Info nicht findest, verlässt Du die Seite auch schnell wieder. Das hinterlässt ein User Signal: die sogenannte Bounce Rate (auch Absprungrate genannt).

Die Bounce Rate verrät Google, wie oft User nach nur einem Seitenaufruf aussteigen. Ist das sehr schnell der Fall, kann Google daraus zwei mögliche Signale schlussfolgern:

  1. negative Interpretation: Hohe Bounce Rates können signalisieren, dass die Seite nicht die gesuchten Infos enthält, nicht den Erwartungen entsprochen hat oder aber nicht barrierefrei nutzbar war. So oder so, alle drei Möglichkeiten führen zur erhöhten Absprungrate, die Dein Ranking mit steigendem Wert leider negativ beeinflussen kann.
  2. positive Interpretation: Dass Deine User schnell wieder abspringen, kann aber auch heißen, dass Deine Website so super konzipiert ist, dass das Gesuchte auch super schnell gefunden wurde…

Deshalb ist die Absprungrate eben auch nur eines von vielen User Signals, die Google zur Bewertung von Seiten nutzt. Aussagekräftiger wird die Bounce Rate also erst in Kombination mit der CTR (Click-Trough-Rate) und der Verweildauer.

Verweildauer

Die Verweildauer (Dwell Time) gibt an, wie lange ein User auf Deiner Seite bleibt, nachdem er sie über die organischen SERPs ausgewählt hat. Google schenkt deshalb auch ihr viel Aufmerksamkeit.

Wer eine lange Verweildauer generieren kann, ist hier eher im Vorteil. Die Logik dahinter: Je länger sich der User auf Deiner Seite aufhält, desto passender müssen Deine Inhalte für seine Suche sein. Google wertet eine lange Verweildauer folglich als Qualitätssignal.

Doch auch hier gibt es wieder ein „Aber“, denn auch eine kurze Verweildauer muss nicht automatisch ein schlechtes Zeichen sein. Wie Du ja weißt, gibt es drei Sucharten: Do, Know und Go (siehe Userausrichtung). Wer nur kurz eine Info sucht (Know-Suche), ist zufrieden, sobald er die Info hat und wird sich dann nicht länger auf Deiner Website aufhalten als nötig. Sofern Du seinen Search Intent aber dabei schon bedient hast und seine Suche damit beendet ist, kann auch ein kurzer Aufenthalt für Dein Ranking schon ein wertvoller sein. Dagegen kann eine lange Aufenthaltsdauer zustande kommen, wenn der User länger als nötig nach einer Antwort sucht und deswegen länger verweilt.

Dementsprechend ist die Aufenthaltsdauer allein kein hinreichendes Signal für Google. Ob die Suchmaschine die Website final positiv oder negativ wertet, hängt vom Zusammenspiel mehrerer Faktoren ab, wie z.B. der Verweildauer zusammen mit der Bounce Rate oder der Conversion Rate.

Conversion Rate

Die Conversion Rate gibt an, wie häufig Deine User eine von Dir gewünschte Transaktion durchführen – sei es das Einschreiben für einen Newsletter, der Download von Infomaterial, der Besuch bestimmter Seiten oder der Kauf Deiner Produkte. Sie ist kein direkter Rankingfaktor, kann aber trotzdem aktiv Einfluss auf Dein Ranking nehmen.

Über die Häufigkeit der Transaktion im Verhältnis zur Besucherzahl kann Google schlussfolgern

  • wie barrierefrei Deine Website funktioniert: Treten zum Beispiel bei der Zahlung oder dem Absenden eines Formulars Schwierigkeiten auf oder weiß der User nicht, was genau er tun soll, ist der Conversion-Abbruch häufig die Folge
  • wie exakt Deine Website den Erwartungen des Suchenden entsprochen hat: Wollte der User bestimmte Schuhe kaufen und bestellt sie bei Dir, scheint Deine Website gute Voraussetzungen mitzubringen.

Daraus folgt: Gute Conversion Rate kann auch ein gutes Ranking mit sich bringen.

Chrome-Lesezeichen des Users

Wenn die Besucher Deiner Website diese wirklich mögen, kommt es vor, dass sie sich diese als Lesezeichen (Bookmark) oder als Favoriten abspeichern. So kommen sie mit nur einem Klick zurück auf Deine Seite und verbessern dabei auch gleich die User Signals.

Auch wenn Du selbst nicht siehst, wie oft Du „gebookmarkt“ oder favorisiert wurdest: Google sieht es (Chrome-Nutzungsdaten) – und belohnt es mit einem kleinen, aber feinen Ranking-Boost.

Google kann Lesezeichen allerdings nur über den Google Chrome Browser sehen. Nutzen Deine User andere Browser, ist dieser Faktor hinfällig.

Blocked Sites

In Google Chrome hatten User einst die Möglichkeit, bestimmte Websites zu blocken, damit sie in den SERPs der eigenen Suchanfragen nicht mehr aufgeführt werden. Zwar existiert diese Funktion nicht mehr, trotzdem nimmt Google es immer noch leicht übel, wenn eine Website früher häufig geblockt wurde.

Der Google Panda (ein Update), der im Kernalgorithmus sein Unwesen treibt und schlechten/zu dünnen Content abstraft, wertet das ehemalige Blockieren immer noch als schlechtes User Signal und damit als Qualitätsmangel und kann Dein Ranking dafür immer noch herunterziehen…

Anzahl der Kommentare

Kommentare, auch bekannt als nutzergenerierter Content, sind die Möglichkeit Deiner Websitebesucher, etwas zu Deinem Content beizutragen. Vor allem auf Blogs, aber auch vielen anderen Online-Auftritten spielen Kommentare eine Rolle, denn sie können als schwaches Signal und damit indirekter Rankingfaktor auf verschiedene Weise Einfluss auf Dein Ranking nehmen:

  1. E-A-T Schreibst Du über ein emotionales oder kontroverses Thema, regst Du den User zum Kommentieren an. Hinterlassen Deine Besucher einen hochwertigen Kommentar, sendet es positive Signale an Google, denn wer viele hochwertige Kommentare erhält und eventuell eine Diskussion anregen kann, hat offensichtlich hochwertigen Content im Angebot. Niemand kommentiert schließlich, wenn ihm das Thema egal ist.
  2. Brand Building (Community) Schaffst Du es, eine hochwertige Diskussion in Gang zu bringen, an der sich Deine User rege beteiligen, schließt Google daraus außerdem, dass Du bereits eine starke Community um Dich herum aufgebaut hast. Auch das sendet ein positives Signal und hilft Dir dabei, Dich vor Google als Marke zu etablieren – und bringt damit Pluspunkte für den Ruf Deiner Website.
  3. Relevanz Eine Community kann Diskussionen in viele verschiedene Richtungen lenken. Der Vorteil daran: Dabei können auch weitere Keywords und Keyword-Phrasen sowie Synonyme hinzukommen, sodass auch die Relevanz Deines Contents – und damit auch Dein Traffic, Deine CTR und Dein Ranking – einen kleinen Schub erhält.
  4. Contenterweiterung Der vorige Punkt lässt es schon erahnen, hier noch einmal die Bestätigung: Google scannt die Kommentare nicht einfach nur als zusätzliche Bewertungsgröße, sondern sieht sie als Teil des Contents an. Das ist allerdings mit Vorsicht zu genießen, denn gibt es zu viele Kommentare, kann das Deinen eigenen Content auch verschwimmen lassen, sodass möglicherweise die Relevanz verloren geht…
  5. Spam, negative und zu schnell zu viele Kommentare Von der Contentverschwimmung mal abgesehen, können Kommentare sich auch negativ auswirken. Der Worst Case sind dabei Spam-Kommentare und negative Kommentare. Kommentare mit Hyperlinks sind ebenfalls ein Risiko für Deine Website. Auch zu schnell zu viele Kommentare können zum Problem werden. Alle Varianten schaden dem Vertrauen und dem Ruf Deiner Seite und beeinflussen Dein Ranking damit negativ.

Um die Qualität Deiner Comments hochzuhalten und den bestmöglichen Nutzen aus Kommentaren zu ziehen, lohnt es sich, diese zu moderieren. So kannst Du zumindest Spam-Kommentaren den Riegel vorschieben, bevor sie Schaden anrichten… Denke auch daran, die vom User geposteten Links in Kommentaren und Co. mit dem Attribut rel=“ugc“ (user-generated content) zu kennzeichnen. So kann Google unterscheiden, ob mögliche Spam-Kommentare und -links von Dir kommen oder nicht und sich ein separates Bild Deiner Vertrauenswürdigkeit machen.

Negative Onpage Rankingfaktoren

Jeder ist seines Ranking-Glückes eigener Schmied! Während es im Onpage-Bereich viele Rankingfaktoren gibt, die das Ranking Deiner Website eher positiv beeinflussen, gibt es aber durchaus auch solche, die unmittelbar negative Auswirkungen auf Dein Ranking haben. Und so wie der Mathematiker, Physiker und Ingenieur Archimedes in der Legende durch die verdrängten Wassermassen die Minderwertigkeit der Herrscherkrone nachweisen konnte, kann auch Google auf ganz raffinierte Art herausfinden, ob Deine Website wirklich golden ist oder nur oberflächlich vergoldet wurde, um den Schein zu wahren. Negativ fällt Deine Website zum Beispiel dann auf, wenn

  • sie vorwiegend doppelte, geklaute oder sehr werbelastige Inhalte ohne Mehrwert aufweist,
  • ihre Texte offensichtlich nur für die Suchmaschine statt für den User erstellt wurden,
  • viele Spam-Aktionen von ihr ausgehen,
  • die Website Elemente enthält, die der Googlebot nicht interpretieren kann
  • oder die Sicherheit und die Unversehrtheit der Besucher bzw. bestimmter Personengruppen aktiv gefährdet

und vieles mehr. Auch wenn die aufgeführten negativen Onpage-Rankingfaktoren Dich teilweise erstaunen oder sogar schockieren dürften: Es gibt immer wieder Personen, die solche negativen Methoden nutzen, um das Rennen um das beste Ranking für sich zu entscheiden. Doch Google weiß inzwischen ganz gut, wie mit Online-Scharlatanerie umzugehen ist und straft solche Vorgehensweisen ziemlich gnadenlos ab. Du wirst sehen: Unsaubere Arbeit macht sich absolut nicht bezahlt.

DMCA Takedown

Du schmückst Dich mit fremden Federn? Dann könntest Du einen an Dich adressierten DMCA-Takedown erhalten.

Der DMCA-Takedown beschreibt eine Forderung, bestimmte Inhalte von einer Website zu entfernen und kommt besonders bei Urheberrechtsverletzungen häufig zum Tragen. Die Website, die die Anfrage erhalten hat, wird dann kurzzeitig aus dem Verkehr genommen. Sind die Inhalte entfernt, wird sie nochmal überprüft und wieder freigeschaltet. Ohne Konsequenz bleibt das aber natürlich nicht: Die Seite verliert dann nicht nur durch die Blockade an Traffic und Trust, sondern wird durch diesen Sachverhalt noch zusätzlich abgestraft. Verstöße gegen Urheberrechte bleiben halt auch online nicht ungesühnt…

Doppelte Meta-Daten

Manchmal sind sich Seiten zweifellos ähnlich. Verkaufst Du beispielsweise einen Lippenstift in 20 verschiedenen Farbtönen, ist es kaum möglich, 20 komplett verschiedene Kurzbeschreibungen zu verfassen… Aber wenigstens auf die farblichen Unterschiede solltest Du dann hinweisen.

Alles einfach zu kopieren ist dann nämlich auch nicht die Lösung, denn findet Google Meta-Daten in mehrfacher Ausführung vor, geht der Bot davon aus, dass 19 Seiten einfach nur Abschriften des Originals sind und stuft sie direkt als minderwertig herunter. Was es mehrfach gibt, kann so besonders ohnehin nicht sein. Somit verlieren 19 von 20 Seiten mal eben an Sichtbarkeit und Relevanz und das kostet…

Automatisch generierter Content

Automatisch generierte Inhalte sind das Gegenstück des hochwertigen Contents und als negativer Rankingfaktor der Feind des guten Rankings.

Gemeint sind Inhalte, die eindeutig nicht dem Geist und der Feder eines wortgewandten Individuums entstammen. Stattdessen wurden sie von automatisierten Tools übersetzt, von verschiedenen Seiten zusammengetragen und 1:1 übernommen oder von Skripten bzw. Algorithmen zusammengebastelt.

Häufig sind darin viele Fehler enthalten. Auch sind diese Inhalte weder schön zu lesen noch benutzerfreundlich und bieten erst recht keinen Mehrwert. Duplicate Content kann hier ebenfalls nicht immer ausgeschlossen werden.

Google reagiert darauf sogar so stinkig, dass Websites mit Auto-Content meist komplett aus dem Index rausfliegen.

Affiliate/Werbung

Auch Affiliate-Seiten mit entsprechender Werbung können die Hutschnur Deiner User zum Platzen bringen und ein schnelles Verlassen Deiner Website zur Folge haben. Schlechte User Signals sind die Folge.

Google ist allerdings ohnehin kein allzu großer Fan von Affiliate-Websites und betrachtet diese grundsätzlich mit einem gewissen Misstrauen, denn allzu häufig fallen solche Seiten durch zu viel Werbung und zu wenig/minderwertigen Content auf. Gesellen sich dazu noch die schlechten User Signals, ist das Schicksal Deines Rankings besiegelt: Jetzt geht’s abwärts, Dude…!

Reine Affiliate-Seiten

Affiliate-Werbung bezeichnet die Vermittlung von Conversions für Werbepartner gegen Provision. Das ist an und für sich nichts Negatives, denn es ist durchaus möglich, die Conversions durch die Kombination mit nützlichen Informationen zu optimieren. Kritisch wird es, wenn Du Dich nicht um Deine User bemühst und sie nur mit Affiliate-Werbung zubombst – bei eher dünnem und selten wertvollem Content.

Liefert dieser den Usern keinen Mehrwert und ein unbefriedigendes Nutzererlebnis, reagieren diese frustriert und kehren der Seite den Rücken. Die negativen User Signals tun das Übrige und Google verbannt die Seite auf die hinteren Plätze. Wird sie sogar als spammy klassifiziert, droht sogar ein Ausschluss aus den SERPs. Dahin, wo sie keine unbefriedigende User Experience erzeugen kann.

Cloaking

Ein weiterer negativer Rankingfaktor, nach dem Google mit wachsamen Adleraugen Ausschau hält, ist das sogenannte Cloaking (zu Deutsch „Verhüllung“). Als solches bezeichnet man es, wenn ein Server dem Googlebot unter derselben URL eine andere Version der Website ausspielt als dem User.

Da es sich dabei um einen bewussten Täuschungsversuch handelt (Black Hat SEO), reagiert Google darauf äußerst allergisch und nimmt Seiten, die Cloaking betreiben, durchaus auch mal aus dem Index. Denn die selektive Ausspielung von Website-Versionen birgt hohes Manipulationspotenzial und schürt schon allein deshalb Misstrauen bei Google. Doch auch ohne die Verbannung aus dem Index wirkt sich Cloaking sehr negativ aus: Wenn Google Deiner Seite nicht traut, hat sie null Chancen auf ein gutes Ranking…

Geparkte Domains

Ein weiteres rein negatives Rankingsignal sind sogenannte „geparkte Domains“, also Domains, die beim Aufruf sowas wie „Seite im Aufbau“ oder „Hier könnte Ihre Werbung stehen“ anzeigen. Auch Affiliate-Links sind hier keine Seltenheit. Diese Art von Website hat keine Daseinsberechtigung und darf schon allein deshalb nicht gut ranken, weil solche Domains für Google-User keinen Wert bringen und hochwertigen Content voll und ganz vermissen lassen. Folglich verbannt Google geparkte Domains kurzerhand nach hinten.

Werbung

Für Werbung gilt: Weniger ist mehr! Zu viel Werbung auf Websites missfällt Usern und Google gleichermaßen und gilt deshalb als negativer Rankingfaktor. Aber von vorn:

Websites sind ein teures, aufwendiges Unterfangen, das sich auch lohnen muss. Insofern ist es auch verständlich, dass man eine Website früher oder später monetarisiert. Wenn auch Du mit Deiner Website Geld verdienen willst, solltest Du aber unbedingt eine gewisse Proportionalität einhalten, denn auch wenn Deine Inhalte hochwertig und nützlich oder vielleicht sogar bahnbrechend sind, kann zu viel Werbung den vorzeitigen Rankingtod herbeiführen.

Das liegt zum einen daran, dass Deine Inhalte dem User keinen Spaß machen, wenn ständig Werbung um den Text herum oder sogar mitten im Text auftaucht und ihn so vom Lesen ablenkt. Hohe Bounce Rates und kurze Verweildauern Deiner User sind hier die Folge. Zum anderen führt zu viel Werbung aber auch zu Misstrauen bei Google und könnte dafür sorgen, dass Du als Spam-Seite markiert wirst. In beiden Fällen rutscht Dein Ranking über kurz oder lang deutlich ab und Du verdienst vorerst keinen Cent mehr über die organische Suche….

Popups

Werbung ist etwas, das viele User generell stört. Ob Eigen- oder Fremdwerbung: Pop-ups, also Werbeanzeigen, die vor den Augen des Users aufpoppen und nur mühsam wegzuklicken sind, sind die wohl schlimmste und nervtötendste Form der Werbung.

Viele User reagieren darauf so genervt, dass sie die entsprechende Website quasi rückwärts wieder verlassen. Für den Inhaber der Seite bedeutet das gleich doppelt negative Folgen: schlechte User Signals und ein negatives Qualitätssignal.

Auch Intrusive Interstitials (Werbung, die die Interaktion mit der Website unterbricht, indem sie sich über den Content legt) wertet Google als Signal für die mindere Qualität einer Website an. Ein absoluter Dealbreaker, der mit schlechten Rankings vergütet wird…

Intrusive Interstitials

Nichts nervt mehr als aufdringliche Werbung, die Dir ohne Vorwarnung direkt ins Gesicht springt. Die Google Rater Guidelines sehen Intrusive Interstitials (Pop-ups und Werbung, die die Interaktion mit der Website unterbrechen, indem sie sich über den Content legen) als Signal für die mindere Qualität einer Website an. Ein absoluter Dealbreaker, der mit schlechten Rankings „vergütet“ wird…

Werbung

Was haben Werbung auf Deiner Website und Kölnisch Wasser gemeinsam? Richtig, sie können einem mächtig stinken! Für beides gilt daher: Weniger ist mehr! Zu viel Werbung auf Websites stinkt übrigens Usern und Google gleichermaßen und gilt deshalb als negativer Rankingfaktor. Aber von vorn:

Websites sind ein teures, aufwendiges Unterfangen, das sich auch lohnen muss. Insofern ist es auch verständlich, dass man eine Website früher oder später monetarisiert. Wenn auch Du mit Deiner Website Geld verdienen willst, solltest Du aber unbedingt eine gewisse Proportionalität einhalten, denn auch wenn Deine Inhalte hochwertig und nützlich oder vielleicht sogar bahnbrechend sind, kann zu viel Werbung den vorzeitigen Rankingtod herbeiführen.

Das liegt zum einen daran, dass Deine Inhalte dem User keinen Spaß machen, wenn ständig Werbung um den Text herum oder sogar mitten im Text auftaucht und ihn so vom Lesen ablenkt. Hohe Bounce Rates und kurze Verweildauern deiner User sind hier die Folge. Zum anderen führt zu viel Werbung aber auch zu Misstrauen bei Google und könnte dafür sorgen, dass Du als Spam-Seite markiert wirst. In beiden Fällen rutscht Dein Ranking über kurz oder lang deutlich ab und du verdienst vorerst keinen Cent mehr über die organische Suche….

Keyword-Stuffing

Keyword-Stuffing nennt man es, wenn ein Text nach dem Motto „mehr ist mehr“ einfach nur mit Keywords vollgestopft und somit überoptimiert ist, damit die Suchmaschine ausreichend gefüttert wird. Das Problem dabei: Solche vollgestopften, überoptimierten Texte lesen sich nicht natürlich und bieten so keine schöne Nutzererfahrung. Google wertet das als Betrugsversuch und belohnt dieses Vorgehen völlig zurecht mit schlechten Rankings.

Meta Tag Spamming

Meta Tag Spamming ist im Grunde das Gleiche wie Keyword Stuffing, nur dass es nicht im Content, sondern innerhalb der Meta Tags auf einer Website stattfindet. Auch darauf reagiert Google recht allergisch und straft solche Seiten umgehend ab.

Exzessive 301-Weiterleitungen

Liebst Du es auch so, wenn Du im Callcenter für eine kurze, simple Info von Agent A zu Agent B, dann C und letzten Endes doch wieder zu Agent A weitergeleitet wirst, nur um das Spiel dann wieder von vorn zu beginnen? Exakt dasselbe „Service-Erlebnis“ entstetht durch exzessive 301-Weiterleitungen auf Deiner Website. Da das dem User bei seinem Problem überhaupt nicht hilft, dürfte klar sein, was darauf folgt: ein negatives Ranking.

Spam-IP

Wird von einer bestimmten IP-Adresse aus vermehrt Schabernack getrieben, wird möglicherweise die IP als Spam-Adresse gebrandmarkt. Dabei spielt es übrigens keine Rolle, ob Du der Missetäter bist oder nicht. Tanzt auf Deinem Server bzw. bei Deinem Hoster einer aus der Reihe, werden einfach alle auf der IP befindlichen Websites abgestraft und verlieren an Sichtbarkeit, Traffic, Vertrauen… Mitgehangen, mitgefangen!

Flash

Kennst Du den roten Comic-Helden, der sich super schnell bewegt? Bis auf die Bewegung hat er allerdings nicht viel hiermit zu tun…. Aber von vorn:

Google und Co. sind auf die Erfassung von Texten spezialisiert. Flash-Dateien hingegen stellen eine nicht textbasierte Technologie zur Erstellung von Animationen, Trickfilmen und Spielen dar, die dem User schon beim Betreten der Website ins Gesicht springen. Die Bots können diese Inhalte nicht lesen und so auch nicht interpretieren und nachvollziehen. Flash-Inhalte bieten somit Manipulationspotential und erwecken damit automatisch Misstrauen.

Das übrigens nicht ganz unbegründet, denn Flash-Inhalte wurden leider auch oft dazu genutzt, um andere Inhalte darzustellen als jene, mit denen eine Seite ursprünglich gelockt hatte. Deswegen hat Google Flash nach und nach das Handwerk gelegt: Erst folgte die Verbannung aus der Werbung, dann die Umstellung auf HTML5 und 2019 auch der Verweis aus dem Index.

Es ist also nicht verwunderlich, dass die Verwendung solcher längst ein negativer Rankingfaktor ist. Wenn Du also kein Flash verwendest, machst Du schon vieles richtig.

Hidden Content

Um große Mengen Content gut strukturiert darzustellen, bieten sich Tabs und andere Lösungen geradezu an – allerdings nur optisch. Aus SEO-Sicht stellen Tabs und andere Elemente, hinter denen sich Content verbergen kann (=Hidden Content), ein negatives Rankingsignal dar, das Deine Sichtbarkeit, Relevanz, E-A-T, CTR und noch einiges mehr verschlechtern kann.

Google selbst äußerte hierzu, dass Inhalte, die der User erst per Click freilegen muss, vermutlich nicht indexiert werden, denn der Crawler crawlt nur Content, den er ohne großes Suchen findet. Das passt zu Googles Serviceanspruch, dem User die Lösung auf den ersten Blick aufzuzeigen. Auch User übersehen solche Raffinessen übrigens häufig – besonders wenn es schnell gehen muss.

Darüber hinaus gibt es aber auch noch den ganz bewusst versteckten Inhalt (Text und/oder Links), der nur zum Füttern der Suchmaschine, nicht aber für den User bestimmt ist:

  • weißer Text auf weißem Grund
  • Text mit Schriftgröße 0
  • Text hinter Bildern versteckt
  • Text außerhalb des sichtbaren Bildschirmbereichs
  • Mini-Links (z. B. auf Satzzeichen) nur für die Suchmaschine

Doch Seiten sind für den User, nicht für die Suchmaschine. Daher findet Google besonders diese Art des Hidden Content nicht lustig. Eine so getarnte, vorsätzliche Täuschung führt im Ergebnis nicht selten dazu, dass die betroffene Website aus dem Index entfernt wird. Auch wenn der Hidden Content entfernt und die Seite wieder indexiert wird, bleibt sie sichtlich gebrandmarkt und kann ihr altes Ranking eventuell nicht mehr erreichen…

Whois Penalty

Manche Webmaster besitzen nicht nur eine, sondern mehrere Websites – zum Beispiel für Linkfarming, Spamming und andere uncoole Sachen. Über die WhoIs-Informationen lässt sich herausfinden, wer hinter einer Domain steckt. Besitzt der- oder diejnige mehr als eine Domain, kann mithilfe einer WhoIs-Abstrafung (WhoIs-Penalty) dafür gesorgt werden, dass sämtliche Domains im Besitz der Person abgestraft werden und an Sichtbarkeit verlieren.

Natürlich ist auch hier wieder die weiße Weste stark befleckt und wer erst einmal abgestraft wurde, wird das auch lange später noch an seinen Rankings erkennen können…

Gekaufte Follower

Viele Fans und Follower zu haben, ist eine schöne Sache – aber nicht, wenn es sich dabei um gekaufte Anhänger handelt. Google ist auch in diesem Zusammenhang nicht doof und merkt nicht nur, wenn ungewöhnlich schnell ungewöhnlich viele Fans anschlagen, sondern kann auch feststellen, ob diese echt sind. Klingt kompliziert, ist aber eigentlich ganz einfach, denn es gibt ein paar Anzeichen, die man nicht nur als künstliche Intelligenz bemerken kann. So fallen Fake-Fans oder Fake-Follower in aller Regel durch folgende Merkmale auf:

  • Dein Profil hat ausschließlich fremdsprachige Follower
  • kaum einer oder keiner davon entspricht Deiner Zielgruppe
  • sie folgen selbst mehr Accounts als sie Fans haben
  • es findet kaum Aktivität auf ihrem Profil statt

Noch dazu lässt sich der Fake auch durch viele und nichtssagenden Kommentare wie „Nice pic“ oder einfach nur viele Emojis erkennen. Die einfachste Erkennungsvariante lässt sich aber im Filter durchführen – mit dem Buchstaben Y, der hierzulande sehr dünn gestreut ist, bei Fake-Accounts aber dafür sehr häufig im Profilnamen auftaucht. Ein einzelnes dieser „Symptome“ macht noch keinen Fake-User, doch je mehr davon zusammenkommen, desto offensichtlicher wird’s.

Das Grundprinzip sollte ja eigentlich das sein, dass natürliche und öffentliche Personen das, was Du veröffentlichst, abonnieren und Dich so unterstützen, weil sie Deiner Meinung sind. Als Social Proof beweisen sie dadurch auch, dass Du echt bist und dass das was Du tust, richtig und wertvoll ist und dass man Dir vertrauen kann. Gekaufte Fans und Follower bringen das nicht zum Ausdruck und sind daher das Gegenteil von nützlich. Bekommt Google diese vorsätzliche Schummelei mit, verlierst Du Trust, Autorität und dann natürlich auch Rankings. Gemogelt wird nicht!

Gekaufte Bewertungen

Wer bei Google gut dastehen möchte, braucht einen guten Ruf. Bewertungen sind ein wichtiges Standbein hierfür. Da die Geschmäcker und Meinungen aber völlig unterschiedlich sind, sind wechselnde Bewertungen völlig normal und permanente 5-Sterne-Bewertungen eher unglaubwürdig – und häufig auch gar nicht echt, sondern gekauft.

Google bemerkt das auch und lässt sich davon nicht täuschen. Unglaubwürdig gute Bewertungen bringen Dich damit zwar den 5 Sternen näher, dem Top-Ranking dient das aber keineswegs: Abstrafungen können die Folge sein.

Mixed Content

Als Mixed Content bezeichnet man es, wenn manche Teile einer Website verschlüsselt (über eine HTTPS-Verbindung) und andere unverschlüsselt (über eine HTTP-Verbindung) geladen werden. Man unterscheidet dabei zwischen

  • Passivem Mixed Content Beim passiven Content, auch Mixed Display Content genannt, handelt es sich um Inhalte, die ausgeliefert werden, ohne Änderungen an der Website zu erzeugen (Bilder, Videos, Sounds etc.)
  • Aktivem Mixed Content Aktiver Mixed Content wird auch Mixed Scripting genannt und stellt die größere Bedrohung dar. Der Name verrät es, gemeint sind interaktive Inhalte (Skripte, Stylesheets, Iframes, Flash etc.), die Teile der Website verändern können.

Google fordert grundsätzlich, dass der Datenaustausch ausschließlich über verschlüsselte Verbindungen (HTTPS) stattfindet. Ist das nicht der Fall (egal ob ganz oder teilweise), verliert Google das Vertrauen in Deine Website und spuckt Besuchern eine eher abschreckende Warnung aus. In der Folge büßt Du Traffic, CTR und natürlich Sichtbarkeit ein und Dein Ranking ist hinüber.

PageRank Sculpting

PageRank Sculpting beschreibt eine Technik, bei der der PageRank (also Linkjuice oder Linkkraft) einer Website so auf die Unterseiten verteilt wird, dass wichtigere Unterseiten davon profitieren. Dagegen werden Links zu den als weniger wichtig eingestuften exzessiv auf nofollow gesetzt und erhalten somit keine Linkkraft. Da der PageRank offiziell nicht mehr aktualisiert wird, funktioniert diese Praktik nicht mehr. Zudem zählt Google in der internen Seitenstruktur die Linkkraft auch dann, wenn der Link auf nofollow gesetzt wurde, um Manipulationsversuche zu unterbinden.

Generell ist die Idee, seine internen und externen Links auf nofollow zu setzen, keine gute, denn das könnte Google eine mangelhafte Verlinkung interpretieren lassen, was sich negativ auf Dein Ranking und somit die Sichtbarkeit Deiner Website auswirkt.

Panda Penalty

Ist Deine Seite in der Vergangenheit schon einmal durch dünnen Inhalt oder zu viel Werbung negativ aufgefallen, hat sie möglicherweise eine Penalty, also eine Abstrafung, durch das Panda Update erhalten, das seit 2011 gegen schlechten Content vorgeht.

Hat eine Seite tatsächlich mal eine Panda Penalty erhalten, hat sich das Ranking nach einem hochwertigen Makeover zwar vielleicht wieder erholt, vom Tisch ist die Sache deshalb aber nicht. Google merkt sich das und es wirkt sich nachhaltig auf Dein Ranking aus. Google behält Dich und Deinen Content dahingehend im Auge!

Ankertexte mit kritischen Keywords (Pharma, Sex, Viagra, etc.)

Hast auch Du schon einmal Vorschläge für Optimierungen unterhalb der Gürtellinie oder kleine blaue Pillen, Haarwuchsmittel etc. erhalten? Als versierter Internet-Nutzer weißt Du natürlich, dass es sich dabei in der Regel um Spam handelt. Opfer von solchen Spam-Nachrichten zu werden ist schon nervig, aber als „der Spammende“ abgehakt zu werden, ist der Todesstoß durch Google.

Damit dir das nicht passiert, musst du drei Dinge wissen:

  1. Der Ankertext als interaktives Element ist eines der wichtigsten Kriterien für die Wertigkeit Deiner Links. Er gibt Auskunft darüber, worum es auf der verlinkten Seite geht, ergo sollten passende Keywords als Ankertext gewählt werden.
  2. Keywords wie Sex, Viagra, Pharma und weitere gelten als kritisch, weil sie häufig zu solchen unseriösen Angeboten führen. Diese als Linktext zu verwenden, deutet auf Links zu Spam-Seiten hin.
  3. Wie schon zuvor angemerkt, sieht sich Google sehr genau an, mit wem man sich umgibt. Befinden sich auf Deiner Seite viele Links mit Suchbegriffen wie Pharma, Sex, Viagra und einigen anderen, geht Google davon aus, dass du schlechten Umgang pflegst und steckt auch Dich und Deine Seite ruckzuck in die Spam-Schublade… und tschüss, E-A-T!

Was lernen wir also daraus? Augen auf bei der Wahl des Ankertexts – und gut überlegen, ob die Aufmerksamkeit, die solche Links auf sich ziehen, den Verlust Deiner Sichtbarkeit wert sind…

Sprache passt nicht zum Standort

Stell Dir vor, Du suchst Informationen zu Grüntee und bekommst eine Seite ausgespielt, die Google so gut findet, dass sie ganz oben rankt. Leider ist die Seite auf Chinesisch und Du kannst die erhofften Infos mangels entsprechender Sprachkenntnisse nicht mitnehmen. Mann wär das sch….lecht! Im Normalfall passiert das zum Glück aber nicht, denn Google beachtet, dass Suchergebnisse sprachlich immer zur Eingabesprache oder wenigstens einer der anderen offiziellen Landessprachen des Standorts passen. Alternativ wird der Inhalt auf Englisch ausgegeben, denn das sprechen immerhin die meisten User. Wie kann es also sein, dass die Content-Sprache im Suchergebnis nicht stimmt? Die Ursache lautet Manipulation.

Um sicherzustellen, dass Deine User immer die richtige Sprachversion erhalten und ihre Bedürfnisse erfüllt werden, kommt normalerweise das hreflang-Attribut zum Einsatz. Manch einer nutzt dieses Werkzeug aber auch, um Sprachen vorzugaukeln und sein Ranking so durch Clicks aus aller Welt verbessern zu können. Dieses Vorgehen gilt zurecht als vorsätzliche Täuschung und das findet Google nicht lustig. Sprachlich unpassende Inhalte erfüllen keinesfalls die Bedürfnisse des Users und verdienen auch kein gutes Ranking. Die Strafe folgt auf dem Fuße:

Der Ausschluss solcher lingual unpassenden Inhalte aus den Suchergebnissen erfolgt manuell durch Googles Quality Raters. Dabei wird ein Flaggensystem genutzt. Dieses markiert neben unpassenden fremdsprachigen Inhalten übrigens auch Pornografie, beleidigende oder verletzende Inhalte und Ladeschwierigkeiten und entspricht einer manuellen Abstrafung. Da siehst Du mal, wie unlustig Google das findet… Wird Deine Seite mit solch einer Flagge markiert, darfst Du Dir erstmal die Karten legen, denn Deine Seite verliert an Sichtbarkeit und Dein Traffic geht in den Keller. Und die Moral von der Geschicht: Nutz‘ hreflang zur Täuschung nicht!

Malware-Installation

Es gibt nutz- und harmlose Werbeseiten, aber auch Seiten, deren Inhalte sich unerwartet verändern (z. B. Manipulation der Cursor-Position zum Linkaufruf, Pop-ups) und es gibt Seiten, die im Hintergrund schädliche Programme Installieren (Malware, Spyware, Viren, Trojaner etc.) und ausführen, ohne dass der User dem zugestimmt hat oder dies überhaupt bemerkt…

Das ist nicht nur ein sehr unangenehmes Nutzererlebnis, es kann auch weitreichende Folgeschäden verursachen. Google möchte seinen Nutzern deshalb Sicherheit im Web und ganz besonders vor solchen Machenschaften bieten und straft Seiten mit bösartigem Verhalten (malicious behaviour) deshalb sehr schnell mit der Entfernung aus dem Index ab. Ohne Wenn und Aber. Und tschüss!

Mixed Reputation

Nur mit großartigem Content kannst Du Dir einen Platz in den oberen Rankings sichern. Dabei spielt als Rankingfaktor aber nicht nur die Qualität des Textes, sondern auch der Ruf des Verfassers eine wichtige Rolle. Als Mixed Reputation bezeichnet man es, wenn eine Website mit gutem Ruf Inhalte aus einer vertrauensunwürdigen Urheberschaft verbreitet.

Du erstellst Deine Inhalte nicht selbst oder veröffentlichst Gastbeiträge, wobei auch stets der Autor genannt wird? Dann solltest Du vorher immer etwas Recherche betreiben, welchen Ruf dieser denn so innehat, denn selbst wenn Deine Website ansonsten tip top ist, hoch rankt und einen hervorragenden Ruf genießt, kann Content von Autoren mit schlechtem Ruf (Bekanntheit durch mangelnde Sorgfalt, wissentliche Falschaussagen oder ähnliches) dazu führen, dass auch Deine Website künftig als schlechter wahrgenommen und im Ranking heruntergestuft wird.

Verbreitung von Hass und Hetze

Ein absolutes No-Go für Google sind Seiten, die Hass oder Gewalt befürworten und/oder verbreiten. Dabei ist es vollkommen egal, ob das in aufrührerischer, emotionaler oder hasserfüllter Weise oder höflich oder vielleicht sogar akademisch klingend ausgedrückt wird.

Solche Seiten können in der realen Welt ernsthafte Schäden verursachen und sogar Menschenleben gefährden. Deshalb werden sie von Google zurecht mittels der „Upsetting-Offensive Flag“ als schlecht eingestuft und gekennzeichnet, abgestraft oder sogar aus dem Index genommen. Und das schadet nicht nur Deiner Sichtbarkeit, sondern auch Deinem Ruf enorm. Auch weitere Websites, die Du betreibst, verlieren automatisch an Trust…

Das gilt übrigens nicht nur für Deinen eigenen Content, sondern auch für Gastbeiträge, Kommentare etc. Mit entsprechenden Hinweisen in den Nutzungsbedingungen, der Moderation von Kommentaren und einer festgelegten „Nettiquette“, mit der sich Deine User einverstanden erklären, kannst Du dem entgegenwirken.

Graphic Violence

Ein weiterer negativer Faktor und guter Grund, Websites aus den Suchergebnissen auszuschließen, ist die darin enthaltene besonders lebhafte, realistische und brutale Darstellung von Gewalt (egal ob visuell dargestellt oder sehr bildlich beschrieben).

Allzu häufig werden solche Inhalte eingesetzt, um Zuschauer einfach nur absichtlich zu schockieren, ohne dass der Kontext das nötig machen würde. Google bezeichnet diese Inhalte zurecht als „sehr verstörend oder beleidigend“ und sorgt dafür, dass sie keiner sehen muss, der sie nicht sehen will, indem die betroffene Website mit einer entsprechenden Flagge gekennzeichnet oder auch abgestraft und de-indexiert wird.

Fehlinformationen

Google bestraft auch absichtlich unrichtige Aussagen. Auch hier können die Folgen schließlich fatal sein. Das gilt ganz besonders für YMYL-Seiten, auf die Google ganz besonders kritisch schaut.

YMYL, das steht für „Your Money, Your Life“ und umfasst Websites, die sich mit dem Leben, der Gesundheit, dem allgemeinen Wohlergehen, der Zufriedenheit oder auch mit finanziellen sowie Versicherungs- oder Shoppingthemen beschäftigen und den Menschen somit aktiv beeinflussen. Durch gefährliches Halbwissen oder vorsätzliche Fehlinformationen richtest Du hier besonders große Schäden an: Du gefährdest die Sicherheit Deiner Leser und riskierst unter Umständen sogar Menschenleben.

Gerätst auch Du in Verdacht, Fehlinformationen zu verbreiten, wird Dich Google folglich als schlechte, ja sogar potenziell gefährliche/gefährdende Seite einstufen. Dass Du so kein gutes Ranking erzielst, liegt auf der Hand. Doch auch Deine Reputation und Dein Vertrauen sind passé, denn selbst wenn Du ab jetzt nur noch wahre und erwiesene Tatsachen verbreitest, wirst Du immer etwas schlechter ranken als vorher. Übrigens auch nicht mit anderen/neuen Websites, die Du vielleicht noch zu veröffentlichen gedenkst (WhoIs lässt grüßen!).

Scraped Content

Bei Scraped Content handelt es sich um die schlimmere Variante des Duplicate Contents: Denn während Duplicate Content in aller Regel unabsichtlich entsteht, ist bei Scraped Content eindeutig Vorsatz im Spiel.

Veröffentlichst Du wortwörtlich oder nahezu identische Inhalte (Synonyme getauscht, aber keine eigenen Infos oder Mehrwert hinzugefügt) von anderen Seiten auf Deiner Website, erkennt Google das als vorsätzlichen Täuschungsversuch.

Doch die Folgen können noch weitreichender sein als einfach nur die Rankings zu verlieren. Zum einen könntest Du einen an Dich adressierten DMCA-Takedown erhalten. Der DMCA-Takedown beschreibt eine Forderung, bestimmte Inhalte von einer Website zu entfernen und kommt besonders bei Urheberrechtsverletzungen häufig zum Tragen. Die Website, die die Anfrage erhalten hat, wird dann kurzzeitig aus dem Index genommen, sodass sie nicht mehr gefunden werden kann. Auch nach Freischaltung ist Deinem Ranking, dem Vertrauen in Deine Seite und Deiner Reputation geschadet. Zum anderen drohen aber auch rechtliche Konsequenzen, die dazu auch noch richtig teuer werden können.

Es ist dabei übrigens auch egal, ob der geklaute Inhalt hochwertig ist oder nicht. Für Google zählt dabei nur folgendes: Es gibt den Content schon und es bringt dem User gar nichts, diese Infos nochmal genau so zur Verfügung gestellt zu bekommen. Ganz davon abgesehen ist der Klau des Inhalts ohnehin ein No-Go: Jemand anderes hat Zeit und Mühe in eigenen, hochwertigen Inhalt gesteckt, um seine Website besonders zu machen. Mit diesen Federn schmückt man sich nicht! Und wer weiß, vielleicht kann man es ja sogar noch besser machen?

Keyword Stuffing

Keyword Stuffing nennt man es, wenn ein Text nach dem Motto „mehr ist mehr“ einfach nur mit Keywords vollgestopft und somit überoptimiert ist, damit die Suchmaschine ausreichend gefüttert wird. Das Problem dabei: Solche vollgestopften, überoptimierten Texte lesen sich nicht natürlich und bieten so keine schöne Nutzererfahrung. Google wertet das als Betrugsversuch und belohnt dieses Vorgehen völlig zurecht mit schlechten Rankings.

Irrelevante Keywords

Google hat einen Fokus auf die Relevanz, um sich auf angemessene Suchergebnisse beschränken zu können. Möchtest Du für Anfragen aus Deinem Fachgebiet gut auffindbar sein, ist es daher wichtig, sich für den Content auf ein spezielles Thema und auf die zum Kontext passenden Keywords zu konzentrieren. Irrelevante Keywords sind dabei nicht nur nicht zielführend, sie beeinträchtigen Googles Nutzererlebnis.

Findet Google überflüssige Keywords, verzerrt das den Content und Deine Seite wird als irrelevant eingestuft. Ein gutes Ranking ist damit natürlich nicht mehr drin. Zum anderen wird Google bei zu vielen irrelevanten Keywords Deine Seite aber auch als Mogelpackung für möglichst breit gefächerte Rankings betrachten, was einem Täuschungsversuch gleich kommt. Das wird – ähnlich wie Keyword-Stuffing – ebenfalls harsch abgestraft.

Offpage Rankingfaktoren

Offpage-Rankingfaktoren bezeichnen alle Rankingfaktoren rund um Deine Website, die sich aus dem Umfeld dieser – also ausschließich von extern – ergeben. Es handelt sich dabei sozusagen um eine noch stärkere Form des Feedbacks durch andere Websitebetreiber, User und Fans Deiner Marke sowie eines sehr wirkungsvollen Empfehlungsmanagements. Die große Schwierigkeit dieser Disziplinen: Du kannst sie höchstens indirekt beeinflussen, allzu häufig hast Du allerdings wenig Einfluss darauf.

Zu den Offpage-Rankingfaktoren zählen folglich die Bereiche

  • Backlinks,
  • Social Signals,
  • Reputation
  • und Trust.

Backlinks zählen als unmittelbare Empfehlung Deiner Website durch andere Websitebetreiber und User und sind eine der mächtigsten Komponenten, auf die der Ranking-Erfolg Deiner Website aufbaut – allerdings nur, wenn die Qualität dieser stimmt (das wäre ja sonst zu einfach!). Ähnlich aussagekräftige Vertrauensbekundungen können übrigens auch Social Signals (User Signals aus den sozialen Netzwerken) sein, die die Beliebtheit und Bekanntheit Deiner Marke und Deiner Website im Idealfall erheblich boosten. Apropos Vertrauen: Final wären da noch Reputation und Trust, also der Ruf Deiner Website und das damit verbundene Vertrauen in Dein Unternehmen und Deine Marke. All diese Rankingfaktoren beschäftigen sich letzen Endes damit, wie die Außenwelt Dich und Deine Marke sieht. Die Wahrheit kann wehtun, ist aber sehr spannend und bietet viel Potenzial zur Verbesserung!

Linkpopularität

Auch wenn die Anzahl der Backlinks heute nicht mehr der Rankingfaktor Nr. 1 ist, spielt sie dennoch weiterhin eine Rolle und gilt unter dem Namen Linkpopularität als wichtiger Rankingfaktor.

Der Begriff Linkpopularität bezeichnet in diesem Zusammenhang, wie beliebt Deine Website als Verlinkungsziel ist. Je mehr Links auf Deine Website verweisen, desto höher die Linkpopularität. Je höher diese ist, desto höher erst einmal die Gewichtung Deiner Website im Ranking. Doch Google hat aus der PageRank-Problematik gelernt und somit ist die Linkpopularität allein wenig aussagekräftig. Erst in der Kombination mit der Domainpopularität und der IP-Popularität ergibt sich Deine tatsächliche Beliebtheit.

IP-Popularität

Zu guter Letzt kommt in puncto Backlink-Popularität noch die IP-Popularität als Rankingfaktor zum Tragen. Sie gibt die Anzahl von Domains mit unterschiedlichen IP-Adressen, die auf eine Website verweisen. Verlinken viele Domains mit derselben IP-Adresse auf Deine Website, könnte Google daraus schlussfolgern, dass es sich hier um ein Linknetzwerk handelt. Aus diesem Grund sollte sich die IP-Popularität nicht zu stark von der Domainpopularität unterscheiden.

Je mehr verschiedene IPs also auf Deine Website verweisen, desto mehr schließt Google daraus, dass Deine Website für viele verschiedene Menschen von Interesse ist, lösungsweisende Inhalte zum Suchschwerpunkt des Users bietet und auf natürliche Art weiterempfohlen wird. Die Belohnung: Mehr Autorität, mehr Trust und ein besseres Ranking.

Google geht beim Analysieren der IPs sogar noch tiefer und wirft einen Blick auf die C-Class der IPs. Die C-Class, das ist in einer IP-Adresse wie z. B. 192.0.2.42 der dritte Block, also die „2“. Unterscheidet sich die C-Class der IPs, geht Google davon aus, dass es sich tatsächlich um unterschiedliche, voneinander unabhängige IPs von verschiedenen Hostern handelt, was sich noch besser auf Dein Ranking auswirkt. Sind die C-Blöcke identisch, stammen die Backlinks aus derselben „Nachbarschaft“ und können mehr schaden als nutzen – sie schüren den Verdacht auf unnatürlichen Linkaufbau und können Deiner Website sogar eine Abstrafung einbringen.

Natürliches Linkprofil

Dein Linkprofil ist die Gesamtheit Deiner Backlinks. Ob dieses natürlich aussieht oder nicht, ist ebenfalls ein Rankingfaktor. Hierbei geht es darum, in welchen Mengen und Zeitabständen Deine Website Backlinks generiert. Bei einem natürlichen Linkprofil baust Du Deine Backlinks regelkonform und stetig auf, statt sie mit Black-Hat-Methoden in kurzer Zeit und mit großen Wachstumssprüngen zu erschummeln.

Der Vorteil eines natürlichen Linkprofils macht sich vor allem im Ranking sehr deutlich bemerkbar: Websites mit natürlichem Backlinkprofil ranken höher und sind zudem resistenter gegen Updates wie Penguin, der Backlink-Cheatern das Handwerk legt.

Backlinkposition im Text

Da Content nicht immer nur aus Text besteht, hier nochmal gesondert der Hinweis: Für die Wertigkeit des Links ist die Linkposition im Text mitentscheidend. Je weiter am Anfang der Backlink innerhalb des Texts auftaucht, desto besser wirkt er sich auf Dein Ranking aus. Steht er irgendwo am Ende, wertet Google ihn als weniger bis gar nicht wichtig und der Linkjuice bleibt auf der Strecke.

Qualität des verlinkenden Contents

Content is King, haben wir von Google eingebläut bekommen. Das gilt tatsächlich auch für den Bereich Backlinks, wo die Qualität des verlinkenden Contents einen wichtigen Rankingfaktor darstellt, der in die Wertigkeit des Links mit einfließt und über Dein Ranking mitentscheidet.

Am besten wirkt da natürlich ein Backlink von einer hochwertigen und nützlichen themenrelevanten Seite (sorgfältig recherchiert, informativ, gut verständlich, mehrwerthaltig und mit Bildern, Videos oder multimedialen Elementen aufgelockert). Auch eine gewisse Länge (Wortanzahl) sollte vorhanden sein, denn sie ist nötig, um eine bestimmte Thementiefe zu erzeugen und ein Thema „ausreichend“ zu behandeln. Erhältst Du einen Backlink von einer Seite mit solch großartigem Content, darfst Du Dich definitiv über einen hochwertigen Backlink freuen, der einiges an Autorität mit sich bringt, das Vertrauen in Deine Website boostet und Dein Ranking positiv beeinflussen wird.

Backlinks von Seiten mit dünnem und schlechtem Content (z.B. kaum Text, kein Nutzen und/oder zu viel Werbung) nimmt Google Dir hingegen ziemlich übel. Als Indikator für Black-Hat-Linkaufbau wecken sie Googles Misstrauen auch im Hinblick auf Deine Website, was sich toxisch auswirken und Deinem Ranking ernsthaft schaden könnte.

Wortanzahl auf der verlinkenden Seite

Doch nicht nur die Gesamtqualität des verlinkenden Contents entscheidet über Top oder Flop: Ein weiterer Faktor, auf den Google bei Backlinks schaut, ist die Anzahl der Worte auf der verweisenden Seite. Weist diese nur wenig oder „dünnen“ Content vor, wirkt der Backlink sich auf Deine Seite eher „toxisch“ aus und zieht das Ranking runter. Das Gleiche passiert, wenn er keinen Mehrwert, dafür aber viel Werbung bietet.

„Aber viele Worte sind doch auch nicht unbedingt ein Qualitätsgarant, oder?“ – Richtig, trotzdem ist die Wortanzahl auf der verlinkenden Website ein Signal für die Qualität Deines Backlinks. Backlinks von umfangreichen Inhalten sind für Google eben ein Indikator für eine gewisse Thementiefe, die kurzer Content niemals erreichen könnte.

PageRank der verlinkenden Seite

Er wurde zwar 2016 offiziell abgeschafft, so ganz passé ist er für Google aber doch nicht: der PageRank (Seitenrang). Als Indikator für die Wichtigkeit einzelner Seiten (mehr Links auf eine Seite = mehr Bedeutung) bewertete er diese auf einer Skala von 0 bis 10. Je höher der Wert, desto besser der Ruf der Seite.

Als Signal für die Wertigkeit eines Backlinks bestimmt er immer noch ganz gut mit, wie wertvoll ein Link denn nun wirklich ist. Hat die auf Dich verlinkende Seite also einen eher schlechten PageRank, könnte sich das neutral bis unschön auf Dein Ranking auswirken.

Autorität der verlinkenden Seite

Sehr wichtig für Dein Ranking ist aber auch die Autorität der verlinkenden Seite. Im Hinblick auf Backlinks ist sie das Maß dafür, wie populär eine Seite ist. Verlinkt eine populäre Seite auf Dich, hat es positive Auswirkungen auf Dein Ranking.

Im Grunde funktioniert das ganze relativ ähnlich wie Influencer Marketing: Was die verweisende Seite gut findet, finden meist auch die Fans gut. Somit überträgt die verlinkende Seite auch Deiner Seite etwas Popularität. Ein weiterer angenehmer Nebeneffekt ist natürlich auch der Traffic, der durch einen solchen Backlink entsteht und Dir zusätzlich zum besseren Ranking verhelfen kann.

Traffic auf der verlinkenden Seite

Handelt es sich um einen thematisch passenden und vertrauenswürdigen Linkgeber, stellt sich gleich die nächste Frage: Wie viel Traffic generiert die verlinkende Domain? Als Rankingfaktor beeinflusst auch dieser Punkt die Wertigkeit des Backlinks und damit auch seine Auswirkung auf Dein Ranking.

Wird die Website nämlich nur wenig besucht, ist die Wahrscheinlichkeit, per Backlink selbst Traffic zu gewinnen schon einmal sehr gering. Wesentlich problematischer ist hier aber noch der Umstand, dass eine Website ohne nennenswerten Traffic entweder schlecht auffindbar, irrelevant oder nicht sehr nützlich ist, sonst wäre sie ja bei den Usern beliebter. Somit besitzt sie auch keine Autorität, die sie vererben könnte.

Zudem spielt es nicht nur eine Rolle, wie viel Traffic die gesamte Domain generiert, sondern wie viel die Seite erreicht, auf der der Backlink platziert ist.

Ranking der verlinkenden Domain

Die Rankingposition des Linkgebers ist ebenfalls ausschlaggebend: Wer besser rankt, ist ein eher besserer Linkgeber. Doch auch dieser Faktor kann nur im Zusammenhang mit anderen Faktoren betrachtet werden.

Rankt Deine Linkgeber zu denselben Keywords über Dir, wird sein Backlink wertvoller für Dich sein und einiges an Linkjuice an Deine Website vererben. Rankt er weiter unten, ist der Backlink weniger stark.

Rankt er zu ganz anderen Keywords als Du, muss für den Nutzen des Backlinks natürlich auch die thematische Relevanz überprüft werden.

Sichtbarkeit der verlinkenden Domain

Mit dem Sichtbarkeitsindex (eine Kennzahl für Sichtbarkeiten einer Domain) kannst Du nachverfolgen, wie erfolgreich Deine SEO-Maßnahmen sind, wie sich Deine Website aktuell im Vergleich zu Deiner SEO-Konkurrenz schlägt und wie sie sich in der Vergangenheit entwickelt hat. Solche Werte sind in Deutschland am besten bei Xovi und Sistrix zu finden.

Du kannst (und solltest) hier aber auch die Domain Deiner Backlinkgeber überprüfen, um Dir ein besseres Bild davon machen zu können, wie sich der Backlink wahrscheinlich auf Dein Ranking auswirkt.

Je höher der Sichtbarkeitsindex des Backlinkgebers ausfällt, desto positiver wirkt sich der Backlink auf Dein Ranking aus. Denn wer gut sichtbar ist, wird gut gefunden, wahrscheinlicher geklickt und besitzt noch dazu eine höhere Reichweite.

Lust auf einen Kaffee?