SEO-Checkliste 2020 – Grundlagen und Tipps

Webseite fit machen und die Zeit nutzen. Nach diesem Motto werden direkte und indirekte SEO-Faktoren beleuchtet, die sowohl das Ranking aktiv als auch passiv beeinflussen. Nicht auf jede Aktion haben Betreiber Einfluss, sondern sind auf die Handlungen ihrer User angewiesen. Wie Sie diese SEO-Parameter bestmöglich beeinflussen und wie Sie selbst aktiv Inhalte interessant verkaufen können, erfahren Sie mit dieser Checkliste.

Erste Schritte und ein wichtiger Schnellcheck

Spätestens wenn die Konkurrenz im Ranking an Ihnen vorbeizieht, sollten Sie ein paar Dinge rasch verbessern. Dafür benötigen Sie keine professionelle Hilfe. Einen ersten Quickcheck können Sie auch selbst durchführen, um die gravierendsten Probleme Ihrer Website schnell zu erkennen. Viele Fakten lassen sich einfach testen, sofern die richtigen Tools zur Anwendung kommen.

Googlen Sie doch mal selber Ihre eigene Domain

Haben Sie bereits die Google-Suche nach Ihrer eigenen Domain ausgeführt? Nutzen Sie dazu den „site.“-Parameter. In diesem Fall dürfen Sie im Suchergebnis zumindest ihre und noch andere Seiten als Resultat erwarten. Bei fehlerhaften Anzeigen wird kein Ergebnis gefunden. Das bedeutet, Ihre Domain ist in Google nicht indexiert. Ursachen können sein: eine Google-Strafe oder ein technisches Problem. Finden Sie in den „Google Webmaster Tools“ unter der Rubrik „Manuelle Maßnahmen“ eine Penalty-Information, kennen Sie nun die Lösung. In allen anderen Fällen fahren Sie mit der technischen Prüfung der Website fort.

Suchen Sie den Begriff, den Sie ranken wollen

Geben Sie in die Google-Suche Ihren Markennamen oder unternehmensrelevante Begriffe ein, die unmittelbar mit Ihrem Produkt, Betrieb oder Projekt in Verbindung stehen. Erwarten dürfen Sie hier ein Top-Ergebnis zumindest unter den besten zehn Platzierungen. Im Fehlerfall ist Ihre Marke oder Ihr Unternehmen nicht unter den vorderen Ergebnissen zu finden. Als mögliche Fehlerquelle gelten technische Probleme oder eine Google Penalty.

Melden Sie Ihre Webseite bei den Google Webmaster Tools an

Damit Sie die Google-Suche unter Einbindung Ihrer Webseite optimal überprüfen und steuern können, müssen Sie in den Google Webmaster Tools angemeldet sein. Hier bündelt die Suchmaschine viele wichtige Informationen zu Verlinkungen, Crawling-Fehlern und Suchabfragen. Sollten Sie dies Anmeldung noch nicht durchgeführt haben, holen Sie diesen Schritt unbedingt so schnell wie möglich nach.

Ergebnisse bei Google auf vorhandene Sitelinks prüfen

Für Seiten, die von Google als essenziell angesehen werden und für den User entsprechenden Mehrwert bieten, bietet das Unternehmen eine Besonderheit. Die US-Suchmaschine spielt in den Snippets der Suchresultate zusätzliche Deep Links zu den verschiedenen Unterseiten aus. Im Idealfall werden diese Sitelinks angezeigt. Arbeitet das System fehlerhaft, ist vermutlich die Popularität der Webseite noch nicht groß genug. Das ist primär bei neuen Homepages der Fall. Neben der Seitenstruktur sollte hier die interne Verlinkung überprüft werden, um unnötige Fehler auszuschließen.

Die Webseite mit dem Googlebot-Check überprüfen

Bei diesem Check rufen Sie Ihre Webseite wie ein Googlebot ab. Dafür nutzt man entweder den User Agent Switcher oder verwendet in den Google Webmaster Tools die Funktion „Abruf wie durch Google“. Zu erwarten ist eine Ergebnisseite, die im Googlebot exakt der Darstellung des Browsers entspricht. Im Fehlerfall werden für den Googlebot andere Resultate ausgespielt, was Sie unbedingt korrigieren sollten. Bleibt dieses Missverhältnis bestehen, droht eine Abstrafung wegen Cloakings.

Überprüfen Sie die Verweildauer und Absprungrate

Achtung: Absprungrate und Verweildauern gehören zu den wichtigsten SEO-Kennzahlen. Je höher die Verweildauer, desto niedriger die Absprungrate. Daher geht Google davon aus, dass die Besucher Ihrer Webseite nicht zufrieden sind, wenn die Absprungrate über 50 bis 70 Prozent liegt. Eine Verweildauer von deutlich mehr als einer Minute ist erstrebenswert. Diese beiden Kennzahlen lassen sich beispielsweise mit Google Analytics ermitteln. Thematisch passendere Inhalte können zusätzlich zur Erhöhung der Verweildauer führen.

Technische Schwachstellen der Webseite

In diesem Bereich können sich zahlreiche Probleme verstecken. Geringe Seitengeschwindigkeit, fehlerhaften Weiterleitungen auf Ihre Webseite, unterbrochene Redirect-Ketten, nicht vorhandene Sitemaps, Broken Links oder ein deaktiviertes Javascript – so umfangreich die technische Fehlerkette auch sein mag, an einer punktgenauen Überprüfung kommen Sie nicht vorbei.

Wie steht es um den PageSpeed der Seite?

Die Ladegeschwindigkeit Ihrer Webseite ist ein wichtiger Indikator. Eine entsprechende Bewertung bieten die Tools webpagetest.org oder Google Pagespeed Insights. Lädt die Seite zu langsam, gibt es verschiedene Optimierungsmöglichkeiten. Folgen Sie zur Verbesserung diesen Punkten: Komprimieren Sie sämtliche Bilder, nutzen das Caching für statische Inhalte wie CSS, Javascript und Fotos. Verfügt der Server über ausreichende Kapazitäten und verwenden Sie ein Content Delivery Network (CDN)?

Sind alle Weiterleitungen korrekt eingerichtet?

Sobald sich Redirects auf Ihrer Webseite befinden, die für den dauerhaften Betrieb ausgelegt sind, müssen diese in Form von 301-Redirects eingebunden sein. Zur Überprüfung der fachgerechten Implementierung gibt es Tools wie Xenu Link Sleuth oder Screaming Frog. Im besten Fall sind alle Weiterleitungen korrekt eingerichtet. Bei Abweichungen können temporäre 302-Redirects eingerichtet sein. Prüfen Sie, ob diese tatsächlich nur zeitweise interagieren. Falls nicht, passen Sie die Weiterleitungen an.

Gibt es womöglich zu viele Redirect-Ketten?

Pro Aufruf einer Seite findet normalerweise lediglich ein einziger Redirect statt. Mit dem Tool von Firefox-Plug-in Firebug lässt sich diese Weiterleitung überprüfen. Existieren ungewollte Redirect-Ketten, die einer ordnungsgemäße Weiterleitung zur gewünschten Seite verhindern, müssen diese sofort aufgelöst werden. Mithilfe der .htaccess-Datei kann der Fehler korrigiert werden, sofern die Website von einem Apache-Webserver ausgespielt wird.

Wurde die robots.txt richtig aufgesetzt?

Gibt es auf Ihrer Webpräsenz ungewollt blockierte Seiten? Überprüfen Sie die robots.txt auf diese Option. Wichtige Ressourcen wie CSS-Dateien oder Javascript müssen für die Crawler freigegeben sein. Liegen keinerlei unbeabsichtigte Blockaden vor, stehen alle dringend benötigten Ressourcen für die Seite zur Verfügung. Im Falle einer Fehlermeldung entfernen Sie die Einträge in der robots.txt-Datei, damit Ihre Website möglichst rasch in vollem Umfang arbeiten kann.

Sind die Sitemaps für Google vorhanden?

Während sich HTML-Sitemaps vorwiegen an die User richten und in erster Linie zur persönlichen Orientierung dienen, erleichtern Sitemaps-Protokolle vor allem die Indexierung für die Suchmaschinen. Sogenannte XML-Sitemaps sorgen für eine möglichst vollständige Kategorisierung, welche URLs von einer Webseite unterhalten werden. Im Notfall sind HTML-Sitemaps für den Anwender verzichtbar, eine XML-Sitemap sorgt allerdings für aktuelle Listungen bei Google & Co., da die Suchmaschinen diese Art von Sitemap auslesen können.

Wie steht es um Broken Links?

Ein defekter oder toter Link ohne zusätzlichen Nutzen zeigt eine vorhandene Ressource mehr auf. Beim Anwählen des URL liefert der Server in der Regel den HTTP-Statuscode „404 Not Found“. Findet man auf der Webseite solche Broken Links, müssen diese bei Bedarf entfernt oder alternativ angepasst werden. Mit geeigneten Softwaretools wie Xenu Link Sleuth oder Screaming Frog können sowohl interne als auch externe Links überprüft werden.

Laufen Flash, Javascript und iFrames richtig?

Arbeitet die Webseite optimal, sind Inhalte auch ohne Javascript erreichbar, auf Flash wird verzichtet und iFrames kommen erst gar nicht zur Anwendung. In den meisten Fällen aber verursachen diese Komponenten Fehlerquellen. Da Javascript von mehr als 90 Prozent der User verwendet wird, birgt diese Software kaum Schadenspotenzial. Anders bei Flash und iFrames. Wenn möglich, sollten alle Flash-Inhalte und iFrames durch andere Inhalte ersetzt werden und in die bestehende Webseite eingebunden werden.

Die Seitenstruktur der Webseite

Webseiten sollten über eine klar definierte Hierarchie verfügen. Je strukturierter Kategorien- und Unterseiten aufgebaut sind und mit thematischen Verlinkungen ausgestattet sind, desto besser die Sichtbarkeit. Hier sorgt eine optimierte Indexierung durch die Crawler von Google & Co. für ein gesteigertes Ranking.

Eine flache Seitenhierarchie ist wichtig

Hier kommt es im Besonderen auf die Größe der betreffenden Webseite an. In der Regel bestehen maximal vier Strukturebenen, die nach dem Schema Startseite, Kategorie, Unterkategorie und Landing Page aufgebaut sind. Ist die Gliederung zu tief, besteht die Gefahr, dass die unteren Seiten von den Crawlern der Suchmaschinen nicht erreicht werden. Ergebnis: Wichtige Inhalte bleiben so gut wie verborgen und die Sichtbarkeit leidet. In diesem Fall sollte die Seitenhierarchie flacher gestaltet werden.

Interne Verlinkung zu anderen Themen

Die horizontale Verlinkung mit themenverwandten Inhalten wird üblicherweise bereits beim Aufbau der Webseite berücksichtigt. Einer fehlenden internen Verlinkung kann mit einfachen Plug-ins nachgeholfen werden. Je nach passendem CMS (Content Management System) wendet man diese Software-Komponenten an, um auf verwandten Seiten genau diese Links anzuzeigen. Für User noch prägnanter: Keywords und Themenrelevanz unter „ähnliche Artikel“ zusammenfassen.

Vermeiden Sie zu viele Links auf einer Seite

Dass qualitativ gute Links einer Webseite viel Power verleihen können, ist bekannt. Doch die Verteilung der Aussagekraft hängt von der Anzahl der gesetzten Links ab. Umso mehr Verknüpfungen es gibt, desto schwächer wird jeder Link. Außerdem betrachten die Suchmaschinen eine zu hohe Anzahl an Links auf einer Webpräsenz eher kritisch. Die Zahl der platzierten Querverweise sollte daher nicht mehr als 20 bis 50 Stück betragen. Übersteigt die Summe diese Referenz, entfernen Sie nicht unbedingt sinnvolle Links. Das Setzen von „nofollow“ reicht nicht aus.

Den internen PageRank beachten

Wie stark Unterseiten einer Website verlinkt sind, lässt sich nicht auf den ersten Blick erkennen. Es macht Sinn, verkaufsstarke Landing Pages stärker zu verlinken als das Impressum, FAQ oder die AGB. In Summe kommt es nicht nur auf die reine Anzahl an, sondern auch auf die Stärke des jeweiligen Links. Dazu ist es nötig, den internen PageRank für jede Unterseite zu berechnen. Je höher der Wert, desto mächtiger ist die Seite hinsichtlich ihrer Verlinkungsstärke.

Der perfekte Content der Webseite

Damit guter Content von Ihren potenziellen Kunden nicht nur geschätzt, sondern auch von Google gut bewertet wird, dürfen Kardinalfehler erst gar nicht passieren. Das einfallslose Kopieren von Inhalten wird von den Suchmaschinen mit einem schlechteren Ranking betraft und auch sonst gibt es im Bezug auf Texte einiges zu beachten, wenn man Top-Suchergebnisse erreichen möchte.

Achten Sie auf Duplicate Content

Duplizierte Inhalte können auf unterschiedliche Art und Weise die Performance von Webseiten negativ beeinflussen. Unachtsamkeiten wie doppelt formulierte Titel oder Description sowie Seiten, die unter verschiedenen URLs aufrufbar sind, sollten keine Chance zum Fortbestand erhalten. Auch wiederholte Texte auf unterschiedlichen Seiten sind pures Ranking-Gift. Achten Sie darauf, dass die Domain entweder mit oder ohne „www“ erreichbar ist und HTTP nicht mit HTTPS konkurrieren muss. Gibt es dennoch Seiten mit doppelten Inhalten, die bestehen bleiben sollen, setzen Sie diese auf „noindex“.

Überschriften richtig aufbauen und strukturieren

Konstruktive Aufteilung ist alles. Eine H1-Überschrift pro Seite ist genug, es dürfen aber gerne etwas mehr H2- und H3-Unterschriften sein. Achten Sie bei der Gliederung auf einen maßvollen Umgang, fehlt eine H1-Überschrift, sollte diese unbedingt ergänzt werden – zu viele davon müssen eliminiert werden.

Regen die einzelnen Überschriften zum Lesen an?

Unspektakuläre Überschriften ohne Anreiz zum Klicken werden keinen Traffic generieren. Deshalb müssen Headlines so formuliert sein, dass sie neugierig machen, ohne falsche Eindrücke zu erwecken, oder sich auf unwahre Versprechungen zu konzentrieren. Beziehen Sie sich daher immer auf die Inhalte der Seiten und bemühen sich um einen neutralen Sachverhalt.

Wurden die Bilder alle optimiert?

Die inhaltliche Relevanz muss bei Bildern immer klar für die Suchmaschinen erkennbar sein. Weder dürfen die Dateien zu groß sein noch der Themenbezug fehlen. Damit die Webseite schnell laden können, müssen Bilder komprimiert übertragen werden und über einen Alt-Tag verfügen. Für deren Dateinamen wählt man zudem einen direkten Bezug zum Inhalt. Sollte bestehendes Bildmaterial nicht den erforderlichen Parametern entsprechen, sollten zumindest diese entsprechend perfektioniert werden.

Eine gute und nicht zu lange URL

Optimierte URLs sind ein entscheidender Ranking-Faktor. Seiten-URLs funktionieren ohne Session-ID, sind statisch und enthalten das jeweilige Ziel-Keyword. Achten Sie darauf, keine Leerzeichen in den URLs zu integrieren. Außerdem sollten überlange URLs vermieden werden. Sofern fehlerhafte URLs angepasst werden müssen, vergessen Sie nicht auf eine permanente Weiterleitung auf die neue Ressource.

Strukturierter und guter Text

Jeder Artikel auf der Webseite sollte zumindest eine Länge von 100 bis 200 Wörtern aufweisen. Nach dem Panda-Update von Google legt die Suchmaschine einen besonders hohen Wert auf Qualitätsinhalte. Weist die Seite viele kurze Texte auf, überlegen Sie diese entweder erheblich zu erweitern oder vollständig offline zu nehmen. Wird die Website in Google News geführt, übernimmt die Textmindestlänge ein wesentliches Ranking-Kriterium.

Achten Sie auf Rechtschreibung und Grammatik

Im Idealfall ist die Webseite frei von jeglichen grammatikalischen und Rechtschreibfehlern. Meist können durch einfache Korrekturen die gröbsten Fehler eliminiert werden. Falsch gesetzte Kommata und orthografische Missgeschicke vermitteln nicht nur einen schlechten Eindruck, sie wirken unprofessionell und sind nicht dem Ausdruck einer Fachkraft würdig.

Metadaten als wichtige SEO-Instrumente

Die Metadaten sind ein essenzieller Bestandteil auf jeder einzelnen Webseite. Sie sollen zum Klicken animieren, aussagekräftig sein und User als auch Suchmaschinen über bestehende Inhalte informieren. Dieses SEO-Instrument entscheidet auch im Alleingang darüber, ob eine Webseite erfolgreich rankt oder abgeschlagen in den hinteren Platzierungen zu finden ist.

Ein ansprechender Titel

Knackig, maximal 70 Zeichen und inklusive des Ziel-Keywords – exakt so sollte der ideale Titel aussehen. Zu kurze oder miserabel formulierte Titles müssen neu konzipiert werden. Testen Sie die Verbesserung der Ergebnisse in der Google-Ergebnisspalte.

Einbauen von wichtigen Meta-Keywords

Für das Ranking sind Meta-Keywords nicht mehr relevant, allerdings verwenden manche CMS Plug-ins diese Information, um verwandte Artikelinhalte zu erkennen und auszuspielen. Zu viele Meta-Keywords ergeben keinerlei Sinn mehr, sind diese bereits in der Webseite eingebunden, sollten sie reduziert werden.

Alles zum Thema Google Webmaster Tools

Mit den Google Webmaster Tools lassen sich in kurzer Zeit die größten Probleme bei einer fehlerhaften Indexierung erkennen. Dazu zählen unter anderem verhängte Google-Strafen, unvollständige oder fehlende Sitemaps und Duplicate Content. Ein Check mit diesem interessanten Werkzeug erspart viel Zeit und Nerven.

Crawling-Fehler und Statistiken

Die Crawling-Statistik zeigt erste Anhaltspunkte auf, ob die Webseite mit einem technischen Problem zu kämpfen hat. Nicht erreichbare Seiten oder Fehlermeldungen des Servers sind entscheidende Fehler, die beim Crawlen auftreten können. Soft 404-Irrtümer ohne passenden Fehlercode oder zu lange Ladezeiten – in dieser Statistik liefert der Googlebot interessante Anhaltspunkte.