Alle Google Search Console Fehlermeldungen [Und Lösungen]

Da die Technical SEO FAQ etwas zu lang geworden ist, wird auf dieser Seite alles an Fehlermeldungen aufgelistet, die die Search Console betrifft.

Übersicht aller Fragen:

  • Durch ’noindex‘-Tag ausgeschlossen
  • Seite mit Weiterleitung
  • Nicht gefunden (404)
  • Alternative Seite mit richtigem kanonischen Tag
  • Duplikat – vom Nutzer nicht als kanonisch festgelegt
  • Wegen eines anderen 4xx-Problems blockiert
  • Soft 404
  • Wegen Zugriffsverbot (403) blockiert
  • Serverfehler (5xx)
  • Umleitungsfehler
  • Gecrawlt – zurzeit nicht indexiert
  • Gefunden – zurzeit nicht indexiert
  • Duplikat – Google hat eine andere Seite als der Nutzer als kanonische Seite bestimmt
  • Durch Robots.txt blockiert

Seitenindexierung

Durch ’noindex‘-Tag ausgeschlossen

Was ist das? Meist wurde hier bei einem Live-Gang oder Relaunch einfach vergessen, das noindex-Tag der Entwicklungsumgebung zu entfernen (schon mind. 20 mal erlebt). Die Anweisung sagt dem Robot, dass diese Seite entsprechend nicht in den Suchmaschinenindex aufgenommen werden soll.

Lösung: Das Meta Robots-Tag muss entweder aus dem <head> entfernt werden (keine Anweisung = Indexierung) oder man ändert das Tag um, sodass es wie folgt aussieht:

<meta name="robots" content="index">

Pro Tip: Pfiffige Entwickler arbeiten manchmal serverseitig mit dem X-Robots-Tag. Dieser muss dann auf Server-Config-Ebene entfernt werden. Finden könnt ihr diesen, wenn ihr euch die Response-Header der Dokumente anschaut.

Seite mit Weiterleitung

Was ist das? Diese URL ist eine Weiterleitungsseite. Möglicherweise enthält sie einen 301- oder 302-Statuscode, der auf eine andere Seite verweist.

Lösung: Hier kann man selbst entscheiden, wie man mit der Seite umgehen möchte. Wenn ihr wisst, dass die Weiterleitung so sein soll, muss hier auch nichts weiter gemacht werden. Wenn die anzeigte Weiterleitung nicht gewünscht ist, müsst ihr die Weiterleitung in eurem CMS, der .htaccess (Apache) oder der nginx Config bearbeiten.

Nicht gefunden (404)

Was ist das? Der Klassiker, die Seite wurde nicht gefunden. 404 bedeutet hier offiziell, dass die Seite nicht da ist, aber bald wieder verfügbar ist.

Lösung: Seht zu, dass sie wieder auftaucht 😉

Wenn ihr wollt, dass die Seite für immer verschwindet, arbeitet stattdessen mit dem 410 Code (=gone).

Aber Obacht: Die 410 Fehler werden in der Search Console ebenfalls bei den 404s gelistet, nicht verwirren lassen.

Alternative Seite mit richtigem kanonischen Tag

Was ist das? Es wurde eine Seite gefunden, die per Canonical-Tag auf eine andere Seite verweist. Zum Beispiel eine Kategorieseite mit einem Parameter, die auf die nackte URL der Kategorieseite zeigt.

Lösung: Diese Meldung ist eher als Hinweis einzustufen, da Googles Canonical-Mechanismus somit korrekt funktioniert.

Duplikat – vom Nutzer nicht als kanonisch festgelegt

Was ist das? Ähnlich zum Vorgänger werden hier Seiten aufgelistet, die offensichtlich Duplikate von anderen, indexierten, Seiten sind. Der Unterschied ist nur, dass Google kein Canonical-Tag gefunden und selbst entschieden hat, welche Seite das Original ist.

Lösung: Geht hier einfach die Liste durch und entscheidet selbst, ob da URLs auftauchen, die indexiert werden sollten. Falls ja, setzt auf den entsprechenden Inhaltstypen ein Canonical-Tag.

Wegen eines anderen 4xx-Problems blockiert

Was ist das? Die Seite wirft einen 4xx Status-Code, der kein 403, 404 oder 410 ist. Meist ist es ein 400er Error, der bedeutet: Bad Request. Das bedeutet widerrum meist, dass der Crawler eine fehlerhafte URL bekommen hat.

Lösung: Identifiziert den genauen Error Code im Inspect Tool und fixt ihn oder seht zu, dass dieser Link nicht vom Crawler erreichbar ist.

Soft 404

Was ist das? ,,Der beste 404 ist kein 404″ denken sich manche Entwickler. Ein Soft 404 zeigt ähnliche, nicht hilfreiche Inhalte an, wie es eine 404 Seite tut. Mit dem kleinen Unterschied, dass ein 200er ausgespielt wird (= OK). Google bestraft dies, da die 200er Seiten Crawl-Budget auffressen ohne einen Mehrwert zu liefern.

Lösung: Wenn ihr Seiten mit einem 200er Code ausspielt, achtet darauf, dass dort auch gescheiter Content verfügbar ist. Wenn die betroffene Seite wirklich nur ,,Artikel nicht verfügbar“ anzeigt, gebt ihr einen 404 Code.

Wegen Zugriffsverbot (403) blockiert

Was ist das? Der 403 Error bedeutet ,,Forbidden“ und weist auf ein Authentifizierungsproblem hin. Meist sind es Links zu User Bereichen oder Links zu internen Entwicklungsumgebungen.

Lösung: Überprüft die Serverberechtigungen, falls die Seite fälschlicherweise nicht zugreifbar ist. Falls es eine Seite ist, die ihr nicht zugänglich machen wollt, findet die Links zu der Seite und entfernt sie.

Serverfehler (5xx)

Was ist das? Googles absoluter Endgegner, der ,,Internal Server Error“. Serverseitig liegt ein Problem vor, PHP Fehler sind bei kleinen Systemen wie WordPress meist verantwortlich dafür (zu 90% in der functions.php).

Lösung: Schaut euch die Serverlogs an und behebt diese. Prio 1.

Umleitungsfehler

Was ist das? Hierbei handelt es sich meist um Weiterleitungsketten, die nie enden.

Lösung: Fixt die entsprechende Weiterleitung. In den Chrome Dev-Tools könnt ihr die Umleitungen verfolgen und eingrenzen.

Gecrawlt – zurzeit nicht indexiert

Was ist das? Google hat euch bereits gecrawlt und auf dem Schirm. Entweder ihr habt noch zu wenig Geduld, zu wenig Crawl Budget oder noch keinen Trust bei Google.

Lösung: Meist heißt die Lösung hier: Warten. Um den Prozess zu beschleunigen, könnt ihr die Seitenqualität erhöhen und mit internen Links zu dieser Seite arbeiten.

Gefunden – zurzeit nicht indexiert

Was ist das? Ähnlich zum Vorgänger, mit dem Unterschied, dass Google die Seite noch nicht einmal gecrawlt hat.

Lösung: Siehe vorherige Lösung. Dieser Fehler/Hinweis erscheint aber eher bei Seiten, denen Google weniger Trust zuspricht oder wenn Google einfach zu viele URLs in der Warteschlange hat.

Duplikat – Google hat eine andere Seite als der Nutzer als kanonische Seite bestimmt

Was ist das? Google hat sich für eine andere kanonische URL entschieden, als ihr ursprünglich vorgeschlagen habt. Dieser Fehler ist eigentlich ein großes Alarmsignal, da Google euren Canonical-Tags misstraut und selbst entscheidet.

Lösung: Schaut euch die Liste an und fragt euch, wieso Google eure Canonicals nicht mag. Aus Erfahrung kann ich sagen, dass es fast immer an einer fehlerhaften Trailing Slash Konfiguration liegt.

Durch Robots.txt blockiert

Was ist das? Die URL ist vom Crawling durch eine Direktive in der robots.txt-Datei ausgeschlossen.

Lösung: Falls die URL fälschlicherweise geblockt wird, müsst ihr eure robots.txt anpassen. Euren robots.txt Bericht findet ihr hier: Search Console. Und testen könnt ihr sie einfach bei technicalseo.com.