Google Tipps

Sie haben einen Tipp für Google schreiben Sie ihn uns doch.

Webmaster-Tools:                                      Der Werkzeugkasten für Webmaster

Die Google Webmaster-Tools sind eine Sammlung verschiedener Werkzeuge zur grundlegenden Analyse der eigenen Webseiten im Hinblick auf die Darstellung in und die Auffindbarkeit über Googles Suchmaschine. Darüber hinaus sind einige Tools enthalten, mit denen man die Indizierung unterstützen und in gewissem Maße auch beeinflussen kann. Da die Informationen über die eigene Webseite aus erster Hand – nämlich von Google selbst – stammen und die angebotenen Dienste zudem auch noch kostenlos zur Verfügung gestellt werden, gehört die Nutzung der Webmaster-Tools geradezu zum Pflichtprogramm jedes Webmasters. Wie man die Tools nutzt und welche Möglichkeiten sie bieten, soll im Folgenden kurz vorgestellt werden.

 

  • In einem ersten kurzen Abschnitt betrachten wir die grundlegende Einrichtung der eigenen Website bei den Webmaster-Tools.
  • Im zweiten Abschnitt befassen wir uns mit den Analysewerkzeugen , die Google zur Verfügung stellt und wie man diese für die Optimierung der eigenen Website einsetzten kann.
  • Im letzten Abschnitt betrachten wir schließlich die Funktionen der Google Webmaster-Tools, die es ermöglichen Einfluss auf die Indexierung und die Darstellung der eigenen Website in den Ergebnisseiten der Suchmaschine zu nehmen.

 

 

Einrichtung / Webseite hinzufügen

Als grundlegende Voraussetzung ist, wie bei vielen anderen Google-Diensten, auch bei den Webmaster-Tools zur Nutzung ein Google Konto notwendig. Um eine Website mit Hilfe der Webmaster-Tools zu analysieren, ist es zudem notwendig gegenüber Google zu bestätigen, dass man auch tatsächlich dazu berechtigt ist. Nachdem man auf „Website hinzufügen“ geklickt und die URL eingegeben hat, bietet Google als empfohlene Methode dazu eine HTML-Datei mit einem kryptischen Namen an, die man in das Basisverzeichnis seiner Website hochladen muss. Anschließend reicht ein Klick auf „Bestätigen“ und die Inhaberschaft der Webseite ist gegenüber den Google Webmaster-Tools bestätigt.

 

Alternativ bietet Google vier weitere Methoden zur Bestätigung an. Wer bereits Google Analytics auf seiner Webseite einsetzt und den asynchronen Tracking-Code im Seitenkopf hinterlegt hat, sollte diese Methode nutzen. Sind die Voraussetzungen erfüllt, muss hierbei nämlich keine zusätzliche Anpassung auf dem Webserver vorgenommen werden, was diese alternative Methode besonders komfortabel macht. Ein einfacher Klick auf den Button genügt und Google kann die Inhaberschaft erkennen, sofern Analytics mit dem selben Google-Konto genutzt wird, wie die Webmaster-Tools. Nach dem Hinzufügen der Webseite und der durchgeführten Bestätigung stehen vorerst noch keine Informationen zur Verfügung. In der Regel dauert es einige Tage, bis Google ausreichend Daten ermittelt hat, um aussagekräftige Analysen bereit zu stellen.

 

Analysetools: Wo steht meine Webseite und wie entwickelt sie sich?

Mit Hilfe der Analysemöglichkeiten, welche die Webmaster-Tools bieten, kann man sich ein recht gutes Bild davon machen, über welche Wege Besucher auf die eigene Webseite finden und welche Suchbegriffe sie dafür bei der Suche über Google verwenden. Darüber hinaus sind Tools enthalten, die das Auffinden von Fehlernerleichtern, die sich gegebenenfalls negativ auf das Ranking in den Suchergebnissen auswirken können oder die das Surferlebnis der Besucher auf der Website negativ beeinflussen. Beide Faktoren sind im Übrigen recht eng miteinander verknüpft, denn der Google-Algorithmus bevorzugt beim Ranking Webseiten, die ihren Besuchern ein positives Surferlebnis vermitteln. Dieser Aspekt spiegelt sich deshalb auch in den Analysetools wieder. Im Folgenden sind nur die wichtigsten Tools kurz vorgestellt. Diese ermöglichen eine gute Einschätzung darüber, wo die eigene Webseite insbesondere auch für den Vergleich zu Mitbewerber-Angeboten positioniert ist und wie sie sich in letzter Zeit entwickelt hat.

 

1. Suchanfragen:

Hinter dem Menüpunkt „Suchanfragen“ versteckt sich sicherlich eine der wichtigsten Funktionen im Werkzeugkasten der Google Webmaster-Tools. In dieser Übersicht lässt sich sehr einfach ablesen, über welche Suchworte und Suchwortkombinationendie meisten Besucher auf die eigene Webseite finden. Neben der Klickrate findet sich hier auch eine Angabe dazu, auf welcher durchschnittlichen Position in den Google-Suchergebnissen sich die eigene Website zu dem jeweiligen Suchwort findet. Über die Spalte „Impressionen“ erhält man zudem einen groben Überblick darüber, welche Suchbegriffe häufig verwendet werden. Fällt dieAnzahl der Impressionen hoch aus und man erreicht trotz guter Platzierung eher mäßige Klickraten, kann dies ein Hinweis darauf sein, dass Seitentitel und Beschreibung nicht gut gewählt wurden.

Außerdem kann man sich anzeigen lassen, wie sich diese Werte im Zeitverlauf ändern. Mit den hier gewonnenen Informationen lässt sich die weitere Optimierung planen. Stellt man beispielsweise fest, dass die eigene Webseite bei wichtigen Keywords langsam in den Suchergebnisseiten nach unten rutscht, sollten man diesen wieder etwas mehr Aufmerksamkeit widmen. Gleichzeitig zeigt eine steigende Positionierung, wie erfolgreich eine vorhergehende Optimierungsaktivität war. Über das Sternsymbol können betreffende Suchbegriffe oder -phrasen als Favoriten gekennzeichnet werden und lassen sich so leichter in der Übersicht wiederfinden. So markierte Keywords verliert man nicht so schnell aus den Augen.

 

2. Links zu Ihrer Webseite und Interne Links:

Wer wissen möchte wie die eigene Webseite im Web verlinkt ist und auf welche Inhalte verlinkt wird, der sollte einen Blick auf den Menüpunkt „Links zu Ihrer Website“ werfen. Hier finden sich – neben der Anzeige der Gesamtzahl der Links – auch drei Tabellen, aus denen hervorgeht, von welchen externen Websites auf welche der eigenen Inhalte mit welchen Keywords verlinkt wird. Über diese Informationen lässt sich herausfinden, welche der eigenen Inhalte bei anderen Webmastern oder in sozialen Netzwerken besonders beliebt sind. Dies ist ein guter Ansatzpunkt um entsprechende Inhalte gezielt auszubauen und damit die Vernetzung mit dem restlichen Web zu verbessern.

Auskunft über die interne Verlinkung der Inhalte auf der eigenen Website, gibt der Menüpunkt „Interne Links“. Hier findet sich eine Liste der einzelnen Unterseiten einschließlich der Zahl der jeweiligen eingehenden Links von der eigenen Domain. Ein Klick auf die URL listet sämtliche von Google gefundene interne Links auf. Inhalte der eigenen Website, die besonders wichtig sind, sollten in dieser Übersicht entsprechend weit oben auftauchen, da die interne Verlinkungsstruktur ein Indikator dafür ist, welche Unterseiten einen hohen oder weniger hohen Stellenwert einnehmen. Spiegeln die internen Links absolut nicht die Relevanz der Inhalte wider, sollte man hier unbedingt nachbessern. Im Hinblick auf das Nutzererlebnis gilt es, das Setzen von internen Links nicht zu übertreiben. Nur dort wo es für den Nutzer auch einen Mehrwert bietet, sollte ein Link zu einer themenrelevanten Unterseite der eigenen Webpräsenz gesetzt werden.

 

3. Indexierungsstatus und Content-Keywords:

Unter der Rubrik „Google-Index“ befinden sich die beiden Menüpunkte „Indexierungsstatus“ und „Content-Keywords“. Neben den bereits erwähnten „Suchanfragen“ bieten diese beiden Tools wichtige Hinweise darauf, wie die eigene Webseite im Suchindex von Google vertreten ist. Gleichzeitig können hier auch Probleme erkannt werden.

Der Menüpunkt „Indexierungsstatus“ beinhaltet auf den ersten Blick lediglich ein Diagramm, dass die Anzahl der indexierten Unterseiten im Zeitverlauf darstellt. Dies bietet erste Hinweise darauf, ob Google auch tatsächlich sämtliche bereit gestellten Inhalte findet und in den Suchindex aufnimmt. Ein Klick auf „Erweitert“ fördert weitere Optionen zu Tage. Hier sei nur kurz auf die Option „Von Robots blockiert“ hingewiesen. Der dort aufgeführte Zahlenwert (der auch im Diagramm angezeigt werden kann) gibt an, wie viele Unterseiten aufgrund der robots.txt-Datei blockiert werden. Erscheint dieser Wert besonders hoch, sollte man einen genaueren Blick auf die Datei werfen. Testmöglichkeiten dazu bietet auch ein weiteres Tool aus Googles Werkzeugkasten.

Unter „Content-Keywords“ befindet sich eine Rangliste der auf der eigenen Webseite verwendeten Keywords, geordnet nach der Bedeutung, die Google diesen aufgrund der Häufigkeit und anderer Faktoren zu misst. Ähnlich wie bei der internen Verlinkung sollten hier wichtige Keywords entsprechend weit oben auftauchen. Andernfalls sollten geeignete Maßnahmen ergriffen werden, um deren Bedeutung und Relevanz für die Webseite zu unterstreichen. Ein Klick auf das jeweilige Keyword fördert weitere Informationen zutage. Neben einer kurzen Liste mit einer Auswahl der URLs auf denen der Suchbegriff genutzt wird, ist auch angegeben wie häufig das Keyword insgesamt auf der Webseite verwendet wird.

 

4. Crawling-Fehler und robots.txt-Tester:

Als Crawling wird der Abruf von Webseiten durch Programme einer Suchmaschine – sogenannte Bots, Crawler oder auch Spider – bezeichnet. Treten dabei Fehler auf kann der Inhalt nicht analysiert und die Seite somit nicht in den Suchmaschinenindex aufgenommen werden. Diese Crawling-Fehler können verschiedene Ursachen haben. Bei den Webmaster-Tools findet sich unter dem Menüpunkt „Crawling-Fehler“ ein Diagramm und eine Liste der Fehler, denen der Googlebot beim Crawling der Webseite begegnet ist. Im wesentlichen handelt es sich dabei um Serverfehler oder 404er. Für erstere sind in der Regel Fehler in der Programmierung der Website oder bei der Konfiguration des Servers verantwortlich. Tauchen Serverfehler auf, sollte man unbedingt aktiv werden. Neben Problemen beim Crawling können diese auch Sicherheitslücken verursachen.

Weniger dramatisch aber ebenso ärgerlich sind die berühmten 404er „Seite nicht gefunden“-Fehler. Diese kommen durch fehlerhafte Links oder gelöschte Seiten zustande, die jedoch an irgendeiner Stelle noch verlinkt sind. Da dies das Surferlebnis der Besucher negativ beeinflusst, sollten entsprechende Fehlerseiten tunlichst vermieden werden. Wer landet schon gerne auf einer Fehlerseite, wenn er sich wertvolle Inhalte erhofft hatte? Eine Variante der „richtigen“ Fehlerseiten führen die Webmaster-Tools unter dem Punkt „Crawling-Fehler“ als „Soft 404“ auf. Dabei handelt es sich um Seiten die offensichtlich über keinen Inhalt (mehr) verfügen, aber dennoch nicht den Statuscode 404 im Header mitsenden. Eine große Anzahl dieser Fehler weißt auf einen fehlerhaft konfigurierten Server oder Probleme mit dem Content Management System oder der Blogsoftware hin. Tauchen „Soft 404“-Fehler neu auf, sollte man sich diese genau anschauen und wenn möglich deren Ursache beheben.

Mit der der Datei robots.txt, die sich in der Regel im Wurzelverzeichnis der Webseite befindet kann man gezielt das verhalten von Suchmaschinen-Crawlern beeinflussen. Im Wesentlichen geht es darum einzelne Inhalte von der Indizierung und damit der Listung bei Suchmaschinen auszuschließen. In den meisten Fällen sieht der Inhalt der robots.txt-Datei recht überschaubar aus. Mit zwei Zeilen erlaubt man allen Suchmaschinen sämtliche Inhalte in ihren Index aufzunehmen. Hat man speziellere Anforderungen kann sich dort auch ein ganzes Sammelsurium an Regeln finden. Möchte man wissen, ob die eingerichtete robots.txt-Datei wunschgemäß vom Googlebot interpretiert wird, hilft ein Blick auf den Menüpunkt „robots.txt-Tester“ in der Rubrik „Crawling“. Dort findet sich der Inhalt der robots.txt, wie sie der Googlebot bei seinem letzten Abruf vorgefunden hat. Darunter werden Fehler und Warnmeldungen aufgeführt. Darüber hinaus bietet sich die Möglichkeit über ein Eingabefeld einzelne URLs zu prüfen. Dabei stehen die verschiedenen Crawler, die Google zur Indexierung von Webseiten, Bildern, Viedos und Nachrichten einsetzt zur Auswahl bereit. Was nützt die interessanteste Webseite, wenn ihre wichtigsten Inhalte aufgrund einer falsch angelegten robots.txt nicht gefunden werden?

 

5. HTML-Verbesserungen:

Zum Abschluss der Beschreibung der wichtigsten Analysetools noch ein Werkzeug, das sich ebenfalls auf das Surferlebnis der Besucher bezieht und deshalb auch Beachtung bekommen sollte. Unter der Rubrik „Darstellung der Suche“ befindet sich der Menüpunkt „HTML-Verbesserungen“. Dort finden sich Hinweise zu doppelten, fehlerhaften oder wenig hilfreichen, weil zu langen oder zu kurzen, Meta-Beschreibungen oder Seitentiteln.

Auch wenn beide Elemente einer HTML-Seite beim aktiven Surfen oftmals eine untergeordnete Rolle spielen, sind sie für die Darstellung in Suchmaschinen umso relevanter. Aussagekräftige Titel und Meta-Beschreibungen helfen dem potenziellen Besucher auf den Suchergebnisseiten zu entscheiden, ob die eigene Webseite den gesuchten Inhalte bietet. Diesem Tool sollte man daher immer wieder mal etwas Aufmerksamkeit schenken, um grobe Fehler auszubügeln.

Dem Google Bot unter die Arme greifen

Die Funktionen der Google Webmaster Tools sind allerdings mit der Bereitstellung und Auswertung von Daten zur Webseite längst noch nicht erschöpft. Der Werkzeugkastenenthält auch einige Tools, mit denen man dem Googlebot etwas unter die Arme greifen kann. Selbstverständlich ist es nicht möglich, das Indexierungsverhalten aktiv zu manipulieren, vielmehr kann man die nachfolgend vorgestellten Funktionen als eine Art Hinweismöglichkeit für Google verstehen. Hält man sich dabei an die Regeln, dann sind diese allerdings recht nützlich.

 

1. XML-Sitemaps:

Die wohl wichtigste Möglichkeit, um Google mitzuteilen, welche Unterseiten zu einer Website gehören und welche neu hinzugekommen sind, ist sicher das Einrichten einer oder mehrerer XML-Sitemaps. Dabei handelt es sich um recht einfach aufgebaute XML-Dokumente, die eine Auflistung der einzelnen HTML-Seiten enthalten. Da es sich dabei um ein festgelegtes Protokoll handelt, werden entsprechend eingerichtete XML-Sitemaps auch von den Crawlern anderer Suchmaschinen unterstützt. Man schlägt also gleich mehrere Fliegen mit einer Klappe. Hat man eine Sitemap eingerichtet und Google über die Webmaster-Tools den Standort dieser verraten, dann kann man unter dem Menüpunkt „Sitemap“ in der Rubrik „Crawling“ nachschauen, wie viele der per XML-Sitemap eingereichten URLs Google bereits in seinen Suchindex aufgenommen hat. Zu kritisch sollte man die dort aufgeführten Werte allerdings nicht betrachten. Es gibt Fälle in denen die Anzahl der indexierten Seiten auf einem Wert verharrt obwohl tatsächlich neue Seiten hinzugekommen sind. Diese Angabe muss jedoch nicht den Tatsachen entsprechen. Meist sind die Seiten trotzdem im Index von Googles Suchmaschine und werden über die Suche gefunden. Das Augenmerk sollte in der Seitemap-Ansicht hauptsächlich auf der Spalte Probleme liegen. Tauchen hier Fehler auf, sollte man diese möglichst zeitnah beheben, um die richtige Funktionalität der Sitemap zu gewährleisten.

 

2. Sitelinks:

Im Gegensatz zu den Anfängen der Suchmaschinen, erkennt Google mittlerweile mehr und mehr die inhaltlichen Zusammenhänge auf einer Webseite. Ein noch recht einfaches Ergebnis davon, sind die sogenannten „Sitelinks“. Dabei handelt es sich um zusätzliche Links, die unterhalb des jeweiligen Eintrags auf den Suchergebnisseiten angezeigt werden. Besonders hilfreich ist dies, wenn die Website eine klare Struktur aufweist. So werden zum Beispiel zu einem Ergebnis eines konkreten Produkts eines Online-Shops zusätzlich Links zu relevanten Rubriken im selben Shop angezeigt. Sollte es vorkommen, dass diese Zuordnung nicht wunschgemäß vorgenommen wurde, dann bieten die Webmaster Tools unter der Rubrik „Darstellung der Suche“ den Menüpunkt „Sitelinks“ einzugreifen. Hier kann man Google veranlassen, unerwünschte Sitelinks abzuwerten, damit diese nicht mehr in den Suchergebnissen angezeigt werden.

 

3. Data Highlighter:

Wer Google noch mehr über die Bedeutung der Inhalte der eigenen Webseite und deren Struktur verraten möchte, der kann dies mit Hilfe des „Data Highlighter“ tun. Dieser befindet sich unter dem gleichnamigen Menüpunkt in der Rubrik „Darstellung der Suche“. Über den Button „Makieren starten“ kann man durch Eingabe einer URL bestimmte Datentypen festlegen, die sich auf der jeweiligen Seite befinden.

Zur Auswahl stehen hier Artikel, Produkte, Ereignisse und weitere Datentypen. Anschließend zeigt Google den jeweiligen Inhalt der eingegebenen URL an. Nun kann man die relevanten Stellen markieren und Google mitteilen um was es sich dabei handelt. So kann man zum Beispiel den Namen eines Produktes markieren und Google dadurch mitteilen, dass es sich dabei um den Namen handelt und nicht etwa um die Produktbeschreibung. Diese Informationen werden anschließend auf alle URLs dieses Datentyps automatisch angewendet und in den Suchergebnissen werden diese dann entsprechend ihrer Bedeutung angezeigt.

4. URLs entfernen:

Zu guter Letzt kann es vorkommen, dass man eine bereits indexierte URL seiner eigenen Webseite wieder aus dem Suchindex von Google entfernen möchte. Hierzu reicht man unter dem Menüpunkt „URLs entfernen“ in der Rubrik „Google-Index“ einfach einen entsprechenden Antrag auf Entfernung ein. Man sollte jedoch wissen was man tut, da einmal entfernte Inhalte für mindestens 90 Tage nicht mehr in den Suchergebnissen erscheinen werden.

 

Fazit

Die Google Webmaster Tools (GWT) reichen sicherlich nicht an den Leistungsumfang kommerzieller SEO-Tools heran oder sind ein Ersatz für die Expertise eines erfahrenen SEO-Profis, dennoch lassen sich mit Hilfe der enthaltenen Analysewerkzeuge wichtige Erkenntnisse zur Auffindbarkeit oder Problemen bei der Konfiguration der eigenen Webseite gewinnen. Wie auch bei den anderen Diensten, die Google für Webmaster bereitstellt, ist der Funktionsumfang der Webmaster-Tools nicht statisch, sondern wird gelegentlich durch neue Werkzeuge ergänzt oder aber es fallen Funktionen weg, die sich als weniger nützlich erwiesen haben. Wer bislang noch nicht regelmäßig bei den Webmaster-Tools vorbei schaut, sollte deshalb dennoch hin und wieder einen Blick riskieren.