Analyseo - SEO Agentur München

5 SEO Fehler

Der Artikel "5 kleine SEO Fehler die einen großen Schaden anrichten können.

Fehler bei der Suchmaschinenoptimierung (SEO) sind alltäglich, kein SEO ist perfekt. Es gibt jedoch kleine Fehler die einen großen Schaden anrichten können auf die oft nicht geachtet wird, die auf jeden Fall vermieden werden sollten. Ich habe euch 5 Fehler davon rausgesucht und erkläre euch wie Ihr diese beheben könnt.

1. Seite mit und ohne www. aufrufbar

Wenn man zum Beispiel analyseo.de in die Adresseleiste im Browser eingibt, wird man automatisch auf www.analyseo.de umgeleitet. Suchmaschinen werten sowas als doppelten Content, was zu Rankingverlusten führen kann. Bei den meisten Shop-Systemen und CM Systemen wie WordPress wird automatisch eine Weiterleitung eingerichtet. Wie kann dieser Fehler behoben werden?

Man richtet eine Weiterleitung in der .htaccess Datei ein vorrausgesetzt, das Know-How ist vorhanden. Die zweite Möglichkeit ist, man benutzt einen Canonical Tag der dem Crawler sagt welche Seite man bevorzugt.

2. h1-Überschrift auf jeder Seite gleich

Bei vielen Webseiten endeckt man das auf jeder Seite die h1 Überschrift gleich ist, da oft der Seiten-Name oder das Logo als Überschrift verwendet wird. Die h1 Überschrift ist extrem wichtig für Suchmaschinen, darin sollten die Keywords vorhanden sein.

Wie kann dieser Fehler behoben?

Einfach im Webcode im Header-Bereich den h1-Tag entfernen und auf jeder Seite individuell einsetzen.

3. Texte in Footer-Bereich auf jeder Seite gleich

Texte im Footer-Bereich die zu lang sind, können schnell als duplicate Content gesehen werden. Hier am besten nur Stichwörter oder einen kurzen Satz einfügen.

4. Robots.txt Blockierung für Crawler

Viele meiner Kunden, kontaktieren mich und sagen das Sie seit langer Zeit Linkaufbau betreiben ect., aber die Webseite wird einfach nicht in Suchmaschinen gerankt. Warum? Meist liegt das Problem im Robots.txt, hier werden Ordner aufgeführt die nicht von Crawler durchforstet werden dürfen. Oft ist hier das ganze Webverzeichniss blockiert, dann kann ein Crawler ihre Webseite nicht durchsuchen.

Wie kann dieser Fehler behoben werden?

Die Behebung des Fehlers ist meist einfach. Gehen Sie auf Ihr Webverzeichniss per FTP und suchen Sie die Datei robots.txt, darin sind alle blockierten Ordner aufgeführt, die Sie beliebig änder können.

5. Die selben Meta-Angaben auf allen Seiten

Jede einzele Seite Ihrer Domain sollte individuelle gestaltet Meta-Angaben beinhalten, da Suchmaschinen nicht mehr auseinander halten können welche Seite wirklich für das Keyword wichtig ist.

Wer nicht mit der Zeit geht, der geht mit der Zeit!

Gerne beraten wir Sie zu Ihrem Vorhaben. Wir freuen uns auf Sie!

Kontaktieren Sie uns

© Analyseo 2016 | Impressum