SEO-StolperfallenWer Suchmaschinenoptimierung betreibt, der muss keine Raketenwissenschaften studiert haben. Hier zählt viel mehr Know-How, Cleverness und eine ordentliche Portion gesunder Menschenverstand um Erfolg zu haben. Neben diversen Möglichkeiten zur positiven Beeinflussung der Rankings gibt es in der Suchmaschinenoptimierung aber auch diverse Stolperfallen, die gerne übersehen oder vernachlässigt werden. In meinem aktuellen Blog-Artikel möchte ich deshalb auf einige der gravierensten Fehler eingehen, auch wenn sich die Liste vermutlich noch um mindestens 100 weitere Punkte ergänzen lässt.

Titel

Auch heute noch findet man zahlreiche Websitebetreiber, die ihrem Seiten-Titel keine wirkliche Aufmerksamkeit schenken, dabei bedient er sowohl Suchmaschinen und Nutzer zugleich. Beispiele findet man in den Suchmaschinen haufenweise – und natürlich habe ich euch auch mal ein schönes (oder eher nicht) Beispiel herausgesucht. Dieses findet ihr hier! Ob die Websitebetreiber wirklich zu „Neue Seite 1“ ranken wollen? Wichtig ist also, dass alle Unterseiten einen aussagekräftigen Titel verwenden, wobei die wichtigsten Keywords möglichst immer zuerst im Title-Tag genutzt werden sollten!

Meta-Daten

Auch wenn man sich über das Keyword-Meta-Tag aus SEO-Sicht streiten kann (ich fülle ihn in der Regel trotzdem noch), sollte man zumindest das Description-Meta-Tag auf keinen Fall vergessen. Hierbei handelt es sich nämlich um just jenen Text, der in den Suchergebnissen unter dem Titel-Link angezeigt wird. Wird hier kein expliziter Text angegeben, generiert Google selbst einen aus dem übrigen Content. Aussagekräftige Beschreibungen können Nutzer aber zu einem Klick motivieren, weshalb ein guter Description-Text auf keinen Fall vergessen werden sollte!

URL-Struktur

Nicht nur im Titel und in den Meta-Daten sollten wichtige Keywords aufgegriffen werden. Dies gilt natürlich auch für die URL-Struktur. Immer wieder sieht man Onlineshops, deren URL-Struktur z.B. so aussieht: www.angelshop-mueller.de/shop/kat=93/prod=8m41m3.html. Auch solche URLs werden zwar von den Suchmaschinen gefunden, bietet ihnen aber keinerlei Mehrwert bei der Analyse des Inhaltes einer Website. Bei der Erstellung einer Website sollten deshalb möglichst immer sprechende URLs im Stil von www.angelshop-mueller.de/raubfischangeln/angelruten/aquantic-power-500-xl.html verwendet werden – dies ist für Suchmaschinen und Nutzer von Vorteil!

Externe Verlinkung

Grundsätzlich sollte bei der Generierung von externen Links immer darauf geachtet werden, dass die Linkstruktur möglichst natürlich wirkt. Zu viele starke Links können dabei ggf. ebenso verdächtig wirken wie zu viele schwache Links – besonders wenn sie innerhalb eines sehr kurzen Zeitraums generiert werden. Generell sollte man bei externen Links stets auf die Qualität achten, wobei ein schwacher Link nicht automatisch schlecht sein muss. Wichtiger ist dagegen, dass es sich z.B. bei der Linkquelle nicht um eine ehemalige Porno-Seite oder ähnliches handelt. Bei der Linkanalyse helfen professionelle Tools wie z.B. Seolytics, Sistrix, Searchmetrics, Xovi und das LinkResearchTool mit denen man angebotene Seiten schnell auf deren eigene Linkqualität überprüfen kann.

Interne Verlinkung

Auch die interne Verlinkung ist ein wichtiger SEO-Faktor der oft und gerne vergessen wird. Dabei gibt es zwei wesentliche Möglichkeiten wie die Struktur aufgebaut sein kann: Die erste Variante stellt einen Baum dar. Diese beginnt auf der Startseite, welche auf die nächsten Ebenen verlinkt (z.B. Produktkategorien) während diese wiederum auf die darunter liegende Ebene (z.B. Produkte) verlinken. So leitet man die Linkpower von der Spitze auf die unteren Ebenen weiter. Eine Ergänzung dazu ist die Crossverlinkung. Hier wird auch innerhalb der Ebenen verlinkt – und teilweise auch zwischen den einzelnen Ebenen. Wichtig ist, dass überhaupt eine interne Verlinkung vorhanden ist, was sowohl Suchmaschinen als auch Nutzern zugute kommt!

Frames

Ja, es gibt sie immer noch – Websites die mittels Frames erstellt wurden. Vor rund 10 Jahren waren solche Seiten völlig normal und es gibt tatsächlich immer noch die eine oder andere alte Websites die heute noch gut rankt. Allerdings muss man sagen, dass die Seiten in der Regel schon viele Jahre auf dem Buckel haben und einen gewissen Trust bei Google sammeln konnten. Heute noch eine neue Website in der „Technik“ zu starten ist dagegen einen absolutes No-Go!

Flash, JavaScript & Co.

Jeder möchte seine Website seinem Publikum so schön und modern wie möglich präsentieren. Viele Webdesigner greifen deshalb auf Flash und ähnliche grafische Spielereien zurück und vergessen dabei, dass Google, Bing & Co primär von der Auswertung der Inhalte einer Website leben. Mit Flash & Co haben Suchmaschinen allerdings immer noch ihre Schwierigkeiten, da Flash-Animationen eben keine konkreten Informationen liefern. Sofern möglich sollte deshalb auf eine komplette Website aus Flash verzichtet werden, besonders wenn die Seiten auch mobil aufrufbar sein sollen!

Keyword-Auswahl

Wie bereits in einem älteren Artikel zum Thema SEO-Wording ausführlich beschrieben, geht es bei der Suchmaschinenoptimierung auch darum herauszufinden, wonach die Nutzer tatsächlich suchen. Nur so kann eine SEO-Maßnahme tatsächlich zu einem Erfolg führen. Besonders bei der Keyword-Auswahl ist es wichtig nicht nur seine eigenen Keywordauswahl, sondern besonders die der Kunden und Nutzer zu berücksichtigen! Hier helfen SEM-Tools wie z.B: das kostenlose Google Keywords Tool oder das kostenpflichtige Searchmetrics Rapid bei der Wahl der richtigen Keywords.

Keyword-Stuffing

Ein weiterer sehr verbreiteter Fehler ist immer noch das sogenannte Keyword Stuffing. Um Google klar zu machen dass ihre Website zum Thema „Kredit“ absolute Prioriät im Ranking haben sollte, stopfen einige Webmaster ihren Content unnötig und übertrieben mit immer den selben Keywords voll. Nicht selten beträgt die Keyworddichte hier 5-10% oder mehr. Das dies von Google nicht gerne gesehen wird und deshalb keine positiven Auswirkungen haben kann versteht sich irgendwie von selbst – dennoch sieht man immer wieder solche Seiten. Verzichtet deshalb auf solche Methoden. Eine Keyword-Density von 1-2% reicht locker aus!

Versteckte Texte

Um den Besucher nicht mit merkwürdigen Texten zu verschrecken, aber Suchmaschinen dennoch zu bedienen, arbeiten auch heute noch einige Webmaster mit versteckten Texten. Diese werden entweder zwischen den Absätzen, wo man eigentlich eine Leerzeile vermutet, oder ganz am Ende eines Artikels untergebracht und in der Farbe der Hintergrundfarbe getarnt. Bitte nicht, so was kann in Sachen SEO nur nach hinten losgehen!

Duplicate Content

Es gibt mehrere Möglichkeiten wie Duplicate Content erzeugt wird: Man ist zu faul und verwendet einfach identische Texte (z.B. Produktbeschreibungen) für verschiedene Produkte und ändert lediglich den Produktnamen oder ein dreister Content-Dieb bedient sich einfach an fremden Texten und verwendet diese auf seiner Website. Eine weitere Möglichkeit besteht darin, dass das eigene CMS ungewollte doppelten Content erzeugt. In allen Fällen sollte man möglichst zeitnah aktiv werden und das Problem möglichst schnell beheben!

Ankertexte

Der Julian hat in seinem aktuellen Blog-Artikel zum Thema „Linktexte bald komplett egal?“ einen interessanten Aspekt aufgegriffen. Hier geht es darum, dass die Ankertexte schon bald womöglich uninteressant werden könnten und Google selbst bewerten wird, ob die Verlinkung thematisch passt und wie diese zu werten ist. Dennoch ist dies kein Freifahrtschein in Sachen Ankertexte. Auch in Zukunft sollte man darauf achten, dass die Anchortexte regelmäßig variieren um die Natürlichkeit zu unterstreichen!

Bilder-Optimierung

Besonders Onlineshop-Betreiber tun sich schwer mit der Optimierung von Produktbildern, dabei bietet die Suchmaschinenoptimierung durch Bilder viel Potenzial. Ein häufiges Problem ist hier, dass Bilder 1:1 vom Hersteller übernommen werden und so hundertfach im Internet verwendet werden. Hier macht es also durchaus Sinn eigene Bilder zu erstellen, denn nur so kann man auch in Sachen Bilder Einzigartigkeit im Internet erzeugen. Zudem werden oft auch die zusätzlichen Informationen zu Bildern in Form des Alt-Tags vergessen. Dieser unterstützt Suchmaschinen zusätzlich bei der thematischen Identifikation eines Bildes. Auch der Dateiname sollte wie bei der URL-Struktur möglichst sprechend sein!

Linkzuwachs & Linkabnahme

Links stellen ohne Zweifel eine der wichtigsten Maßnahmen in der Suchmaschinenoptimierung dar. Gerade deshalb sollten sie eine hohe und langfristige Kontinuität beim Aufbau und der Verfügbarkeit aufweisen. Kurzfristige Linkzuwächse bzw. –abnahmen können dazu führen, dass diese als gekaufte Links von den Suchmaschinen eingestuft werden und so ins Fadenkreuz der Suchmaschinen geraten. Dies ist oft der Fall wenn Links vom Linktauschpartner einfach gelöscht werden oder man bei der Linkmiete keine Verlängerung vornimmt. Hier gilt es also immer die eigenen Links im Auge zu behalten und auf der Verfügbarkeit die Links zu achten!

Cloaking

Beim Cloaking handelt es sich um eine technische Methode, in der den Suchmaschinen unter der identischen URL absichtlich andere Inhalte präsentiert werden als den menschlichen Nutzern. In der Regel werden den Suchmaschinen hier meist sehr textlastige Inhalte zur Indexierung überlassen, während menschliche Nutzer eher grafisch aufwändige Inhalte präsentiert bekommen. Dies kann sehr schnell zur Entfernung aus dem Index führen – also Finger weg von Cloaking!

Ladezeiten

Bereit vor einigen Monaten hat Google darauf hingewiesen, dass auch die Ladezeit einer Website durchaus einen gewissen Einfluss auf das Ranking hat, denn Nutzer erwarten dass eine Website innerhalb weniger Sekunden geladen wird. Lange Ladezeiten dagegen zeugen von einer schlechten Erreichbarkeit und haben damit in der Regel einen negativen Einfluss auf die Bouncing-Rate. Aus diesem Grund macht es durchaus Sinn diese zu optimieren und bei der Nutzung von Shared-Hosting-Paketen darauf zu achten, dass hier keine anderen Kunden das Paket mitnutzen, die durch die Nutzung von performancelastigen Scripten alle anderen Websites auf dem Server ausbremsen.

Programmierung

Wer eine neue Website erstellt oder erstellen lässt, sollte darauf achten, dass diese keine größeren Validierungsfehler aufweist und ordentlich programmiert wurde. Typische Fehler sind invalider Code, Darstellungsfehler in verschiedenen Browsern, nicht erreichbare Seiten, falsche/fehlende Umleitungen, etc. Mit dem Validator des W3C kann man die Arbeit seines Webdesigners zeitnah überprüfen. Weniger bei kleinen, dafür aber bei mittleren und großen Websites welche mehrere Ebenen aufweisen, bedarf es auch einer entsprechenden XML-Sitemap um den Suchmaschinen-Bots die Indexierung zu erleichtern!

Suchmaschinensicht vs. Kundensicht

Wenn man im Bereich Suchmaschinenoptimierung Erfolge feiern möchte, lautet der erste Gedanke in der Regel: Was gefällt Google? Dabei ist diese Fragestellung nur zu 50% richtig. Korrekt wäre die Frage wie folgt formuliert: Was gefällt Google und den Nutzern? Denn nur was den Nutzer einen Mehrwert bietet und somit auch gefällt, gefällt auch Google – denn Google möchte keine unzufriedenen Nutzer. Ein häufiger Fehler ist deshalb ob, dass der Fokus zu sehr auf der Suchmaschine selbst, aber nicht beim Nutzer liegt!

Ungeduld

Im Gegensatz zu SEM braucht SEO Zeit um die entsprechende Wirkung zu entfalten – je nach Thema oft sogar mehrere Wochen oder Monate. Der größte Stolperstein ist hier das überhastete Handeln und eine zu schnelle Offpage-Optimierung. Besonders von Kunden wird hier schnell Druck aufgebaut, wenn nicht zeitnah erste Erfolge sichtbar werden. Hier muss man dem Kunden erklären, dass SEO Zeit kostet und nicht von heute auf morgen erfolgt.