In den Internet-Suchergebnissen möglichst weit oben zu erscheinen, ist das Ziel vieler Unternehmen. Doch bei der Suchmaschinenoptimierung (SEO) von Webseiten kann einiges schief gehen, denn die Anforderungen von Google & Co. werden immer höher. [...]
Je mehr Informationen man Google & Co. bereitstellt, desto besser versteht die Suchmaschine den Aufbau einer Website und kann die richtigen Inhalte crawlen und indexieren. Und außerdem zeigen Webmaster Google auf diese Weise auch, dass man nichts zu verbergen hat. Denn so mancher Webmaster nutzte in der Vergangenheit Stylesheet- bzw. JavaScript-Dateien, um Google auf diese Weise Text vorzugaukeln, den Besucher der Seite nie zu Gesicht bekamen.
Websitebetreiber sollten den aktuellen Webmaster Guidelines daher unbedingt folgen, um keine Abwertung ihrer Seite zu riskieren.
DUPLICATE CONTENT
Es gibt kaum eine Website, die keine doppelten Inhalte aufweist – teils ist dies den Websitebetreibern bewusst, teils aber nicht. Von externem Duplicate Content spricht man, wenn man die gleichen Inhalte mit anderen Webseiten teilt. Interner Duplicate Content hingegen hängt häufig mit einer fehlerhaften Konfiguration des Webservers zusammen. Dies hat zur Folge, dass die gleichen Inhalte unter verschiedenen Website-Adressen (URLs) aufrufbar sind. Zwar bestrafen die Suchmaschinen Webseiten mit Duplicate Content nicht direkt, allerdings wird eine Seite vom Bot der Suchmaschine weniger effizient gecrawlt. So kann es passieren, dass wichtige, aktuelle Inhalte der Website gar nicht oder erst mit deutlicher Verzögerung im Netz auffindbar sind.
Zur Lösung des Duplicate-Content-Problems haben Websitebetreiber verschiedene Möglichkeiten. So können beispielsweise kanonische URLs zum Einsatz kommen oder man richtet so genannte 301-Redirects von den Seiten mit Duplicate Content zu den Ursprungsseiten ein, falls Inhalte wiederverwendet werden.
SCHLECHTES BACKLINKPROFIL
Auch wenn der Content im Vordergrund steht: Will man Seiten mit starker Konkurrenz zum Ranken bringen, so sind qualitativ gute Links im SEO nach wie vor wichtig. Doch natürliches Linkbuilding ist mittlerweile zu einer hochkomplexen Angelegenheit geworden, die nur von seriösen Anbietern durchgeführt werden sollte. Denn nichts schadet den eigenen Rankings mehr als ein schlechtes Backlinkprofil.
Unseriöse Backlinks stellen ein hohes Risiko für jeden Websitebetreiber dar. Google bestraft seit dem so genannten Penguin-Update 2012 gnadenlos Webseiten, die billige und schnelle Backlink-Taktiken praktizieren, was im schlimmsten Fall das Ende des eigenen Online-Businesses bedeuten kann. Dennoch vertrauen nach wie vor Unternehmen unseriösen Agenturen. Wenn Websitebetreiber wissen oder vermuten, dass in der Vergangenheit in Sachen Backlinks gegen die Google-Richtlinien verstoßen wurde, sollte das Backlinkprofil am besten durch eine erfahrene Agentur geprüft werden. Diese kann die Backlink-Struktur analysieren und eventuelle Altlasten beseitigen.
Kümmen sich Unternehmen selbst um ihr Linkbuilding, dann ist dabei unbedingt auf einen natürlichen Mix aus verschiedenen themenrelevanten Quellen wie soziale Netzwerke, Foren, Blogs usw. zu achten. (pi)
Be the first to comment