Author Image
Marcel Denzin
Datum 15. Februar 2016

Technisches SEO für Ihre Webseite

Banner

technische suchmaschinenoptimierung

Die Technik macht´s: Technisches SEO unter der Lupe

Content, Content, Content…natürlich steigt der Stellenwert des Contents immer mehr, jedoch kann auch der beste Content nur schwer ranken, wenn die Technik nicht die beste Grundlage bildet. Aus diesem Grund geben wir Ihnen in diesem Blogbeitrag einen kleinen Einblick in die Möglichkeiten, die uns das technische SEO bietet. Auf geht´s!

Jetzt unser 190 Seiten SEO Buch herunterladen

  • Hands-On Tipps für Ihr SEO
  • Kostenlos & unverbindlich
  • Jetzt durchstarten!

Jetzt herunterladen [kostenlos]

Von robots.txt, sitemap und dem Canonical Tag

Gerade Einsteiger im Bereich der Suchmaschinenoptimierung sind bei der Vielzahl der Begriffe, die im Rahmen der technischen Suchmaschinenoptimierung fallen, schnell überfordert. Der Dschungel an Begrifflichkeiten sorgt dafür, dass sich viele Webseitenbetreiber nicht gerne mit dem Thema der technischen Suchmaschinenoptimierung beschäftigen. So zum Beispiel auch die robots.txt. Die Textdatei ist ein wesentlicher Bestandteil der Webseite und steuert die Crawler gezielt über die Webseite. So lassen sich über die robots.txt gezielt Webseiten vom Crawling ausschließen und sich somit die Indexierung der Seiten steuern.

Ein häufiger Fehler auf vielen Webseiten ist die sture Nicht-Verwendung der robots.txt auf Webseiten. Damit einhergehend ist die Verschwendung von Crawling-Budget, welches jeder Webseite zusteht. Jeder Webseite steht ein gewissen Budget an Seiten zu, die von den robots der Suchmaschine auf Ranking-Faktoren überprüft werden. Dieses Budget ist en So sollten die Crawler im Idealfall nur die Webseiten versuchen zu indexieren, die einen greifbaren Mehrwert für den Webseitenbesucher haben. Verfügt die Webseite zum Beispiel über Seiten mit doppelten Inhalten, so sollte man die doppelten Inhalte ausweisen, damit auf diesen Seiten kein Crawling-Budget verschwendet wird.

Auch die Sitemap ist ein wesentlicher Orientierungspunkt für Suchmaschinen-Crawler. Die Sitemap gibt den Crawlern einen Hinweis, welche Unterseiten für die Aufnahme in den Index gewünscht sind. Sitemaps sollten ständig aktuell gehalten werden und eine gute Struktur aufweisen. So steht den Crawlern bei der Indexierung nichts mehr im Weg.


Die Problematik des Duplicate Contents

Doppelte Inhalte gilt es auf seinem Webseitenauftritt zu vermeiden, da diese dem Ranking der Seite nachhaltig schaden können. Doch allein aus technischen Gesichtspunkten gibt es jede Menge Möglichkeiten wie Duplicate Content unbewusst entstehen kann.

Häufigstes Problem ist, wenn die Webseite unter HTTPS und HTTP aufrufbar ist. Dies gilt es mit einer 301 Weiterleitung oder aber auch unter der Verwendung der Canonical Tags zu vermeiden und der Suchmaschine den Hinweis geben, dass die HTTPS Version indexiert werden sollte.

Ebenso problematisch ist es, wenn die Webseite sowohl unter www.musterseite.de als auch musterseite.de abrufbar ist. Auch an dieser Stelle erzeugt man unbeabsichtigt jede Menge duplicate Content, welchen es mit Hilfe von Anpassungen in der .htaccess zu vermeiden gilt.

Gerade in Onlineshops ist Duplicate Content eine riesige Baustelle: Hier verwenden sehr viele Onlineshops die gleichen Beschreibungstexte wie die Konkurrenz, was zu massenhaft Duplicate Content führt. Sollte sich eine eigene Contentproduktion nicht rechnen, so sollte man von solchen Seiten mittels des Canonical Tags auf zu indexierende Seiten weiterverweisen, wie zum Beispiel optimierte Kategorieseiten.

Technisches SEO und Laaaaaadezeiten

Gerade im Hinblick auf die Webseiten-Performance gibt es viele Möglichkeiten die eigene Webseite schneller zu machen. So ist es zum Beispiel zu empfehlen Bilddateien zu komprimieren und somit die Ladezeiten zu verkürzen. Zusätzlich empfiehlt es sich das Browser-Caching zu aktivieren, um Ladezeiten deutlich kürzer zu halten.

Ebenso ist eine Komprimierung der CSS-Dateien und der Javascript-Dateien unabdingbar.

Neben den bekannten Optimierungsmaßnahmen wie die Anpassung der Meta Daten, die Optimierung sämtlicher Onpage Faktoren und dem Contentmarketing, sollte man immer einen Blick haben für die technischen Gesichtspunkte der Suchmaschinenoptimierung. Der gezielte Umgang mit Crawling- und Indexierungsbudget in Kombination mit einem nachhaltigen und nutzenstiftenden Contentmarketing bringen Ihre Webseite langfristig auf die Überholspur. Gerne helfen wir Ihnen dabei.

Hast du Fragen?

Als Full-Service Online-Marketing-Agentur unterstützen wir Dich gerne.

Das könnte Dich auch interessieren:

Platzhalter

Hallo Welt!

Willkommen bei Onlinemarketing Agentur | SaphirSolution Websites. Dies ist dein erster Beitrag. Bearbeite oder lösche ihn und beginne mit dem Schreib...

Jetzt lesen
Platzhalter

Google BigQuery verstehen: Das ultimative Werkzeug für Marketing-Analysen

Was ist Google BigQuery? Als Marketingmanager suchst du ständig nach innovativen Möglichkeiten zur Verbesserung deiner Marketingstrategien. BigQuery...

Jetzt lesen
Platzhalter

Was ist Google Analytics 4 und warum sollten Unternehmen GA4 nutzen?

Was ist Google Analytics 4? Google Analytics 4 (GA4) ist die neueste Version von Google Analytics, die auf Machine Learning und künstlicher Inte...

Jetzt lesen
Platzhalter

Google Search Console mit Google Analytics 4 verknüpfen

Warum soll ich die Search Console mit Google Analytics 4 verknüpfen? Die Search Console (früher: Webmaster Tools) ist ein kostenloses Tool von Googl...

Jetzt lesen