SEO-Optimierung

SEO muss kein Buch mit 7 Siegeln sein. Eine fundierte SEO-Optimierung wirkt effizient, ist transparent messbar und steigert dein Ranking zu relevanten Begriffen sowie dein Geschäft langfristig.

Unternehmen, die mit ihrer Marke zu wichtigen Suchbegriffen ganz oben in der organischen Google Suche stehen, laufen dem Wettbewerb nicht nur im Ranking der Suchmaschine den Rang ab. Sie haben eine deutlich höhere Markenbekanntheit, generieren wesentlich mehr Traffic für ihre Website und machen bedeutend mehr Geschäft.

Warum das so ist, liegt auf der Hand: Mehr als 60 Millionen Deutsche nutzen die Google Suche mehrfach am Tag. Google hat einen Marktanteil in Deutschland von etwa 85 %, was die Suche auf Mobilgeräten angeht, sogar von über 95 %. Über 80 % aller im B2B-Bereich generierten Aufträge starten mit der Suche auf Google. Beim B2C gilt das für 75 % aller generierten Verkäufe.

Klickrates von über 30 %

Wer mit seiner Website auf Position 1 in der organischen Google Suche steht, kann sich über eine durchschnittliche Klickrate von über 30 % freuen. Das heißt, fast ein Drittel aller Personen, die nach einem für dein Unternehmen relevanten Begriff gesucht haben, kommen auf deine Website.

Schon die Verbesserung von nur einer Position auf Seite 1 in der Google Suche führt statistisch gesehen zu einer Steigerung der Klickrate und einem entsprechend ansteigendem Zielgruppen-Traffic von mindestens 5 % und von bis zu 74 %.

Sichtbarkeit heißt Seite 1

99,1 % aller Klicks in der Google Suche fallen auf Suchergebnisse auf Seite 1 an. Der positive Impact auf die Sichtbarkeit, den Traffic und dem Umsatz kann gar nicht hoch genug eingeschätzt werden, wenn ein Unternehmen mit seiner Website den Sprung zu relevanten Keywords auf Seite 1 schafft.

Kein Wunder, dass die Suchmaschinenoptimierung für Unternehmen aller Branchen ein so großes Thema ist, denn wer möchte nicht in den Genuss dieser Wettbewerbsvorteile kommen? Allerdings investieren viele Unternehmer*innen eine Menge Zeit und Geld in SEO-Maßnahmen und erzielen nicht die gewünschte Wirkung.

Kein Erfolg = keine passende Strategie

Die Ursache dafür ist fast immer das Fehlen einer ganzheitlichen SEO-Strategie und eines nicht durchdachten und zu wenig datengetriebenen Umsetzungskonzeptes, mit dem Maßnahmen koordiniert, messbar und vor allem zielführend umgesetzt werden. Wir zeigen dir, wie deine SEO-Optimierung die erhofften Marketingziele erreicht.

Wie funktioniert Suchmaschinen­optimierung?

Über 200 Ranking-Faktoren

Die Webcrawler von Google, auch Googlebots genannt, durchsuchen kontinuierlich die Inhalte aller Websites im Internet und nehmen diese dadurch in den Google Index auf. Ziel dieser Indexierung ist es, alle Inhalte zu allen möglichen Suchanfragen zu kennen, um in der Suchmaschine die bestmöglichen Suchergebnisse ausspielen zu können.

Um die Unmengen an Inhalten qualitativ einzuordnen, nach Relevanz zu priorisieren und damit die Reihenfolge der Suchergebnisse zu bestimmen, ziehen mehrere Algorithmen von Google, wie zum Beispiel RankBrain, über 200 Faktoren zur Qualitätsmessung heran.

Qualität und Relevanz

Darunter befinden sich zahlreiche technische Aspekte, wie die Ladezeit, die Mobiltauglichkeit oder die Navigation einer Website. Darunter befinden sich ebenso zahlreiche inhaltliche Aspekte, wie die Qualität, der Umfang oder die Struktur des Contents. Aber auch externe Faktoren, wie die Reputation der Website bzw. der dahinterstehenden Marke oder die Reaktionen der Nutzer*innen auf die jeweiligen Inhalte, spielen eine tragende Rolle.

Sortiert nach Qualität und Relevanz zur jeweiligen Suchanfrage, werden die Inhalte der unzähligen Websites in der Google Suche ausgespielt. Immer wieder neu berechnet und fortlaufend aktualisiert. Nur die Inhalte, welche die sich stetig weiterentwickelten Qualitätskriterien dauerhaft erfüllen, welche die Suchintention am besten bedienen und entsprechend den Nutzer*innen die bestmögliche Antwort auf ihre Suchanfrage liefern (was anhand von User Signals gemessen werden kann), ranken auf Google ganz oben und können diese Sichtbarkeit auch etablieren.

Sichtbarkeit nur mit SEO

An diesem Punkt setzt die Suchmaschinenoptimierung, kurz SEO, ein. Wer die wichtigen Suchbegriffe seiner Zielgruppe kennt, deren Suchintention einzuschätzen weiß und die Qualitätskriterien von Google berücksichtigt, kann das Ranking seiner Website mit einer SEO-Optimierung stark positiv beeinflussen.

Etwas mehr als 90 % aller Websites erhalten kaum bis gar keinen organischen Traffic und lassen so unfassbare Umsatzpotenziale liegen. Wer zu den erfolgreichen 10 % gehören möchte, benötigt eine durchdachte SEO-Strategie, mit der die gewünschte Sichtbarkeit auf Google erreicht werden kann.

0
Mio. Deutsche nutzen Google 3-4 Mal am Tag
0 %
aller Websites erhalten keinen organischen Traffic
0 %
Ø Klickrate auf Position 1 der organischen Suche
0
Mio. Deutsche nutzen Google 3-4 Mal am Tag
0 %
aller Websites erhalten keinen organischen Traffic
0 %
Ø Klickrate auf Position 1 der organischen Suche

Warum sollte dein Unternehmen SEO-Optimierung betreiben und was sind deine Vorteile?

Neukundenakquise
Mit einer SEO-Optimierung gewinnst du mehr Kunden*innen über die Website.
Sichtbarkeit
SEO sorgt für mehr Sichtbarkeit, Traffic und Marken­bekanntheit.
Wettbewerbs­verdrängung
Mit höheren Rankings nimmst du dem Wettbewerb Marktanteile ab.
Kostenersparnis
Für SEO benötigst du keine Media-Budgets und sparst langfristig Kosten.
Nutzerfreundlichkeit
SEO führt automatisch zu einer besseren UX und damit zu glücklicheren Besucher*innen.
Messbarkeit
SEO-Maßnahmen sind messbar und die Ergebnisse nachweisbar.
Neukundenakquise
Mit einer SEO-Optimierung gewinnst du mehr Kunden*innen über die Website.
Eye Sichtbarkeit
SEO sorgt für mehr Sichtbarkeit, Traffic und Marken­bekanntheit.
Wettbewerbs­verdrängung
Mit höheren Rankings nimmst du dem Wettbewerb Marktanteile ab.
Kostenersparnis
Für SEO benötigst du keine Media-Budgets und sparst langfristig Kosten.
Nutzerfreundlichkeit
SEO führt automatisch zu einer besseren UX und damit zu glücklicheren Besucher*innen.
Messbarkeit
SEO-Maßnahmen sind messbar und die Ergebnisse nachweisbar.

Starke Neukundenakquise ohne Kampagnen

Wir alle nutzen Google, um Informationen, Dienstleistungen oder Produkte zu finden. Die Mehrheit der Deutschen klickt nicht auf die Ergebnisse der bezahlten Suche, sondern auf die ersten drei organischen Treffer. Wenn du mit deiner Website einen dieser Plätze einnimmst, kannst du dich über sensationelle Klickrates zwischen 18 % und 31 % freuen. Aber selbst Position 9 auf Seite 1 der Suchmaschine steigert deine Besucherzahlen immens. Der positive Impact, den diese Sichtbarkeit auf deine Neukundenakquise hat, ist von unschätzbarem Wert.

Nur mit einer zu mehr Sichtbarkeit führenden SEO-Optimierung bringst du dein Online-Marketing, deine Markenbekanntheit und deine Neukundenakquise auf ein ganz neues Level, steigerst deinen Umsatz und machst mehr Geschäft, und das ganz ohne kostspielige Marketing-Kampagnen. Wo sonst ist das heute noch möglich?

Mehr Marktanteile, weniger Kosten

Mit einer effektiven SEO-Optimierung und dadurch steigenden Rankings machst du aber nicht nur mehr Umsatz, du nimmst dem Wettbewerb auch Marktanteile ab und reduzierst langfristig deine Kosten. Wenn du eine höhere Sichtbarkeit auf Google erzielst, bedeutet das, dass du Konkurrenten in der Suchmaschine entsprechend nach hinten verdrängst. Das hat nicht nur Auswirkungen auf die Auffindbarkeit im Internet, sondern auch auf klingelnde Kassen.

Außerdem ist deine Sichtbarkeit durch die organischen Top-Platzierungen nicht mehr von Media-Budgets abhängig und deine Website verschwindet in der Google Suche nicht von der Bildfläche, sobald dein Budget ausgeschöpft ist. Ganz ohne Werbekosten nimmst du diesen Platz an der Sonne ein und kannst deine Budgets für die bezahlte Suche über Google Ads sukzessive herunterfahren, nur noch für das Ausfüllen von Sichtbarkeitslücken einsetzen oder, bei entsprechenden Rankings, ganz aussetzen.

Bessere UX, glücklichere Besucher*innen und geringere Klickkosten

Eine wirksame SEO-Optimierung hat aber bei weitem nicht nur positive Folgen für die Rankings in der Google Suche. Die Optimierungen werden schließlich in erster Linie auf deiner Website umgesetzt und gelten für alle Suchmaschinen. Dadurch verbessert sich automatisch auch die User Experience auf deiner Website, deine Besucher*innen haben ein positiveres Nutzererlebnis und deine Conversion-Rates steigen.

Nebenbei bewirkt eine SEO-Optimierung auch die Reduzierung von Klickkosten bei Werbekampagnen über Google Ads oder Microsoft Ads. Schließlich ist die Zielseitenerfahrung der Nutzer*innen ein bewertetes Qualitätsmerkmal der Anzeigenschaltung, welches Einfluss auf die Klickpreise einer Kampagne hat. Und genau diese Zielseitenerfahrung sowie die Relevanz der Seite zu beworbenen Keywords verbessert sich mit den umgesetzten SEO-Maßnahmen.

Hohe Rankings sind nicht immer vorteilhaft

Prinzipiell mehr Rankings und eine gute Entwicklung des Sichtbarkeitsindexes sagen nur bedingt etwas über den unternehmerischen Erfolg von SEO-Maßnahmen aus. Schließlich steht hinter dem Wunsch nach mehr Sichtbarkeit immer ein höheres Ziel, zum Beispiel mehr Neukunden zu gewinnen. Aufgabe einer guten SEO-Beratung ist es deshalb auch, vermeintlich gute Entwicklungen zu entzaubern und Fakten transparent offen zu legen.

Mehr Rankings führen zu einem höheren Sichtbarkeitsindex aber nicht zwangsläufig zu mehr Traffic. Spielen sich neue Rankings nicht auf Seite 1 der Google Suche ab, oder gelten diese für irrelevante Keywords, ausschließlich für Brand-Begriffe oder für Keywords, die mehrheitlich Null-Klick-Suchen zur Folge haben, bleiben diese Rankings ohne jeden Effekt.

Nur wer einen professionellen Partner zur Seite hat, der alle diese Fallstricke kennt, diese zu analysieren weiß, transparent aufzeigt und die SEO-Strategie entsprechend ausrichtet, holt aus dem investierten Aufwand nicht nur mehr relevante Sichtbarkeit, sondern auch mehr Geschäft heraus.

Erfolge sind transparent messbar

Nicht zuletzt ist die transparente Messbarkeit und damit der Nachweis der Auswirkungen einer SEO-Optimierung ein großer Vorteil für jedes Unternehmen. Sowohl der Impact von einzelnen SEO-Maßnahmen auf das Ranking jedes einzelnen Keywords kann im Detail nachgewiesen werden, als auch die dadurch erzielten Erfolge. Zum Beispiel höhere Klickrates in der Suchmaschine, mehr Besucher*innen über die gewünschten Suchbegriffe oder mehr Geschäft über den Kanal der organischen Google Suche.

Warum solltest du dich für isemo als deine SEO-Agentur entscheiden?

Zertifizierte Experten*innen
Unser gesamtes Team ist in allen SEO-Bereichen zertifiziert.
10 Jahre Erfahrung
Seit mehr als 10 Jahren sorgen wir mit SEO erfolgreich für mehr Sichtbarkeit.
Kostenlose Erstberatung
Wir beraten dich direkt beim Erstgespräch, und zwar kostenlos.
Keine Vertragslaufzeit
Wir binden unsere Kunden*innen durch Leistung, nicht durch Verträge.
Persönlicher Ansprechpartner*in
Bei uns hast du einen festen Ansprechpartner*in und keine wechselnde Service-Hotline.
Eigene SEO-Tools
Wir nutzen nicht nur alle gängigen SEO-Tools für sich, wir entwickeln auch eigene.
Zertifizierte Experten*innen
Unser gesamtes Team ist in allen SEO-Bereichen zertifiziert.
10 Jahre Erfahrung
Seit mehr als 10 Jahren sorgen wir mit SEO erfolgreich für mehr Sichtbarkeit.
Kostenlose Erstberatung
Wir beraten dich direkt beim Erstgespräch, und zwar kostenlos.
Keine Vertragslaufzeit
Wir binden unsere Kunden*innen durch Leistung, nicht durch Verträge.
Persönlicher Ansprechpartner*in
Bei uns hast du einen festen Ansprechpartner*in und keine wechselnde Service-Hotline.
Eigene SEO-Tools
Wir nutzen nicht nur alle gängigen SEO-Tools für sich, wir entwickeln auch eigene.

Fachwissen und Erfahrung

Wir blicken auf über 10 Jahre Erfahrung bei der SEO-Optimierung zurück und beobachten nicht nur die Rankings unserer Kunden*innen, sondern ganz allgemein die Entwicklung der SEO-Branche. Das ist auch zwingend notwendig, um effektive SEO-Strategien entwickeln zu können. Denn so häufig wie sich die Ranking-Faktoren und Qualitätskriterien von Google ändern, so häufig wandeln sich auch die Best-Practices für eine erfolgreiche SEO-Optimierung.

Unser gesamtes Team ist von international anerkannten SEO-Experten*innen wie Brian Dean sowie von führenden Tool-Anbietern wie SemRush in allen SEO-Bereichen zertifiziert und bildet sich stetig weiter, um den immer wieder neuen Anforderungen der Suchmaschinenoptimierung gerecht zu werden.

Ganzheitliche SEO-Strategien die wirken

Wir machen nicht bloß SEO. Wir entwickeln für unsere Kunden*innen maßgeschneiderte SEO-Strategien, die wirken. Von einer fundierten Keyword-Analyse und einem ganzheitlichen SEO-Check der bestehenden Website zur Identifizierung aller Optimierungspotenziale über die Entwicklung einer individuellen und effektiven SEO-Strategie bis hin zur operativen Umsetzung der SEO-Maßnahmen und der Überwachung sowie Auswertung der Ergebnisse.

Transparenz und Best-Practices

Wir dokumentieren die Umsetzung aller SEO-Maßnahmen, messen die Auswirkungen und werten die Entwicklungen in übersichtlichen Reportings aus. Transparent und nachvollziehbar. Zudem halten wir uns streng an die Umsetzung aktueller Best-Practices, die Google kontinuierlich über Kanäle wie die Google Search Central veröffentlicht, und weisen dies bei allen SEO-Maßnahmen auch nach, zu denen es offizielle Best-Practices der Suchmaschinenbetreiber*innen gibt.

Am Puls der Entwicklung

Wir sind für unsere Kunden*innen immer am Puls der Zeit, um auch langfristig die bestmögliche SEO-Optimierung umzusetzen. Wir prüfen die Auswirkungen von Google Updates sowie die Änderungen von Ranking-Faktoren, passen unsere Strategien gegebenenfalls an die neuen Rahmenbedingungen an und testen regelmäßig neue Tools, um Prozesse zu optimieren und Aufwände einzusparen.

Wir entwickeln unsere eigenen SEO-Tools, um für unsere Kunden*innen und uns selbst Lizenzkosten zu minimieren und steigern dadurch auch unsere Effektivität. Wir machen SEO für Menschen. Für unsere Kunden*innen und deren Besucher*innen. Das ist die Grundlage unseres Erfolgs.

Dein Weg zu mehr Sichtbarkeit auf Google

Wir unterstützen dich auch schon ohne Beauftragung und zeigen dir erste SEO-Optimierungspotenziale deiner Website direkt im Erstgespräch auf. Parallel bekommst du von uns ein auf deine Website zugeschnittenes Angebot.

Wir führen ein 360°-SEO-Audit deiner Website durch, identifizieren alle vorhandenen Optimierungspotenziale, geben ausführliche Handlungsempfehlungen und entwickeln eine effektive Umsetzungsstrategie.

Wir stimmen uns mit dir im Detail ab, welche Ressourcen wo vorhanden sind, um die entwickelte SEO-Strategie effektiv umzusetzen, schulen dafür bei Bedarf dein Team oder unterstützen dich bei der operativen Durchführung.

Wir analysieren und kontrollieren die qualitative Umsetzung der SEO-Maßnahmen, machen die Auswirkungen messbar und bewerten gemeinsam mit dir den Erfolg.

Wir überwachen die weitere Entwicklung der Sichtbarkeit deiner Website, erstellen dir z.B. monatlich einen übersichtlichen Bericht und geben weitere Handlungsempfehlungen, falls die Sichtbarkeit in Zukunft abnehmen sollte.

Wir unterstützen dich auch schon ohne Beauftragung und zeigen dir erste SEO-Optimierungspotenziale deiner Website direkt im Erstgespräch auf. Parallel bekommst du von uns ein auf deine Website zugeschnittenes Angebot.

Wir führen ein 360°-SEO-Audit deiner Website durch, identifizieren alle vorhandenen Optimierungspotenziale, geben ausführliche Handlungsempfehlungen und entwickeln eine effektive Umsetzungsstrategie.

Wir stimmen uns mit dir im Detail ab, welche Ressourcen wo vorhanden sind, um die entwickelte SEO-Strategie effektiv umzusetzen, schulen dafür bei Bedarf dein Team oder unterstützen dich bei der operativen Durchführung.

Wir analysieren und kontrollieren die qualitative Umsetzung der SEO-Maßnahmen, machen die Auswirkungen messbar und bewerten gemeinsam mit dir den Erfolg.

Wir überwachen die weitere Entwicklung der Sichtbarkeit deiner Website, erstellen dir z.B. monatlich einen übersichtlichen Bericht und geben weitere Handlungsempfehlungen, falls die Sichtbarkeit in Zukunft abnehmen sollte.

All das setzen wir erfolgreich für dich um
Ein Auszug unserer zufriedenen Kunden

SEO FAQ

Warum ist SEO sinnvoll?

Die Gründe sind vielfältig. Am wichtigsten ist: Durch SEO steigt die Sichtbarkeit deiner Website in den Suchergebnissen von Suchmaschinen wie Google. Dadurch wird deine Marke sowie dein Angebot von potenziellen Kunden*innen besser gefunden und du erzielst mehr Umsätze und Anfragen.

 

Ein weiterer Vorteil ist die Nachhaltigkeit von SEO. Im Gegensatz zu bezahlter Werbung endet deine Sichtbarkeit nicht, sobald dein Mediabudget aufgebraucht ist. Stattdessen bleibt dein Unternehmen mit effektiven SEO-Maßnahmen dauerhaft präsent.

 

SEO steigert außerdem deine Markenbekanntheit und trägt zu einem positiven Image bei. Schließlich signalisiert eine hohe organische Position in der Google Suche eine gewisse Relevanz und Seriosität zu den gesuchten Begriffen.

Für wen eignet sich SEO?

Für alle Unternehmen, Organisationen oder Einzelpersonen, die ihre Marke bekannter machen, über ihren Online-Shop mehr Verkäufe erzielen oder über ihre Website mehr Leads generieren möchten.

 

Schließlich führt eine kluge Suchmaschinenoptimierung zu einer höheren Sichtbarkeit auf Google & Co., wodurch mehr potenzielle Kunden*innen auf deine Marke aufmerksam werden. Kurzum, SEO lohnt sich für alle, die zu wichtigen Keywords sichtbar und online erfolgreich sein möchten.

Welche SEO-Arten gibt es?

Die verschiedenen SEO-Maßnahmen lassen sich in die folgenden Kategorien einordnen:

 

Onpage-SEO

Onpage-SEO bezieht sich auf alle Maßnahmen, die auf einer Website durchgeführt werden, um deren Sichtbarkeit und Ranking in den Suchergebnissen zu verbessern. Dazu gehört die inhaltliche Optimierung von Texten, internen Verlinkungen, Bildern oder der URL-Struktur genauso, wie die rein technische Optimierung von z.B. Canonical Tags, der Ladegeschwindigkeit oder der Crawlbarkeit einer Website.

 

Offpage-SEO

Offpage-SEO bezieht sich auf alle Maßnahmen, die außerhalb der eigenen Website durchgeführt werden, um deren Sichtbarkeit und Ranking in den Suchmaschinenergebnissen zu verbessern. Dazu gehören insbesondere Linkbuilding-Maßnahmen (Auf- oder Abbau von Backlinks), aber auch die Schaffung von Social Signals oder ein effektives Online-Reputationsmanagement.

 

Content-SEO

Content-SEO bezieht sich auf alle inhaltlichen bzw. redaktionellen Maßnahmen, die auf einer Website durchgeführt werden, um deren Sichtbarkeit und Ranking in den Suchmaschinenergebnissen zu verbessern. Zum Beispiel die Optimierung von Texten, Bildern oder Meta Tags.

 

Technical-SEO

Technical-SEO bezieht sich auf alle Maßnahmen, welche zur Optimierung der technischen Aspekte einer Website umgesetzt werden, mit dem Ziel, die User Experience und somit die Sichtbarkeit sowie das Ranking in den Suchergebnissen zu verbessern. Dazu gehört die Verbesserung der Ladezeit, die Optimierung der Seitenstruktur, die Integration von strukturierten Daten oder das Anlegen einer korrekten XML-Sitemap.

 

Local-SEO

Local-SEO bezieht sich auf alle Maßnahmen, die speziell auf die Optimierung einer Website zu lokalen Suchanfragen abzielen. Das Ziel ist es, die Sichtbarkeit eines Unternehmens in den lokalen Suchergebnissen zu erhöhen und damit potenzielle Kunden*innen zu erreichen, die nach Produkten oder Dienstleistungen in ihrer unmittelbaren Umgebung suchen.

 

Zum Local-SEO gehören sowohl Onpage- wie auch Offpage-Maßnahmen. Beispielsweise die redaktionell sinnvolle Integration lokaler Schlüsselwörter im Content der Website oder die Optimierung von wichtigen externen Faktoren, wie beispielsweise dem Google Unternehmensprofil.

 

White-Hat-SEO

White-Hat-SEO bezieht sich auf alle SEO-Maßnahmen und -Strategien, die von Suchmaschinen als ethisch und im Einklang mit ihren Richtlinien angesehen werden. White-Hat-SEO zielt darauf ab, das Ranking einer Website auf natürliche Weise zu verbessern, indem qualitativ hochwertiger Inhalt produziert, relevante Keywords integriert, eine gute Benutzererfahrung hergestellt und relevante Backlinks gewonnen werden.

 

Black-Hat-SEO

Black-Hat-SEO bezieht sich auf die Verwendung von aggressiven und manipulativen SEO-Maßnahmen, um das Ranking einer Website in Suchmaschinen zu verbessern. Black-Hat-SEO kann zu kurzfristigen Erfolgen in der Online-Sichtbarkeit führen, verstößt aber gegen die Richtlinien von Google & Co. und hat deshalb langfristig Abstrafungen (sogenannte Penaltys) oder sogar den Ausschluss aus den Suchergebnissen zur Folge.

 

Beispiele für Black-Hat-SEO sind Keyword-Stuffing, Cloaking (das Anzeigen unterschiedlicher Inhalte für Nutzer*innen und Suchmaschinen) und Link-Spamming.

Wie lässt sich SEO optimieren?

Streng genommen ist die Frage falsch gestellt. Denn SEO kann nicht optimiert werden – SEO (Suchmaschinenoptimierung) ist die Optimierung. Im Grunde ist SEO aber ganz einfach. Fernab aller Ranking-Faktoren, technischer Fachbegriffe und komplexer Strategien steht eine Frage im Fokus: Was kannst du tun, um die Besucher*innen deiner Website glücklicher zu machen?

 

Schreibe anspruchsvolle Inhalte, die deinen Besucher*innen einen Mehrwert bieten und bereite diesen Content so auf, dass er leicht konsumierbar ist. Vermeide doppelte Inhalte und achte darauf, dass deine Seite immer auf dem neuesten Stand ist.

 

Sorge dafür, dass sich deine Besucher*innen auf deiner Website leicht zurechtfinden, sie schnell an ihr Ziel kommen können, und gestalte den Besuch so selbsterklärend, dass bei der Nutzung deiner Website keine Fragen aufkommen.

 

Erstelle FAQ und beantworte häufige Fragen zu deiner Marke, deinen Produkten oder deinen Dienstleistungen proaktiv. Biete deinen Besucher*innen Authentizität, Sicherheit und alle Informationen, die auch du von einem Unternehmen erwartest, bei dem du eine Dienstleistung buchen oder ein Produkt kaufen möchtest.

 

Betrachte dein Angebot aus der Perspektive deiner Besucher*innen, denn häufig führt dein fachlicher Blickwinkel dazu, dass für dich vieles selbstverständlich ist, was für deine Zielgruppe eine Erklärung erforderlich macht.

 

Bedenke immer: Gutes SEO wird für Menschen gemacht. Für die Besucher*innen deiner Website und nicht primär für eine Suchmaschine. Denn wenn die Menschen auf deiner Website glücklich sind, werden das die Suchmaschinen honorieren.

Was macht eine SEO-Agentur?

Eine SEO-Agentur ist spezialisiert auf die Optimierung von Websites, um deren allgemeine Sichtbarkeit sowie deren Ranking zu relevanten Keywords in den Ergebnissen von Suchmaschinen zu verbessern. Ziel einer SEO-Agentur ist es, mehr qualifizierten Traffic auf die Websites ihrer Kunden*innen zu bringen und somit auch den Umsatz zu steigern.

Je nach Ausrichtung der jeweiligen SEO-Agentur reichen die Leistungen von einem ganzheitlichen SEO-Check, über die Entwicklung einer umfassenden SEO-Strategie und die SEO-Schulung bis hin zur operativen Umsetzung von SEO-Maßnahmen.

Wie viel kostet eine SEO-Agentur?

Die Kosten einer SEO-Agentur liegen in DE im Schnitt zwischen 80 € und 160 € pro Stunde bzw. zwischen 600 € und 1.200 € pro Tag. Einen preislichen Unterschied machen die strategische SEO-Beratung und die operative SEO-Umsetzung, wobei erstgenanntes einen höheren Wert hat.

 

Die Preise einer SEO-Agentur sind auch abhängig von der jeweiligen Größe, Erfahrung und Ausrichtung der jeweiligen Agentur. Liegt ein Angebot unter oder über diesem Schnitt, muss das nicht zwingend ein schlechtes Zeichen sein, sollte aber hinterfragt werden.

Was ist das Wichtigste bei SEO?

Übersicht, Fachwissen, Vertrauen und Geduld. Wer seine SEO-Maßnahmen aus gefährlichem Halbwissen oder vom Hören-Sagen ableitet oder nach dem Gießkannenprinzip umsetzt, wird damit garantiert nicht glücklich werden. Effektives SEO macht eine Übersicht über alle vorhandenen Optimierungspotenziale notwendig und eine darauf basierende Strategie.

 

Wenn du das dafür benötigte Fachwissen nicht in deinem Unternehmen hast, suche dir einen Partner, dem du vertrauen kannst, der Transparenz an den Tag legt, der dir Fragen stellt, der dir jeden Schritt hin zu einer ganzheitlichen Strategie erklärt und der erst einmal einen Plan macht und nicht einfach irgendetwas umsetzt.

 

Außerdem ist oft Geduld entscheidend. SEO-Maßnahmen greifen in aller Regel nicht sofort und die gewünschten Ergebnisse treten nicht selten erst nach vielen Monaten ein. Eine effektive Strategie braucht deshalb Zeit, um sich entfalten zu können.

Wie fange ich mit SEO an?

Mit einem SEO-Audit. An erster Stelle sollte immer ein ausführlicher SEO-Check deiner Website stehen. Nur wenn du alle Optimierungspotenziale kennst, kannst du eine effektive Strategie entwickeln, die richtigen Maßnahmen ableiten und Prioritäten setzen.

 

Ohne ein solches Audit lässt du metaphorisch gesprochen die Reifen deines Autos wechseln, ohne dass jemand unter die Motorhaube gesehen hat, um zu bemerken, dass der Motor kaputt ist. Das Gesamtbild ist entscheidend und einzelne Maßnahmen sind nur dann effektiv, wenn diese auf das große Ganze abgestimmt sind.

Was ist der Unterschied zwischen SEO und SEA?

SEO (Search Engine Optimization) und SEA (Search Engine Advertising) sind zwei verschiedene Methoden des Suchmaschinenmarketings, die darauf abzielen, die Sichtbarkeit einer Website auf Google & Co zu erhöhen.

 

SEO bezieht sich auf alle Maßnahmen, die auf oder außerhalb einer Website umgesetzt werden, um die organische Sichtbarkeit in den unbezahlten Suchergebnissen von Suchmaschinen zu steigern.

 

SEA hingegen bezieht sich auf bezahlte Werbung in Suchmaschinen. Unternehmen können z.B. über Google Ads Anzeigen schalten, die bei der Eingabe bestimmter Suchanfragen erscheinen.

 

Der Hauptunterschied zwischen SEO und SEA liegt also darin, dass SEO ein organischer Ansatz ist, um eine höhere Platzierung in den unbezahlten Suchergebnissen zu erreichen, während SEA eine bezahlte Methode ist, um mit der eigenen Website möglichst weit oben in den Suchergebnissen zu stehen.

Welche Alternativen zu SEO gibt es?

Wenn für dich eine hohe Sichtbarkeit deiner Website in Suchmaschinen wie Google wichtig ist, gibt es zu SEO eigentlich keine Alternative. Einzig mit SEA, also der Werbeschaltung über Programme wie Google Ads oder Microsoft Ads, kannst du in den Suchergebnissen prominenter vertreten sein.

 

Der Vorteil von SEA ist, dass du im Gegensatz zu SEO sehr schnell hohe Positionen zu den gewünschten Keywords erreichen kannst. Der Nachteil ist, dass du dafür von einem Mediabudget abhängig bist.

 

In der Regel ist ein Mix aus beiden Ansätzen die richtige Strategie, um mit Suchmaschinenmarketing den unternehmerischen Erfolg langfristig auszubauen.

SEO Best Practices, Ranking-Faktoren, SEO Wiki & SEO Tools

SEO-Grundlagen verstehen

Wer SEO betreibt, sollte sie kennen. Aber auch wer eine SEO-Agentur beauftragt, ist damit gut beraten, um auf Augenhöhe mitreden zu können: den SEO-Grundlagen. Dazu zählen die Search Quality Rater Guidelines von Google genauso, wie alle Informationen, die Google über die Google Search Central.

 

Neben den rein fachlichen SEO-Grundlagen sollte aber auch der Charakter einer Suchmaschinenoptimierung bekannt sein. Bei SEO handelt es sich nämlich um einen kontinuierlichen Prozess und nicht, wie manche glauben, um eine einmalige Geschichte.

 

Wer SEO nur einmalig betreibt, erlangt vielleicht temporär die gewünschte Sichtbarkeit, wird aber mittel- und langfristig wieder abgehängt werden. Regelmäßige Google Updates, technischer Fortschritt, sich ändernde Suchintentionen oder sich wandelnder Wettbewerb haben stetig Einfluss auf das Ranking und wer heute noch ganz oben ist, kann morgen schon ganz unten sein.

 

Außerdem sollte jeder, der SEO-Maßnahmen umsetzt oder umsetzen lässt, sich bewusst sein, dass es unter Umständen Zeit benötigt, dass eine Strategie greift oder dass die Maßnahmen die erhofften Ergebnisse erzielen. Eine SEO-Optimierung sollte mindestens für einen Zeitraum von 12 Monaten angesetzt werden und früher sollte auch kein Fazit erfolgen. Wer zu ungeduldig ist und die erarbeitete Strategie deswegen schnell wieder verwirft, tut sich damit selbst keinen Gefallen.

Hilf deinen Besucher*innen

Websites werden für Menschen entwickelt und nicht für Suchmaschinen. Deshalb sollte es das oberste Ziel deiner SEO-Maßnahmen sein, deine Website für deine Besucher*innen zu optimieren und nicht für einen Algorithmus. Wenn du dich daranhältst, wirst du von Haus aus glücklichere Nutzer*innen haben und damit garantiert auch ein besseres Ranking in der Google Suche erreichen.

 

Schaffe einzigartige Inhalte, die gut strukturiert, leicht konsumierbar und auf deine Zielgruppe zugeschnitten sind. Kenne nicht nur die Keywords, nach denen deine Zielgruppe auf Google sucht, sondern auch die Suchintention, die hinter den Anfragen steht. Nicht allein auf die Keywords an sich, sondern auf die dahinterliegende Suchintention der Menschen sollten deine Inhalte ausgerichtet sein.

 

Schaffe eine Website, die für den Besuch über alle Geräte und über alle Browser gleichermaßen optimiert ist. Wie in einem Ladengeschäft, sollten deine Besucher*innen nicht lange warten müssen, um an die Reihe zu kommen und von dir aufgehängte Wegweiser zur Orientierung sollten nicht in einer Sackgasse enden.

 

Schaffe außerdem eine klare Seitenhierarchie, in der sich deine Besucher*innen einfach zurechtfinden, die barrierefrei ist, in der alle Inhalte über Links erreichbar sind und möglichst keine Fragen auf dem Weg zu dem von dir angestrebten Ziel deiner Besucher*innen aufkommen.

Mach es dem Googlebot einfach

Ist deine Website optimal auf die Bedürfnisse deiner Besucher*innen ausgerichtet, solltest du es im zweiten Schritt dem Googlebot so einfach wie möglich machen, deine Website zu finden, zu verstehen und zu indexieren.

 

Die Crawlbarkeit deiner Website spielt dabei eine ausschlaggebende Rolle. Du solltest nicht nur dafür sorgen, dass die Inhalte deiner Website durch Suchmaschinen leicht auszulesen sind, sondern auch bestimmen, welche Inhalte dafür überhaupt infrage kommen. Session IDs und durch interne Suchanfragen oder gesetzte Filter entstehende URLs sollten in der Regel genauso von der Indexierung ausgeschlossen werden, wie das Crawlen von Werbelinks (Stichwort „nofollow“).

 

Hilf Google bei der Indexierung durch eine möglichst optimale interne Verlinkung aller Seiten, durch die Bereitstellung einer oder mehrerer XML-Sitemaps und durch die Verwaltung des Crawl-Budgets über eine robots.txt Datei. Stoße Google außerdem mit der Nase auf die Inhalte deiner Website, indem du deine Website in der Google Search Console einträgst.

Keywords clustern und mit Inhalten mappen

Jede einzelne Seite deiner Website, zumindest alle, die relevant für die Google Suche sind, sollten jeweils auf ein individuelles Fokus Keyword bzw. auf ein individuelles Thema ausgerichtet sein. Nur auf diese Weise kannst du eine bestmögliche Sichtbarkeit erreichen und vermeidest doppelte Rankings sowie die Kannibalisierung deiner Inhalte.

 

Um das zu gewährleisten, ist eine ausführliche Keyword-Analyse, auch Keyword-Clustering oder Keyword-Mapping genannt, Grundbestandteil einer jeden SEO-Optimierung.

 

Mit dieser Analyse wird festgehalten, auf welches Keyword bzw. auf welche Keyword-Phrase jede einzelne Seite aktuell ausgerichtet ist (oder ausgerichtet werden sollte), ob diese Ausrichtung im Sinne der Sichtbarkeit ist und welche Parameter geändert werden sollten, um das Ranking zu optimieren.

Safety first!

Die Sicherheit der Daten deiner Besucher*innen sollte dir auch aus SEO-Sicht am Herzen liegen. Denn eine HTTPS-Verschlüsselung und damit ein gültiges SSL-Zertifikat ist auch ein Google Ranking-Faktor. Websites, die kein valides SSL-Zertifikat haben und nur mit dem unverschlüsselten http-Protokoll aufgelöst werden, sind nicht nur unsicher, sondern haben im Ranking auf Google kaum eine Chance gegenüber sicher verschlüsselten Websites.

Mobile first!

Bei Google gilt die Mobile-First-Indexierung. Das heißt, dass Google ausschließlich die mobile Version einer Website zur SEO-Bewertung heranzieht (die Desktop Version spielt SEO-technisch nur dann noch eine Rolle, wenn es keine mobile Version gibt) und nur die Qualität der mobilen Version entscheidet darüber, wo deine Website in der Google Suche positioniert wird.

 

Deshalb sollte schon beim Webdesign die mobile Version im Mittelpunkt stehen und nicht, wie so häufig, die Desktop-Version. Mal abgesehen von Ausnahmen im B2B-Bereich kommen die meisten Besucher*innen einer Website mehrheitlich und branchenübergreifend über mobile Geräte. Aus diesem Grund hat Google bereits 2018 den mobilen Index eingeführt, der spätestens seit 2021 vollständig ausgerollt ist.

TLD mit Bedacht wählen

Eine TLD (Top-Level-Domain wie .de oder .com) sollte immer nach Zielgruppe bzw. Zielmarkt ausgewählt werden. Liegt dein Kernmarkt beispielsweise in Deutschland, macht eine .de Domain mehr Sinn als eine .com Domain. Denn die Menschen vertrauen einer ihrem Land entsprechenden TLD mehr als einer anderen.

 

Auch für Suchmaschinen ist eine TLD eine Frage des Vertrauens. Bevor du dir eine Domain sicherst, solltest du deshalb unbedingt die Domain-Historie checken. Unter Umständen schleppt eine mittlerweile freie Domain aus der Vergangenheit erheblichen SEO-Ballast mit sich herum, der es dir nahezu unmöglich machen könnte, gute Rankings zu erzielen.

Sprechende URLs verwenden

Grundbestandteil einer SEO-optimierten Website sind sprechende URLs. Deine Besucher*innen sollten sich die Seitennamen leicht merken und aus ihnen leicht Rückschlüsse auf den Inhalt der jeweiligen Seite ziehen können. Bei einer URL wie „isemo.de/seo-optimierung“ weiß jeder sofort, was einen auf der Website erwarten dürfte. Lautet die URL stattdessen „isemo.de/xzcp5t83“ ist völlig unklar, was sich dahinter für ein Inhalt verbirgt. Entsprechend negativ bewertet Google eine nicht sprechende URL.

Starken Content produzieren

Deine Dienstleistung bieten viele andere auch an. Deine Produkte (oder ähnliche) verkaufen unzählige andere Online-Shops. Warum sollte sich jemand für dich entscheiden? SEO-Optimierung heißt auch, starken Content zu produzieren, der die Relevanz deines Unternehmens oder deiner Marke unterstreicht und fördert.

 

Du musst hervorheben, warum du ein Experte*in für das bist, was du tust. Was dein USP ist. Dabei geht es um Erfahrung, Expertise, Autorität, Authentizität und Vertrauen. Es geht darum, für dein Geschäftsfeld alle relevanten Informationen für potenzielle Kunden*innen übersichtlich zur Verfügung zu stellen.

 

Es geht um eine semantische SEO-Optimierung deiner Inhalte. Um Qualität statt Quantität. Um eine relevante Informationstiefe und nicht um reine Keyword-Optimierung oder gar Keyword-Bashing. Zeige, dass du dich auskennst und warum Nutzer*innen bei dir etwas kaufen oder buchen sollten und nicht bei deinem Wettbewerb.

Überzeuge auf den ersten Blick

Das Internet ist kurzweilig. In der Regel hast du nur wenige Sekunden Zeit, um deine Besucher*innen von deinem Angebot zu überzeugen. Auch Online gilt deshalb: der erste Eindruck zählt.

 

Alles, was auf deiner Website „Above the fold“ zu sehen ist, ist besonders relevant. Das heißt, dass Inhalte, die für Besucher*innen sofort und ohne scrollen sichtbar sind, einen sehr großen Einfluss auf die Performance deiner Website haben.

 

Auch Suchmaschinen messen den Inhalten, die „Above the fold“ sichtbar sind, eine besondere Gewichtung bei. Aus SEO-Perspektive solltest du diesen Bereich genau unter die Lupe nehmen.

Beweise Aktualität

Veraltete Informationen sind ärgerlich. Wenn deine Besucher*innen nicht auf das vertrauen können, was sie bei dir lesen, wird sich das negativ auf dein Geschäft auswirken. Auch Google prüft deinen Content auf Aktualität.

 

Für eine SEO-Optimierung ist der regelmäßige Check deiner bereits publizierten Inhalte auf notwendige Updates genauso wichtig, wie ein Magazin, ein Blog oder eine News-Sektion, in der du regelmäßig unter Beweis stellst, auf dem neusten Stand der Dinge zu sein.

Leserlichkeit optimieren

Denke immer daran: bei Google gilt der mobile Index. Ein auf dem Desktop verfasster Text mag auch optisch vernünftig wirken, auf dem Smartphone wird dieser aber schnell unleserlich und verkommt zur Textwüste. Regelmäßige Absätze, idealerweise alle 4-5 Zeilen und eine Schriftgröße von mindestens 16 führen auch auf Mobilgeräten zu einer guten Leserlichkeit.

 

Zwischenüberschriften und Fettungen im Fließtext, um wichtige Inhalte hervorzuheben, führen zusätzlich zu einer besseren Übersicht und Orientierung.

Blog-Beiträge schreiben – auch im E-Commerce!

Wie bereits erwähnt, ist die Aktualität einer Website relevant und ein Ranking-Faktor von Google. Das gilt nicht nur für Dienstleistungsseiten, sondern auch für Online-Shops. 28 der 30 umsatzstärksten Online-Shops in Deutschland haben einen Blog oder ein Magazin.

 

Beiträge zu angesagten Themen, die deine Zielgruppe interessieren und mit deiner Produktwelt verknüpfbar sind, werten deinen gesamten Internet-Auftritt auf und führen zu weiteren Rankings zu informationalen Suchanfragen, zu denen du ohne einen Blog keine organische Sichtbarkeit erreichen würdest.

Personifizierung nicht vergessen

Schon eine alte Marketing-Weisheit besagt: gib deiner Marke ein Gesicht. Menschen möchten wissen, welche Gesichter hinter einer Marke stehen, wer ihre Artikel produziert oder welche Berater*innen ihre potenziellen Ansprechpartner*innen sind.

 

Die Autoren*innen der Inhalte auf deiner Website solltest du aus ähnlichen Gründen benennen und vorstellen. Umso höher die Reputation der Autoren*innen, umso höher die Wahrscheinlichkeit von besseren Rankings. Denn auch Google bemisst dieser Reputation große Bedeutung bei (Stichwort „E-E-A-T“).

FAQ schreiben

Mit der Integration von FAQ auf deiner Website schlägst du drei Fliegen mit einer Klappe. Erstens beantwortest du Fragen deiner Besucher*innen proaktiv und holst potenzielle Kunden*innen dadurch besser ab. Zweitens entlastest du damit dein Service-Team, welches häufig auftretende Fragen nicht immer wieder aufs Neue beantworten muss.

 

Und drittens honoriert auch Google diesen Mehrwert und spielt passende Antworten auf häufig gestellte Fragen prominent in der Google Suche aus. So können die Inhalte deiner Website in den Suchergebnissen als Antworten ausgespielt werden, und zwar zusätzlich zu den eigentlichen SERPS.

SERP-Snippets optimieren

Du bestimmst, wie die jeweiligen Suchergebnisse der Seiten deiner Website in Suchmaschinen ausgespielt werden. Ein ansprechender und themenrelevanter Titel sowie eine informative und zur Handlung auffordernde Beschreibung sind nicht nur relevant für deine Rankings, sondern auch hauptverantwortlich für die Klickrate in den SERPS.

 

Umso ansprechender du deine Suchergebnisse gestaltest, umso höher ist die Wahrscheinlichkeit, dass Suchende auch draufklicken. Die dafür verantwortlichen Meta-Tags sollten pro Seite individuell und nach den folgenden Best-Practices aufgebaut sein:

 

Meta-Title-Tag: Maximal 70 Zeichen (ideal sind nicht mehr als 60) bzw. 580 Pixel lang. Angereichert mit dem Fokus Keyword der jeweiligen Seite, welches idealerweise ganz am Anfang des Titels steht. Beinhaltet ein USP sowie einen CTA und ggf. auch den Namen deiner Marke.

 

Meta Description: Nicht mehr als 156 Zeichen bzw. 990 Pixel lang. Angereichert mit dem Fokus Keyword der jeweiligen Seite, egal an welcher Stelle dieses vorkommt. Beinhaltet weitere Vorteile sowie einen CTA.

H1 Struktur definieren

Die Überschriften einer Website werden rein technisch mit sogenannten H-Tags organisiert. Die Hauptüberschrift sollte demnach ein H1-Tag aufweisen und folgende Zwischenüberschriften auf der gleichen Seite entsprechende H2-, H3- oder H4-Tags.

 

Das trägt nicht nur zur Barrierefreiheit deiner Website bei, sondern führt auch zu besseren Rankings. Google misst Wörtern, welche in H-Tags stehen, eine höhere Bedeutung bei, weshalb die Integration von Fokus Keywords im H-Tag ein SEO-Best-Practice ist.

 

In 13 % bis 33 % der Fälle ignoriert Google den eingesetzten Meta-Title-Tag und zeigt stattdessen mehrheitlich das H1-Tag als Titel in den SERPs an, was die Relevanz des H1-Tags weiter steigert.

Canonicals setzen

Mit einem Canonical Tag (auch kanonische URL genannt) wird Suchmaschinen mitgeteilt, ob es sich bei der damit ausgezeichneten Seite einer Website um ein Original handelt, welches indexiert werden soll, oder um eine Variante des Originals, welche nicht indexiert werden soll, um Duplicate Content zu vermeiden.

 

Alle Originale deiner Website sollten per Canonical Tag auf sich selbst referenzieren, das heißt, die Seiten verlinken per Canonical auf sich selbst, und alle Varianten eines Originals, zum Beispiel Varianten einer Produktseite, verlinken per Canonical nicht auf sich selbst, sondern auf das Original.

Indexierung steuern

Ein wichtiger Faktor der SEO-Optimierung ist die Steuerung der Crawlbarkeit einer Website. Nur Seiten, die wirklich relevant für die Google Suche sind, sollten auch indexiert werden. Alle anderen Seiten sollten von der Indexierung ausgeschlossen werden, um begrenztes Crawl-Budget zu sparen.

 

Der Googlebot crawlt eine Website in der Regel nur maximal 5 Minuten. Schafft er es in dieser Zeit nicht alle zur Indexierung freigegebenen Seiten zu crawlen bzw. hat er innerhalb dieser Zeit nicht alle Daten erfasst, wird mit den Daten gearbeitet, die in dieser Zeit gecrawlt werden konnten.

 

Beispielsweise Paginationsseiten, wie Parameter-URLs, die durch das Setzen von Filtern, durch Archive oder durch die interne Suche entstehen, sollten deshalb von der Indexierung ausgeschlossen werden, um den Prozess des Crawlings nicht mit Inhalten zu verstopfen, die für die Darstellung in der Google Suche kaum eine Relevanz haben.

 

Vor allem Online-Shops können auf diesem Weg enormes Crawl-Budget einsparen und Duplicate Content vermeiden. Das Mittel der Wahl ist das sogenannte PRG-Pattern, eine legitime Methode zur Linkmaskierung. Dadurch werden z.B. unzählige durch Filter generierte Parameter-URLs nicht indexiert.

Noindex = kein Canonical!

Eine weitere Methode, um für die Darstellung in den Suchergebnissen irrelevante Seiten von der Indexierung durch Suchmaschinen auszuschließen, ist das Setzen des „noindex“ Befehls. Dadurch wird unter anderem dem Googlebot mitgeteilt, die entsprechende Seite nicht zu crawlen.

 

Aber Vorsicht: wenn eine Seite mit dem Meta-Robots-Tag „noindex“ versehen wird, sollte diese weder über ein selbstreferenzierendes Canonical Tag verfügen, noch sollten andere Seiten per Canonical auf diese Seite verweisen. Ansonsten erhält Google widersprüchliche Signale.

 

Das „noindex“ Tag fordert Google auf, eine Seite nicht zu indexieren und ein Canonical Tag fordert Google dazu auf, genau das Gegenteil zu machen. Die Verwendung von beiden auf einer Seite macht deshalb keinen Sinn.

Ladezeit optimieren

Die Ladezeit einer Website ist ein gewichtiger Ranking-Faktor und deren Optimierung ein wichtiger Bestandteil jeder SEO-Strategie. Es gibt viele starke Tools, um die Ladezeit deiner Website kostenlos zu analysieren, z.B. GTmetrix oder Webpagetest, aber da du vor allem in der Google Suche eine Verbesserung erzielen willst, empfiehlt sich die Verwendung von Google Lighthouse.

 

Es ist Bestandteil der Chrome Dev Tools und kann über einen Rechtsklick und die Auswahl von „untersuchen“ im Chrome Browser gestartet werden. Google Lighthouse liefert dir alle Optimierungspotenziale und detaillierte Handlungsempfehlungen, um die Ladezeit deiner Website zu verbessern.

 

Beachte bei der Nutzung aller genannten Tools, dass du eine Analyse für die mobile Version deiner Website startest (Stichwort „Mobile-First-Indexierung“) und sich deine eigene Internet-Geschwindigkeit, die Nutzung weiter Browser-Plugins sowie die gewählten Einstellungen auf die Analyse auswirken.

Interne Verlinkung stärken

Die interne Verlinkung einer Website ist ein oft unterschätzter Hebel zur Verbesserung der Sichtbarkeit. Seiten, die intern häufig verlinkt sind, werden von Google als besonders relevant eingestuft, während Seiten, die wenige interne Links auf sich vereinen können, als entsprechend irrelevant gelten.

 

Auch die Prominenz der Links spielt in der Bewertung eine Rolle. Links in der Hauptnavigation haben das meiste Gewicht, während Links im Footer deutlich an Relevanz eingebüßt haben, weil diese oft nur aus SEO-Zwecken integriert, aber kaum geklickt wurden.

 

Die Wörter in Ankertexten sind zudem entscheidend und können das Ranking zu einem bestimmten Keyword nachhaltig stärken. Denn genauso wie Wörter, die im Title Tag oder im H1-Tag stehen, werden Wörter, die im Ankertext eines Hyperlinks stehen, von Suchmaschinen als besonders relevant betrachtet.

 

Aus diesem Grund ist es sehr wichtig, eindeutige Signale an Google zu senden, um die Sichtbarkeit einer spezifischen Seite zu einem spezifischen Suchbegriff zu pushen. Wenn die internen Links zu einer bestimmten Seite immer das gleiche Keyword im Ankertext führen, ist das ein eindeutiges Signal, zu welchem Suchbegriff diese Seite eine Autorität besitzt. Führen stattdessen dutzende verschiedene Begriffe zur gleichen Seite, ist für die Suchmaschine nicht ersichtlich, welches Keyword bzw. Thema im Fokus der Seite steht.

 

Aber Vorsicht: zu viele interne Links können sich auch negativ auswirken. Denn jede Seite vererbt ihren Linkjuice. Umso mehr interne Links von einer Seite abgehen, umso geringer fällt der vererbte Linkjuice aus. Wenn von einer Seite beispielsweise 10 Links abgehen, erhält jede der verlinkten Seiten 10 % der SEO-Power der vererbenden Seite. Gehen aber 100 Links von der gleichen Seite ab, erhält jede verlinkte Seite nur 1 % des vererbten Linkjuice.

Auch vor dem Hintergrund der Schaffung einer starken internen Linkstruktur gilt die Integration von Breadcrumbs als Best Practice. Dadurch werden nicht nur weitere interne Links zu allen Seiten der Website geschaffen, auch für die Besucher*innen bedeuten die Breadcrumbs einen Vorteil. Schließlich sorgen diese für eine bessere Übersicht und damit für eine bessere User Experience.

Bilder optimieren

Die Optimierung von Bildern ist aus vielerlei Hinsicht ein wichtiger SEO-Faktor. Sprechende Dateinamen und beschreibende ALT-Attribute sorgen für eine höhere Sichtbarkeit in der Bildersuche, schaffen Barrierefreiheit und zeigen Suchmaschinen, dass die Bilder sich ideal in den Kontext der Seite einfügen – was zu einer Stärkung des Contents führt.

 

Außerdem sorgt die technische Optimierung von Bildern für weniger Datenvolumen und eine entsprechend schnellere Ladezeit. Bilder sollten aus diesem Grund keine zu großen Abmessungen oder eine übertriebene Auflösung haben (in der Regel reicht der Web-Standard von 72dpi) und zudem in einem modernen Dateiformat wie WebP bereitgestellt werden.

XML-Sitemap erstellen und einreichen

Eine XML-Sitemap ist wie ein Wegweiser für Suchmaschinen, welche Inhalte es auf der Website gibt und wo diese zu finden sind. In der Regel werden verschiedene Arten von Inhalten in einer jeweils eigenen Sitemap organisiert, zum Beispiel Seiten, PDFs, Videos, Bilder oder Blogbeiträge, und in einem Sitemap-Index zusammengefasst.

 

Sitemaps helfen Suchmaschinen beim Crawling von Inhalten und sind wichtig für SEO. In eine XML-Sitemap gehören alle Inhalte, die auch indexiert werden sollen. Nicht erreichbare Seiten, Seiten, die nur eine Weiterleitung darstellen oder Seiten, die nicht indexiert werden sollen, haben in einer XML-Sitemap nichts verloren.

 

Die meisten modernen CMS erstellen automatisch eine oder mehrere Sitemaps und ebenso einen entsprechenden Sitemap-Index. Allerdings sollten diese immer auf ihre Richtigkeit überprüft werden. Nicht immer sollen alle Inhalte, die automatisch in einer Sitemap landen, auch indexiert werden, weshalb Anpassungen fast immer notwendig sind.

 

Die XML-Sitemap oder der Sitemap-Index sollte in der Google Search Console eingereicht werden, um die Suchmaschine auf die Struktur der Seite aufmerksam zu machen und das Crawling der Inhalte zu beschleunigen.

Robots.txt nicht vergessen

Mit der robots.txt Datei kannst du die Indexierung deiner Website steuern. Hier kannst du Verzeichnisse eintragen, die von Bots nicht gecrawlt werden sollen, ganze Bots von deiner Website ausschließen oder z.B. den Googlebot explizit dazu einladen, ganz bestimmte Inhalte deiner Website zu indexieren. Absoluter SEO-Standard, der nicht fehlen darf.

Mehrsprachigkeit auch technisch umsetzen

Bietest du deine Website oder deinen Online-Shop in verschiedenen Sprachen an? Dann solltest du das den Suchmaschinen auch technisch erkenntlich machen. Mit der Integration von hreflang-Tags zeichnest du die jeweilige DE-Variante aller deiner Seiten aus, weist außerdem auf die entsprechenden Pendants in allen angebotenen Sprachen hin und kannst auch einen Default setzen, der Nutzer*innen angezeigt wird, wenn nicht klar ist, welche Spracheinstellungen diese bevorzugen.

 

Vor allem dann, wenn du verschiedene Inhalte für gleichsprachige Märkte anbietest, zum Beispiel andere Leistungen oder Preise für AT und DE oder UK und US, sind hreflang-Tags unabdingbar.

Das solltest du vermeiden

Nicht selten besteht eine SEO-Optimierung nicht nur darin, bestimmte Faktoren umzusetzen, sondern auch darin, bestimmte Dinge zu vermeiden. Linktauschprogramme oder der Kauf von minderwertigen Backlinks, wie das früher häufig Praxis war, sind keine gute Idee, denn diese stehen wie einige andere Themen auf der schwarzen Liste von Suchmaschinen.

 

Werden Suchmaschinen andere Inhalte angezeigt als den Besucher*innen einer Website, Cloaking genannt, gilt das als Manipulation und führt zu Penaltys, welche die temporäre oder dauerhafte Sperrung der betroffenen Domain für die SERPS zur Folge hat.

 

Das gilt auch für das Verbergen von Links, mit Ausnahme der Linkmaskierung durch PRG-Pattern, für die Erstellung von Brückenseiten, die nur für Suchmaschinen programmiert – Nutzer*innen aber nicht gezeigt werden und auf eine andere URL weiterleiten oder für kopierte Inhalte, also Duplicate Content, die von anderen Websites übernommen wurden.

SEO-Entwicklung analysieren

Ein SEO-Audit und die anschließende Umsetzung der entwickelten SEO-Strategie sollte als Startpunkt einer langfristigen SEO-Optimierung gesehen werden und nicht als ihr Ende. Hast du alle Optimierungspotenziale gehoben und alle Best Practices umgesetzt, solltest du die Entwicklung der Sichtbarkeit deiner Website ganz genau im Auge behalten.

 

Nur weil du dank der Optimierungen jetzt ein hohes Ranking erreicht hast, heißt das nicht, dass das auch so bleibt. Eine hohe Sichtbarkeit zu erzielen, ist deutlich einfacher, als diese auch zu etablieren. Deshalb ist die fortlaufende Analyse deiner Rankings das A und O, um auch langfristig ganz oben stehen zu können.

Rankings bewerten und Traffic überwachen

Ein Sichtbarkeitsindex ist ein guter Indikator, ob deine SEO-Maßnahmen sich auszahlen und ob die Entwicklung deiner Sichtbarkeit in den Suchmaschinen positiv verläuft. Mehr aber auch nicht. Nicht nur neue Rankings an sich, sondern deren Qualität ist entscheidend. Gleiches gilt für die Entwicklung des Sichtbarkeitsindex. Beides kann oberflächlich betrachtet durchweg positiv aussehen und doch keinerlei Effekt haben, weil darüber nicht mehr Traffic generiert wird. Folgend ein paar Beispiele:

    • Falsche Suchintention: Deine neuen Rankings sind in erster Linie informationaler Natur. Das führt zu mehr Traffic und zu mehr Markenbekanntheit, kann aber unter Umständen zu keinerlei Mehrgeschäft führen. Investierst du viel Arbeit in einen Blog, weil du darüber mehr hohe Rankings erzielen willst, wobei dein eigentliches Ziel die Neukundenakquise ist, solltest du unbedingt messen, ob du über diese Rankings auch Conversions erzielst. Falls nicht, verfehlen der investierte Einsatz und die dadurch generierten Rankings ihr Ziel.
    • Irrelevante Rankings: Deine Rankings steigen, deine Website ist zu immer mehr Keywords sichtbar und die Entwicklung des Sichtbarkeitsindex steigt kontinuierlich an. Alles gut? Nicht unbedingt. Oft ranken vor allem redaktionelle Beiträge auch zu völlig irrelevanten Begriffen. Die verschaffen dir zwar Traffic, aber von der falschen Zielgruppe. Der Traffic hat für dich deshalb keinen Wert und die Rankings dementsprechend auch nicht.
    • Brand-Rankings: Der Anstieg deiner Rankings und des Sichtbarkeitsindexes fußt hauptsächlich auf Brand-Begriffen. Das ist gut für die Markenbekanntheit, hat aber kaum einen Impact auf die Neukundengewinnung. Denn wer deine Marke googelt, hat diese schon auf dem Schirm. Ist das Ziel deiner SEO-Maßnahmen die Neukundenakquise, helfen dir die neuen Rankings und der gestiegene Index nur wenig.
    • Schwach positionierte Rankings: Du hast jede Menge neue Rankings durch deine SEO-Maßnahmen erzielt, und zwar zu Keywords, die auch relevant sind. Entsprechend positiv fällt die Entwicklung des Sichtbarkeitsindexes aus. Trotzdem hat das keinerlei Auswirkungen auf deine tatsächliche Sichtbarkeit, deinen Traffic und dein Geschäft. Warum? Weil die erzielten Rankings allesamt auf Position 10 abwärts stattfinden und damit weniger als ein Prozent der Suchenden davon überhaupt etwas mitbekommen. Nur neue Rankings auf Seite 1 der Google Suche haben auch einen wertvollen Impact.

Aus all diesen Gründen ist es wichtig, nicht nur oberflächlich neue Rankings und den Sichtbarkeitsindex zu überwachen, sondern vor allem zu analysieren, zu welchen Begriffen sowie auf welchen Positionen neue Rankings entstehen und ob darüber auch Traffic und Conversions erzielt werden.

Klickwahrscheinlichkeit analysieren

Du hast hohe Rankings zu relevanten Keywords erzielt, aber trotzdem ist das Niveau deines Traffics auf dem gleichen Level wie vorher und über die neuen Keywords kommen fast keine Besucher*innen auf deine Website? Dann könntest du das Opfer von Null-Klick-Suchen sein.

 

Über 50 % aller informationalen Suchanfragen auf Google führen zu keinem Klick auf ein Suchergebnis. Das klingt verrückt, ist aber tatsächlich so. Weil die Suchanfrage z.B. durch die Anzeige eines Knowledge Grahps, durch direkt in der Suche verankerte FAQ oder durch passende Rich-Snippets bereits innerhalb der Suche beantwortet wurde, ist der Besuch einer Website nicht mehr notwendig.

 

In diesem Fall hilft dir das hohe Ranking wenig, obwohl es sich um ein relevantes Keyword handelt, weil der gesuchte Begriff mehrheitlich zu Null-Klick-Suchen führt. Selbst wenn das Rich-Snippet und damit die Antwort auf die Suchanfrage von dir stammt, bleibt der Traffic aus.

 

Auch die Markenbekanntheit wird in einem solchen Fall nur bedingt gestärkt. Die Quelle des Rich-Snippets wird zwar als anklickbarer Link unter dem jeweiligen Inhalt angezeigt, aber die wenigsten Nutzer*innen nehmen die Quelle überhaupt wahr.

 

Bevor ein Ranking zu informationalen Keywords angestrebt wird, sollte eine entsprechende Analyse klären, wie hoch die Klickwahrscheinlichkeit des Begriffs ist. Werden in der Google Suche viele Inhalte prominent angezeigt, die eine Null-Klick-Suche wahrscheinlich machen, ist die Optimierung auf diesen Begriff, selbst bei einem hohen Ranking, vergebliche Liebesmüh.

Nicht nur auf ein SEO-Tool vertrauen

Beim Monitoring deiner Rankings bzw. der SEO-Entwicklung deiner Website stehen dir viele leistungsstarke Tools zur Verfügung. An oberster Stelle die Google Search Console, die deinen direkten SEO-Draht zu Google darstellt. Für welche zusätzlichen Tools du dich entscheidest, ist ganz dir überlassen.

 

Bedenke allerdings, dass kostenlose Drittanbieter-Tools immer auf eine eingeschränkte Datengrundlage sowie weniger Funktionen zurückgreifen und die Ergebnisse dementsprechend kein wirklicher Maßstab sind. Auch kostenpflichtige Tools haben Schwächen, greifen auf unterschiedliche Datenbanken zurück und weisen nie identische Daten aus.

 

Deshalb empfiehlt es sich, nie nur einem einzigen Drittanbieter-Tool zu vertrauen, sondern die Daten von mehreren Tools anzuzapfen, miteinander zu vergleichen und gegebenenfalls zusammenzuführen.

Konzentriere dich auf das Wesentliche

Das ist der vielleicht wichtigste Ratschlag von allen: konzentriere dich auf das Wesentliche. SEO kann sehr schnell sehr kompliziert werden. Es gibt über 200 Ranking-Faktoren und unzählige Möglichkeiten, die Sichtbarkeit einer Website zu stärken. Erfahrungsgemäß sind es allerdings die Basics, die naheliegenden Dinge, die den größten Impact haben.

 

Mit einem ganzheitlichen SEO-Audit als Ausgangspunkt kannst du sehr genau einschätzen, welche Optimierungspotenziale mit geringem Aufwand umsetzbar sind oder zu welchen Keywords am einfachsten eine effektive Verbesserung der Sichtbarkeit zu erreichen ist. Konzentriere dich auf diese „Low Hanging Fruits“.

Bei einer SEO-Optimierung geht es nicht nur um Onpage-Faktoren und die Verbesserung der eigenen Website, sondern immer auch um externe Faktoren. Mal abgesehen vom Local-SEO spielen hierbei Backlinks die größte Rolle.

 

Ein starkes Backlinkprofil gilt nach wie vor als einer der wichtigsten Ranking-Faktoren. Beim Aufbau von Backlinks steht die Qualität und nicht die Quantität im Fokus. Der Eintrag in unzählige Branchenbücher hat nur noch eine lokale Bedeutung, denn ausschlaggebend sind Links, die sich eine Website durch guten Content verdient (Linkearnings) und nicht Links, die ganz einfach selbst gesetzt werden können.

 

 Starke Backlinks sind Links, welche die folgenden Kriterien erfüllen:

      • Der Linkgeber ist eine Website, deren Inhalte themenrelevant zu deinen sind
      • Über den gesetzten Link kommt Traffic auf deine Website
      • Der auf deiner Website über den Link ankommende Traffic ist qualitativ hochwertig (z.B. niedrige Absprungrate, hohe Sitzungsdauer)
      • Der Linkgeber ist selbst eine Website mit hoher Reputation

Manchmal hat der Abbau von toxischen Backlinks, die sich negativ auf das Ranking auswirken, einen weitaus größeren Impact auf eine SEO-Optimierung als der Aufbau von neuen, positiven Links. Auch hier sollte am Anfang eine Analyse des Backlinkprofils stehen, um entscheiden zu können, ob der Auf- oder Abbau Priorität genießen sollte.

 

Toxische Backlinks sind in der Regel Links, die von Websites mit minderer Qualität oder mit unseriösen Inhalten stammen und als Spam eingestuft werden können. Z.B. über die kostenlose Google Search Console lässt sich das Backlinkprofil deiner Website im Einzelnen einsehen und auswerten.

User Signals monitoren

Google hat sich lange dagegen gesperrt, dass User Signals ein Ranking-Faktor sind, obwohl entsprechende Erfahrungen aus der SEO-Branche das mehrfach nachgewiesen haben. Mittlerweile hat Google eingeräumt, dass die Signale von Nutzer*innen in der Google Suche sowie auf der jeweiligen Website Auswirkungen auf das Ranking haben, auch wenn die User Signals nach wie vor kein bestätigter Ranking-Faktor sind.

 

Die User Signals geben nicht nur Aufschluss darüber, wie zufrieden die Nutzer*innen mit deinen Inhalten sind, sondern haben auch einen nicht zu unterschätzenden Einfluss auf die Sichtbarkeit deiner Seite. Diese wichtigen Signale sollten deshalb kontinuierlich überwacht und bei Bedarf optimiert werden.

 

Die im Fokus stehenden User Signals sind die Klickrate (CTR) in der Google Suche, welche du in der Google Search Console auslesen kannst, die Back-to-SERP-Rate, welche standardmäßig nicht erfasst wird uns deren Messbarkeit von dir hergestellt werden sollte, sowie die z.B. über Google Analytics automatisch erfassten Werte der Absprungrate bzw. Interaktionsrate und die durchschnittliche Sitzungsdauer.

 

Umso positiver diese Werte sich gestalten, umso besser wird dein Ranking ausfallen.

Bad Content entfernen

Oft wirkt sich das Löschen von schwachen Inhalten einer Website positiver auf das Ranking aus, als das Hinzufügen von neuen Inhalten. Deshalb sollte regelmäßig mit einem Content-Audit überprüft werden, ob es Seiten auf deiner Website gibt, die kaum bis gar keine Besucher*innen haben und / oder nur sehr schwache User Signals aufweisen.

 

Wiederholen sich diese schwachen Werte über einen Zeitraum von 2-3 Monaten, kann von Bad Content gesprochen werden, also von Inhalten, die kaum konsumiert und von Google entsprechend negativ bewertet werden. Die Entfernung dieser schwachen Inhalte hat einen positiven Impact auf deine Rankings.

404-Fehler vermeiden

404-Fehler entstehen, wenn eine von Google indexierte oder intern / extern verlinkte Seite nicht mehr erreichbar ist und beim Aufruf deshalb den Statuscode 404 ausgibt. Das ist ärgerlich für Nutzer*innen und deshalb erstmal aus UX-Sicht (User Experience) zu vermeiden.

 

404-Fehler haben auf SEO keinen direkten negativen Einfluss. Nur weil 404-Fehler vorkommen, wird dein Ranking nicht zwangsläufig schlechter ausfallen. Allerdings sind 404-Fehler für das Crawling kritisch und sorgen dadurch indirekt für SEO-Probleme.

 

Der Googlebot indexiert solche 404-Seiten, die nichts im Index verloren haben und womit dein begrenztes Crawl-Budget unnötig belastet wird, während andere wichtige sowie erreichbare Seiten vielleicht nicht im Index landen.

 

Deswegen solltest du die Anzahl an 404-Fehlern in der Google Search Console überwachen und für nicht mehr erreichbare Inhalte, das gilt für Seiten wie für Dokumente, entsprechende Weiterleitungen einrichten (301 oder 302 Redirects).

Domain-Varianten weiterleiten

Eine Domain hat in der Regel immer vier verschiedene Varianten: Mit „www“ und ohne, mit „https“ und mit „http“. Eine dieser Varianten ist die Hauptvariante, unter der deine Website erreichbar sein soll. Die anderen drei Varianten müssen per dauerhafter Weiterleitung (301 Redirect) auf die Hauptvariante umgeleitet werden.

 

Ist deine Website auch unter einer der Varianten direkt erreichbar (Statuscode 200), wertet Google deine komplette Website als Duplicate Content, denn die Varianten werden als eigenständige Seiten betrachtet. Eine korrekte Struktur sieht so aus:

 

https://www.deine-seite.de/ = Statuscode 200 (erreichbar als Hauptvariante)

 

https://deine-seite.de/ = Statuscode 301 (Weiterleitung zur Hauptvariante)

 

http://www.deine-seite.de/ = Statuscode 301 (Weiterleitung zur Hauptvariante)

 

http://deine-seite.de/ = Statuscode 301 (Weiterleitung zur Hauptvariante)

 

Außerdem solltest du darauf achten, dass deine Website nicht mit verschiedenen Endungen direkt erreichbar ist. Enden alle deine URLs mit einem „/“ und sind darüber erreichbar, sollten sie ohne das „/“ am Ende nicht direkt erreichbar sein (301 Redirect). Das Ganze gilt natürlich auch umgekehrt.

Reputationsmanagement betreiben

Das Vertrauen in deine Marke ist ein Ranking-Faktor. Vor allem für die lokale Sichtbarkeit haben auf externen Portalen abgegebene Bewertungen und Rezensionen eine große Bedeutung. Mal abgesehen davon, dass sich deine potenziellen Kunden*innen Bewertungen genau ansehen und diese einen hohen Einfluss auf die Kaufentscheidung haben, bewirken gute Rezensionen auch ein Uplift für dein Ranking.

 

Reputationsmanagement spielt deshalb auch bei einer SEO-Optimierung eine tragende Rolle. Auf vorhandene Rezensionen sollte eingegangen werden (sowohl auf positive als auch auf negative) und zufriedene Kunden*innen sollten dazu angeregt werden, Bewertungen abzugeben.

 

Auf welcher Plattform diese Bewertungen eingestellt werden, spielt dabei nur eine Nebenrolle, wobei Rezensionen über die Unternehmensprofile auf Google oder Bing in der Regel am prominentesten sind.

Doppelte Rankings auflösen

Nur wenn du dein Ranking analysierst und überwachst, kannst du diesen wichtigen Hebel zur SEO-Optimierung überhaupt identifizieren. Nicht selten ranken mehrere Seiten einer Website zum gleichen Keyword. Diese doppelten Rankings lösen eine Kannibalisierung aus, weil deine eigenen Seiten im internen Keyword-Wettbewerb zueinanderstehen.

 

Da sich das Ranking zu einem Keyword in solchen Fällen auf mehrere Seiten verteilt, werden mehrere Seiten deiner Website zu diesem Begriff vielleicht ganz vernünftig sichtbar sein, aber keine Seite wirklich gut. Deshalb gilt es, solche doppelten Rankings zu identifizieren und aufzulösen.

 

Welche der zum Keyword rankenden Seiten sind wichtiger bzw. welche sollte die Rankings auf sich vereinen? Diese Frage muss beantwortet und anschließend die entsprechenden Anpassungen umgesetzt werden.

Relaunch planen

Der Relaunch einer Website führt nicht selten zu einer SEO-Horror-Story. Dabei lassen sich negative Auswirkungen durch eine gute Organisation leicht vermeiden. Im Vorfeld eines Relaunchs sollte es klare Absprachen geben, welche Dinge aus SEO-Sicht für den Relaunch wichtig sind, welche Abteilungen etwas zum Erfolg des Relaunchs beitragen können und welche Punkte von der zu erstellenden SEO-Checkliste abgearbeitet werden müssen.

 

Folgend eine Übersicht von grundlegenden Themen, die vor dem Relaunch einer Website beachtet werden sollten (wobei es noch mehr Punkte gibt, die im Rahmen eines Relaunchs sinnvoll wären):

    • Projektplan erstellen

Eine klassische Checkliste, welche To-Do’s anfallen, in welcher Reihenfolge diese abgearbeitet werden müssen und worauf zu achten ist, bewirkt Wunder, wenn es um einen Relaunch geht.

    • Verantwortlichkeiten klären

Oft ist zwar allen Beteiligten klar, welche To-Do’s im Raum stehen, aber die Verantwortlichkeiten sind nicht eindeutig geklärt und am Ende bleiben wichtige SEO-Tasks doch liegen, weil sich niemand zuständig fühlte. Das sollte unbedingt vermieden werden.

    • Wert von Seiten bestimmen

Welche Seiten verfügen über viel Traffic und welche Seiten verfügen über viele Backlinks? Solche Seiten sollten nicht einfach entfernt und stattdessen möglichst in die neue Seitenstruktur integriert werden. Umgekehrt lässt sich mit dieser Wertbestimmung auch Ballast abwerfen, indem Seiten, die kaum Traffic und kaum Backlinks haben, nicht mitumgezogen werden.

    • Crawling überdenken

Mit der neuen Website werden sich die Einträge in der robots.txt Datei höchstwahrscheinlich ändern müssen und auch die Einträge der XML-Sitemaps müssen auf die neuen Inhalte angepasst werden.

    • Content SEO-optimieren

Sind die neuen redaktionellen Inhalte auch für Suchmaschinen optimiert? Die Zusammenarbeit zwischen Redaktion und SEO-Abteilung ist entscheidend, um nach dem Relaunch keine bösen Ranking Überraschungen zu erleben.

    • Interne Verlinkung prüfen

Extrem wichtig und häufig vernachlässigt. Nach dem Relaunch werden vermutlich alle internen Links nicht mehr das vorherige Ziel finden. Deshalb muss jeder einzelne Link auf der Website überprüft und bei Bedarf angepasst werden.

    • Meta Tags überarbeiten

Neue Seiten oder geänderte Inhalte bedürfen auch neuen Title Tags und Meta Descriptions. Sonst werden die in den Suchergebnissen ausgespielten Texte nicht mehr zum Content der jeweiligen Seite passen, vom SEO-Downgrade aufgrund nicht einheitlicher Signale ganz zu schweigen.

    • Datenerfassung anpassen

Oft geht die Tatsache, dass auch die Datenerfassung nach einem Relaunch angepasst oder neu aufgesetzt werden muss, völlig unter. Das gilt vor allem für manuell eingerichtete Event- oder Conversion Trackings, die mit geänderten Inhalten und / oder URLs nach dem Relaunch nicht mehr funktionieren können.

    • Werbekampagnen aktualisieren

Laufende Online-Werbekampagnen müssen zum Relaunch gestoppt, Inhalte und vor allem Ziel-URLs auf die neuen Vorgaben angepasst und aktualisiert werden. Sonst führen Anzeigenklicks auf Seiten, die nach dem Relaunch nicht mehr erreichbar sind, Google Richtlinien werden unter Umständen verletzt, weil Weiterleitungen das Ziel von Anzeigen sind (was nicht erlaubt ist) und es entstehen Kosten für Klicks, die Nutzer*innen in eine Sackgasse führen.

    • Redirects einrichten

Mit das wichtigste Thema: alle Inhalte (nicht nur Seiten, sondern auch Dokumente), die nach dem Relaunch unter der bisherigen URL nicht mehr erreichbar sein werden, müssen per 301-Redirect auf eine themenrelevante Seite weitergeleitet werden. Geschieht dies nicht, führen zahlreiche Suchergebnisse auf 404-Seiten, potenzielle Neukunden*innen werden dir nach dieser Erfahrung keine zweite Chance geben und ein Ranking-Verlust ist vorprogrammiert. Zur Organisation empfiehlt sich eine einfache Excel-Tabelle, in der alle nach dem Relaunch nicht mehr erreichbaren Seiten in eine Spalte kommen und die jeweiligen Redirect-Ziele in eine andere.

    • Google Search Console updaten

Ist alles nach Plan und ohne SEO-Horror-Stories über die Bühne gegangen, sollten Google die Änderungen über die Search Console mitgeteilt und die neue XML-Sitemap eingereicht werden, damit die Suchmaschine den Relaunch auch zeitnah mitbekommt.

Allgemeine Einführung

Die Google Ranking-Faktoren sind ein Mysterium. Noch nie hat Google eine vollständige Liste mit den Ranking-Faktoren veröffentlicht. Ganz im Gegenteil, ist es häufig der Arbeit von engagierten SEO-Experten*innen zu verdanken, dass Ranking-Faktoren überhaupt identifiziert und öffentlich gemacht werden.

 

Manche sind bekannt, manche gelten als Ranking-Faktoren, wurden von Google aber nie offiziell bestätigt und bei manchen wird es aufgrund entsprechender Daten nur vermutet. Nicht selten bestreitet Google, dass bestimmte Faktoren Auswirkungen auf das Ranking haben, obwohl deren Einfluss in der Praxis bereits vielfach nachgewiesen wurde.

 

Hinzukommt, dass sich mit jedem Google Update, welche in aller Regel alle paar Monate ausgerollt werden, die Spielregeln verändern. Altbekannte Ranking-Faktoren fallen weg, neue kommen hinzu und die Gewichtung bestehender fällt anders aus. Welche Veränderungen das jeweilige Google Update im Detail mit sich bringt, kommuniziert Google meistens nicht. Teilweise werden solche Updates nicht einmal angekündigt.

 

Auch hier stellen häufig erst SEO-Experten*innen fest, dass ein aktuelles Google Update im Gange ist. Anhand von tiefgreifenden Analysen werden die Auswirkungen der Updates ausgewertet und entsprechende Schlussfolgerungen zu den Ranking-Faktoren gezogen. Oft entwickelt sich daraus ein Frage-und-Antwort-Spiel zwischen der SEO-Community und Vertreter*innen von Google, bis dem Suchmaschinenbetreiber ein offizielles Statement entlockt wird.

 

Diese gelebte Intransparenz von Google führt dazu, dass SEO in großen Teilen auf Erfahrungswerten und Expertenwissen beruht. Aus dem gleichen Grund wirkt SEO für viele Menschen, die sich nicht hauptberuflich mit der komplexen Materie auseinandersetzen, übermäßig kompliziert und undurchsichtig und dadurch entsteht auch gefährliches Halbwissen, dessen Anwendung nicht zu den erhofften Ergebnissen führt.

 

Die folgenden Punkte umfassen beileibe nicht alle Ranking-Faktoren, sondern nur die aktuell relevantesten und zusätzlich auch SEO-Begrifflichkeiten, die keine Ranking-Faktoren sind und zum besseren Verständnis dienen. Wenn du an einer Liste aller Ranking-Faktoren interessiert bist, empfehlen wir dir den Blog von Kollege Brian Dean aus den USA, der den wahnwitzigen Aufwand betrieben hat, alle vermutlichen Google Ranking-Faktoren zusammenzutragen und zu beschreiben.

Aktualität

Aktualität ist ein Ranking-Faktor. Der Betrieb eines Blogs oder Magazins auf deiner Website zeigt deinen Besucher*innen, dass du dich mit aktuellen Trends deiner Branche auseinandersetzt und sie über wichtige Neuerungen informierst. Ein Mehrwert, den auch Google honoriert.

 

Unabhängig von einem Blog solltest du die Inhalte deiner Website regelmäßig auf Aktualität überprüfen und bei Bedarf aktualisieren. Stoßen deine Besucher*innen auf veraltete Informationen, werden sie deine Dienstleistungen höchstwahrscheinlich nicht buchen oder deine Produkte nicht kaufen.

 

Stellt der Googlebot veraltete Informationen auf deiner Website fest, ist das entsprechend schlecht für dein Ranking, auch weil dies eine negative Aussage über deinen Status als Experte*in macht. Schließlich kann weder der Googlebot noch dein potenzieller Kunde*in wissen, dass du auf dem neusten Stand bist und nur vergessen hast, dies über deine Website auch nach außen zu kommunizieren.

ALT Attribute

ALT Attribute sind für Bilder das, was Meta Tags für URLs sind: Titel und Beschreibung teilen der Suchmaschine und dem Betrachter*in mit, worum es geht bzw. was auf den Bildern zu sehen ist. So fügen sich Bilder besser in den Kontext einer Seite ein und die inhaltliche Relevanz kann besser bewertet werden, was wichtig für das Ranking ist.

 

Außerdem trägt dieser Ranking-Faktor zu einer wesentlich besseren Sichtbarkeit in der Google Bildersuche bei und stellt Barrierefreiheit für Menschen mit Sehschwäche her, weil die ALT Attribute durch eine entsprechende Software vorgelesen werden und dadurch kein „schwarzes Loch“ mehr darstellen.

Ankertexte

Ein Ankertext ist der Text, der im Hyperlink steht. Liegt der Link beispielsweise hinter dem Wort „hier“, ergibt sich aus dem Ankertext kein Rückschluss auf den Inhalt der verlinkten Seite und weder der Nutzer*in noch der Googlebot kann auf den ersten Blick etwas damit anfangen.

 

Liegt der Link stattdessen hinter „Mehr Informationen über SEO“, ist dies ein Ankertext, den Google positiv bewertet, weil dieser eine Aussage über den Inhalt der verlinkten Seite tätigt. Wörter, die in einem Hyperlink stehen, erhalten eine höhere Keyword-Relevanz, ähnlich den Wörtern in H1-Tags.

 

Dabei ist es wichtig, dass SEO-freundliche und themenrelevante Ankertexte möglichst immer auf die gleiche Seite verlinken, um eindeutige Signale an Google zu senden. Befindet sich z.B. hinter dem Wort „SEO-Optimierung“ immer der gleiche Link zur gleichen Seite, wird Google die Ziel-Seite zu diesem Begriff höher ranken. Führen die Links hinter diesem Wort zu verschiedenen Seiten, erhält Google keine eindeutigen Signale und dieses Ranking Potenzial bleibt ungenutzt.

Die Backlink-Struktur, also die Verlinkung der eigenen Website auf externen Seiten, gilt nach wie vor als einer der wichtigsten Ranking-Faktoren. Dabei zählt mehr die Qualität als die Quantität der Backlinks. Das heißt, nicht die reine Masse an externen Verlinkungen ist entscheidend, sondern die Qualität dieser Links.

 

Eine wichtige Rolle spielt dabei, ob die Links von einer Seite stammen, die eine hohe Reputation hat und ob es sich um themenrelevante Linkgeber handelt. Eine themenbezogene Verlinkung in einem kleinen Blog, über den du auch Traffic erhältst, ist wertvoller, als mehrere Links von allgemeinen Webkatalogen über die sich kaum ein Besucher*in zu dir verirrt.

 

Auch der Charakter der Links ist wichtig. Sind diese organisch gewachsen und weist deine Website eine homogene Backlink-Struktur auf, wirkt sich das positiv auf dein Ranking aus. Ein Link, der selbst gesetzt wurde, ist weniger wert, als einer, den du dir mit starken Inhalten verdient hast.

 

Führen die Links überwiegend zum gleichen Inhalt oder sind die meisten Links mit harten Ankertexten versehen, spricht das für eine nicht organisch gewachsene Struktur und kann sich auch negativ auf die Sichtbarkeit auswirken.

Barrierefreiheit

9 % der Menschen in Deutschland sind beeinträchtigt. Vor allem für Menschen mit einer Sehschwäche sind nicht barrierefreie Websites kaum nutzbar. Um Barrierefreiheit zu gewährleisten, was ab 2025 sukzessive verpflichtend wird, gilt es ALT Attribute für Bilder zu hinterlegen, verständliche Formulierungen zu wählen (z.B. kurze Sätze und nicht zu viele Fremdwörter), auf ausreichende Kontraste beim Design zu setzen, Untertitel für Videos zu verwenden, eine große Schriftgröße einzuhalten (16 aufwärts), vor allem mobil klickbare Elemente nicht zu dicht aneinander anzulegen, eine optimale H1-Struktur umzusetzen und barrierefreie Formulare einzubinden.

Canonical Tags

Canonical Tags sind die von Google bevorzugte Methode, um der Suchmaschine mitzuteilen, ob eine Seite die Autorität für den entsprechenden Inhalt der Seite hat oder ob diese Autorität bei einer anderen Seite liegt. Canonical Tags sind außerdem das Signal an Google, eine Seite zu indexieren oder nicht zu indexieren und helfen dabei Duplicate Content zu vermeiden.

 

Beispielsweise hat ein Online-Shop drei verschiedene Varianten eines Produktes und jede Variante hat eine eigene URL. Mit dem Canonical wird Google mitgeteilt, welche der drei Varianten ausschlaggebend ist und welche indexiert werden soll.

 

Besitzt eine URL die Autorität und soll indexiert werden, verweist das Canonical Tag auf sich selbst, also auf die URL der Seite. Besitzt eine URL die Autorität nicht, wird mit dem Canonical Tag stattdessen auf eine andere Seite verwiesen, die über die Autorität verfügt.

 

Werden Canonical Tags in Kombination mit hreflang Tags eingesetzt, sollten nur Seiten mit selbstreferentiellen Canonicals, also mit entsprechender Autorität, auch hreflang Tags enthalten. Wird eine Seite mit dem Meta Robots Tag „noindex“ von der Indexierung ausgeschlossen, darf diese Seite über kein Canonical Tag verfügen, um nicht widersprüchliche Signale an Google zu senden.

Content Quality

Content ist nach wie vor King und die Qualität deiner Inhalte ist ein wichtiger Ranking-Faktor. Was zählt, ist vor allem die Semantik. Keywords sind wichtig und für deine Inhalte relevante sollten auch prominent in deinen Content einfließen. Wichtiger ist aber, wie fundiert dein Wissen bzw. wie breit die Informationen auf deiner Website zum jeweils behandelten Thema sind.

 

Seiten, die auf Google am besten ranken, sind in der Regel holistische Seiten, die zu ihren Kernthemen alle Inhalte breit und übersichtlich abbilden und den Besucher*innen einen echten Mehrwert bieten. Die Zeiten von Texten, die nur für Suchmaschinen geschrieben wurden, die entsprechend niemand liest und die ganz offensichtlich nur bestimmte Keywords in den Fokus stellen sollen, ist längst vorbei.

 

Trotzdem spielt auch die Länge deiner Inhalte eine Rolle. Schließlich erfordert breites Fachwissen einen gewissen Umfang und die sogenannte „text-to-code-ratio“ gilt als Rankingfaktor, also das Verhältnis der Anzahl an Zeichen im Quellcode und der Anzahl an Zeichen im Inhalt.

 

Wenn du rein quantitativ wissen willst, wie viel Content wahrscheinlich notwendig ist, um ganz oben auf Google zu stehen, solltest du dir die Seiten genauer anschauen, die Google zum gewählten Keyword am höchsten positioniert und analysieren, wie viele Wörter diese umfassen. Aber vergiss nicht: die Qualität deiner Inhalte ist bedeutender als der Umfang.

 

Aus diesem Grund solltest du auch immer die Suchintention der Keywords auf dem Schirm haben, zu denen du ranken willst. Bedient dein Content nicht die hinter dem Begriff liegende Suchintention, hilft dir der beste Inhalt der Welt nichts, um dazu ein besseres Ranking zu erzielen.

 

Nicht zuletzt die Struktur deines Contents und damit die Art und Weise wie dieser optisch aufbereitet ist, spielt eine wesentliche Rolle für das Ranking. Wenn du Pulitzerpreis verdächtige Inhalte geschrieben hast, die absolut alles abdecken, was sich Leser*innen zum behandelten Thema wünschen können, hilft dir das nur wenig, wenn diese Inhalte in einer unleserlichen Textwüste aufbereitet sind, die sich niemand antun will.

 

Regelmäßige Absätze, eine große Schriftgröße, Fettungen, Zwischenüberschriften, Bulletpoints oder Tabellen und passende Bilder sowie Grafiken werten deinen Content auf, führen zu einer besseren Übersichtlichkeit und machen deinen Content deutlich konsumfreundlicher. Das honorieren deine Leser*innen genauso wie die Suchmaschine.

Crawling

Die technische Auslesbarkeit einer Website ist ein wesentlicher Ranking-Faktor, der weit oben auf jeder Prio-Liste für eine SEO-Optimierung stehen sollte. Der Google Algorithmus crawlt jede Website im Internet täglich, in der Regel nimmt er sich im Schnitt maximal 5 Minuten Zeit pro Website.

 

Es ist wichtig zu beobachten, welche Inhalte der Googlebot crawlt, wie lange er benötigt, um die gesamten Inhalte einer Website zu indexieren und wie viel Zeit er durchschnittlich braucht, um eine Seite herunterzuladen. Fehlerhafte, nicht erreichbare, für die Google Suche irrelevante, sensible oder Paginationsseiten sollten am besten erst gar nicht zum Crawling bzw. zur Indexierung freigegeben werden, um das begrenzte Crawl-Budget zu schonen und um die Indexierung wichtiger Inhalte nicht zu verzögern.

 

Geben die Crawling Statistiken Anlass zur Besorgnis, die beispielsweise in der Google Search Console analysiert werden können, sind entsprechende Optimierungen durchzuführen, um das begrenzte Crawl-Budget möglichst effizient zu nutzen. Die fortlaufende Indexierung von Websites ist der größte Kostenpunkt des Alphabet-Konzerns und wer es dem Googlebot einfacher macht, wird belohnt.

CRO

CRO steht für „Conversion Rate Optimization“ und bezieht sich auf alle Maßnahmen, welche zur Steigerung von Verkäufen, Abschlüssen oder Aufträgen über eine Website beitragen. Das Ziel ist es, die Nutzerfreundlichkeit so zu optimieren, dass es Besucher*innen so einfach wie möglich gemacht wird, einen Kauf, Abschluss oder eine Anfrage zu tätigen.

 

Eine Rolle spielt dabei zum Beispiel die Ladezeit einer Seite, die Anzahl an Klicks, die bis zu einem Kauf oder einer Anfrage notwendig sind, die Optimierung der Navigation oder Buchungsstrecke einer Website sowie die Kommunikation von wichtigen USPs und Handlungsaufforderungen.

 

Umso länger Besucher*innen nach relevanten Informationen suchen müssen und umso mehr Fragen auf dem Weg zur Conversion aufkommen, umso größer ist die Wahrscheinlichkeit, dass die Seite wieder verlassen wird, ohne dass eine wertschöpfende Aktion durchgeführt wurde. Das führt zu einer schwächeren Conversion-Rate.

 

Die Conversion-Rate-Optimierung ist ein von SEO unabhängiger Teilbereich im Online-Marketing, dessen Anwendung aber auch Auswirkungen auf die Suchmaschinenoptimierung sowie das Ranking einer Website hat.

Duplicate Content

Haben zwei verschiedene Domains oder Seiten einer Website den gleichen redaktionellen Inhalt, wertet Google das als Duplicate Content – also als nicht individuellen und hochwertigen Inhalt. Da Google aber genau das von einer Seite erwartet, die hoch im Ranking stehen soll, ist Duplicate Content unbedingt zu vermeiden.

 

Kacheln oder Boxen, die auf verschiedenen Seiten der Website mit den gleichen Inhalten dargestellt werden, z.B. um andere Artikel anzuteasern, sind davon ausgeschlossen. Dringend zu vermeiden sind Texte, die von anderen Websites oder z.B. von Herstellern oder Kooperationspartnern übernommen wurden. Werden die eigenen Texte in gleicher Form auf anderen Websites von Google indexiert, wird auch das als Duplicate Content gewertet.

 

In diesem Zusammenhang können auch nicht redigierte KI-Texte von ChatGPT & Co zu SEO-Problemen führen. Wenn diese zu 100 % übernommen werden, besteht das Risiko, dass an anderer Stelle sehr ähnliche Inhalte publiziert wurden, was wiederum Duplicate Content bedeutet.

 

Auch technische Fehler können in gravierendem Maße zu Duplicate Content führen. Sind die Seiten einer Website beispielsweise mit und ohne ein „/“ am Ende jeder URL direkt aufrufbar (beide Versionen geben den Statuscode 200 zurück), indexiert Google rein technisch zwei verschiedene Domains mit den exakt gleichen Inhalten und der gesamte Content der Website wird als Duplicate Content gewertet.

E-E-A-T

E-E-A-T steht für „Experience, Expertise, Authoritativeness & Trustworthiness“ – zu Deutsch Erfahrung, Expertise, Autorität & Vertrauenswürdigkeit. Es handelt sich um ein erstmals 2015 von Google in den Quality Rater Guidelines veröffentlichtes Konzept zur Bewertung der inhaltlichen Qualität von Autor*innen und Publishern, um damit die Qualität der Suchergebnisse zu verbessern.

 

Google unterscheidet beim E-E-A-T Konzept zwischen der Relevanz, die das jeweilige Dokument bzw. die Seite von Autor*innen bzw. Publishern zur jeweiligen Suchanfrage hat, und der Qualität, die sich sowohl auf die entsprechende Seite als auch auf den Autor*in oder Publisher im Allgemeinen beziehen kann.

 

E-E-A-T gilt nicht als direkter Ranking-Faktor und hat entsprechend auch keinen bekannten Ranking-Score. Allerdings hat eine positive E-E-A-T Bewertung weitreichende Folgen für die Sichtbarkeit, die von Google offiziell bestätigt wurden.

 

E-E-A-T beeinflusst das Ranking in der Google Suche, die Ausspielung von Inhalten in Google Discover oder Google News, die Einblendung von Rich-Snippets oder die Abwertung von Inhalten durch das Helpful Content System.

 

Entitäten, also Autor*innen, Organisationen und Marken, die durch starke Inhalte eine gute E-E-A-T- Bewertung von Google erhalten, werden von der Suchmaschine als seriöse, erfahrene, bekannte und vertrauensvolle Experten*innen betrachtet, die eine höhere Relevanz für die Ausspielung von Suchergebnissen besitzen.

 

Für dich als Unternehmer*in, Autor*in oder Markeninhaber*in bedeutet das, dass du mit der kontinuierlichen Produktion von starken und einen Mehrwert bietenden Inhalten nicht nur deine Zielgruppe von dir überzeugen kannst, sondern auch die Sichtbarkeit in Suchmaschinen nachhaltig stärkst.

Fokus Keywords

Jede Seite einer Website sollte auf ein zum Inhalt passendes, themenrelevantes und individuelles Fokus Keyword ausgerichtet sein. Nur wenn eindeutige und einheitliche Signale an Google gesendet werden, darf ein hohes Ranking zum Fokus Keyword erwartet werden.

 

Das Fokus Keyword sollte idealerweise in der URL, im Meta Title, in der Meta Description sowie im H1-Tag stehen (sowie zusätzlich in die Benennung des Navigationspunktes einfließen, sofern die jeweilige Seite im Menü verankert ist).

 

Eine Seite auf mehrere, unterschiedliche Keywords auszurichten, ist genauso zum Scheitern verurteilt, wie mehrere Seiten auf das gleiche Keyword auszurichten (Stichwort Kannibalisierung) oder eine transaktionale Ziel-Seite auf ein informationales Keyword zu optimieren.

 

Deshalb ist es Best Practice, über eine Keyword-Analyse (auch Keyword Clustering oder Keyword Mapping genannt) zu identifizieren, welche Signale und damit Fokus Keywords aktuell an Google gesendet werden und diese bei Bedarf auf das gewünschte Fokus Keyword anzupassen.

H1-Tags

H1-Tags sind die technische Auszeichnung für die Hauptüberschriften einer Seite und sollten individuell und nur einmal pro Seite vergeben werden. Die Wörter, die in H1-Tags stehen, bewertet Google als besonders relevante Keywords. Deshalb empfiehlt es sich, möglichst suchrelevante Begriffe bzw. das pro Seite definierte Fokus Keyword in den H1-Tag zu integrieren (idealerweise ganz am Anfang des H1-Tags).

 

H2-, H3- und H4-Tags, also die nächstkleineren Überschriften, die z.B. für Subheadlines vergeben werden, können bedenkenlos mehrfach pro Seite zum Einsatz kommen. Es sollte aber eine plausible Hierarchie eingehalten werden: nur wenn es ein H1-Tag gibt, sollte auch ein H2-Tag vorkommen, nur wenn es ein H2-Tag gibt, sollten auch H3-Tags vergeben werden usw.

 

Außerdem hilft eine logische Reihenfolge der H-Tags bei der Suchmaschinenoptimierung und die korrekte Integration von H1-Tags spielt eine wichtige Rolle für die Barrierefreiheit einer Website. Nicht zuletzt ignoriert Google in 13 % bis 33 % der Fälle den eingesetzten Meta-Title-Tag und zeigt stattdessen mehrheitlich das H1-Tag als Titel in den SERPs an, was die Relevanz des H1-Tags weiter steigert.

Hreflang Tags

Werden die verschiedenen Sprachversionen einer Website Google technisch nicht erkenntlich gemacht, entsteht dadurch ein großes Fehlerpotenzial. Inhalte in verschiedenen Sprachen werden u.U. der falschen Sprachversion zugewiesen, Keywords in Sprache A werden dem Inhalt von Sprache B zugeordnet und verwässern das Ranking auf Google oder Nutzer*innen wird in der Google Suche nicht die richtige Sprachversion angezeigt.

 

Im Mittelpunkt der technischen Internationalität steht deshalb die korrekte Integration der hreflang Tags. Diese teilen dem Googlebot mit, in welcher Sprache die jeweilige Seite ist, welche URLs zu den jeweils anderen Sprachversionen führen und auch für welches Zielland der Inhalt geeignet ist (zum Beispiel DE oder AT).

HTTP-Statuscodes

Der HTTP-Statuscode ist die Antwort eines Servers auf die Anfrage eines Clients, wenn zum Beispiel eine bestimmte URL aufgerufen werden soll. Der Statuscode teilt dem Browser mit, ob die Anfrage zum Aufruf einer Website erfolgreich war oder nicht. Die wichtigsten Statuscodes für SEO sind:

    • Statuscode 200: Die Anfrage war erfolgreich, die Website ist erreichbar und kann aufgerufen werden.
    • Statuscode 301: Die angeforderte Ressource bzw. URL steht dauerhaft nicht mehr zur Verfügung und wird auf eine andere URL weitergeleitet.
    • Statuscode 302: Die angeforderte Ressource bzw. URL steht temporär nicht mehr zur Verfügung und wird vorübergehend auf eine andere URL weitergeleitet.
    • Statuscode 403: Die angeforderte Ressource bzw. URL wurde mangels Berechtigung des Clients nicht aufgerufen.
    • Statuscode 404: Die angeforderte Ressource bzw. URL wurde nicht gefunden und ist nicht mehr erreichbar.
    • Statuscode 5xx: Diese Antworten beziehen sich allesamt auf Server-Fehler und können die verschiedensten Ursachen haben.
HTTPS / SSL

Ein SSL-Zertifikat, und damit das verschlüsselte HTTPS-Protokoll einer Website, ist ein Ranking-Faktor. Bei nicht verschlüsselten Seiten, die nur mit „http“ aufgelöst werden, gelangen Nutzer*innen zudem häufig erst auf einen vom Browser ausgelieferten Warnhinweis und können die entsprechende Website erst nach dem Hinzufügen einer Ausnahmeregel besuchen.

 

Nicht verschlüsselte Websites sind für Besucher*innen nicht nur unsicher, sondern haben im Ranking kaum eine Chance, mit verschlüsselten Seiten mitzuhalten. Ein valides SSL-Zertifikat ist deshalb absoluter Standard und in vielerlei Hinsicht Grundvoraussetzung einer Website.

Knowledge-Graph

Ein Knowledge Graph ist nicht nur ein Begriff aus dem Online-Marketing und beschreibt eine Art Datenbank, die Wissen in einer strukturierten Form speichert und darstellt. Dabei werden Informationen zu verschiedenen Themen miteinander verknüpft und in Beziehung gesetzt, um ein umfassendes Verständnis zu ermöglichen.

 

Der Knowledge Graph kann dabei helfen, komplexe Zusammenhänge besser zu verstehen und gezielt nach bestimmten Informationen zu suchen. Im Online-Marketing bezeichnet der Knowledge Graph das Panel in der Google Suche, was häufig dann angezeigt wird, wenn nach Personen, Organisationen oder Orten von öffentlichem Interesse gesucht wird.

 

Die Informationen für den Google Knowledge Graph stammen von den verschiedensten Quellen. Durch SEO einen Knowledge Graph zur eigenen Person oder Organisation in der Google Suche zu erzielen, ist nicht möglich.

Linkjuice

Die interne Verlinkung einer Website ist ein Ranking-Faktor. Als positiven Linkjuice bewertet Google, wenn eine Seite intern prominent verlinkt ist und die Autorität zu einem spezifischen Thema darstellt. Hat eine Seite wenige interne Verlinkungen, schätzt Google diese als wenig relevant für Besucher*innen ein. Den Seiten mit vielen internen Verlinkungen misst Google umgekehrt die höchste Bedeutung zu.

 

Links in der Hauptnavigation oder in Breadcrumbs haben eine höhere Gewichtung als Links im Footer. Interne Verlinkungen in Fließtexten sind vor allem dann positiv für eine SEO-Optimierung, wenn wirklich nur eine Seite das Ziel von Links zu einem bestimmten Thema ist und zum gleichen Thema nicht auf verschiedene Seiten verlinkt wird.

 

Linkjuice ist außerdem vererbbar, weshalb auch die Anzahl von ausgehenden internen Links einer Seite relevant ist. Führt eine Seite 10 Links auf interne Seiten, erhält jede verlinkte Seite 10 % des Linkjuice und damit der „SEO-Power“ der verlinkenden Seite. Weist die Seite aber 100 interne Verlinkungen auf, erhält jede verlinkte Seite nur 1 % des Linkjuice.

 

Neben der Frage, wo und wozu eine Seite intern verlinkt wird, spielt also auch die Frage eine Rolle, wie oft eine Seite intern verlinkt. Damit die interne Linkstruktur einer Website auch aus SEO-Perspektive möglichst optimal ist, empfiehlt sich die Entwicklung einer entsprechenden Strategie, am besten, bevor die Seite programmiert wird.

Meta Description

Der Meta Tag für die Description liefert die Beschreibung einer Seite für die SERPs (Suchergebnisse auf Google und Co). Die Meta Description gilt nicht als Ranking-Faktor, hat aber große Auswirkungen auf die Klickrate in der Google Suche und damit auf die Wahrscheinlichkeit, ob ein Nutzer*in auf dein Suchergebnis oder auf das eines anderen klickt.

 

Es ist wichtiger, individuelle und ansprechende Inhaltsangaben für Nutzer*innen bereitzustellen und weniger SEO-Keywords unterzubringen. Wobei die Integration des Fokus Keywords der jeweiligen Seite ein Best Practice darstellt.

 

Die Beschreibung sollte nicht mehr als 156 Zeichen (inkl. Leerzeichen) bzw. 990 Pixel enthalten, diese Länge sollte möglichst ausgenutzt werden. Mit der Integration von Unicodes (✓, ☎…) können SERPs sich außerdem optisch absetzen, was in der Regel bessere Klickrates zur Folge hat.

Meta-Robots-Tags

Ein Meta-Robots-Tag ist eine technische Auszeichnung, mit der du Suchmaschinen dazu anweisen kannst, bestimmte Seiten deiner Website zu crawlen oder nicht zu crawlen. Steht das Meta-Robots-Tag einer Seite auf „index“, ist das das Signal an Google, dass die entsprechende Seite indexiert werden soll. Eine solche Seite sollte in der robots.txt Datei deiner Website nicht von der Indexierung ausgeschlossen werden und in der XML-Sitemap gelistet sein.

 

Steht das Meta-Robots-Tag auf „noindex“, ist das das Signal an Google, die Seite nicht zu indexieren. Das funktioniert aber nur dann einwandfrei, wenn es keine anderen Signale gibt, die Google zur Indexierung auffordern. Zum Beispiel ein selbstreferenzierendes Canonical, ein interner „follow“ Link oder der Eintrag der Seite in die XML-Sitemap. All das sollte ausgeschlossen werden, um sicherzustellen, dass der Meta-Robots-Tag „noindex“ von Google auch wirklich beachtet wird.

Mobile First

Weit über 50 % der Suchanfragen auf Google kommen durchschnittlich über ein mobiles Endgerät. Entsprechend lautet Google‘s Credo „Mobile first“ und die Nutzerfreundlichkeit einer Website für Smartphones ist ein gewichtiger Ranking-Faktor.

 

Aus dem gleichen Grund hat Google bereits 2018 auf die „Mobile-First-Indexierung“ umgestellt. Sprich die Bewertung deiner Website und das daraus resultierende Ranking in der Suchmaschine ist zu 100 % von der mobilen Version deiner Website abhängig. Die Desktop-Version spielt nur noch in Ausnahmefällen eine Rolle.

Der Befehl “nofollow” ist ein Link-Attribut, welches verwendet wird, um Suchmaschinen mitzuteilen, dass der verlinkte Inhalt nicht als Empfehlung durch die betreffende Website angesehen und ignoriert werden soll.

 

Dies ist insbesondere für Website-Betreiber*innen relevant, die Links zu anderen Websites bereitstellen möchten, ohne jedoch das Risiko einzugehen, dass diese Verlinkungen sich negativ auf ihre Rankings auswirken können.

 

Google hat das Attribut „nofollow“ als Spam-Gegenmaßnahme bereits 2005 eingeführt, um zu verhindern, dass durch das Setzen von Links z.B. in Kommentaren das Backlinkprofil einer Website manipuliert werden kann.

 

Die Verwendung des „nofollow“ Attributs wird von Google vor allem bei gekauften Links, Affiliate-Links oder Pressemeldungen empfohlen. Das Linkattribut kann auch verwendet werden, um den internen Linkjuice einer Website besser zu steuern. Werden Links zu internen Seiten damit ausgezeichnet, die für die Google Suche irrelevant sind, wie z.B. das Impressum, vererbt sich auf diese Seiten kein Linkjuice und andere, relevante Seiten können potenziell mehr Linkjuice erhalten.

Performance

Die Performance, also die Ladegeschwindigkeit einer Website, ist einer der wichtigsten Ranking-Faktoren. Vor allem mobile Internet-Nutzer*innen, welche die Mehrheit ausmachen, sind oft mit einer langsameren Verbindungsgeschwindigkeit konfrontiert, weshalb die Ladezeit einer Seite, auch aus SEO-Sicht, besonders relevant ist.

 

Studien von Google, Nielsen oder Amazon belegen, dass schon eine längere Ladezeit von 100ms die Conversion-Rate um 1 % verschlechtert und eine längere Ladezeit von 500ms den möglichen Traffic um bis zu 20 % reduziert.

 

Bis eine Website vollständig geladen ist, sollten laut Google maximal 75 Requests sowie maximal 1MB Datenvolumen notwendig sein und der Speed Index sollte die 5 Sekunden-Marke nicht überschreiten.

 

Die Performance auf dem Desktop ist obsolet, da Google den mobilen Index bewertet. Entsprechend spielen für eine SEO-Optimierung nur die mobilen Ladezeiten eine Rolle. Analysieren lässt sich die Ladezeit zum Beispiel mit dem im Chrome-Browser enthaltenen Google Lighthouse oder kostenlosen Tools wie GTmetrix.

RankBrain

RankBrain ist ein von Google verwendeter Algorithmus, der 2015 ausgerollt wurde, um u.a. mit Hilfe von Machine Learning und künstlicher Intelligenz Antworten auf noch nicht gestellte Fragen zu liefern. RankBrain lernt selbstständig, entwickelt sich stetig weiter und bringt mehr Semantik in die Google Suche.

 

So werden z.B. bei der Suche nach einem spezifischen Keyword nicht nur die allgemeinen Suchergebnisse ausgespielt, sondern auch Antworten auf Fragen, die in Zusammenhang mit dem gesuchten Begriff häufig gestellt werden.

Redirects

Jede Website verfügt über vier verschiedene Varianten: mit und ohne „www“ sowie mit https und mit http. Google zählt jede Variante als eigenständige Domain. Nur die Hauptdomain sollte mit einem 200 Statuscode erreichbar sein, alle anderen Varianten sollten per 301-Redirect auf die Hauptvariante weiterleiten, um technischen Duplicate Content zu vermeiden. Das gleiche gilt für Website-Versionen, die mit oder ohne „/“ am Ende der URL aufgelöst werden.

 

301-Redirects sind ein wichtigster Hygiene-Faktor bei der SEO-Optimierung. Gehen Dokumente einer Website offline (Seiten, PDFs, Bilder…) sollten darüber themenrelevante Weiterleitungen erstellt werden, sodass weder Nutzer*innen noch der Googlebot in einer Sackgasse landen und keine 404-Fehler entstehen. Eine prinzipielle Weiterleitung von entfernten Inhalten auf die Startseite einer Website ist keine gute Lösung, da dies höchstwahrscheinlich Soft-404-Fehler generieren würde.

Responsive Design

Beim Responsive Design wird der Inhalt einer Website je nach Bildschirmgröße oder Gerät in einem anderen Layout dargestellt bzw. dynamisch ausgespielt, um die Nutzerfreundlichkeit auf allen Endgeräten zu gewährleisten. Responsive Design ist Grundlage jeder SEO-optimierten Website.

Robots.txt

Die Robots.txt Datei ist im Grunde eine Nachricht an Google, mit dem Befehl, deine Website zu crawlen bzw. bestimmte Verzeichnisse nicht zu crawlen. Über die robots.txt Datei lässt sich die Indexierung deiner Website steuern und Spam Bots oder sensible Inhalte können darüber vom Crawling ausgeschlossen werden. Absoluter SEO-Standard.

Security

Abgesehen von einer validen HTTPS-Verschlüsselung ist die sicherheitstechnische Infrastruktur einer Website kein offizieller Ranking-Faktor. Allerdings haben Websites, die von Google als „nicht sicher“ oder für Nutzer*innen als potenziell gefährdend eingestuft werden, kaum eine Chance auf ein starkes Ranking.

 

Websites, die veraltete Technologien nutzen, werden von Google im Ranking benachteiligt. Darunter fallen zum Beispiel veraltete PHP- oder CMS-Versionen, die längst hätten aktualisiert werden sollen. Gehackte Websites, über die Schadsoftware oder Spam verbreitet wird, werden von Google mit einem Penalty belegt und verschwinden zumindest temporär vollständig aus der Google Suche.

SERPs

SERPs steht für “Search Engine Results Pages” und damit für die Suchergebnisseiten von Suchmaschinen wie Google oder Bing. Wird eine Suche durchführt, zeigt die Suchmaschine eine Liste mit Links zu Websites an, die relevante Informationen zum eingegebenen Keyword enthalten. Diese Liste wird als SERP bezeichnet. Je höher eine Website in den SERPs erscheint, desto wahrscheinlicher ist es, dass sie von Nutzer*innen besucht wird.

Strukturierte Daten

Bei strukturierten Daten, auch Schema Markups genannt, handelt es sich um ein standardisiertes Format (JSON-LD) zur Bereitstellung zusätzlicher Informationen für Suchmaschinen. Durch die Verwendung von strukturierten Daten kann beispielsweise Google die Inhalte deiner Webseite besser kategorisieren und einordnen.

 

Strukturierte Daten haben Einfluss auf das Erscheinungsbild in den Suchergebnissen, denn sie bilden die optimale Voraussetzung für die Anzeige von Rich-Snippets in der Google Suche. Strukturierte Daten führen in der Regel zu höheren Klickrates und sind relativ einfach auf einer Website zu implementieren.

 

Um zu überprüfen, ob auf deiner Website bereits strukturierte Daten enthalten sind, denn zahlreiche CMS richten diese teilweise automatisch ein, kannst du die Google Search Console oder den Test für Rich-Suchergebnisse verwenden.

 

Um neue Markups anzulegen, solltest du dir die Dokumentation von Schema.org ansehen und kannst zum Beispiel den Schema Markup Generator verwenden.

Title-Tag

Das Meta-Title-Tag stellt die im Browser-Tab angezeigte Headline einer Seite dar und wird als Überschrift der jeweiligen Seite in den Suchergebnissen verwendet. Der Meta-Title ist ein Ranking-Faktor, deshalb empfiehlt es sich, das Fokus Keyword der jeweiligen Seite nicht nur in den Titel zu integrieren, sondern auch an den Anfang des Titels zu stellen (sofern das redaktionell sinnvoll ist).

 

Denn die Wörter im Meta-Title und ganz besonders die, die am Anfang des Titels stehen, werden von Google als besonders relevant für das Ranking einer Seite eingestuft. Der Meta-Title sollte für jede Seite individuell vergeben und maximal 70 Zeichen bzw. 580 Pixel lang sein (inkl. Leerzeichen).

 

Die ideale Länge für den Meta-Title Tag liegt bei 60 Zeichen. Es sind zwar bis zu 70 erlaubt, allerdings schreibt Google mehr als 50 % der Titles um, die länger als 60 Zeichen sind. Selbst bei perfekter Länge werden statistisch gesehen zwischen 13 % und 33 % der Meta-Title von Google umgeschrieben oder ignoriert.

 

Wenn Google den Meta-Title ignoriert wird mehrheitlich das H1-Tag als Title in den SERPs verwendet, was dessen Relevanz weiter steigert.

URL-Hierarchie

Die URL-Hierarchie ist ein wichtiger Faktor, damit Suchmaschinen eine Website schneller indexieren können und sich Besucher*innen leichter auf der Seite zurechtfinden. Google erwartet für ein gutes Ranking das Stammbaumprinzip, sodass alle untergeordneten Seiten entsprechende „Eltern“ aufweisen.

 

Prinzipiell sollte möglichst keine Seite mehr als drei Klicks von der Startseite entfernt sein, da die Pfadlänge, bis eine Seite erreicht werden kann, aus Google-Perspektive etwas über die Relevanz der Seite aussagt. Umso weiter eine Seite von der obersten Ebene der Startseite entfernt ist, umso weniger Linkjuice erhält diese und umso geringer fallen die Ranking-Chancen aus.

 

Vor allem bei Online-Shops ist es deshalb Best Practice, bei Produktseiten auf das Stammbaumprinzip zu verzichten, damit die Produkte im URL-Pfad nur einen Klick von der Startseite entfernt sind und dadurch mehr Chancen auf ein besseres Ranking in der Google Suche haben.

URL-Struktur

Google bewertet die URL-Struktur nach Nutzererfahrung. Eine sprechende und damit SEO-freundliche URL wie „beispielseite.de/kategorie-xyz/produkt-xyz“ wird positiv bewertet, weil sich aus der URL Rückschlüsse auf den Inhalt der Seite ziehen lassen.

 

Entsprechend negativ wird eine nicht sprechende URL wie „beispielseite.de/public/6.0.0.0.6“ bewertet, weil sich daraus kein Aufschluss über den Inhalt ergibt. Auch die Länge der URL spielt eine Rolle. Umso kürzer und einfacher es ist, sich diese zu merken, umso besser. Ebenso der Inhalt der URL ist wichtig. Ist das Fokus Keyword der jeweiligen Seite in der URL enthalten, hat das einen positiven Impact auf das Ranking.

URL-Varianten

Je nachdem, wie ein Online-Shop konfiguriert ist, fallen für verschiedene Varianten eines Produktes eigene URLs an. Beispielsweise wird für verschiedene Größen, Abmessungen oder Farben des gleichen Produktes jeweils eine eigene URL erzeugt, sodass es am Ende mehrere URLs für das gleiche Produkt geben kann.

 

Google behandelt diese verschiedenen Seiten eines Produktes wie 5 verschiedene Produkte, indexiert bei allen 5 den gleichen Inhalt und wertet es als Duplicate Content. Deshalb sollte bei URL-Varianten immer klar festgelegt werden, welche der verschiedenen Produkt-URLs die Stamm-URL ist und entsprechend indexiert werden soll.

 

Bei der Stamm-URL wird ein selbstreferenzierendes Canonical-Tag gesetzt, bei den URL-Varianten des Produktes zeigt das Canonical-Tag nicht auf sich selbst, sondern auf die Stamm-URL. So wird Crawl-Budget gespart und Duplicate Content vermieden.

User Signals

Neben allen technischen sowie inhaltlichen SEO-Faktoren spielt auch das indirekte Feedback von Nutzer*innen eine nachweisliche Rolle für das Ranking einer Seite, auch wenn Google nach wie vor bestreitet, dass User Signals ein Ranking-Faktor sind.

 

Verlassen Nutzer*innen die Einstiegsseite einer Website direkt wieder, was zu einer hohen Absprungrate und niedrigen Interaktionsrate führt, oder ist die Verweildauer sowie Conversion-Rate sehr gering, wertet Google das Interesse an den Inhalten der Website als schwach und entsprechend negativ wirkt sich das auf das Ranking aus.

 

Gleiches gilt für die Klickrate in den Suchergebnissen. Ist die Klickrate trotz prominenter Position in den Suchergebnissen schwach und entsprechend wenige Nutzer*innen klicken auf den Suchergebnistreffer, hat das Folgen für die Sichtbarkeit einer Website.

 

Das A und O einer SEO-Optimierung, auch im Sinne der Optimierung der User Experience, ist es deshalb, diese Werte zu erfassen, zu überwachen, zu analysieren und bei Bedarf Maßnahmen zu ergreifen, die zu besseren User Signals führen.

UX

UX steht für User Experience und bezieht sich auf das Erlebnis, das Nutzer*innen beim Besuch einer Website haben. Es umfasst alles, was Einfluss auf dieses Erlebnis hat, von der Navigation über die Benutzerfreundlichkeit und die Content-Qualität bis hin zur optischen Ästhetik.

 

UX ist besonders relevant, da eine positive Erfahrung dazu führt, dass Nutzer*innen länger auf der Seite bleiben und eher dazu geneigt sind, zu interagieren oder zu konvertieren (z.B. einen Kauf zu tätigen).

 

In Bezug auf SEO ist UX ebenfalls wichtig, da Google und andere Suchmaschinen die Nutzererfahrung als Ranking-Faktor berücksichtigen. Wenn eine Website eine schlechte UX bietet, z.B. lange Ladezeiten oder eine unübersichtliche Navigation, führt dies zu einem niedrigeren Ranking in den Suchergebnissen.

WDF*IDF Analyse

Mit der WDF (Within Document Frequency) *IDF (Inverse Document Frequency) Analyse wird festgestellt, wie Texte optimiert werden können, um zu einem bestimmten Fokus Keyword ein besseres Ranking in der Google Suche zu erzielen.

 

Dabei wird gemessen, welche sonstigen Wörter zu einem ausgewählten Fokus Keyword in den Texten von Websites am häufigsten vorkommen, die auf Google zum Fokus Keyword am stärksten positioniert sind. Die Integration dieser zusätzlichen Wörter stärkt das Ranking zum Fokus Keyword.

Web Vitals

Mit den Web Vitals stellt Google einheitliche Qualitätssignale bereit, welche die Nutzererfahrung auf einer Webseite widerspiegeln. Anders gesagt: Über die Kennzahlen kann die User Experience einer Webseite eingestuft und bewertet werden.

 

Im Kern geht es dabei um den Ladevorgang einer Seite, die Interaktivität auf einer Seite und die visuelle Stabilität einer Seite. Die Web Vitals fließen mit anderen Nutzersignalen in Google‘s Ranking-Faktor „Page Experience Signal“ ein, welcher als besonders relevant gilt.

 

Die sechs wesentlichen Kennzahlen der Web Vitals sind:

    • First Input Delay (FID) – ab 2024 ersetzt durch Interaction to Next Paint (INP)
    • First Contentful Paint (FCP)
    • Speed Index
    • Largest Contentful Paint (LCP)
    • Total Blocking Time (TBT)
    • Cumulative Layout Shift (CLS)
XML-Sitemap

Eine XML-Sitemap ist für Google wie die Navigation für Nutzer*innen. Ohne steigt das Fehlerpotenzial, der Googlebot findet sich schlechter auf der Website zurecht, braucht länger für die Indexierung und das begrenzte Crawl-Budget wird unnötig schnell verbraucht.

 

Die Inhalte einer Sitemap sollten logisch aufgebaut sein und keine Seiten enthalten, die nicht erreichbar sind, nur eine Weiterleitung darstellen oder auf veraltete Inhalte verweisen. Seiten, die nicht indexiert werden sollen, dürfen nicht in der Sitemap stehen. Seiten, die umgekehrt indexiert werden sollen, gehören zwingend hinein.

 

Best Practice ist es, für verschiedene Inhaltstypen auch verschiedene XML-Sitemaps bereitzustellen, zum Beispiel für Seiten, Beiträge, Bilder, Tags, Videos oder Bilder und die einzelnen Sitemaps in einem Sitemap-Index zu bündeln. Dieser Index oder die XML-Sitemaps an sich sollten immer in der Google Search Console eingereicht werden.

Allgemeine Einführung

SEO-Tools gibt es wie Sand am Meer, gefühlt täglich kommen neue hinzu und alleine ChatGPT hat uns unzählige neue Features und Plugins beschert, mit der SEO-Tätigkeiten unterstützt und vereinfacht werden können. Die folgende Liste hat nicht den Anspruch vollständig zu sein, sondern bietet eine kleine Übersicht der aus unserer Sicht prominentesten und leistungsstärksten Tools am Markt.

Ahrefs

Ahrefs ist seit über 20 Jahren eines der international beliebtesten SEO-Tools und hat seinen Hauptsitz in Singapur. Neben zahlreichen kostenlosen Anwendungen bietet Ahrefs von Gründer Dmitry Gerasimenko vier kostenpflichtige Profi-Modelle, die zwischen 89 € und 899 € pro Monat kosten. Zu den wichtigsten Tools zählen u.a. der Site Explorer, der Content Explorer und der Keywords Explorer.

Audisto

Audisto ist ein SEO-Tool aus Deutschland, welches sich auf Technical-SEO konzentriert und neben technischen Website-Audits auch skalierbares, technisches SEO-Monitoring anbietet. Wer Audisto CTO Tobias Schwarz als Speaker auf Online-Marketing-Konferenzen erlebt hat, dürfte eine Vorstellung davon haben, was bei diesem Tool zu erwarten ist. Zu den wichtigsten Tools von Audisto zählt der Audisto Crawler sowie das Audisto Monitoring. Die Preise beginnen bei 99 € pro Monat und sind abhängig vom gewünschten Leistungsumfang, welcher sehr spezifisch ausgewählt werden kann.

ChatGPT

ChatGPT ist natürlich kein SEO-Tool. Aber für den Chatbot von OpenAI gibt es dutzende SEO-Plugins, die je nach Anwendungsfall leistungsstark eingesetzt werden können. Darunter beispielsweise folgende Plugins, um nur einige zu nennen:

    • SEO.app
    • SEO Core AI
    • Bramework
    • AIPRM
    • ChatGPT for Sheets
    • SEO Assistant

Einzige Voraussetzung zur Nutzung der Plugins ist ein ChatGPT Plus Abo, welches dich 20 $ pro Monat kostet.

Google Lighthouse

Google Lighthouse ist ein kostenloses Website-Analyse-Tool von Google, welches in keinem SEO-Tool-Mix fehlen sollte. Lighthouse ist Bestandteil der Chrome Dev Tools und damit standardmäßig im Chrome Browser integriert. Mit Lighthouse lassen sich auf Knopfdruck u.a. die Performance, die Web Vitals, die Barrierefreiheit oder weitere SEO-Themen analysieren, inkl. ausführlichen Handlungsempfehlungen zur Optimierung.

Google Search Console

Die Google Search Console ist das kostenlose SEO-Tool von Google und ein absolutes Must-have für alle, die eine Website betreiben und für die die Sichtbarkeit auf Google relevant ist. Über die Search Console kann z.B. die Leistung, Darstellung und Positionierung einer Website, in der Google Suche überwacht, das Ranking zu Keywords analysiert oder zahlreiche SEO-Probleme identifiziert werden. Die Search Console meldet u.a. Empfehlungen zur Optimierung oder Sicherheitsprobleme, über die Search Console kann das Backlinkprofil abgerufen, toxische Backlinks zur Entfernung eingereicht oder ein Domainumzug angemeldet werden.

Google Trends ist an sich kein SEO-Tool, sondern ein Online-Dienst, der Informationen über alle möglichen Suchbegriffe zur Verfügung stellt. Mit der Eingabe eines individuellen Suchbegriffs wird u.a. das Suchvolumen, dessen Entwicklung oder die regionale Bedeutung des Keywords angezeigt. Mit Google Trends lassen sich wichtige Keywords identifizieren, sowohl für eine SEO-Optimierung als auch für SEA-Kampagnen wie Google Ads.

Hypersuggest

Hypersuggest ist ein SEO-Tool aus Deutschland und kostet bei drei verschiedenen Preismodellen zwischen 29 € und 199 € pro Monat. Egal, ob Keyword-Recherche oder Keyword-Analyse, bei Hypersuggest dreht sich alles rund um das Thema Keywords. Wer hier keine neuen Keyword-Ideen findet, findet sie vermutlich nirgendwo.

LinkResearchTools

Wie der Name schon sagt, dreht sich bei den LinkResearchTools alles um Backlinks und in diesem SEO-Bereich gilt das Tool auch als die Benchmark. Der Anbieter aus Österreich bietet vier verschiedene Preismodelle an, welche von 499 € bis 2.249 € pro Monat reichen. Zum Leistungsumfang des Tools gehören Backlink-Audits, Link-Disavow oder Link-Monitoring.

Majestic

Majestic ist ein SEO-Tool aus UK mit dem Fokus auf Backlink-Analyse. In der kostenlosen Variante kannst du dir einen Überblick über die Möglichkeiten von Majestic verschaffen, ein wirklich valides Backlink-Audit bekommst du anschließend in drei Preismodellen, die von 46,99 € bis 379,99 € pro Monat reichen.

Metrics Tools

Bei Metrics Tools handelt es sich um ein relativ neues SEO-Tool aus Deutschland von Gründer Andreas Knatz. Im Fokus stehen die Ranking-Entwicklung und Überwachung von Websites. Die Preise reichen bei drei verschiedenen Paketen von 19,95 € bis 89,85 € pro Monat, womit Metrics Tools eine kostengünstige Alternative zum Marktführer Sistrix darstellt.

Performance Suite

Die Performance Suite ist ein All-in-One SEO-Tool mit KI aus Deutschland. Das relativ neue Tool bringt Anbindungen zu Google Analytics, Google Ads, Google Search Console, Bing Webmaster Tools oder Alexa mit und bietet zahlreiche Features, die von Backlinks über Local-SEO bis Uptime Monitoring reichen. Bereits die kostenlose Variante enthält einige Funktionen und ist über zwei Preismodelle von 100 € und 250 € pro Monat erweiterbar.

Ryte

Ryte ist kein reines SEO-Tool, sondern eine deutsche Plattform, die sich die Optimierung der User Experience auf die Fahnen geschrieben hat. Gegründet wurde Ryte u.a. von Marcus Tandler, damals noch unter dem Namen OnPage.org. Neben einer Anzahl an kostenlosen Tools sowie SEO-Tools bietet Ryte Tools zur Qualitätssicherung, zur Sustainability, zur Gewährleistung der Barrierefreiheit oder von DSGVO-Vorgaben. Die Preise von Ryte werden nicht öffentlich kommuniziert und richten sich individuell nach deinen Bedürfnissen.

Screaming Frog

Screaming Frog ist eine leistungsstarke Software für umfangreiche SEO-Audits aus UK, die sich auch in Deutschland großer Beliebtheit erfreut. Vom SEO Spider bis zum Log File Analyser bietet Screaming Frog SEO-Tools im Excel-Look, die fester Bestandteil eines professionellen SEO-Tool-Mix sind. Die Software gibt es in einer kostenlosen und einer lizensierten Variante, die für 239 € pro Jahr zu haben ist.

SemRush

SemRush ist eine SaaS-Plattform aus den USA, welche die weltweit meistgenutzten SEO-Tools stellen dürfte. Bei SemRush gibt es nicht nur Tools aus dem SEO-Bereich, sondern zu allen Online-Marketing-Themen, vom Content-Marketing über Social Media bis zur Wettbewerbsforschung. Die Preise von SemRush reichen in drei Modellen von 129,95 $ bis zu 499,95 $ pro Monat und können jeweils um weitere kostenpflichtige Optionen erweitert werden.

SEObility

SEObility ist ein SEO-Tool mit dem Fokus auf OnPage-Optimierung aus Deutschland. Aber auch Rank Tracking oder Backlink-Analysen sind Bestandteil des Tools, welches auch in die Content-Suite zur KI-Textgenerierung von Neuroflash integriert ist, um eine SEO-Optimierung für erstellte Texte zu gewährleisten. In der Basisversion ist SEObility kostenlos, für Profis gibt es zwei Pakete für 49,90 € oder 179,90 € pro Monat.

SEOTools for Excel

Die SEOTools for Excel sind eine Excel-Erweiterung aus Schweden, die leistungsstarke Anwendungen sowohl für OnPage– als auch für OffPage-SEO bieten. Wer sich mit Excel und SEO auskennt, wird dieses Tool lieben und nicht mehr missen wollen. Für nur 99 € pro Jahr sind alle Features verfügbar.

Sistrix

Die Sistrix Toolbox ist der Marktführer in Deutschland, wenn es um die SEO-Analyse geht und der Sistrix Sichtbarkeitsindex dürfte jedem, der sich auch nur annähernd mit dem Thema SEO auseinandergesetzt hat, ein Begriff sein. Die Toolbox bietet zahlreiche Features, nicht nur aus dem Bereich SEO, sondern auch für die Vermarktung auf Amazon oder Social Media. In vier Versionen reichen die Preise pro Monat von 99 € bis 599 €.

Surfer SEO

Surfer SEO ist ein relativ neues SEO-Tool aus Polen, welches den Fokus auf Content-Optimierung in Form von AI-Writing legt. Neben kostenpflichtigen Tools bietet Surfer SEO auch Browser Add-ons oder kostenlose Anwendungen an. Die Preise variieren bei vier Paketen zwischen 69 $ und 249 $ pro Monat.

Xovi

Xovi ist eine All-In-One SEO Software aus Deutschland, die bereits seit geraumer Zeit erfolgreich am Markt ist. Egal, ob Backlinks, Keywords oder SEA, Xovi bietet, neben einer eigenen Academy zur Weiterbildung, für viele Bereiche aus dem Online-Marketing die passenden Tools. Es werden drei Preismodelle angeboten, von 99 € bis 499 € pro Monat.

SEO-Grundlagen verstehen

Wer SEO betreibt, sollte sie kennen. Aber auch wer eine SEO-Agentur beauftragt, ist damit gut beraten, um auf Augenhöhe mitreden zu können: den SEO-Grundlagen. Dazu zählen die Search Quality Rater Guidelines von Google genauso, wie alle Informationen, die Google über die Google Search Central.

 

Neben den rein fachlichen SEO-Grundlagen sollte aber auch der Charakter einer Suchmaschinenoptimierung bekannt sein. Bei SEO handelt es sich nämlich um einen kontinuierlichen Prozess und nicht, wie manche glauben, um eine einmalige Geschichte.

 

Wer SEO nur einmalig betreibt, erlangt vielleicht temporär die gewünschte Sichtbarkeit, wird aber mittel- und langfristig wieder abgehängt werden. Regelmäßige Google Updates, technischer Fortschritt, sich ändernde Suchintentionen oder sich wandelnder Wettbewerb haben stetig Einfluss auf das Ranking und wer heute noch ganz oben ist, kann morgen schon ganz unten sein.

 

Außerdem sollte jeder, der SEO-Maßnahmen umsetzt oder umsetzen lässt, sich bewusst sein, dass es unter Umständen Zeit benötigt, dass eine Strategie greift oder dass die Maßnahmen die erhofften Ergebnisse erzielen. Eine SEO-Optimierung sollte mindestens für einen Zeitraum von 12 Monaten angesetzt werden und früher sollte auch kein Fazit erfolgen. Wer zu ungeduldig ist und die erarbeitete Strategie deswegen schnell wieder verwirft, tut sich damit selbst keinen Gefallen.

Hilf deinen Besucher*innen

Websites werden für Menschen entwickelt und nicht für Suchmaschinen. Deshalb sollte es das oberste Ziel deiner SEO-Maßnahmen sein, deine Website für deine Besucher*innen zu optimieren und nicht für einen Algorithmus. Wenn du dich daranhältst, wirst du von Haus aus glücklichere Nutzer*innen haben und damit garantiert auch ein besseres Ranking in der Google Suche erreichen.

 

Schaffe einzigartige Inhalte, die gut strukturiert, leicht konsumierbar und auf deine Zielgruppe zugeschnitten sind. Kenne nicht nur die Keywords, nach denen deine Zielgruppe auf Google sucht, sondern auch die Suchintention, die hinter den Anfragen steht. Nicht allein auf die Keywords an sich, sondern auf die dahinterliegende Suchintention der Menschen sollten deine Inhalte ausgerichtet sein.

 

Schaffe eine Website, die für den Besuch über alle Geräte und über alle Browser gleichermaßen optimiert ist. Wie in einem Ladengeschäft, sollten deine Besucher*innen nicht lange warten müssen, um an die Reihe zu kommen und von dir aufgehängte Wegweiser zur Orientierung sollten nicht in einer Sackgasse enden.

 

Schaffe außerdem eine klare Seitenhierarchie, in der sich deine Besucher*innen einfach zurechtfinden, die barrierefrei ist, in der alle Inhalte über Links erreichbar sind und möglichst keine Fragen auf dem Weg zu dem von dir angestrebten Ziel deiner Besucher*innen aufkommen.

Mach es dem Googlebot einfach

Ist deine Website optimal auf die Bedürfnisse deiner Besucher*innen ausgerichtet, solltest du es im zweiten Schritt dem Googlebot so einfach wie möglich machen, deine Website zu finden, zu verstehen und zu indexieren.

 

Die Crawlbarkeit deiner Website spielt dabei eine ausschlaggebende Rolle. Du solltest nicht nur dafür sorgen, dass die Inhalte deiner Website durch Suchmaschinen leicht auszulesen sind, sondern auch bestimmen, welche Inhalte dafür überhaupt infrage kommen. Session IDs und durch interne Suchanfragen oder gesetzte Filter entstehende URLs sollten in der Regel genauso von der Indexierung ausgeschlossen werden, wie das Crawlen von Werbelinks (Stichwort „nofollow“).

 

Hilf Google bei der Indexierung durch eine möglichst optimale interne Verlinkung aller Seiten, durch die Bereitstellung einer oder mehrerer XML-Sitemaps und durch die Verwaltung des Crawl-Budgets über eine robots.txt Datei. Stoße Google außerdem mit der Nase auf die Inhalte deiner Website, indem du deine Website in der Google Search Console einträgst.

Keywords clustern und mit Inhalten mappen

Jede einzelne Seite deiner Website, zumindest alle, die relevant für die Google Suche sind, sollten jeweils auf ein individuelles Fokus Keyword bzw. auf ein individuelles Thema ausgerichtet sein. Nur auf diese Weise kannst du eine bestmögliche Sichtbarkeit erreichen und vermeidest doppelte Rankings sowie die Kannibalisierung deiner Inhalte.

 

Um das zu gewährleisten, ist eine ausführliche Keyword-Analyse, auch Keyword-Clustering oder Keyword-Mapping genannt, Grundbestandteil einer jeden SEO-Optimierung.

 

Mit dieser Analyse wird festgehalten, auf welches Keyword bzw. auf welche Keyword-Phrase jede einzelne Seite aktuell ausgerichtet ist (oder ausgerichtet werden sollte), ob diese Ausrichtung im Sinne der Sichtbarkeit ist und welche Parameter geändert werden sollten, um das Ranking zu optimieren.

Safety first!

Die Sicherheit der Daten deiner Besucher*innen sollte dir auch aus SEO-Sicht am Herzen liegen. Denn eine HTTPS-Verschlüsselung und damit ein gültiges SSL-Zertifikat ist auch ein Google Ranking-Faktor. Websites, die kein valides SSL-Zertifikat haben und nur mit dem unverschlüsselten http-Protokoll aufgelöst werden, sind nicht nur unsicher, sondern haben im Ranking auf Google kaum eine Chance gegenüber sicher verschlüsselten Websites.

Mobile first!

Bei Google gilt die Mobile-First-Indexierung. Das heißt, dass Google ausschließlich die mobile Version einer Website zur SEO-Bewertung heranzieht (die Desktop Version spielt SEO-technisch nur dann noch eine Rolle, wenn es keine mobile Version gibt) und nur die Qualität der mobilen Version entscheidet darüber, wo deine Website in der Google Suche positioniert wird.

 

Deshalb sollte schon beim Webdesign die mobile Version im Mittelpunkt stehen und nicht, wie so häufig, die Desktop-Version. Mal abgesehen von Ausnahmen im B2B-Bereich kommen die meisten Besucher*innen einer Website mehrheitlich und branchenübergreifend über mobile Geräte. Aus diesem Grund hat Google bereits 2018 den mobilen Index eingeführt, der spätestens seit 2021 vollständig ausgerollt ist.

TLD mit Bedacht wählen

Eine TLD (Top-Level-Domain wie .de oder .com) sollte immer nach Zielgruppe bzw. Zielmarkt ausgewählt werden. Liegt dein Kernmarkt beispielsweise in Deutschland, macht eine .de Domain mehr Sinn als eine .com Domain. Denn die Menschen vertrauen einer ihrem Land entsprechenden TLD mehr als einer anderen.

 

Auch für Suchmaschinen ist eine TLD eine Frage des Vertrauens. Bevor du dir eine Domain sicherst, solltest du deshalb unbedingt die Domain-Historie checken. Unter Umständen schleppt eine mittlerweile freie Domain aus der Vergangenheit erheblichen SEO-Ballast mit sich herum, der es dir nahezu unmöglich machen könnte, gute Rankings zu erzielen.

Sprechende URLs verwenden

Grundbestandteil einer SEO-optimierten Website sind sprechende URLs. Deine Besucher*innen sollten sich die Seitennamen leicht merken und aus ihnen leicht Rückschlüsse auf den Inhalt der jeweiligen Seite ziehen können. Bei einer URL wie „isemo.de/seo-optimierung“ weiß jeder sofort, was einen auf der Website erwarten dürfte. Lautet die URL stattdessen „isemo.de/xzcp5t83“ ist völlig unklar, was sich dahinter für ein Inhalt verbirgt. Entsprechend negativ bewertet Google eine nicht sprechende URL.

Starken Content produzieren

Deine Dienstleistung bieten viele andere auch an. Deine Produkte (oder ähnliche) verkaufen unzählige andere Online-Shops. Warum sollte sich jemand für dich entscheiden? SEO-Optimierung heißt auch, starken Content zu produzieren, der die Relevanz deines Unternehmens oder deiner Marke unterstreicht und fördert.

 

Du musst hervorheben, warum du ein Experte*in für das bist, was du tust. Was dein USP ist. Dabei geht es um Erfahrung, Expertise, Autorität, Authentizität und Vertrauen. Es geht darum, für dein Geschäftsfeld alle relevanten Informationen für potenzielle Kunden*innen übersichtlich zur Verfügung zu stellen.

 

Es geht um eine semantische SEO-Optimierung deiner Inhalte. Um Qualität statt Quantität. Um eine relevante Informationstiefe und nicht um reine Keyword-Optimierung oder gar Keyword-Bashing. Zeige, dass du dich auskennst und warum Nutzer*innen bei dir etwas kaufen oder buchen sollten und nicht bei deinem Wettbewerb.

Überzeuge auf den ersten Blick

Das Internet ist kurzweilig. In der Regel hast du nur wenige Sekunden Zeit, um deine Besucher*innen von deinem Angebot zu überzeugen. Auch Online gilt deshalb: der erste Eindruck zählt.

 

Alles, was auf deiner Website „Above the fold“ zu sehen ist, ist besonders relevant. Das heißt, dass Inhalte, die für Besucher*innen sofort und ohne scrollen sichtbar sind, einen sehr großen Einfluss auf die Performance deiner Website haben.

 

Auch Suchmaschinen messen den Inhalten, die „Above the fold“ sichtbar sind, eine besondere Gewichtung bei. Aus SEO-Perspektive solltest du diesen Bereich genau unter die Lupe nehmen.

Beweise Aktualität

Veraltete Informationen sind ärgerlich. Wenn deine Besucher*innen nicht auf das vertrauen können, was sie bei dir lesen, wird sich das negativ auf dein Geschäft auswirken. Auch Google prüft deinen Content auf Aktualität.

 

Für eine SEO-Optimierung ist der regelmäßige Check deiner bereits publizierten Inhalte auf notwendige Updates genauso wichtig, wie ein Magazin, ein Blog oder eine News-Sektion, in der du regelmäßig unter Beweis stellst, auf dem neusten Stand der Dinge zu sein.

Leserlichkeit optimieren

Denke immer daran: bei Google gilt der mobile Index. Ein auf dem Desktop verfasster Text mag auch optisch vernünftig wirken, auf dem Smartphone wird dieser aber schnell unleserlich und verkommt zur Textwüste. Regelmäßige Absätze, idealerweise alle 4-5 Zeilen und eine Schriftgröße von mindestens 16 führen auch auf Mobilgeräten zu einer guten Leserlichkeit.

 

Zwischenüberschriften und Fettungen im Fließtext, um wichtige Inhalte hervorzuheben, führen zusätzlich zu einer besseren Übersicht und Orientierung.

Blog-Beiträge schreiben – auch im E-Commerce!

Wie bereits erwähnt, ist die Aktualität einer Website relevant und ein Ranking-Faktor von Google. Das gilt nicht nur für Dienstleistungsseiten, sondern auch für Online-Shops. 28 der 30 umsatzstärksten Online-Shops in Deutschland haben einen Blog oder ein Magazin.

 

Beiträge zu angesagten Themen, die deine Zielgruppe interessieren und mit deiner Produktwelt verknüpfbar sind, werten deinen gesamten Internet-Auftritt auf und führen zu weiteren Rankings zu informationalen Suchanfragen, zu denen du ohne einen Blog keine organische Sichtbarkeit erreichen würdest.

Personifizierung nicht vergessen

Schon eine alte Marketing-Weisheit besagt: gib deiner Marke ein Gesicht. Menschen möchten wissen, welche Gesichter hinter einer Marke stehen, wer ihre Artikel produziert oder welche Berater*innen ihre potenziellen Ansprechpartner*innen sind.

 

Die Autoren*innen der Inhalte auf deiner Website solltest du aus ähnlichen Gründen benennen und vorstellen. Umso höher die Reputation der Autoren*innen, umso höher die Wahrscheinlichkeit von besseren Rankings. Denn auch Google bemisst dieser Reputation große Bedeutung bei (Stichwort „E-E-A-T“).

FAQ schreiben

Mit der Integration von FAQ auf deiner Website schlägst du drei Fliegen mit einer Klappe. Erstens beantwortest du Fragen deiner Besucher*innen proaktiv und holst potenzielle Kunden*innen dadurch besser ab. Zweitens entlastest du damit dein Service-Team, welches häufig auftretende Fragen nicht immer wieder aufs Neue beantworten muss.

 

Und drittens honoriert auch Google diesen Mehrwert und spielt passende Antworten auf häufig gestellte Fragen prominent in der Google Suche aus. So können die Inhalte deiner Website in den Suchergebnissen als Antworten ausgespielt werden, und zwar zusätzlich zu den eigentlichen SERPS.

SERP-Snippets optimieren

Du bestimmst, wie die jeweiligen Suchergebnisse der Seiten deiner Website in Suchmaschinen ausgespielt werden. Ein ansprechender und themenrelevanter Titel sowie eine informative und zur Handlung auffordernde Beschreibung sind nicht nur relevant für deine Rankings, sondern auch hauptverantwortlich für die Klickrate in den SERPS.

 

Umso ansprechender du deine Suchergebnisse gestaltest, umso höher ist die Wahrscheinlichkeit, dass Suchende auch draufklicken. Die dafür verantwortlichen Meta-Tags sollten pro Seite individuell und nach den folgenden Best-Practices aufgebaut sein:

 

Meta-Title-Tag: Maximal 70 Zeichen (ideal sind nicht mehr als 60) bzw. 580 Pixel lang. Angereichert mit dem Fokus Keyword der jeweiligen Seite, welches idealerweise ganz am Anfang des Titels steht. Beinhaltet ein USP sowie einen CTA und ggf. auch den Namen deiner Marke.

 

Meta Description: Nicht mehr als 156 Zeichen bzw. 990 Pixel lang. Angereichert mit dem Fokus Keyword der jeweiligen Seite, egal an welcher Stelle dieses vorkommt. Beinhaltet weitere Vorteile sowie einen CTA.

H1 Struktur definieren

Die Überschriften einer Website werden rein technisch mit sogenannten H-Tags organisiert. Die Hauptüberschrift sollte demnach ein H1-Tag aufweisen und folgende Zwischenüberschriften auf der gleichen Seite entsprechende H2-, H3- oder H4-Tags.

 

Das trägt nicht nur zur Barrierefreiheit deiner Website bei, sondern führt auch zu besseren Rankings. Google misst Wörtern, welche in H-Tags stehen, eine höhere Bedeutung bei, weshalb die Integration von Fokus Keywords im H-Tag ein SEO-Best-Practice ist.

 

In 13 % bis 33 % der Fälle ignoriert Google den eingesetzten Meta-Title-Tag und zeigt stattdessen mehrheitlich das H1-Tag als Titel in den SERPs an, was die Relevanz des H1-Tags weiter steigert.

Canonicals setzen

Mit einem Canonical Tag (auch kanonische URL genannt) wird Suchmaschinen mitgeteilt, ob es sich bei der damit ausgezeichneten Seite einer Website um ein Original handelt, welches indexiert werden soll, oder um eine Variante des Originals, welche nicht indexiert werden soll, um Duplicate Content zu vermeiden.

 

Alle Originale deiner Website sollten per Canonical Tag auf sich selbst referenzieren, das heißt, die Seiten verlinken per Canonical auf sich selbst, und alle Varianten eines Originals, zum Beispiel Varianten einer Produktseite, verlinken per Canonical nicht auf sich selbst, sondern auf das Original.

Indexierung steuern

Ein wichtiger Faktor der SEO-Optimierung ist die Steuerung der Crawlbarkeit einer Website. Nur Seiten, die wirklich relevant für die Google Suche sind, sollten auch indexiert werden. Alle anderen Seiten sollten von der Indexierung ausgeschlossen werden, um begrenztes Crawl-Budget zu sparen.

 

Der Googlebot crawlt eine Website in der Regel nur maximal 5 Minuten. Schafft er es in dieser Zeit nicht alle zur Indexierung freigegebenen Seiten zu crawlen bzw. hat er innerhalb dieser Zeit nicht alle Daten erfasst, wird mit den Daten gearbeitet, die in dieser Zeit gecrawlt werden konnten.

 

Beispielsweise Paginationsseiten, wie Parameter-URLs, die durch das Setzen von Filtern, durch Archive oder durch die interne Suche entstehen, sollten deshalb von der Indexierung ausgeschlossen werden, um den Prozess des Crawlings nicht mit Inhalten zu verstopfen, die für die Darstellung in der Google Suche kaum eine Relevanz haben.

 

Vor allem Online-Shops können auf diesem Weg enormes Crawl-Budget einsparen und Duplicate Content vermeiden. Das Mittel der Wahl ist das sogenannte PRG-Pattern, eine legitime Methode zur Linkmaskierung. Dadurch werden z.B. unzählige durch Filter generierte Parameter-URLs nicht indexiert.

Noindex = kein Canonical!

Eine weitere Methode, um für die Darstellung in den Suchergebnissen irrelevante Seiten von der Indexierung durch Suchmaschinen auszuschließen, ist das Setzen des „noindex“ Befehls. Dadurch wird unter anderem dem Googlebot mitgeteilt, die entsprechende Seite nicht zu crawlen.

 

Aber Vorsicht: wenn eine Seite mit dem Meta-Robots-Tag „noindex“ versehen wird, sollte diese weder über ein selbstreferenzierendes Canonical Tag verfügen, noch sollten andere Seiten per Canonical auf diese Seite verweisen. Ansonsten erhält Google widersprüchliche Signale.

 

Das „noindex“ Tag fordert Google auf, eine Seite nicht zu indexieren und ein Canonical Tag fordert Google dazu auf, genau das Gegenteil zu machen. Die Verwendung von beiden auf einer Seite macht deshalb keinen Sinn.

Ladezeit optimieren

Die Ladezeit einer Website ist ein gewichtiger Ranking-Faktor und deren Optimierung ein wichtiger Bestandteil jeder SEO-Strategie. Es gibt viele starke Tools, um die Ladezeit deiner Website kostenlos zu analysieren, z.B. GTmetrix oder Webpagetest, aber da du vor allem in der Google Suche eine Verbesserung erzielen willst, empfiehlt sich die Verwendung von Google Lighthouse.

 

Es ist Bestandteil der Chrome Dev Tools und kann über einen Rechtsklick und die Auswahl von „untersuchen“ im Chrome Browser gestartet werden. Google Lighthouse liefert dir alle Optimierungspotenziale und detaillierte Handlungsempfehlungen, um die Ladezeit deiner Website zu verbessern.

 

Beachte bei der Nutzung aller genannten Tools, dass du eine Analyse für die mobile Version deiner Website startest (Stichwort „Mobile-First-Indexierung“) und sich deine eigene Internet-Geschwindigkeit, die Nutzung weiter Browser-Plugins sowie die gewählten Einstellungen auf die Analyse auswirken.

Interne Verlinkung stärken

Die interne Verlinkung einer Website ist ein oft unterschätzter Hebel zur Verbesserung der Sichtbarkeit. Seiten, die intern häufig verlinkt sind, werden von Google als besonders relevant eingestuft, während Seiten, die wenige interne Links auf sich vereinen können, als entsprechend irrelevant gelten.

 

Auch die Prominenz der Links spielt in der Bewertung eine Rolle. Links in der Hauptnavigation haben das meiste Gewicht, während Links im Footer deutlich an Relevanz eingebüßt haben, weil diese oft nur aus SEO-Zwecken integriert, aber kaum geklickt wurden.

 

Die Wörter in Ankertexten sind zudem entscheidend und können das Ranking zu einem bestimmten Keyword nachhaltig stärken. Denn genauso wie Wörter, die im Title Tag oder im H1-Tag stehen, werden Wörter, die im Ankertext eines Hyperlinks stehen, von Suchmaschinen als besonders relevant betrachtet.

 

Aus diesem Grund ist es sehr wichtig, eindeutige Signale an Google zu senden, um die Sichtbarkeit einer spezifischen Seite zu einem spezifischen Suchbegriff zu pushen. Wenn die internen Links zu einer bestimmten Seite immer das gleiche Keyword im Ankertext führen, ist das ein eindeutiges Signal, zu welchem Suchbegriff diese Seite eine Autorität besitzt. Führen stattdessen dutzende verschiedene Begriffe zur gleichen Seite, ist für die Suchmaschine nicht ersichtlich, welches Keyword bzw. Thema im Fokus der Seite steht.

 

Aber Vorsicht: zu viele interne Links können sich auch negativ auswirken. Denn jede Seite vererbt ihren Linkjuice. Umso mehr interne Links von einer Seite abgehen, umso geringer fällt der vererbte Linkjuice aus. Wenn von einer Seite beispielsweise 10 Links abgehen, erhält jede der verlinkten Seiten 10 % der SEO-Power der vererbenden Seite. Gehen aber 100 Links von der gleichen Seite ab, erhält jede verlinkte Seite nur 1 % des vererbten Linkjuice.

Auch vor dem Hintergrund der Schaffung einer starken internen Linkstruktur gilt die Integration von Breadcrumbs als Best Practice. Dadurch werden nicht nur weitere interne Links zu allen Seiten der Website geschaffen, auch für die Besucher*innen bedeuten die Breadcrumbs einen Vorteil. Schließlich sorgen diese für eine bessere Übersicht und damit für eine bessere User Experience.

Bilder optimieren

Die Optimierung von Bildern ist aus vielerlei Hinsicht ein wichtiger SEO-Faktor. Sprechende Dateinamen und beschreibende ALT-Attribute sorgen für eine höhere Sichtbarkeit in der Bildersuche, schaffen Barrierefreiheit und zeigen Suchmaschinen, dass die Bilder sich ideal in den Kontext der Seite einfügen – was zu einer Stärkung des Contents führt.

 

Außerdem sorgt die technische Optimierung von Bildern für weniger Datenvolumen und eine entsprechend schnellere Ladezeit. Bilder sollten aus diesem Grund keine zu großen Abmessungen oder eine übertriebene Auflösung haben (in der Regel reicht der Web-Standard von 72dpi) und zudem in einem modernen Dateiformat wie WebP bereitgestellt werden.

XML-Sitemap erstellen und einreichen

Eine XML-Sitemap ist wie ein Wegweiser für Suchmaschinen, welche Inhalte es auf der Website gibt und wo diese zu finden sind. In der Regel werden verschiedene Arten von Inhalten in einer jeweils eigenen Sitemap organisiert, zum Beispiel Seiten, PDFs, Videos, Bilder oder Blogbeiträge, und in einem Sitemap-Index zusammengefasst.

 

Sitemaps helfen Suchmaschinen beim Crawling von Inhalten und sind wichtig für SEO. In eine XML-Sitemap gehören alle Inhalte, die auch indexiert werden sollen. Nicht erreichbare Seiten, Seiten, die nur eine Weiterleitung darstellen oder Seiten, die nicht indexiert werden sollen, haben in einer XML-Sitemap nichts verloren.

 

Die meisten modernen CMS erstellen automatisch eine oder mehrere Sitemaps und ebenso einen entsprechenden Sitemap-Index. Allerdings sollten diese immer auf ihre Richtigkeit überprüft werden. Nicht immer sollen alle Inhalte, die automatisch in einer Sitemap landen, auch indexiert werden, weshalb Anpassungen fast immer notwendig sind.

 

Die XML-Sitemap oder der Sitemap-Index sollte in der Google Search Console eingereicht werden, um die Suchmaschine auf die Struktur der Seite aufmerksam zu machen und das Crawling der Inhalte zu beschleunigen.

Robots.txt nicht vergessen

Mit der robots.txt Datei kannst du die Indexierung deiner Website steuern. Hier kannst du Verzeichnisse eintragen, die von Bots nicht gecrawlt werden sollen, ganze Bots von deiner Website ausschließen oder z.B. den Googlebot explizit dazu einladen, ganz bestimmte Inhalte deiner Website zu indexieren. Absoluter SEO-Standard, der nicht fehlen darf.

Mehrsprachigkeit auch technisch umsetzen

Bietest du deine Website oder deinen Online-Shop in verschiedenen Sprachen an? Dann solltest du das den Suchmaschinen auch technisch erkenntlich machen. Mit der Integration von hreflang-Tags zeichnest du die jeweilige DE-Variante aller deiner Seiten aus, weist außerdem auf die entsprechenden Pendants in allen angebotenen Sprachen hin und kannst auch einen Default setzen, der Nutzer*innen angezeigt wird, wenn nicht klar ist, welche Spracheinstellungen diese bevorzugen.

 

Vor allem dann, wenn du verschiedene Inhalte für gleichsprachige Märkte anbietest, zum Beispiel andere Leistungen oder Preise für AT und DE oder UK und US, sind hreflang-Tags unabdingbar.

Das solltest du vermeiden

Nicht selten besteht eine SEO-Optimierung nicht nur darin, bestimmte Faktoren umzusetzen, sondern auch darin, bestimmte Dinge zu vermeiden. Linktauschprogramme oder der Kauf von minderwertigen Backlinks, wie das früher häufig Praxis war, sind keine gute Idee, denn diese stehen wie einige andere Themen auf der schwarzen Liste von Suchmaschinen.

 

Werden Suchmaschinen andere Inhalte angezeigt als den Besucher*innen einer Website, Cloaking genannt, gilt das als Manipulation und führt zu Penaltys, welche die temporäre oder dauerhafte Sperrung der betroffenen Domain für die SERPS zur Folge hat.

 

Das gilt auch für das Verbergen von Links, mit Ausnahme der Linkmaskierung durch PRG-Pattern, für die Erstellung von Brückenseiten, die nur für Suchmaschinen programmiert – Nutzer*innen aber nicht gezeigt werden und auf eine andere URL weiterleiten oder für kopierte Inhalte, also Duplicate Content, die von anderen Websites übernommen wurden.

SEO-Entwicklung analysieren

Ein SEO-Audit und die anschließende Umsetzung der entwickelten SEO-Strategie sollte als Startpunkt einer langfristigen SEO-Optimierung gesehen werden und nicht als ihr Ende. Hast du alle Optimierungspotenziale gehoben und alle Best Practices umgesetzt, solltest du die Entwicklung der Sichtbarkeit deiner Website ganz genau im Auge behalten.

 

Nur weil du dank der Optimierungen jetzt ein hohes Ranking erreicht hast, heißt das nicht, dass das auch so bleibt. Eine hohe Sichtbarkeit zu erzielen, ist deutlich einfacher, als diese auch zu etablieren. Deshalb ist die fortlaufende Analyse deiner Rankings das A und O, um auch langfristig ganz oben stehen zu können.

Rankings bewerten und Traffic überwachen

Ein Sichtbarkeitsindex ist ein guter Indikator, ob deine SEO-Maßnahmen sich auszahlen und ob die Entwicklung deiner Sichtbarkeit in den Suchmaschinen positiv verläuft. Mehr aber auch nicht. Nicht nur neue Rankings an sich, sondern deren Qualität ist entscheidend. Gleiches gilt für die Entwicklung des Sichtbarkeitsindex. Beides kann oberflächlich betrachtet durchweg positiv aussehen und doch keinerlei Effekt haben, weil darüber nicht mehr Traffic generiert wird. Folgend ein paar Beispiele:

    • Falsche Suchintention: Deine neuen Rankings sind in erster Linie informationaler Natur. Das führt zu mehr Traffic und zu mehr Markenbekanntheit, kann aber unter Umständen zu keinerlei Mehrgeschäft führen. Investierst du viel Arbeit in einen Blog, weil du darüber mehr hohe Rankings erzielen willst, wobei dein eigentliches Ziel die Neukundenakquise ist, solltest du unbedingt messen, ob du über diese Rankings auch Conversions erzielst. Falls nicht, verfehlen der investierte Einsatz und die dadurch generierten Rankings ihr Ziel.
    • Irrelevante Rankings: Deine Rankings steigen, deine Website ist zu immer mehr Keywords sichtbar und die Entwicklung des Sichtbarkeitsindex steigt kontinuierlich an. Alles gut? Nicht unbedingt. Oft ranken vor allem redaktionelle Beiträge auch zu völlig irrelevanten Begriffen. Die verschaffen dir zwar Traffic, aber von der falschen Zielgruppe. Der Traffic hat für dich deshalb keinen Wert und die Rankings dementsprechend auch nicht.
    • Brand-Rankings: Der Anstieg deiner Rankings und des Sichtbarkeitsindexes fußt hauptsächlich auf Brand-Begriffen. Das ist gut für die Markenbekanntheit, hat aber kaum einen Impact auf die Neukundengewinnung. Denn wer deine Marke googelt, hat diese schon auf dem Schirm. Ist das Ziel deiner SEO-Maßnahmen die Neukundenakquise, helfen dir die neuen Rankings und der gestiegene Index nur wenig.
    • Schwach positionierte Rankings: Du hast jede Menge neue Rankings durch deine SEO-Maßnahmen erzielt, und zwar zu Keywords, die auch relevant sind. Entsprechend positiv fällt die Entwicklung des Sichtbarkeitsindexes aus. Trotzdem hat das keinerlei Auswirkungen auf deine tatsächliche Sichtbarkeit, deinen Traffic und dein Geschäft. Warum? Weil die erzielten Rankings allesamt auf Position 10 abwärts stattfinden und damit weniger als ein Prozent der Suchenden davon überhaupt etwas mitbekommen. Nur neue Rankings auf Seite 1 der Google Suche haben auch einen wertvollen Impact.

Aus all diesen Gründen ist es wichtig, nicht nur oberflächlich neue Rankings und den Sichtbarkeitsindex zu überwachen, sondern vor allem zu analysieren, zu welchen Begriffen sowie auf welchen Positionen neue Rankings entstehen und ob darüber auch Traffic und Conversions erzielt werden.

Klickwahrscheinlichkeit analysieren

Du hast hohe Rankings zu relevanten Keywords erzielt, aber trotzdem ist das Niveau deines Traffics auf dem gleichen Level wie vorher und über die neuen Keywords kommen fast keine Besucher*innen auf deine Website? Dann könntest du das Opfer von Null-Klick-Suchen sein.

 

Über 50 % aller informationalen Suchanfragen auf Google führen zu keinem Klick auf ein Suchergebnis. Das klingt verrückt, ist aber tatsächlich so. Weil die Suchanfrage z.B. durch die Anzeige eines Knowledge Grahps, durch direkt in der Suche verankerte FAQ oder durch passende Rich-Snippets bereits innerhalb der Suche beantwortet wurde, ist der Besuch einer Website nicht mehr notwendig.

 

In diesem Fall hilft dir das hohe Ranking wenig, obwohl es sich um ein relevantes Keyword handelt, weil der gesuchte Begriff mehrheitlich zu Null-Klick-Suchen führt. Selbst wenn das Rich-Snippet und damit die Antwort auf die Suchanfrage von dir stammt, bleibt der Traffic aus.

 

Auch die Markenbekanntheit wird in einem solchen Fall nur bedingt gestärkt. Die Quelle des Rich-Snippets wird zwar als anklickbarer Link unter dem jeweiligen Inhalt angezeigt, aber die wenigsten Nutzer*innen nehmen die Quelle überhaupt wahr.

 

Bevor ein Ranking zu informationalen Keywords angestrebt wird, sollte eine entsprechende Analyse klären, wie hoch die Klickwahrscheinlichkeit des Begriffs ist. Werden in der Google Suche viele Inhalte prominent angezeigt, die eine Null-Klick-Suche wahrscheinlich machen, ist die Optimierung auf diesen Begriff, selbst bei einem hohen Ranking, vergebliche Liebesmüh.

Nicht nur auf ein SEO-Tool vertrauen

Beim Monitoring deiner Rankings bzw. der SEO-Entwicklung deiner Website stehen dir viele leistungsstarke Tools zur Verfügung. An oberster Stelle die Google Search Console, die deinen direkten SEO-Draht zu Google darstellt. Für welche zusätzlichen Tools du dich entscheidest, ist ganz dir überlassen.

 

Bedenke allerdings, dass kostenlose Drittanbieter-Tools immer auf eine eingeschränkte Datengrundlage sowie weniger Funktionen zurückgreifen und die Ergebnisse dementsprechend kein wirklicher Maßstab sind. Auch kostenpflichtige Tools haben Schwächen, greifen auf unterschiedliche Datenbanken zurück und weisen nie identische Daten aus.

 

Deshalb empfiehlt es sich, nie nur einem einzigen Drittanbieter-Tool zu vertrauen, sondern die Daten von mehreren Tools anzuzapfen, miteinander zu vergleichen und gegebenenfalls zusammenzuführen.

Konzentriere dich auf das Wesentliche

Das ist der vielleicht wichtigste Ratschlag von allen: konzentriere dich auf das Wesentliche. SEO kann sehr schnell sehr kompliziert werden. Es gibt über 200 Ranking-Faktoren und unzählige Möglichkeiten, die Sichtbarkeit einer Website zu stärken. Erfahrungsgemäß sind es allerdings die Basics, die naheliegenden Dinge, die den größten Impact haben.

 

Mit einem ganzheitlichen SEO-Audit als Ausgangspunkt kannst du sehr genau einschätzen, welche Optimierungspotenziale mit geringem Aufwand umsetzbar sind oder zu welchen Keywords am einfachsten eine effektive Verbesserung der Sichtbarkeit zu erreichen ist. Konzentriere dich auf diese „Low Hanging Fruits“.

Bei einer SEO-Optimierung geht es nicht nur um Onpage-Faktoren und die Verbesserung der eigenen Website, sondern immer auch um externe Faktoren. Mal abgesehen vom Local-SEO spielen hierbei Backlinks die größte Rolle.

 

Ein starkes Backlinkprofil gilt nach wie vor als einer der wichtigsten Ranking-Faktoren. Beim Aufbau von Backlinks steht die Qualität und nicht die Quantität im Fokus. Der Eintrag in unzählige Branchenbücher hat nur noch eine lokale Bedeutung, denn ausschlaggebend sind Links, die sich eine Website durch guten Content verdient (Linkearnings) und nicht Links, die ganz einfach selbst gesetzt werden können.

 

 Starke Backlinks sind Links, welche die folgenden Kriterien erfüllen:

      • Der Linkgeber ist eine Website, deren Inhalte themenrelevant zu deinen sind
      • Über den gesetzten Link kommt Traffic auf deine Website
      • Der auf deiner Website über den Link ankommende Traffic ist qualitativ hochwertig (z.B. niedrige Absprungrate, hohe Sitzungsdauer)
      • Der Linkgeber ist selbst eine Website mit hoher Reputation

Manchmal hat der Abbau von toxischen Backlinks, die sich negativ auf das Ranking auswirken, einen weitaus größeren Impact auf eine SEO-Optimierung als der Aufbau von neuen, positiven Links. Auch hier sollte am Anfang eine Analyse des Backlinkprofils stehen, um entscheiden zu können, ob der Auf- oder Abbau Priorität genießen sollte.

 

Toxische Backlinks sind in der Regel Links, die von Websites mit minderer Qualität oder mit unseriösen Inhalten stammen und als Spam eingestuft werden können. Z.B. über die kostenlose Google Search Console lässt sich das Backlinkprofil deiner Website im Einzelnen einsehen und auswerten.

User Signals monitoren

Google hat sich lange dagegen gesperrt, dass User Signals ein Ranking-Faktor sind, obwohl entsprechende Erfahrungen aus der SEO-Branche das mehrfach nachgewiesen haben. Mittlerweile hat Google eingeräumt, dass die Signale von Nutzer*innen in der Google Suche sowie auf der jeweiligen Website Auswirkungen auf das Ranking haben, auch wenn die User Signals nach wie vor kein bestätigter Ranking-Faktor sind.

 

Die User Signals geben nicht nur Aufschluss darüber, wie zufrieden die Nutzer*innen mit deinen Inhalten sind, sondern haben auch einen nicht zu unterschätzenden Einfluss auf die Sichtbarkeit deiner Seite. Diese wichtigen Signale sollten deshalb kontinuierlich überwacht und bei Bedarf optimiert werden.

 

Die im Fokus stehenden User Signals sind die Klickrate (CTR) in der Google Suche, welche du in der Google Search Console auslesen kannst, die Back-to-SERP-Rate, welche standardmäßig nicht erfasst wird uns deren Messbarkeit von dir hergestellt werden sollte, sowie die z.B. über Google Analytics automatisch erfassten Werte der Absprungrate bzw. Interaktionsrate und die durchschnittliche Sitzungsdauer.

 

Umso positiver diese Werte sich gestalten, umso besser wird dein Ranking ausfallen.

Bad Content entfernen

Oft wirkt sich das Löschen von schwachen Inhalten einer Website positiver auf das Ranking aus, als das Hinzufügen von neuen Inhalten. Deshalb sollte regelmäßig mit einem Content-Audit überprüft werden, ob es Seiten auf deiner Website gibt, die kaum bis gar keine Besucher*innen haben und / oder nur sehr schwache User Signals aufweisen.

 

Wiederholen sich diese schwachen Werte über einen Zeitraum von 2-3 Monaten, kann von Bad Content gesprochen werden, also von Inhalten, die kaum konsumiert und von Google entsprechend negativ bewertet werden. Die Entfernung dieser schwachen Inhalte hat einen positiven Impact auf deine Rankings.

404-Fehler vermeiden

404-Fehler entstehen, wenn eine von Google indexierte oder intern / extern verlinkte Seite nicht mehr erreichbar ist und beim Aufruf deshalb den Statuscode 404 ausgibt. Das ist ärgerlich für Nutzer*innen und deshalb erstmal aus UX-Sicht (User Experience) zu vermeiden.

 

404-Fehler haben auf SEO keinen direkten negativen Einfluss. Nur weil 404-Fehler vorkommen, wird dein Ranking nicht zwangsläufig schlechter ausfallen. Allerdings sind 404-Fehler für das Crawling kritisch und sorgen dadurch indirekt für SEO-Probleme.

 

Der Googlebot indexiert solche 404-Seiten, die nichts im Index verloren haben und womit dein begrenztes Crawl-Budget unnötig belastet wird, während andere wichtige sowie erreichbare Seiten vielleicht nicht im Index landen.

 

Deswegen solltest du die Anzahl an 404-Fehlern in der Google Search Console überwachen und für nicht mehr erreichbare Inhalte, das gilt für Seiten wie für Dokumente, entsprechende Weiterleitungen einrichten (301 oder 302 Redirects).

Domain-Varianten weiterleiten

Eine Domain hat in der Regel immer vier verschiedene Varianten: Mit „www“ und ohne, mit „https“ und mit „http“. Eine dieser Varianten ist die Hauptvariante, unter der deine Website erreichbar sein soll. Die anderen drei Varianten müssen per dauerhafter Weiterleitung (301 Redirect) auf die Hauptvariante umgeleitet werden.

 

Ist deine Website auch unter einer der Varianten direkt erreichbar (Statuscode 200), wertet Google deine komplette Website als Duplicate Content, denn die Varianten werden als eigenständige Seiten betrachtet. Eine korrekte Struktur sieht so aus:

 

https://www.deine-seite.de/ = Statuscode 200 (erreichbar als Hauptvariante)

 

https://deine-seite.de/ = Statuscode 301 (Weiterleitung zur Hauptvariante)

 

http://www.deine-seite.de/ = Statuscode 301 (Weiterleitung zur Hauptvariante)

 

http://deine-seite.de/ = Statuscode 301 (Weiterleitung zur Hauptvariante)

 

Außerdem solltest du darauf achten, dass deine Website nicht mit verschiedenen Endungen direkt erreichbar ist. Enden alle deine URLs mit einem „/“ und sind darüber erreichbar, sollten sie ohne das „/“ am Ende nicht direkt erreichbar sein (301 Redirect). Das Ganze gilt natürlich auch umgekehrt.

Reputationsmanagement betreiben

Das Vertrauen in deine Marke ist ein Ranking-Faktor. Vor allem für die lokale Sichtbarkeit haben auf externen Portalen abgegebene Bewertungen und Rezensionen eine große Bedeutung. Mal abgesehen davon, dass sich deine potenziellen Kunden*innen Bewertungen genau ansehen und diese einen hohen Einfluss auf die Kaufentscheidung haben, bewirken gute Rezensionen auch ein Uplift für dein Ranking.

 

Reputationsmanagement spielt deshalb auch bei einer SEO-Optimierung eine tragende Rolle. Auf vorhandene Rezensionen sollte eingegangen werden (sowohl auf positive als auch auf negative) und zufriedene Kunden*innen sollten dazu angeregt werden, Bewertungen abzugeben.

 

Auf welcher Plattform diese Bewertungen eingestellt werden, spielt dabei nur eine Nebenrolle, wobei Rezensionen über die Unternehmensprofile auf Google oder Bing in der Regel am prominentesten sind.

Doppelte Rankings auflösen

Nur wenn du dein Ranking analysierst und überwachst, kannst du diesen wichtigen Hebel zur SEO-Optimierung überhaupt identifizieren. Nicht selten ranken mehrere Seiten einer Website zum gleichen Keyword. Diese doppelten Rankings lösen eine Kannibalisierung aus, weil deine eigenen Seiten im internen Keyword-Wettbewerb zueinanderstehen.

 

Da sich das Ranking zu einem Keyword in solchen Fällen auf mehrere Seiten verteilt, werden mehrere Seiten deiner Website zu diesem Begriff vielleicht ganz vernünftig sichtbar sein, aber keine Seite wirklich gut. Deshalb gilt es, solche doppelten Rankings zu identifizieren und aufzulösen.

 

Welche der zum Keyword rankenden Seiten sind wichtiger bzw. welche sollte die Rankings auf sich vereinen? Diese Frage muss beantwortet und anschließend die entsprechenden Anpassungen umgesetzt werden.

Relaunch planen

Der Relaunch einer Website führt nicht selten zu einer SEO-Horror-Story. Dabei lassen sich negative Auswirkungen durch eine gute Organisation leicht vermeiden. Im Vorfeld eines Relaunchs sollte es klare Absprachen geben, welche Dinge aus SEO-Sicht für den Relaunch wichtig sind, welche Abteilungen etwas zum Erfolg des Relaunchs beitragen können und welche Punkte von der zu erstellenden SEO-Checkliste abgearbeitet werden müssen.

 

Folgend eine Übersicht von grundlegenden Themen, die vor dem Relaunch einer Website beachtet werden sollten (wobei es noch mehr Punkte gibt, die im Rahmen eines Relaunchs sinnvoll wären):

    • Projektplan erstellen

Eine klassische Checkliste, welche To-Do’s anfallen, in welcher Reihenfolge diese abgearbeitet werden müssen und worauf zu achten ist, bewirkt Wunder, wenn es um einen Relaunch geht.

    • Verantwortlichkeiten klären

Oft ist zwar allen Beteiligten klar, welche To-Do’s im Raum stehen, aber die Verantwortlichkeiten sind nicht eindeutig geklärt und am Ende bleiben wichtige SEO-Tasks doch liegen, weil sich niemand zuständig fühlte. Das sollte unbedingt vermieden werden.

    • Wert von Seiten bestimmen

Welche Seiten verfügen über viel Traffic und welche Seiten verfügen über viele Backlinks? Solche Seiten sollten nicht einfach entfernt und stattdessen möglichst in die neue Seitenstruktur integriert werden. Umgekehrt lässt sich mit dieser Wertbestimmung auch Ballast abwerfen, indem Seiten, die kaum Traffic und kaum Backlinks haben, nicht mitumgezogen werden.

    • Crawling überdenken

Mit der neuen Website werden sich die Einträge in der robots.txt Datei höchstwahrscheinlich ändern müssen und auch die Einträge der XML-Sitemaps müssen auf die neuen Inhalte angepasst werden.

    • Content SEO-optimieren

Sind die neuen redaktionellen Inhalte auch für Suchmaschinen optimiert? Die Zusammenarbeit zwischen Redaktion und SEO-Abteilung ist entscheidend, um nach dem Relaunch keine bösen Ranking Überraschungen zu erleben.

    • Interne Verlinkung prüfen

Extrem wichtig und häufig vernachlässigt. Nach dem Relaunch werden vermutlich alle internen Links nicht mehr das vorherige Ziel finden. Deshalb muss jeder einzelne Link auf der Website überprüft und bei Bedarf angepasst werden.

    • Meta Tags überarbeiten

Neue Seiten oder geänderte Inhalte bedürfen auch neuen Title Tags und Meta Descriptions. Sonst werden die in den Suchergebnissen ausgespielten Texte nicht mehr zum Content der jeweiligen Seite passen, vom SEO-Downgrade aufgrund nicht einheitlicher Signale ganz zu schweigen.

    • Datenerfassung anpassen

Oft geht die Tatsache, dass auch die Datenerfassung nach einem Relaunch angepasst oder neu aufgesetzt werden muss, völlig unter. Das gilt vor allem für manuell eingerichtete Event- oder Conversion Trackings, die mit geänderten Inhalten und / oder URLs nach dem Relaunch nicht mehr funktionieren können.

    • Werbekampagnen aktualisieren

Laufende Online-Werbekampagnen müssen zum Relaunch gestoppt, Inhalte und vor allem Ziel-URLs auf die neuen Vorgaben angepasst und aktualisiert werden. Sonst führen Anzeigenklicks auf Seiten, die nach dem Relaunch nicht mehr erreichbar sind, Google Richtlinien werden unter Umständen verletzt, weil Weiterleitungen das Ziel von Anzeigen sind (was nicht erlaubt ist) und es entstehen Kosten für Klicks, die Nutzer*innen in eine Sackgasse führen.

    • Redirects einrichten

Mit das wichtigste Thema: alle Inhalte (nicht nur Seiten, sondern auch Dokumente), die nach dem Relaunch unter der bisherigen URL nicht mehr erreichbar sein werden, müssen per 301-Redirect auf eine themenrelevante Seite weitergeleitet werden. Geschieht dies nicht, führen zahlreiche Suchergebnisse auf 404-Seiten, potenzielle Neukunden*innen werden dir nach dieser Erfahrung keine zweite Chance geben und ein Ranking-Verlust ist vorprogrammiert. Zur Organisation empfiehlt sich eine einfache Excel-Tabelle, in der alle nach dem Relaunch nicht mehr erreichbaren Seiten in eine Spalte kommen und die jeweiligen Redirect-Ziele in eine andere.

    • Google Search Console updaten

Ist alles nach Plan und ohne SEO-Horror-Stories über die Bühne gegangen, sollten Google die Änderungen über die Search Console mitgeteilt und die neue XML-Sitemap eingereicht werden, damit die Suchmaschine den Relaunch auch zeitnah mitbekommt.

Allgemeine Einführung

Die Google Ranking-Faktoren sind ein Mysterium. Noch nie hat Google eine vollständige Liste mit den Ranking-Faktoren veröffentlicht. Ganz im Gegenteil, ist es häufig der Arbeit von engagierten SEO-Experten*innen zu verdanken, dass Ranking-Faktoren überhaupt identifiziert und öffentlich gemacht werden.

 

Manche sind bekannt, manche gelten als Ranking-Faktoren, wurden von Google aber nie offiziell bestätigt und bei manchen wird es aufgrund entsprechender Daten nur vermutet. Nicht selten bestreitet Google, dass bestimmte Faktoren Auswirkungen auf das Ranking haben, obwohl deren Einfluss in der Praxis bereits vielfach nachgewiesen wurde.

 

Hinzukommt, dass sich mit jedem Google Update, welche in aller Regel alle paar Monate ausgerollt werden, die Spielregeln verändern. Altbekannte Ranking-Faktoren fallen weg, neue kommen hinzu und die Gewichtung bestehender fällt anders aus. Welche Veränderungen das jeweilige Google Update im Detail mit sich bringt, kommuniziert Google meistens nicht. Teilweise werden solche Updates nicht einmal angekündigt.

 

Auch hier stellen häufig erst SEO-Experten*innen fest, dass ein aktuelles Google Update im Gange ist. Anhand von tiefgreifenden Analysen werden die Auswirkungen der Updates ausgewertet und entsprechende Schlussfolgerungen zu den Ranking-Faktoren gezogen. Oft entwickelt sich daraus ein Frage-und-Antwort-Spiel zwischen der SEO-Community und Vertreter*innen von Google, bis dem Suchmaschinenbetreiber ein offizielles Statement entlockt wird.

 

Diese gelebte Intransparenz von Google führt dazu, dass SEO in großen Teilen auf Erfahrungswerten und Expertenwissen beruht. Aus dem gleichen Grund wirkt SEO für viele Menschen, die sich nicht hauptberuflich mit der komplexen Materie auseinandersetzen, übermäßig kompliziert und undurchsichtig und dadurch entsteht auch gefährliches Halbwissen, dessen Anwendung nicht zu den erhofften Ergebnissen führt.

 

Die folgenden Punkte umfassen beileibe nicht alle Ranking-Faktoren, sondern nur die aktuell relevantesten und zusätzlich auch SEO-Begrifflichkeiten, die keine Ranking-Faktoren sind und zum besseren Verständnis dienen. Wenn du an einer Liste aller Ranking-Faktoren interessiert bist, empfehlen wir dir den Blog von Kollege Brian Dean aus den USA, der den wahnwitzigen Aufwand betrieben hat, alle vermutlichen Google Ranking-Faktoren zusammenzutragen und zu beschreiben.

Aktualität

Aktualität ist ein Ranking-Faktor. Der Betrieb eines Blogs oder Magazins auf deiner Website zeigt deinen Besucher*innen, dass du dich mit aktuellen Trends deiner Branche auseinandersetzt und sie über wichtige Neuerungen informierst. Ein Mehrwert, den auch Google honoriert.

 

Unabhängig von einem Blog solltest du die Inhalte deiner Website regelmäßig auf Aktualität überprüfen und bei Bedarf aktualisieren. Stoßen deine Besucher*innen auf veraltete Informationen, werden sie deine Dienstleistungen höchstwahrscheinlich nicht buchen oder deine Produkte nicht kaufen.

 

Stellt der Googlebot veraltete Informationen auf deiner Website fest, ist das entsprechend schlecht für dein Ranking, auch weil dies eine negative Aussage über deinen Status als Experte*in macht. Schließlich kann weder der Googlebot noch dein potenzieller Kunde*in wissen, dass du auf dem neusten Stand bist und nur vergessen hast, dies über deine Website auch nach außen zu kommunizieren.

ALT Attribute

ALT Attribute sind für Bilder das, was Meta Tags für URLs sind: Titel und Beschreibung teilen der Suchmaschine und dem Betrachter*in mit, worum es geht bzw. was auf den Bildern zu sehen ist. So fügen sich Bilder besser in den Kontext einer Seite ein und die inhaltliche Relevanz kann besser bewertet werden, was wichtig für das Ranking ist.

 

Außerdem trägt dieser Ranking-Faktor zu einer wesentlich besseren Sichtbarkeit in der Google Bildersuche bei und stellt Barrierefreiheit für Menschen mit Sehschwäche her, weil die ALT Attribute durch eine entsprechende Software vorgelesen werden und dadurch kein „schwarzes Loch“ mehr darstellen.

Ankertexte

Ein Ankertext ist der Text, der im Hyperlink steht. Liegt der Link beispielsweise hinter dem Wort „hier“, ergibt sich aus dem Ankertext kein Rückschluss auf den Inhalt der verlinkten Seite und weder der Nutzer*in noch der Googlebot kann auf den ersten Blick etwas damit anfangen.

 

Liegt der Link stattdessen hinter „Mehr Informationen über SEO“, ist dies ein Ankertext, den Google positiv bewertet, weil dieser eine Aussage über den Inhalt der verlinkten Seite tätigt. Wörter, die in einem Hyperlink stehen, erhalten eine höhere Keyword-Relevanz, ähnlich den Wörtern in H1-Tags.

 

Dabei ist es wichtig, dass SEO-freundliche und themenrelevante Ankertexte möglichst immer auf die gleiche Seite verlinken, um eindeutige Signale an Google zu senden. Befindet sich z.B. hinter dem Wort „SEO-Optimierung“ immer der gleiche Link zur gleichen Seite, wird Google die Ziel-Seite zu diesem Begriff höher ranken. Führen die Links hinter diesem Wort zu verschiedenen Seiten, erhält Google keine eindeutigen Signale und dieses Ranking Potenzial bleibt ungenutzt.

Die Backlink-Struktur, also die Verlinkung der eigenen Website auf externen Seiten, gilt nach wie vor als einer der wichtigsten Ranking-Faktoren. Dabei zählt mehr die Qualität als die Quantität der Backlinks. Das heißt, nicht die reine Masse an externen Verlinkungen ist entscheidend, sondern die Qualität dieser Links.

 

Eine wichtige Rolle spielt dabei, ob die Links von einer Seite stammen, die eine hohe Reputation hat und ob es sich um themenrelevante Linkgeber handelt. Eine themenbezogene Verlinkung in einem kleinen Blog, über den du auch Traffic erhältst, ist wertvoller, als mehrere Links von allgemeinen Webkatalogen über die sich kaum ein Besucher*in zu dir verirrt.

 

Auch der Charakter der Links ist wichtig. Sind diese organisch gewachsen und weist deine Website eine homogene Backlink-Struktur auf, wirkt sich das positiv auf dein Ranking aus. Ein Link, der selbst gesetzt wurde, ist weniger wert, als einer, den du dir mit starken Inhalten verdient hast.

 

Führen die Links überwiegend zum gleichen Inhalt oder sind die meisten Links mit harten Ankertexten versehen, spricht das für eine nicht organisch gewachsene Struktur und kann sich auch negativ auf die Sichtbarkeit auswirken.

Barrierefreiheit

9 % der Menschen in Deutschland sind beeinträchtigt. Vor allem für Menschen mit einer Sehschwäche sind nicht barrierefreie Websites kaum nutzbar. Um Barrierefreiheit zu gewährleisten, was ab 2025 sukzessive verpflichtend wird, gilt es ALT Attribute für Bilder zu hinterlegen, verständliche Formulierungen zu wählen (z.B. kurze Sätze und nicht zu viele Fremdwörter), auf ausreichende Kontraste beim Design zu setzen, Untertitel für Videos zu verwenden, eine große Schriftgröße einzuhalten (16 aufwärts), vor allem mobil klickbare Elemente nicht zu dicht aneinander anzulegen, eine optimale H1-Struktur umzusetzen und barrierefreie Formulare einzubinden.

Canonical Tags

Canonical Tags sind die von Google bevorzugte Methode, um der Suchmaschine mitzuteilen, ob eine Seite die Autorität für den entsprechenden Inhalt der Seite hat oder ob diese Autorität bei einer anderen Seite liegt. Canonical Tags sind außerdem das Signal an Google, eine Seite zu indexieren oder nicht zu indexieren und helfen dabei Duplicate Content zu vermeiden.

 

Beispielsweise hat ein Online-Shop drei verschiedene Varianten eines Produktes und jede Variante hat eine eigene URL. Mit dem Canonical wird Google mitgeteilt, welche der drei Varianten ausschlaggebend ist und welche indexiert werden soll.

 

Besitzt eine URL die Autorität und soll indexiert werden, verweist das Canonical Tag auf sich selbst, also auf die URL der Seite. Besitzt eine URL die Autorität nicht, wird mit dem Canonical Tag stattdessen auf eine andere Seite verwiesen, die über die Autorität verfügt.

 

Werden Canonical Tags in Kombination mit hreflang Tags eingesetzt, sollten nur Seiten mit selbstreferentiellen Canonicals, also mit entsprechender Autorität, auch hreflang Tags enthalten. Wird eine Seite mit dem Meta Robots Tag „noindex“ von der Indexierung ausgeschlossen, darf diese Seite über kein Canonical Tag verfügen, um nicht widersprüchliche Signale an Google zu senden.

Content Quality

Content ist nach wie vor King und die Qualität deiner Inhalte ist ein wichtiger Ranking-Faktor. Was zählt, ist vor allem die Semantik. Keywords sind wichtig und für deine Inhalte relevante sollten auch prominent in deinen Content einfließen. Wichtiger ist aber, wie fundiert dein Wissen bzw. wie breit die Informationen auf deiner Website zum jeweils behandelten Thema sind.

 

Seiten, die auf Google am besten ranken, sind in der Regel holistische Seiten, die zu ihren Kernthemen alle Inhalte breit und übersichtlich abbilden und den Besucher*innen einen echten Mehrwert bieten. Die Zeiten von Texten, die nur für Suchmaschinen geschrieben wurden, die entsprechend niemand liest und die ganz offensichtlich nur bestimmte Keywords in den Fokus stellen sollen, ist längst vorbei.

 

Trotzdem spielt auch die Länge deiner Inhalte eine Rolle. Schließlich erfordert breites Fachwissen einen gewissen Umfang und die sogenannte „text-to-code-ratio“ gilt als Rankingfaktor, also das Verhältnis der Anzahl an Zeichen im Quellcode und der Anzahl an Zeichen im Inhalt.

 

Wenn du rein quantitativ wissen willst, wie viel Content wahrscheinlich notwendig ist, um ganz oben auf Google zu stehen, solltest du dir die Seiten genauer anschauen, die Google zum gewählten Keyword am höchsten positioniert und analysieren, wie viele Wörter diese umfassen. Aber vergiss nicht: die Qualität deiner Inhalte ist bedeutender als der Umfang.

 

Aus diesem Grund solltest du auch immer die Suchintention der Keywords auf dem Schirm haben, zu denen du ranken willst. Bedient dein Content nicht die hinter dem Begriff liegende Suchintention, hilft dir der beste Inhalt der Welt nichts, um dazu ein besseres Ranking zu erzielen.

 

Nicht zuletzt die Struktur deines Contents und damit die Art und Weise wie dieser optisch aufbereitet ist, spielt eine wesentliche Rolle für das Ranking. Wenn du Pulitzerpreis verdächtige Inhalte geschrieben hast, die absolut alles abdecken, was sich Leser*innen zum behandelten Thema wünschen können, hilft dir das nur wenig, wenn diese Inhalte in einer unleserlichen Textwüste aufbereitet sind, die sich niemand antun will.

 

Regelmäßige Absätze, eine große Schriftgröße, Fettungen, Zwischenüberschriften, Bulletpoints oder Tabellen und passende Bilder sowie Grafiken werten deinen Content auf, führen zu einer besseren Übersichtlichkeit und machen deinen Content deutlich konsumfreundlicher. Das honorieren deine Leser*innen genauso wie die Suchmaschine.

Crawling

Die technische Auslesbarkeit einer Website ist ein wesentlicher Ranking-Faktor, der weit oben auf jeder Prio-Liste für eine SEO-Optimierung stehen sollte. Der Google Algorithmus crawlt jede Website im Internet täglich, in der Regel nimmt er sich im Schnitt maximal 5 Minuten Zeit pro Website.

 

Es ist wichtig zu beobachten, welche Inhalte der Googlebot crawlt, wie lange er benötigt, um die gesamten Inhalte einer Website zu indexieren und wie viel Zeit er durchschnittlich braucht, um eine Seite herunterzuladen. Fehlerhafte, nicht erreichbare, für die Google Suche irrelevante, sensible oder Paginationsseiten sollten am besten erst gar nicht zum Crawling bzw. zur Indexierung freigegeben werden, um das begrenzte Crawl-Budget zu schonen und um die Indexierung wichtiger Inhalte nicht zu verzögern.

 

Geben die Crawling Statistiken Anlass zur Besorgnis, die beispielsweise in der Google Search Console analysiert werden können, sind entsprechende Optimierungen durchzuführen, um das begrenzte Crawl-Budget möglichst effizient zu nutzen. Die fortlaufende Indexierung von Websites ist der größte Kostenpunkt des Alphabet-Konzerns und wer es dem Googlebot einfacher macht, wird belohnt.

CRO

CRO steht für „Conversion Rate Optimization“ und bezieht sich auf alle Maßnahmen, welche zur Steigerung von Verkäufen, Abschlüssen oder Aufträgen über eine Website beitragen. Das Ziel ist es, die Nutzerfreundlichkeit so zu optimieren, dass es Besucher*innen so einfach wie möglich gemacht wird, einen Kauf, Abschluss oder eine Anfrage zu tätigen.

 

Eine Rolle spielt dabei zum Beispiel die Ladezeit einer Seite, die Anzahl an Klicks, die bis zu einem Kauf oder einer Anfrage notwendig sind, die Optimierung der Navigation oder Buchungsstrecke einer Website sowie die Kommunikation von wichtigen USPs und Handlungsaufforderungen.

 

Umso länger Besucher*innen nach relevanten Informationen suchen müssen und umso mehr Fragen auf dem Weg zur Conversion aufkommen, umso größer ist die Wahrscheinlichkeit, dass die Seite wieder verlassen wird, ohne dass eine wertschöpfende Aktion durchgeführt wurde. Das führt zu einer schwächeren Conversion-Rate.

 

Die Conversion-Rate-Optimierung ist ein von SEO unabhängiger Teilbereich im Online-Marketing, dessen Anwendung aber auch Auswirkungen auf die Suchmaschinenoptimierung sowie das Ranking einer Website hat.

Duplicate Content

Haben zwei verschiedene Domains oder Seiten einer Website den gleichen redaktionellen Inhalt, wertet Google das als Duplicate Content – also als nicht individuellen und hochwertigen Inhalt. Da Google aber genau das von einer Seite erwartet, die hoch im Ranking stehen soll, ist Duplicate Content unbedingt zu vermeiden.

 

Kacheln oder Boxen, die auf verschiedenen Seiten der Website mit den gleichen Inhalten dargestellt werden, z.B. um andere Artikel anzuteasern, sind davon ausgeschlossen. Dringend zu vermeiden sind Texte, die von anderen Websites oder z.B. von Herstellern oder Kooperationspartnern übernommen wurden. Werden die eigenen Texte in gleicher Form auf anderen Websites von Google indexiert, wird auch das als Duplicate Content gewertet.

 

In diesem Zusammenhang können auch nicht redigierte KI-Texte von ChatGPT & Co zu SEO-Problemen führen. Wenn diese zu 100 % übernommen werden, besteht das Risiko, dass an anderer Stelle sehr ähnliche Inhalte publiziert wurden, was wiederum Duplicate Content bedeutet.

 

Auch technische Fehler können in gravierendem Maße zu Duplicate Content führen. Sind die Seiten einer Website beispielsweise mit und ohne ein „/“ am Ende jeder URL direkt aufrufbar (beide Versionen geben den Statuscode 200 zurück), indexiert Google rein technisch zwei verschiedene Domains mit den exakt gleichen Inhalten und der gesamte Content der Website wird als Duplicate Content gewertet.

E-E-A-T

E-E-A-T steht für „Experience, Expertise, Authoritativeness & Trustworthiness“ – zu Deutsch Erfahrung, Expertise, Autorität & Vertrauenswürdigkeit. Es handelt sich um ein erstmals 2015 von Google in den Quality Rater Guidelines veröffentlichtes Konzept zur Bewertung der inhaltlichen Qualität von Autor*innen und Publishern, um damit die Qualität der Suchergebnisse zu verbessern.

 

Google unterscheidet beim E-E-A-T Konzept zwischen der Relevanz, die das jeweilige Dokument bzw. die Seite von Autor*innen bzw. Publishern zur jeweiligen Suchanfrage hat, und der Qualität, die sich sowohl auf die entsprechende Seite als auch auf den Autor*in oder Publisher im Allgemeinen beziehen kann.

 

E-E-A-T gilt nicht als direkter Ranking-Faktor und hat entsprechend auch keinen bekannten Ranking-Score. Allerdings hat eine positive E-E-A-T Bewertung weitreichende Folgen für die Sichtbarkeit, die von Google offiziell bestätigt wurden.

 

E-E-A-T beeinflusst das Ranking in der Google Suche, die Ausspielung von Inhalten in Google Discover oder Google News, die Einblendung von Rich-Snippets oder die Abwertung von Inhalten durch das Helpful Content System.

 

Entitäten, also Autor*innen, Organisationen und Marken, die durch starke Inhalte eine gute E-E-A-T- Bewertung von Google erhalten, werden von der Suchmaschine als seriöse, erfahrene, bekannte und vertrauensvolle Experten*innen betrachtet, die eine höhere Relevanz für die Ausspielung von Suchergebnissen besitzen.

 

Für dich als Unternehmer*in, Autor*in oder Markeninhaber*in bedeutet das, dass du mit der kontinuierlichen Produktion von starken und einen Mehrwert bietenden Inhalten nicht nur deine Zielgruppe von dir überzeugen kannst, sondern auch die Sichtbarkeit in Suchmaschinen nachhaltig stärkst.

Fokus Keywords

Jede Seite einer Website sollte auf ein zum Inhalt passendes, themenrelevantes und individuelles Fokus Keyword ausgerichtet sein. Nur wenn eindeutige und einheitliche Signale an Google gesendet werden, darf ein hohes Ranking zum Fokus Keyword erwartet werden.

 

Das Fokus Keyword sollte idealerweise in der URL, im Meta Title, in der Meta Description sowie im H1-Tag stehen (sowie zusätzlich in die Benennung des Navigationspunktes einfließen, sofern die jeweilige Seite im Menü verankert ist).

 

Eine Seite auf mehrere, unterschiedliche Keywords auszurichten, ist genauso zum Scheitern verurteilt, wie mehrere Seiten auf das gleiche Keyword auszurichten (Stichwort Kannibalisierung) oder eine transaktionale Ziel-Seite auf ein informationales Keyword zu optimieren.

 

Deshalb ist es Best Practice, über eine Keyword-Analyse (auch Keyword Clustering oder Keyword Mapping genannt) zu identifizieren, welche Signale und damit Fokus Keywords aktuell an Google gesendet werden und diese bei Bedarf auf das gewünschte Fokus Keyword anzupassen.

H1-Tags

H1-Tags sind die technische Auszeichnung für die Hauptüberschriften einer Seite und sollten individuell und nur einmal pro Seite vergeben werden. Die Wörter, die in H1-Tags stehen, bewertet Google als besonders relevante Keywords. Deshalb empfiehlt es sich, möglichst suchrelevante Begriffe bzw. das pro Seite definierte Fokus Keyword in den H1-Tag zu integrieren (idealerweise ganz am Anfang des H1-Tags).

 

H2-, H3- und H4-Tags, also die nächstkleineren Überschriften, die z.B. für Subheadlines vergeben werden, können bedenkenlos mehrfach pro Seite zum Einsatz kommen. Es sollte aber eine plausible Hierarchie eingehalten werden: nur wenn es ein H1-Tag gibt, sollte auch ein H2-Tag vorkommen, nur wenn es ein H2-Tag gibt, sollten auch H3-Tags vergeben werden usw.

 

Außerdem hilft eine logische Reihenfolge der H-Tags bei der Suchmaschinenoptimierung und die korrekte Integration von H1-Tags spielt eine wichtige Rolle für die Barrierefreiheit einer Website. Nicht zuletzt ignoriert Google in 13 % bis 33 % der Fälle den eingesetzten Meta-Title-Tag und zeigt stattdessen mehrheitlich das H1-Tag als Titel in den SERPs an, was die Relevanz des H1-Tags weiter steigert.

Hreflang Tags

Werden die verschiedenen Sprachversionen einer Website Google technisch nicht erkenntlich gemacht, entsteht dadurch ein großes Fehlerpotenzial. Inhalte in verschiedenen Sprachen werden u.U. der falschen Sprachversion zugewiesen, Keywords in Sprache A werden dem Inhalt von Sprache B zugeordnet und verwässern das Ranking auf Google oder Nutzer*innen wird in der Google Suche nicht die richtige Sprachversion angezeigt.

 

Im Mittelpunkt der technischen Internationalität steht deshalb die korrekte Integration der hreflang Tags. Diese teilen dem Googlebot mit, in welcher Sprache die jeweilige Seite ist, welche URLs zu den jeweils anderen Sprachversionen führen und auch für welches Zielland der Inhalt geeignet ist (zum Beispiel DE oder AT).

HTTP-Statuscodes

Der HTTP-Statuscode ist die Antwort eines Servers auf die Anfrage eines Clients, wenn zum Beispiel eine bestimmte URL aufgerufen werden soll. Der Statuscode teilt dem Browser mit, ob die Anfrage zum Aufruf einer Website erfolgreich war oder nicht. Die wichtigsten Statuscodes für SEO sind:

    • Statuscode 200: Die Anfrage war erfolgreich, die Website ist erreichbar und kann aufgerufen werden.
    • Statuscode 301: Die angeforderte Ressource bzw. URL steht dauerhaft nicht mehr zur Verfügung und wird auf eine andere URL weitergeleitet.
    • Statuscode 302: Die angeforderte Ressource bzw. URL steht temporär nicht mehr zur Verfügung und wird vorübergehend auf eine andere URL weitergeleitet.
    • Statuscode 403: Die angeforderte Ressource bzw. URL wurde mangels Berechtigung des Clients nicht aufgerufen.
    • Statuscode 404: Die angeforderte Ressource bzw. URL wurde nicht gefunden und ist nicht mehr erreichbar.
    • Statuscode 5xx: Diese Antworten beziehen sich allesamt auf Server-Fehler und können die verschiedensten Ursachen haben.
HTTPS / SSL

Ein SSL-Zertifikat, und damit das verschlüsselte HTTPS-Protokoll einer Website, ist ein Ranking-Faktor. Bei nicht verschlüsselten Seiten, die nur mit „http“ aufgelöst werden, gelangen Nutzer*innen zudem häufig erst auf einen vom Browser ausgelieferten Warnhinweis und können die entsprechende Website erst nach dem Hinzufügen einer Ausnahmeregel besuchen.

 

Nicht verschlüsselte Websites sind für Besucher*innen nicht nur unsicher, sondern haben im Ranking kaum eine Chance, mit verschlüsselten Seiten mitzuhalten. Ein valides SSL-Zertifikat ist deshalb absoluter Standard und in vielerlei Hinsicht Grundvoraussetzung einer Website.

Knowledge-Graph

Ein Knowledge Graph ist nicht nur ein Begriff aus dem Online-Marketing und beschreibt eine Art Datenbank, die Wissen in einer strukturierten Form speichert und darstellt. Dabei werden Informationen zu verschiedenen Themen miteinander verknüpft und in Beziehung gesetzt, um ein umfassendes Verständnis zu ermöglichen.

 

Der Knowledge Graph kann dabei helfen, komplexe Zusammenhänge besser zu verstehen und gezielt nach bestimmten Informationen zu suchen. Im Online-Marketing bezeichnet der Knowledge Graph das Panel in der Google Suche, was häufig dann angezeigt wird, wenn nach Personen, Organisationen oder Orten von öffentlichem Interesse gesucht wird.

 

Die Informationen für den Google Knowledge Graph stammen von den verschiedensten Quellen. Durch SEO einen Knowledge Graph zur eigenen Person oder Organisation in der Google Suche zu erzielen, ist nicht möglich.

Linkjuice

Die interne Verlinkung einer Website ist ein Ranking-Faktor. Als positiven Linkjuice bewertet Google, wenn eine Seite intern prominent verlinkt ist und die Autorität zu einem spezifischen Thema darstellt. Hat eine Seite wenige interne Verlinkungen, schätzt Google diese als wenig relevant für Besucher*innen ein. Den Seiten mit vielen internen Verlinkungen misst Google umgekehrt die höchste Bedeutung zu.

 

Links in der Hauptnavigation oder in Breadcrumbs haben eine höhere Gewichtung als Links im Footer. Interne Verlinkungen in Fließtexten sind vor allem dann positiv für eine SEO-Optimierung, wenn wirklich nur eine Seite das Ziel von Links zu einem bestimmten Thema ist und zum gleichen Thema nicht auf verschiedene Seiten verlinkt wird.

 

Linkjuice ist außerdem vererbbar, weshalb auch die Anzahl von ausgehenden internen Links einer Seite relevant ist. Führt eine Seite 10 Links auf interne Seiten, erhält jede verlinkte Seite 10 % des Linkjuice und damit der „SEO-Power“ der verlinkenden Seite. Weist die Seite aber 100 interne Verlinkungen auf, erhält jede verlinkte Seite nur 1 % des Linkjuice.

 

Neben der Frage, wo und wozu eine Seite intern verlinkt wird, spielt also auch die Frage eine Rolle, wie oft eine Seite intern verlinkt. Damit die interne Linkstruktur einer Website auch aus SEO-Perspektive möglichst optimal ist, empfiehlt sich die Entwicklung einer entsprechenden Strategie, am besten, bevor die Seite programmiert wird.

Meta Description

Der Meta Tag für die Description liefert die Beschreibung einer Seite für die SERPs (Suchergebnisse auf Google und Co). Die Meta Description gilt nicht als Ranking-Faktor, hat aber große Auswirkungen auf die Klickrate in der Google Suche und damit auf die Wahrscheinlichkeit, ob ein Nutzer*in auf dein Suchergebnis oder auf das eines anderen klickt.

 

Es ist wichtiger, individuelle und ansprechende Inhaltsangaben für Nutzer*innen bereitzustellen und weniger SEO-Keywords unterzubringen. Wobei die Integration des Fokus Keywords der jeweiligen Seite ein Best Practice darstellt.

 

Die Beschreibung sollte nicht mehr als 156 Zeichen (inkl. Leerzeichen) bzw. 990 Pixel enthalten, diese Länge sollte möglichst ausgenutzt werden. Mit der Integration von Unicodes (✓, ☎…) können SERPs sich außerdem optisch absetzen, was in der Regel bessere Klickrates zur Folge hat.

Meta-Robots-Tags

Ein Meta-Robots-Tag ist eine technische Auszeichnung, mit der du Suchmaschinen dazu anweisen kannst, bestimmte Seiten deiner Website zu crawlen oder nicht zu crawlen. Steht das Meta-Robots-Tag einer Seite auf „index“, ist das das Signal an Google, dass die entsprechende Seite indexiert werden soll. Eine solche Seite sollte in der robots.txt Datei deiner Website nicht von der Indexierung ausgeschlossen werden und in der XML-Sitemap gelistet sein.

 

Steht das Meta-Robots-Tag auf „noindex“, ist das das Signal an Google, die Seite nicht zu indexieren. Das funktioniert aber nur dann einwandfrei, wenn es keine anderen Signale gibt, die Google zur Indexierung auffordern. Zum Beispiel ein selbstreferenzierendes Canonical, ein interner „follow“ Link oder der Eintrag der Seite in die XML-Sitemap. All das sollte ausgeschlossen werden, um sicherzustellen, dass der Meta-Robots-Tag „noindex“ von Google auch wirklich beachtet wird.

Mobile First

Weit über 50 % der Suchanfragen auf Google kommen durchschnittlich über ein mobiles Endgerät. Entsprechend lautet Google‘s Credo „Mobile first“ und die Nutzerfreundlichkeit einer Website für Smartphones ist ein gewichtiger Ranking-Faktor.

 

Aus dem gleichen Grund hat Google bereits 2018 auf die „Mobile-First-Indexierung“ umgestellt. Sprich die Bewertung deiner Website und das daraus resultierende Ranking in der Suchmaschine ist zu 100 % von der mobilen Version deiner Website abhängig. Die Desktop-Version spielt nur noch in Ausnahmefällen eine Rolle.

Der Befehl “nofollow” ist ein Link-Attribut, welches verwendet wird, um Suchmaschinen mitzuteilen, dass der verlinkte Inhalt nicht als Empfehlung durch die betreffende Website angesehen und ignoriert werden soll.

 

Dies ist insbesondere für Website-Betreiber*innen relevant, die Links zu anderen Websites bereitstellen möchten, ohne jedoch das Risiko einzugehen, dass diese Verlinkungen sich negativ auf ihre Rankings auswirken können.

 

Google hat das Attribut „nofollow“ als Spam-Gegenmaßnahme bereits 2005 eingeführt, um zu verhindern, dass durch das Setzen von Links z.B. in Kommentaren das Backlinkprofil einer Website manipuliert werden kann.

 

Die Verwendung des „nofollow“ Attributs wird von Google vor allem bei gekauften Links, Affiliate-Links oder Pressemeldungen empfohlen. Das Linkattribut kann auch verwendet werden, um den internen Linkjuice einer Website besser zu steuern. Werden Links zu internen Seiten damit ausgezeichnet, die für die Google Suche irrelevant sind, wie z.B. das Impressum, vererbt sich auf diese Seiten kein Linkjuice und andere, relevante Seiten können potenziell mehr Linkjuice erhalten.

Performance

Die Performance, also die Ladegeschwindigkeit einer Website, ist einer der wichtigsten Ranking-Faktoren. Vor allem mobile Internet-Nutzer*innen, welche die Mehrheit ausmachen, sind oft mit einer langsameren Verbindungsgeschwindigkeit konfrontiert, weshalb die Ladezeit einer Seite, auch aus SEO-Sicht, besonders relevant ist.

 

Studien von Google, Nielsen oder Amazon belegen, dass schon eine längere Ladezeit von 100ms die Conversion-Rate um 1 % verschlechtert und eine längere Ladezeit von 500ms den möglichen Traffic um bis zu 20 % reduziert.

 

Bis eine Website vollständig geladen ist, sollten laut Google maximal 75 Requests sowie maximal 1MB Datenvolumen notwendig sein und der Speed Index sollte die 5 Sekunden-Marke nicht überschreiten.

 

Die Performance auf dem Desktop ist obsolet, da Google den mobilen Index bewertet. Entsprechend spielen für eine SEO-Optimierung nur die mobilen Ladezeiten eine Rolle. Analysieren lässt sich die Ladezeit zum Beispiel mit dem im Chrome-Browser enthaltenen Google Lighthouse oder kostenlosen Tools wie GTmetrix.

RankBrain

RankBrain ist ein von Google verwendeter Algorithmus, der 2015 ausgerollt wurde, um u.a. mit Hilfe von Machine Learning und künstlicher Intelligenz Antworten auf noch nicht gestellte Fragen zu liefern. RankBrain lernt selbstständig, entwickelt sich stetig weiter und bringt mehr Semantik in die Google Suche.

 

So werden z.B. bei der Suche nach einem spezifischen Keyword nicht nur die allgemeinen Suchergebnisse ausgespielt, sondern auch Antworten auf Fragen, die in Zusammenhang mit dem gesuchten Begriff häufig gestellt werden.

Redirects

Jede Website verfügt über vier verschiedene Varianten: mit und ohne „www“ sowie mit https und mit http. Google zählt jede Variante als eigenständige Domain. Nur die Hauptdomain sollte mit einem 200 Statuscode erreichbar sein, alle anderen Varianten sollten per 301-Redirect auf die Hauptvariante weiterleiten, um technischen Duplicate Content zu vermeiden. Das gleiche gilt für Website-Versionen, die mit oder ohne „/“ am Ende der URL aufgelöst werden.

 

301-Redirects sind ein wichtigster Hygiene-Faktor bei der SEO-Optimierung. Gehen Dokumente einer Website offline (Seiten, PDFs, Bilder…) sollten darüber themenrelevante Weiterleitungen erstellt werden, sodass weder Nutzer*innen noch der Googlebot in einer Sackgasse landen und keine 404-Fehler entstehen. Eine prinzipielle Weiterleitung von entfernten Inhalten auf die Startseite einer Website ist keine gute Lösung, da dies höchstwahrscheinlich Soft-404-Fehler generieren würde.

Responsive Design

Beim Responsive Design wird der Inhalt einer Website je nach Bildschirmgröße oder Gerät in einem anderen Layout dargestellt bzw. dynamisch ausgespielt, um die Nutzerfreundlichkeit auf allen Endgeräten zu gewährleisten. Responsive Design ist Grundlage jeder SEO-optimierten Website.

Robots.txt

Die Robots.txt Datei ist im Grunde eine Nachricht an Google, mit dem Befehl, deine Website zu crawlen bzw. bestimmte Verzeichnisse nicht zu crawlen. Über die robots.txt Datei lässt sich die Indexierung deiner Website steuern und Spam Bots oder sensible Inhalte können darüber vom Crawling ausgeschlossen werden. Absoluter SEO-Standard.

Security

Abgesehen von einer validen HTTPS-Verschlüsselung ist die sicherheitstechnische Infrastruktur einer Website kein offizieller Ranking-Faktor. Allerdings haben Websites, die von Google als „nicht sicher“ oder für Nutzer*innen als potenziell gefährdend eingestuft werden, kaum eine Chance auf ein starkes Ranking.

 

Websites, die veraltete Technologien nutzen, werden von Google im Ranking benachteiligt. Darunter fallen zum Beispiel veraltete PHP- oder CMS-Versionen, die längst hätten aktualisiert werden sollen. Gehackte Websites, über die Schadsoftware oder Spam verbreitet wird, werden von Google mit einem Penalty belegt und verschwinden zumindest temporär vollständig aus der Google Suche.

SERPs

SERPs steht für “Search Engine Results Pages” und damit für die Suchergebnisseiten von Suchmaschinen wie Google oder Bing. Wird eine Suche durchführt, zeigt die Suchmaschine eine Liste mit Links zu Websites an, die relevante Informationen zum eingegebenen Keyword enthalten. Diese Liste wird als SERP bezeichnet. Je höher eine Website in den SERPs erscheint, desto wahrscheinlicher ist es, dass sie von Nutzer*innen besucht wird.

Strukturierte Daten

Bei strukturierten Daten, auch Schema Markups genannt, handelt es sich um ein standardisiertes Format (JSON-LD) zur Bereitstellung zusätzlicher Informationen für Suchmaschinen. Durch die Verwendung von strukturierten Daten kann beispielsweise Google die Inhalte deiner Webseite besser kategorisieren und einordnen.

 

Strukturierte Daten haben Einfluss auf das Erscheinungsbild in den Suchergebnissen, denn sie bilden die optimale Voraussetzung für die Anzeige von Rich-Snippets in der Google Suche. Strukturierte Daten führen in der Regel zu höheren Klickrates und sind relativ einfach auf einer Website zu implementieren.

 

Um zu überprüfen, ob auf deiner Website bereits strukturierte Daten enthalten sind, denn zahlreiche CMS richten diese teilweise automatisch ein, kannst du die Google Search Console oder den Test für Rich-Suchergebnisse verwenden.

 

Um neue Markups anzulegen, solltest du dir die Dokumentation von Schema.org ansehen und kannst zum Beispiel den Schema Markup Generator verwenden.

Title-Tag

Das Meta-Title-Tag stellt die im Browser-Tab angezeigte Headline einer Seite dar und wird als Überschrift der jeweiligen Seite in den Suchergebnissen verwendet. Der Meta-Title ist ein Ranking-Faktor, deshalb empfiehlt es sich, das Fokus Keyword der jeweiligen Seite nicht nur in den Titel zu integrieren, sondern auch an den Anfang des Titels zu stellen (sofern das redaktionell sinnvoll ist).

 

Denn die Wörter im Meta-Title und ganz besonders die, die am Anfang des Titels stehen, werden von Google als besonders relevant für das Ranking einer Seite eingestuft. Der Meta-Title sollte für jede Seite individuell vergeben und maximal 70 Zeichen bzw. 580 Pixel lang sein (inkl. Leerzeichen).

 

Die ideale Länge für den Meta-Title Tag liegt bei 60 Zeichen. Es sind zwar bis zu 70 erlaubt, allerdings schreibt Google mehr als 50 % der Titles um, die länger als 60 Zeichen sind. Selbst bei perfekter Länge werden statistisch gesehen zwischen 13 % und 33 % der Meta-Title von Google umgeschrieben oder ignoriert.

 

Wenn Google den Meta-Title ignoriert wird mehrheitlich das H1-Tag als Title in den SERPs verwendet, was dessen Relevanz weiter steigert.

URL-Hierarchie

Die URL-Hierarchie ist ein wichtiger Faktor, damit Suchmaschinen eine Website schneller indexieren können und sich Besucher*innen leichter auf der Seite zurechtfinden. Google erwartet für ein gutes Ranking das Stammbaumprinzip, sodass alle untergeordneten Seiten entsprechende „Eltern“ aufweisen.

 

Prinzipiell sollte möglichst keine Seite mehr als drei Klicks von der Startseite entfernt sein, da die Pfadlänge, bis eine Seite erreicht werden kann, aus Google-Perspektive etwas über die Relevanz der Seite aussagt. Umso weiter eine Seite von der obersten Ebene der Startseite entfernt ist, umso weniger Linkjuice erhält diese und umso geringer fallen die Ranking-Chancen aus.

 

Vor allem bei Online-Shops ist es deshalb Best Practice, bei Produktseiten auf das Stammbaumprinzip zu verzichten, damit die Produkte im URL-Pfad nur einen Klick von der Startseite entfernt sind und dadurch mehr Chancen auf ein besseres Ranking in der Google Suche haben.

URL-Struktur

Google bewertet die URL-Struktur nach Nutzererfahrung. Eine sprechende und damit SEO-freundliche URL wie „beispielseite.de/kategorie-xyz/produkt-xyz“ wird positiv bewertet, weil sich aus der URL Rückschlüsse auf den Inhalt der Seite ziehen lassen.

 

Entsprechend negativ wird eine nicht sprechende URL wie „beispielseite.de/public/6.0.0.0.6“ bewertet, weil sich daraus kein Aufschluss über den Inhalt ergibt. Auch die Länge der URL spielt eine Rolle. Umso kürzer und einfacher es ist, sich diese zu merken, umso besser. Ebenso der Inhalt der URL ist wichtig. Ist das Fokus Keyword der jeweiligen Seite in der URL enthalten, hat das einen positiven Impact auf das Ranking.

URL-Varianten

Je nachdem, wie ein Online-Shop konfiguriert ist, fallen für verschiedene Varianten eines Produktes eigene URLs an. Beispielsweise wird für verschiedene Größen, Abmessungen oder Farben des gleichen Produktes jeweils eine eigene URL erzeugt, sodass es am Ende mehrere URLs für das gleiche Produkt geben kann.

 

Google behandelt diese verschiedenen Seiten eines Produktes wie 5 verschiedene Produkte, indexiert bei allen 5 den gleichen Inhalt und wertet es als Duplicate Content. Deshalb sollte bei URL-Varianten immer klar festgelegt werden, welche der verschiedenen Produkt-URLs die Stamm-URL ist und entsprechend indexiert werden soll.

 

Bei der Stamm-URL wird ein selbstreferenzierendes Canonical-Tag gesetzt, bei den URL-Varianten des Produktes zeigt das Canonical-Tag nicht auf sich selbst, sondern auf die Stamm-URL. So wird Crawl-Budget gespart und Duplicate Content vermieden.

User Signals

Neben allen technischen sowie inhaltlichen SEO-Faktoren spielt auch das indirekte Feedback von Nutzer*innen eine nachweisliche Rolle für das Ranking einer Seite, auch wenn Google nach wie vor bestreitet, dass User Signals ein Ranking-Faktor sind.

 

Verlassen Nutzer*innen die Einstiegsseite einer Website direkt wieder, was zu einer hohen Absprungrate und niedrigen Interaktionsrate führt, oder ist die Verweildauer sowie Conversion-Rate sehr gering, wertet Google das Interesse an den Inhalten der Website als schwach und entsprechend negativ wirkt sich das auf das Ranking aus.

 

Gleiches gilt für die Klickrate in den Suchergebnissen. Ist die Klickrate trotz prominenter Position in den Suchergebnissen schwach und entsprechend wenige Nutzer*innen klicken auf den Suchergebnistreffer, hat das Folgen für die Sichtbarkeit einer Website.

 

Das A und O einer SEO-Optimierung, auch im Sinne der Optimierung der User Experience, ist es deshalb, diese Werte zu erfassen, zu überwachen, zu analysieren und bei Bedarf Maßnahmen zu ergreifen, die zu besseren User Signals führen.

UX

UX steht für User Experience und bezieht sich auf das Erlebnis, das Nutzer*innen beim Besuch einer Website haben. Es umfasst alles, was Einfluss auf dieses Erlebnis hat, von der Navigation über die Benutzerfreundlichkeit und die Content-Qualität bis hin zur optischen Ästhetik.

 

UX ist besonders relevant, da eine positive Erfahrung dazu führt, dass Nutzer*innen länger auf der Seite bleiben und eher dazu geneigt sind, zu interagieren oder zu konvertieren (z.B. einen Kauf zu tätigen).

 

In Bezug auf SEO ist UX ebenfalls wichtig, da Google und andere Suchmaschinen die Nutzererfahrung als Ranking-Faktor berücksichtigen. Wenn eine Website eine schlechte UX bietet, z.B. lange Ladezeiten oder eine unübersichtliche Navigation, führt dies zu einem niedrigeren Ranking in den Suchergebnissen.

WDF*IDF Analyse

Mit der WDF (Within Document Frequency) *IDF (Inverse Document Frequency) Analyse wird festgestellt, wie Texte optimiert werden können, um zu einem bestimmten Fokus Keyword ein besseres Ranking in der Google Suche zu erzielen.

 

Dabei wird gemessen, welche sonstigen Wörter zu einem ausgewählten Fokus Keyword in den Texten von Websites am häufigsten vorkommen, die auf Google zum Fokus Keyword am stärksten positioniert sind. Die Integration dieser zusätzlichen Wörter stärkt das Ranking zum Fokus Keyword.

Web Vitals

Mit den Web Vitals stellt Google einheitliche Qualitätssignale bereit, welche die Nutzererfahrung auf einer Webseite widerspiegeln. Anders gesagt: Über die Kennzahlen kann die User Experience einer Webseite eingestuft und bewertet werden.

 

Im Kern geht es dabei um den Ladevorgang einer Seite, die Interaktivität auf einer Seite und die visuelle Stabilität einer Seite. Die Web Vitals fließen mit anderen Nutzersignalen in Google‘s Ranking-Faktor „Page Experience Signal“ ein, welcher als besonders relevant gilt.

 

Die sechs wesentlichen Kennzahlen der Web Vitals sind:

    • First Input Delay (FID) – ab 2024 ersetzt durch Interaction to Next Paint (INP)
    • First Contentful Paint (FCP)
    • Speed Index
    • Largest Contentful Paint (LCP)
    • Total Blocking Time (TBT)
    • Cumulative Layout Shift (CLS)
XML-Sitemap

Eine XML-Sitemap ist für Google wie die Navigation für Nutzer*innen. Ohne steigt das Fehlerpotenzial, der Googlebot findet sich schlechter auf der Website zurecht, braucht länger für die Indexierung und das begrenzte Crawl-Budget wird unnötig schnell verbraucht.

 

Die Inhalte einer Sitemap sollten logisch aufgebaut sein und keine Seiten enthalten, die nicht erreichbar sind, nur eine Weiterleitung darstellen oder auf veraltete Inhalte verweisen. Seiten, die nicht indexiert werden sollen, dürfen nicht in der Sitemap stehen. Seiten, die umgekehrt indexiert werden sollen, gehören zwingend hinein.

 

Best Practice ist es, für verschiedene Inhaltstypen auch verschiedene XML-Sitemaps bereitzustellen, zum Beispiel für Seiten, Beiträge, Bilder, Tags, Videos oder Bilder und die einzelnen Sitemaps in einem Sitemap-Index zu bündeln. Dieser Index oder die XML-Sitemaps an sich sollten immer in der Google Search Console eingereicht werden.

Allgemeine Einführung

SEO-Tools gibt es wie Sand am Meer, gefühlt täglich kommen neue hinzu und alleine ChatGPT hat uns unzählige neue Features und Plugins beschert, mit der SEO-Tätigkeiten unterstützt und vereinfacht werden können. Die folgende Liste hat nicht den Anspruch vollständig zu sein, sondern bietet eine kleine Übersicht der aus unserer Sicht prominentesten und leistungsstärksten Tools am Markt.

Ahrefs

Ahrefs ist seit über 20 Jahren eines der international beliebtesten SEO-Tools und hat seinen Hauptsitz in Singapur. Neben zahlreichen kostenlosen Anwendungen bietet Ahrefs von Gründer Dmitry Gerasimenko vier kostenpflichtige Profi-Modelle, die zwischen 89 € und 899 € pro Monat kosten. Zu den wichtigsten Tools zählen u.a. der Site Explorer, der Content Explorer und der Keywords Explorer.

Audisto

Audisto ist ein SEO-Tool aus Deutschland, welches sich auf Technical-SEO konzentriert und neben technischen Website-Audits auch skalierbares, technisches SEO-Monitoring anbietet. Wer Audisto CTO Tobias Schwarz als Speaker auf Online-Marketing-Konferenzen erlebt hat, dürfte eine Vorstellung davon haben, was bei diesem Tool zu erwarten ist. Zu den wichtigsten Tools von Audisto zählt der Audisto Crawler sowie das Audisto Monitoring. Die Preise beginnen bei 99 € pro Monat und sind abhängig vom gewünschten Leistungsumfang, welcher sehr spezifisch ausgewählt werden kann.

ChatGPT

ChatGPT ist natürlich kein SEO-Tool. Aber für den Chatbot von OpenAI gibt es dutzende SEO-Plugins, die je nach Anwendungsfall leistungsstark eingesetzt werden können. Darunter beispielsweise folgende Plugins, um nur einige zu nennen:

    • SEO.app
    • SEO Core AI
    • Bramework
    • AIPRM
    • ChatGPT for Sheets
    • SEO Assistant

Einzige Voraussetzung zur Nutzung der Plugins ist ein ChatGPT Plus Abo, welches dich 20 $ pro Monat kostet.

Google Lighthouse

Google Lighthouse ist ein kostenloses Website-Analyse-Tool von Google, welches in keinem SEO-Tool-Mix fehlen sollte. Lighthouse ist Bestandteil der Chrome Dev Tools und damit standardmäßig im Chrome Browser integriert. Mit Lighthouse lassen sich auf Knopfdruck u.a. die Performance, die Web Vitals, die Barrierefreiheit oder weitere SEO-Themen analysieren, inkl. ausführlichen Handlungsempfehlungen zur Optimierung.

Google Search Console

Die Google Search Console ist das kostenlose SEO-Tool von Google und ein absolutes Must-have für alle, die eine Website betreiben und für die die Sichtbarkeit auf Google relevant ist. Über die Search Console kann z.B. die Leistung, Darstellung und Positionierung einer Website, in der Google Suche überwacht, das Ranking zu Keywords analysiert oder zahlreiche SEO-Probleme identifiziert werden. Die Search Console meldet u.a. Empfehlungen zur Optimierung oder Sicherheitsprobleme, über die Search Console kann das Backlinkprofil abgerufen, toxische Backlinks zur Entfernung eingereicht oder ein Domainumzug angemeldet werden.

Google Trends ist an sich kein SEO-Tool, sondern ein Online-Dienst, der Informationen über alle möglichen Suchbegriffe zur Verfügung stellt. Mit der Eingabe eines individuellen Suchbegriffs wird u.a. das Suchvolumen, dessen Entwicklung oder die regionale Bedeutung des Keywords angezeigt. Mit Google Trends lassen sich wichtige Keywords identifizieren, sowohl für eine SEO-Optimierung als auch für SEA-Kampagnen wie Google Ads.

Hypersuggest

Hypersuggest ist ein SEO-Tool aus Deutschland und kostet bei drei verschiedenen Preismodellen zwischen 29 € und 199 € pro Monat. Egal, ob Keyword-Recherche oder Keyword-Analyse, bei Hypersuggest dreht sich alles rund um das Thema Keywords. Wer hier keine neuen Keyword-Ideen findet, findet sie vermutlich nirgendwo.

LinkResearchTools

Wie der Name schon sagt, dreht sich bei den LinkResearchTools alles um Backlinks und in diesem SEO-Bereich gilt das Tool auch als die Benchmark. Der Anbieter aus Österreich bietet vier verschiedene Preismodelle an, welche von 499 € bis 2.249 € pro Monat reichen. Zum Leistungsumfang des Tools gehören Backlink-Audits, Link-Disavow oder Link-Monitoring.

Majestic

Majestic ist ein SEO-Tool aus UK mit dem Fokus auf Backlink-Analyse. In der kostenlosen Variante kannst du dir einen Überblick über die Möglichkeiten von Majestic verschaffen, ein wirklich valides Backlink-Audit bekommst du anschließend in drei Preismodellen, die von 46,99 € bis 379,99 € pro Monat reichen.

Metrics Tools

Bei Metrics Tools handelt es sich um ein relativ neues SEO-Tool aus Deutschland von Gründer Andreas Knatz. Im Fokus stehen die Ranking-Entwicklung und Überwachung von Websites. Die Preise reichen bei drei verschiedenen Paketen von 19,95 € bis 89,85 € pro Monat, womit Metrics Tools eine kostengünstige Alternative zum Marktführer Sistrix darstellt.

Performance Suite

Die Performance Suite ist ein All-in-One SEO-Tool mit KI aus Deutschland. Das relativ neue Tool bringt Anbindungen zu Google Analytics, Google Ads, Google Search Console, Bing Webmaster Tools oder Alexa mit und bietet zahlreiche Features, die von Backlinks über Local-SEO bis Uptime Monitoring reichen. Bereits die kostenlose Variante enthält einige Funktionen und ist über zwei Preismodelle von 100 € und 250 € pro Monat erweiterbar.

Ryte

Ryte ist kein reines SEO-Tool, sondern eine deutsche Plattform, die sich die Optimierung der User Experience auf die Fahnen geschrieben hat. Gegründet wurde Ryte u.a. von Marcus Tandler, damals noch unter dem Namen OnPage.org. Neben einer Anzahl an kostenlosen Tools sowie SEO-Tools bietet Ryte Tools zur Qualitätssicherung, zur Sustainability, zur Gewährleistung der Barrierefreiheit oder von DSGVO-Vorgaben. Die Preise von Ryte werden nicht öffentlich kommuniziert und richten sich individuell nach deinen Bedürfnissen.

Screaming Frog

Screaming Frog ist eine leistungsstarke Software für umfangreiche SEO-Audits aus UK, die sich auch in Deutschland großer Beliebtheit erfreut. Vom SEO Spider bis zum Log File Analyser bietet Screaming Frog SEO-Tools im Excel-Look, die fester Bestandteil eines professionellen SEO-Tool-Mix sind. Die Software gibt es in einer kostenlosen und einer lizensierten Variante, die für 239 € pro Jahr zu haben ist.

SemRush

SemRush ist eine SaaS-Plattform aus den USA, welche die weltweit meistgenutzten SEO-Tools stellen dürfte. Bei SemRush gibt es nicht nur Tools aus dem SEO-Bereich, sondern zu allen Online-Marketing-Themen, vom Content-Marketing über Social Media bis zur Wettbewerbsforschung. Die Preise von SemRush reichen in drei Modellen von 129,95 $ bis zu 499,95 $ pro Monat und können jeweils um weitere kostenpflichtige Optionen erweitert werden.

SEObility

SEObility ist ein SEO-Tool mit dem Fokus auf OnPage-Optimierung aus Deutschland. Aber auch Rank Tracking oder Backlink-Analysen sind Bestandteil des Tools, welches auch in die Content-Suite zur KI-Textgenerierung von Neuroflash integriert ist, um eine SEO-Optimierung für erstellte Texte zu gewährleisten. In der Basisversion ist SEObility kostenlos, für Profis gibt es zwei Pakete für 49,90 € oder 179,90 € pro Monat.

SEOTools for Excel

Die SEOTools for Excel sind eine Excel-Erweiterung aus Schweden, die leistungsstarke Anwendungen sowohl für OnPage– als auch für OffPage-SEO bieten. Wer sich mit Excel und SEO auskennt, wird dieses Tool lieben und nicht mehr missen wollen. Für nur 99 € pro Jahr sind alle Features verfügbar.

Sistrix

Die Sistrix Toolbox ist der Marktführer in Deutschland, wenn es um die SEO-Analyse geht und der Sistrix Sichtbarkeitsindex dürfte jedem, der sich auch nur annähernd mit dem Thema SEO auseinandergesetzt hat, ein Begriff sein. Die Toolbox bietet zahlreiche Features, nicht nur aus dem Bereich SEO, sondern auch für die Vermarktung auf Amazon oder Social Media. In vier Versionen reichen die Preise pro Monat von 99 € bis 599 €.

Surfer SEO

Surfer SEO ist ein relativ neues SEO-Tool aus Polen, welches den Fokus auf Content-Optimierung in Form von AI-Writing legt. Neben kostenpflichtigen Tools bietet Surfer SEO auch Browser Add-ons oder kostenlose Anwendungen an. Die Preise variieren bei vier Paketen zwischen 69 $ und 249 $ pro Monat.

Xovi

Xovi ist eine All-In-One SEO Software aus Deutschland, die bereits seit geraumer Zeit erfolgreich am Markt ist. Egal, ob Backlinks, Keywords oder SEA, Xovi bietet, neben einer eigenen Academy zur Weiterbildung, für viele Bereiche aus dem Online-Marketing die passenden Tools. Es werden drei Preismodelle angeboten, von 99 € bis 499 € pro Monat.

Wie können wir dich unterstützen?

Wir machen dir gerne ein individuelles Angebot und bringen deine SEO-Maßnahmen auf das nächste Level.

Maik Ritter

Zertifizierter Google Nerd & SEO Experte

Das ist für dein Online-Marketing ebenfalls relevant:
Du bist so weit gekommen! Dafür bedanken wir uns...
...mit 2% Rabatt auf unser Angebot.

Nenne uns einfach das Codewort SCROLL HERO in deiner Anfrage.