Steigern Sie die Sichtbarkeit auf Google – messbar und nachhaltig

Mit einer starken Sichtbarkeit in den organischen Suchergebnissen von Google erhöhen Sie die Zahl Ihrer Website Besucher enorm und dadurch natürlich auch die Anzahl an Aufträgen, Verkäufen und den Umsatz. Eine Suchmaschinenoptimierung (SEO) gehört für Unternehmen deshalb zum A und O der Marketing- und Vertriebsstrategie. Dabei sollte immer die User Experience (UX) im Fokus der Maßnahmen stehen. Denn umso glücklicher Ihre Besucher sind, umso mehr dankt es Ihnen auch die Suchmaschine. Mit der OnPage Optimierung Ihrer Website sorgen Sie dafür, dass alle technischen und inhaltlichen Faktoren, die für die UX sowie das Google Ranking relevant sind, ideal aufgestellt werden und sich die Position Ihrer Homepage in der Google Suche entsprechend verbessert.

Die erfahrenen SEO Experten von isemo führen eine ganzheitliche OnPage Optimierung Ihrer Website durch und berücksichtigen alle relevanten Ranking Faktoren. Natürlich dokumentieren wir alle Maßnahmen und machen die verbesserte Sichtbarkeit in der organischen Google Suche, die optimierte User Experience Ihrer Besucher und damit den Erfolg der Aktionen messbar. Zusätzlich schnüren wir für Sie ein effektives SEO Monitoring Paket, mit dem Sie alle relevanten Entwicklungen verfolgen und zeitnah auf neu auftretende Herausforderungen reagieren können. Als professionelle SEO Agentur und offizieller Google Partner sind wir dabei immer auf dem neusten Stand und lassen unsere Insights in die SEO Strategie miteinfließen.

Jetzt Angebot anfordern


OnPage Optimierung Tipps & Best Practices

Neben einer parallelen OffPage Optimierung sind beim SEO zahlreiche Kriterien entscheidend, um den oft zitierten Google Vorgaben “Mobile first”, “Content is king” und “Be speedy” gerecht zu werden und langfristig die höchstmögliche Sichtbarkeit in der Suchmaschine zu erreichen. Folgend haben wir eine Auswahl an wichtigen Punkten für Sie zusammengestellt, auf die bei der OnPage Optimierung geachtet werden sollte. Die Inhalte werden wir immer wieder aktualisieren, um den ständig wachsenden Innovationen, Erfahrungen und Algorithmusanpassungen gerecht zu werden. Für weiterführende Informationen oder Fragen kontaktieren Sie einfach unseren OnPage Optimierung Support.

Themenübersicht:



User Experience (UX)

Beim Thema SEO sprechen wir heute fast immer von einer Google Optimierung. Allerdings steht bei einer nachhaltigen Suchmaschinenoptimierung nicht die Suchmaschine selbst, sondern immer der Besucher im Fokus. Umso zufriedener der Nutzer ist, umso besser dessen User Experience (UX) ausfällt, umso höher wird Google Ihre Website für das Ranking einstufen. Schließlich zahlen fast sämtliche Google Ranking Faktoren auf die Optimierung der UX ein. Egal, ob es sich um die Ladezeit, um eine anwenderfreundliche und logische Menüführung oder um ansprechende und einzigartige Inhalte handelt. Bei der Konzeption einer SEO Strategie sollten Sie sich also nicht primär fragen, was Sie im Sinne der Suchmaschine optimieren können, sondern vielmehr, was für Optimierungen im Sinne der UX Ihrer Besucher von Interesse sind.



SEO Aktualität

Genauso wie das Suchverhalten der Menschen täglich variiert, befinden sich auch der Google Algorithmus und die Ranking Faktoren in einem ständigen Entwicklungsprozess. Suchen mehr Menschen über ein mobiles Gerät, rücken natürlich andere Ranking Faktoren in den Fokus als bei der Suche über den Desktop. Nutzen immer mehr Menschen die Sprachfunktion als Suche, hat auch das Auswirkungen auf den Algorithmus. Mit jedem Google Update, was in der Regel alle drei bis vier Monate ausgespielt wird, verändern sich deswegen auch die SEO Spielregeln. OnPage Optimierungen die heute das Maß aller Dinge sind, können deshalb schon morgen nur noch Randnotiz sein. Eine optimale SEO Strategie muss aus diesem Grund immer am Puls der Zeit sein und aktuelle Entwicklungen berücksichtigen.



SEO Individualität

SEO Strategien lassen sich nicht einfach übertragen. Was für Website A perfekt funktioniert hat, kann bei Website B gar keine Früchte tragen oder sich sogar negativ auswirken. Was bei der einen Homepage im Fokus der Optimierungen steht, ist bei der anderen vielleicht völlig irrelevant. Jede Website ist anders und braucht deshalb auch ein individuell auf sie zugeschnittenes SEO Konzept. Dabei zählt auch das Marktumfeld. Denn die Gewichtung der Google Ranking Faktoren fällt je nach Branche unterschiedlich aus und beispielsweise die SEO Strategie für einen Finanzdienstleister sollte einen anderen Fokus haben als für einen Online Shop im Bereich Mode.



SEO Monitoring

Mit einer einmaligen SEO Optimierung Ihrer Website verbessern Sie die Sichtbarkeit auf Google und erreichen eine prominente Position in den Suchergebnissen. Wenn Sie diese Position aber auch dauerhaft behalten wollen, ist es mit einer einmaligen Maßnahme nicht getan. Denn die Gewichtung der Ranking Faktoren befindet sich stetig im Wandel, neue kommen hinzu, Wettbewerber schlafen nicht und stärken die eigene Sichtbarkeit und die Platzierung Ihrer Website wird spätestens mit jedem Google Update neu bewertet. Um also dauerhaft eine Position auf den vorderen Rängen einnehmen zu können, sind entsprechend kontinuierliche SEO Maßnahmen erforderlich.

Mit einem professionellen SEO Monitoring halten Sie die Entwicklung Ihrer Website auf Google fest und können daraus entsprechende Learnings zur Optimierung ziehen. Welche Evolution nehmen die einzelnen Unterseiten Ihrer Website? Wie entwickelt sich das Ranking in Bezug zu Ihren wichtigsten Keywords? Reduziert oder steigert sich die User Experience Ihrer Besucher? Über welchen Kanal kommen Ihre wertvollsten Kunden und wie gestaltet sich die Customer Journey? Die Antworten auf diese und mehr wichtige Fragen bündeln sich in einem kompakten Report, der Ihnen dank eines kontinuierlichen SEO Monitorings zur Verfügung steht.




Responsive Design

Es surfen mittlerweile mehr Menschen mit einem Handy im Internet als mit einem Desktop Computer und auch bei Google kommen über 50 % der Suchanfragen über ein mobiles Endgerät. Entsprechend ist eine von Google’s Parolen schon seit langer Zeit “Mobile first” und die Nutzerfreundlichkeit einer Website für Smartphones ist einer der wichtigsten SEO Faktoren. Dabei gibt es drei verschiedene Wege eine Website für Smartphones zu optimieren:

  • Separate URLs: Die mobile Version der Website wird auf einer anderen URL ausgeliefert, zum Beispiel auf der Subdomain “m.isemo.de”. Der Quellcode der mobilen Version ist also ein anderer als der, der Desktop Version. Stellt Google, wie angekündigt, auf den mobilen Index um, wäre diese Lösung aus SEO Sicht nicht mehr zu empfehlen.

  • Dynamic Serving: Die mobile Version der Website wird auf der gleichen URL ausgeliefert wie die Desktop Version, für diese wird allerdings ein anderer Quellcode bereitgestellt. SEO technisch birgt diese Lösung zwar das größte Potenzial, dafür ist sie auch am aufwendigsten und gilt als relativ fehleranfällig.

  • Responsive Design: Die mobile Version der Website wird auf der gleichen URL wie die Desktop Version ausgeliefert und auch der Quellcode ist gleich. Dieser wird allerdings, je nach Endgerät des Besuchers, anders gerendert und damit werden die Inhalte der Website optimal an die entsprechende Displaygröße angepasst. Responsive Design ist die von Google präferierte Lösung.




Keyword Clustering

Ein holistisches Keyword Clustering ist die Grundlage einer jeden Suchmaschinenoptimierung. Damit werden themenverwandte Schlüsselwörter in semantischen Einheiten gruppiert und darauf basierend die inhaltliche Struktur einer Website aufgebaut. Eine so definierte Einheit besteht in der Regel aus einem Fokus-Keyword, welches zum Beispiel für ein bestimmtes Produkt oder eine bestimmte Dienstleistung steht und diesem werden alle themenverwandten Begriffe zugeordnet. Anstatt sich beim Aufbau einer jeden Seite Ihrer Website also nur auf ein spezielles Keyword zu konzentrieren, liegt der Fokus auf einem ganzen Themengebiet und der damit verbundenen Palette an Keywords.

Dadurch wird ein wesentlich höherer semantischer Zusammenhang zwischen relevanten Suchanfragen und Ihrem Content hergestellt und genau diesen hoffen Ihre Besucher auf der Website vorzufinden. Die Folge ist ein besseres Ranking in den Suchergebnissen, denn auch die Suchmaschine stellt natürlich fest, dass Sie nicht nur einen Punkt (ein Keyword) einer bestimmten Themenkategorie auf Ihrer Website behandeln, sondern einen breiten Katalog der themenrelevanten Inhalte abdecken.



Ladezeit

Die Ladezeit einer Website hat großen Einfluss auf das SEO Ranking, was Google’s neu ausgegebenes Motto “Be speedy” unterstreicht. Vor allem mobile Nutzer, die mittlerweile die Mehrheit der Internetsurfer ausmachen, sind meist mit einer eher langsamen Verbindungsgeschwindigkeit unterwegs, weshalb die Ladezeit, gerade aus Sicht der User Experience (UX), immer relevanter wird. Aktuelle Zahlen von Google & Amazon belegen, dass schon eine längere Ladezeit von 100ms die Conversion Rate um 1 % verschlechtert und eine längere Ladezeit von 500ms den möglichen Traffic um bis zu 20 % reduziert.




Thin Content

“Content is king” hat Google mit als oberste SEO Devise ausgegeben. Websites, die kaum über redaktionelle Inhalte verfügen, nur statische Seiten aufweisen oder weniger als 300 Wörter pro Seite im Fließtext haben, verlieren im Gegensatz zu Websites mit starkem Content im Ranking. Dabei ist der Ansatz, möglichst viele SEO relevante Keywords im Text unterzubringen, längst veraltet. Vielmehr sollte holistischer Content umgesetzt werden, also ein möglichst breites Themenspektrum der jeweils relevanten Inhalte. Die Qualität und damit ein hoher redaktioneller Anspruch steht nicht nur für den Leser, sondern auch für Google im Fokus. Es spielt zwar nur eine untergeordnete Rolle, wo auf der jeweiligen Seite der Text eingebunden wird, allerdings sollte der Text aus SEO Sicht nicht versteckt sein. Denn Texte, die beispielsweise erst aufgeklappt werden müssen, um sichtbar zu sein, werden von Google in Ranking Fragen (noch) nicht berücksichtigt.



Content Keywords (WDF / IDF)

Mit einer stärkeren Integration der Top Keywords im Content steigt deren Relevanz im Google Index. Allerdings sollte in jedem Fall auf “Keyword Bashing” verzichtet und auf eine gute Lesbarkeit sowie einen hohen redaktionellen Anspruch geachtet werden. Merkt der Leser, dass Sie den Text aus SEO Gründen für eine Suchmaschine geschrieben haben, haben Sie etwas falsch gemacht. Außerdem kann mit einer WDF / IDF Analyse (Within Document Frequency / Inverse Document Frequency) identifiziert werden, welche sonstigen Wörter zu einem ausgewählten Keyword in den Texten von Websites am häufigsten vorkommen, die auf Google am stärksten zum gewünschten Thema positioniert sind. Mit der Integration dieser Wörter fördern Sie zusätzlich die Sichtbarkeit Ihrer Website.



Content Struktur

Als Gegenleistung für ein gutes Ranking fordert Google Content in Publisher Qualität. Unter Publisher Qualität versteht Google redaktionell anspruchsvolle Texte, deren strukturelle Aufbereitung einer optimalen Lesefreundlichkeit dienen sollte. Unserer Erfahrung nach hat sich die folgende Struktur als besonders empfehlenswert erwiesen:

  • Durchschnittlich 4 Zeilen a 50 Wörter gefolgt von einem Absatz
  • Mindestens Schriftgröße 14 (variiert je nach Schriftart)
  • Texte mit mindestens 300 Wörtern bei nicht redaktionellen Seiten
  • Texte mit mindestens 1.600 Wörtern bei redaktionellen Seiten
  • Die durchschnittliche Lesedauer sowie der Autor sollten bei redaktionellen Seiten ausgewiesen werden
  • Der erste Absatz eines längeren Textes sollte eine kurze Inhaltsangabe liefern
  • Die wichtigsten Keywords sollten in der Headline stehen (idealerweise am Anfang)
  • Zusätzlich sollten die wichtigsten Keywords mehrfach im Text vorkommen und ggf. im Ankertext von Verlinkungen stehen
  • Nur Sichtbare Inhalte zählen; Text der ausgeklappt werden muss o.ä., wird von Google SEO technisch nicht berücksichtigt
  • Google liebt Bulletpoints; eine zusammenfassende Aufzählung der wichtigsten Themen des Textes erfreut Leser und Suchmaschine
  • Der Content sollte idealerweise in verschiedenen Formaten aufbereitet werden (als Text, in Bildform, als PDF zum Download, Podcast oder Video)



Duplicate Content

Haben zwei verschiedene Domains oder Seiten einer Website den gleichen oder einen sehr ähnlichen Inhalt, wertet Google das als Duplicate Content – also als nicht individuellen und hochwertigen Inhalt. Jede Seite sollte entsprechend über einzigartige Texte verfügen. Zudem behandelt Google bereits die bei jeder Website existierenden Versionen mit und ohne “www” in der URL als zwei verschiedene Domains (genauso mit http oder mit https, genauso mit und ohne Endung auf “/”). Um diesbezüglichen Duplicate Content zu vermeiden, ist eine einheitliche Linkstruktur wichtig, außerdem sollten Canonicals und / oder 301 Redirects für alle nicht Hauptdomains eingerichtet werden und auf die Hauptseite verweisen. Bei Online Shops kommt es häufig vor, dass z.B. durch die Anwendung von Filtern Paginationsseiten entstehen, welche ebenfalls als Duplicate Content gewertet werden können. In diesem Fall würde sich eine Deindexierung dieser Seiten via Meta Robots Tags anbieten.




Meta Tags

  • Der Meta Tag “Title” bestimmt die Headline jeder einzelnen Seite und wird in den Google SERPs (Search Engine Result Pages) entsprechend angezeigt. Der Meta Title gilt nach wie vor als ein Ranking Faktor, deshalb empfiehlt es sich, das wichtigste Keyword der Website an den Anfang zu stellen, solange das thematisch auch sinnvoll ist. Der Title sollte für jede Seite möglichst individuell und nicht länger als 70 Zeichen lang sein (inkl. Leerzeichen).

  • Der Meta Tag “Description” liefert die Beschreibung der entsprechenden Seite für die SERPs (Search Engine Result Pages). Die in der Beschreibung enthaltenen Keywords gelten nicht als Ranking Faktor. Es ist also wichtiger, hier individuelle und ansprechende Inhaltsangaben für den Nutzer bereit zu stellen und nicht SEO Keywords unterzubringen. Die Beschreibung sollte aktuell nicht mehr als 156 Zeichen (inkl. Leerzeichen) enthalten, diese Länge sollte aber möglichst ausgenutzt werden. Mit der Integration von Unicode Zeichen (✓, ☎…) können SERPs sich außerdem optisch absetzen, was in der Regel bessere Klickrates zur Folge hat.

  • Die Meta Tag “Keywords” haben einen Großteil ihrer Relevanz für die Google Suche eingebüßt, werden von vielen Website-Inhabern aber nach wie vor als “Basisausstattung” genutzt. Jede Seite sollte idealerweise über individuelle Meta Keywords verfügen, mit denen die themenrelevantesten Begriffe der jeweiligen Seite abgedeckt werden. Dabei sollten Sie immer im Hinterkopf behalten, ob es für Sie Sinn macht, zu dem gewählten Meta Keyword in der Google Suche gefunden zu werden. Umso spezifischer das Keyword, umso besser. Definieren Sie einen allgemeinen Begriff wie “Online Shop” als Meta Keyword, ist das viel zu ungenau. Verkaufen Sie in Ihrem Shop beispielweise Herrenmode, sollte das Meta Keyword also besser “Herrenmode Online Shop” lauten.



Rich & Featured Snippets

Rich bzw. Featured Snippets werden auf lange Sicht die Meta Tags ersetzen und definieren, welche Infos in welchem Format in den Suchergebnissen von Google angezeigt werden. Mit solchen Snippets können die SERPs wesentlich umfangreicher gestaltet werden, so lassen sich z.B. Preise von Produkten tabellarisch in den Suchergebnissen darstellen oder Fotos hinzufügen. Die Anlegung erfolgt zum Beispiel über das Mark-Up Tool in der Google Search Console oder über den Google Tag Manager.



AMP

AMP (Accelerated Mobile Pages) ist ein von Google, Adobe und WordPress entwickelter Framework Standard für besonders schnelle mobile Websites. In diesem Standard programmierte Webinhalte werden separat und prominent in den mobilen Suchergebnissen von Google angezeigt und können, ohne jede Ladedauer, direkt in der Google Suche geöffnet werden. Websites, die solche Inhalte zur Verfügung stellen, werden von Google durchaus im Ranking bevorzugt behandelt. Allerdings wird AMP auch kritisch betrachtet, da unter anderem der Programmieraufwand recht hoch ist, AMP vom eigentlich von Google empfohlenen Responsive Design abweicht und die Konsumenten von AMP Inhalten in der Regel nicht auf der Website des Content Produzenten landen.



Clean URLs

Google bewertet die URL Struktur quasi nach Nutzererfahrung. Eine saubere bzw. SEO freundliche URL wie “beispielseite.de/beispiel-produkt” wird positiv bewertet, weil der Besucher sowie der Googlebot sofort wissen, was einen auf der Seite erwartet. Entsprechend negativ wird eine Seite wie “beispielseite.de/index.php?xyz60.6” bewertet, weil sich daraus kein Aufschluss über den Inhalt ergibt.



XML Sitemap(s)

Eine XML Sitemap ist für Google wie ein Wegweiser. Ohne steigt das Fehlerpotenzial, der Googlebot findet sich schlechter auf der Website zurecht, braucht länger für die Indexierung und das begrenzte Crawl Budget wird unnötig schnell verbraucht. Die Inhalte der Sitemap sollten logisch aufgebaut sein und keine Seiten enthalten, die beispielsweise nicht mehr erreichbar sind, nur eine Weiterleitung darstellen oder auf veraltete Inhalte / Versionen verweisen. Alle Seiten, die auch indexiert werden sollen, gehören in die Sitemap. Umgekehrt sollte die Sitemap keine Seiten enthalten, die von der Indexierung ausgeschlossen werden.




Robots.txt

Die Robots.txt Datei ist wie eine Nachricht an Google und andere Suchmaschinen bzw. Bots, mit dem Befehl die Website zu indexieren bzw. bestimmte Verzeichnisse oder Seiteninhalte nicht zu indexieren. Außerdem lassen sich zum Beispiel Spam Bots über die Robots.txt Datei ausschließen. Um spezielle Seiten vom Crawling auszuschließen, ist allerdings nicht der Eintrag in der Robots.txt Datei, sondern der Einsatz von Meta Robots Tags zu empfehlen.



H1 Struktur

H1 Tags sind die Hauptüberschriften einer Seite und sollten möglichst individuell und nur einmal pro Seite vergeben werden. Die Wörter, die in H1 Tags stehen, bewertet Google als besonders relevante Keywords. Deshalb empfiehlt es sich, hier möglichst suchrelevante Begriffe zu integrieren. H2 Tags, also die nächst kleineren Überschriften, sollten nur dann mehr als einmal pro Seite vergeben werden, wenn die Seite mindestens 300 Wörter enthält. H3 oder H4 Tags können bedenkenlos mehrfach pro Seite vergeben werden. Zusätzlich ist eine plausible Hierarchie förderlich für eine SEO Optimierung (nur wenn es einen H1 Tag gibt, sollte auch ein H2 vergeben werden, nur wenn es einen H2 Tag gibt, sollten auch H3 Tags vergeben werden usw.).



Navi Struktur

Aus Google Sicht sollte die Navi Struktur wie ein Stammbaum aufgebaut sein und jedes “Kind” (also Unterseite) über die entsprechenden “Eltern” (also Hauptseiten) verfügen. Da hier allerdings zwei SEO Empfehlungen miteinander kolidieren können, werden vor allem bei Online Shops oft Ausnahmen gemacht. Denn umso weiter eine Seite von der obersten Ebene entfernt ist, umso weniger “Linkjuice” erhält diese. Es kann also durchaus Sinn machen, in Teilen auf die Stammbaum Struktur zu verzichten, damit einzelne Artikelseiten nur 1-2 Klicks von der Startseite entfernt sind und dadurch mehr Chancen auf ein besseres Ranking in der Google Suche haben.



Interner Linkfluss

Der interne Linkfluss ist wahrscheinlich einer der am meisten unterschätzten Ranking Faktoren. Seiten einer Website, auf die mehrere interne Links verweisen, schätzt Google in der Regel als wertvoller ein, als Seiten, auf die keine internen Links führen. Mit dem internen Linkfluss können Website-Betreiber also Einfluss auf das Ranking der verschiedenen Seiten nehmen. Ist eine bestimmte Seite beispielsweise besonders gut in der Google Suche positioniert und verfügt dementsprechend über einen hohen “Linkjuice”, könnte diese, durch interne Verlinkungen, ein wenig ihrer Ranking Power an ausgewählte andere Seiten abgeben. Ziel des internen Linkflusses sollte es also nicht sein, wahllos interne Links zu generieren, sondern eine SEO strategisch sinnvolle Umverteilung der internen Links umzusetzen.



Ankertexte

Ein Ankertext ist der Text, der im Hyperlink steht. Liegt der Link beispielsweise hinter dem Wort “mehr Infos” kann Google damit wenig anfangen. Liegt der Link stattdessen hinter “Informationen zur Suchmaschinenoptimierung”, ist dies ein Ankertext, den Google positiv bewertet. Wörter die in einem Hyperlink stehen, erhalten außerdem eine höhere Keyword-Relevanz, ähnlich den Wörtern in H1 Tags.



Bilder SEO & ALT Attribute

Google ist für Grafiken und Bilder quasi blind. Deshalb sollten eindeutige Dateinamen und idealerweise ALT Attribute für jedes Bild vergeben werden. Die ALT Attribute sind wie Meta Tags für Bilder, die mit Titel und Beschreibung der Suchmaschine mitteilen, was auf den Bildern zu sehen ist. Die ALT Texte an sich (ausgenommen der Titel) haben zwar an SEO Relevanz eingebüßt, gelten aber nach wie vor als Standard. So sind Bilder keine “schwarzen Löcher” mehr für den Googlebot, sondern weitere relevante Inhalte. Außerdem trägt diese Optimierung zusätzlich zu einer wesentlich besseren Sichtbarkeit in der Google Bildersuche bei. Dabei unterliegen Bilder ganz eigenen Ranking Faktoren, die es idealerweise einzuhalten gilt:

  • Sprechender Dateiname: Vergeben Sie einen themenrelevanten, individuellen und sprechenden Dateinamen, bei dem mehrere Wörter durch ein “-” und nicht durch ein “_” getrennt sind. Nicht zuletzt deshalb, weil der Dateiname von vielen CMS oder Shop Systemen als ALT Titel herangezogen wird.

  • Hohe Bildgröße: Um auf den meisten Bildschirmen in einer optimalen Größe dargestellt werden zu können, empfiehlt sich eine Bildbreite von mindestens 1024 Pixeln.

  • Niedriges Datenvolumen: Parallel zu dieser recht hohen Bildgröße sollte das Datenvolumen eines Bildes so gering wie möglich ausfallen. Achten Sie darauf, dass ihr Bild dem Web Standard von 72dpi sowie sRGB oder RGB entspricht und in einem komprimierten Dateiformat gespeichert ist, zum Beispiel als jpg.

  • Detailinfos: Umso mehr Hintergrundinformationen Sie für Ihre Bilder bereitstellen, umso besser. Wie sind z.B. die Abmessungen des Bildes oder wie sieht es mit Copyright Hinweisen aus?

  • Ordnerstruktur: Auch die Struktur der Ordner, in denen Ihre Bilder abgelegt sind, spielt eine Rolle. Diese sollte möglichst granular sowie themenbezogen sein und auch der Dateiordner sollte einen sprechenden und eindeutigen Namen haben.

  • Skalierbarkeit: Vermeiden Sie die Skarlierbarkeit Ihrer Bilder. Denn wenn Sie Ihr Bild in vielen verschiedenen Größen hochladen, leidet die Ladezeit Ihrer Website, was auch in Sachen Bilder SEO Minuspunkte einbringt.

  • Social Sharing: Bieten Sie den Nutzern die Möglichkeit, Ihre Bilder in den sozialen Netzwerken zu teilen.

  • User Signals: Messen Sie, wie Ihre Besucher auf Ihre Bilder reagieren. Wird Ihr Bild angeklickt oder längere Zeit angesehen? Das sind wichtige User Signals, die auch für das Ranking relevant sind.

  • Mehrfachverwendung: Binden Sie starke Bilder mehrfach auf Ihrer Website ein. Ähnlich wie bei einem für Sie wichtigen Keyword erhöht das die Ranking Chancen. Natürlich immer vorausgesetzt, dass die Mehrfachverwendung sinnvoll ist und in den Kontext passt.

  • Image Sitemap: Wenn Sie sehr viele Bilder verwenden, was auf die meisten Online Shops zutrifft, erstellen Sie eine eigene Sitemap für Ihre Bilder, die es dem Googlebot leichter macht, diese zu indexieren.

  • Bildunterschrift: Verstehen Sie Ihr Bild als Headline, welche mit einer passenden Bildunterschrift noch unterstrichen und genauer definiert werden kann.

  • Bildkontext: Das direkte Umfeld, in dem Ihr Bild eingebettet ist, spielt eine tragende Rolle. Passt der umgebende Text sowie die Überschrift des Absatzes zum Inhalt des Bildes?

  • Themenkonsistenz: Gerade bei der Nutzung von Stock-Fotos sollten Sie auf die Themenkonsistenz des Bildes achten. Wurde das Bild bereits auf anderen Seiten verwendet, ist das an sich nicht tragisch. Wurde es allerdings in Verbindung mit völlig verschiedenen Themen genutzt, hat das einen schwerwiegenden Nachteil für das Ranking, da Google das Bild keinem spezifischen Themenspektrum zuordnen kann.



SSL Zertifikat

Ein SSL Zertifikat und damit der verschlüsselte “https” Standard für eine Website ist auch aus SEO Sicht ein wichtiges Kriterium, denn sicher verschlüsselte Seiten werden von Google im Ranking bevorzugt. Bei nicht verschlüsselten Seiten, welche noch mit “http” aufgelöst werden, gelangen Besucher außerdem immer häufiger auf einen vom Browser ausgelieferten Warnhinweis und können die entsprechende Website erst nach dem Hinzufügen einer Ausnahmeregel besuchen. Das verunsichert nicht nur den Besucher, sondern sorgt auch für eine schlechtere Absprungrate sowie “back to SERPs Rate” (zurück zu den Suchergebnissen). Zudem ist ein SSL Zertifikat für E-Commerce Seiten gesetzlich verpflichtend.




Canonical Tags

Canonical Tags sind die von Google bevorzugte Methode, um der Suchmaschine mitzuteilen, welche Version einer Domain oder einer Seite als Standard bzw. Hauptseite zu betrachten ist und entsprechend bevorzugt behandelt und indexiert werden soll. Die Standardressourcen (URLs der Hauptdomain) sollten auf sich selbst verweisen, andere Domains mit gleichem Content (z.B. “http” statt “https” oder ohne “www” statt mit) sollten auf die entsprechenden Standardressourcen verweisen. Mit einer ähnlichen Canonical Struktur kann zum Beispiel auf das mobile Pendant oder auf eine andere Sprachversion der jeweiligen Seite verwiesen werden. Durch Canonical Tags lassen sich Fehler wie Duplicate Content oder falsche Verlinkungen vermeiden.



International SEO & Geotargeting

Wenn eine Website in mehreren Sprachen bzw. für mehrere Länder erstellt werden soll, stehen Webmaster häufig vor der Frage, in welcher Form das Geotargeting umzusetzen ist. Sollen die verschiedenen Länderversionen a) auf einer eigenen Top Level Domain (TLD) ausgeliefert werden (isemo.de, isemo.com, isemo.at) oder b) in einem Unterverzeichnis der eigentlichen Website (isemo.de/de, isemo.de/en, isemo.de/at) oder c) auf einer Subdomain (en.isemo.de, at.isemo.de)? Einiges spricht für die TLDs, da Nutzer sowie Google diesen gleichermaßen am meisten vertrauen und dadurch Vorteile in Sachen User Experience (UX) sowie SEO entstehen. Allerdings bedeutet eine Umsetzung auf TLD-Ebene auch den größten Aufwand, da z.B. das Linkbuilding für jede Domain individuell konzipiert werden sollte. Denn die Linkgeber der jeweiligen TLD sollten möglichst aus dem gleichen Sprachumfeld kommen.

Egal für welche Variante Sie sich entscheiden, in allen drei Fällen sollten Sie ahreflang Tags auf allen Seiten integrieren und außerdem die passende Länderausrichtung in der Google Search Console hinterlegen. Werden Google die verschiedenen Sprachversionen einer Website, durch die Einbindung des ahreflang-Attributs, nicht erkenntlich gemacht, entsteht dadurch ein großes Fehlerpotenzial. Inhalte in verschiedenen Sprachen werden unter Umständen der Hauptseite zugewiesen, Keywords der Zweitsprache werden dem Inhalt der Hauptsprache zugeordnet und verwässern so das Ranking auf Google oder Nutzern wird in den Suchergebnissen nicht die richtige Sprachversion ausgeliefert.



Crawling / Indexierung

Der Google Algorithmus crawlt jede Website im Internet täglich. Dabei ist es wichtig zu beobachten, welche Inhalte der Googlebot crawlt, wie lange er benötigt, um die gesamte Website zu indexieren und wie viel Zeit er durchschnittlich braucht, um eine Seite herunterzuladen. Im Idealfall crawlt der Bot mindestens so viele Seiten, wie die Website insgesamt aufweist, wobei fehlerhafte, unwichtige oder sensible Seiten der Website sowie Paginationsseiten erst gar nicht zum Crawling bzw. zur Indexierung freigegeben werden sollten. Geben die Crawling Statistiken Anlass zur Besorgnis, weil das Crawling zum Beispiel zu lange dauert, zu viele Peaks nach oben oder unten aufweist oder die Entwicklung negativ verläuft, sind entsprechende Optimierungen durchzuführen, um das begrenzte Crawl-Budget möglichst effizient zu nutzen.




Pagination / PRG Pattern

Das Aufkommen von Paginationsseiten, die zum Beispiel durch eine Filterauswahl in einem Online Shop entstehen können, bringt viele negative SEO Auswirkungen mit sich. Egal ob Duplicate Content, interner Linkfluss oder Crawling – Paginationsseiten haben auf viele Ranking Faktoren einen schlechten Einfluss. Nun gibt es verschiedene Möglichkeiten, dem entgegen zu wirken. Zum Beispiel durch entsprechende Einträge in der robots.txt oder durch den Einsatz der Meta Robots Tags “noindex” und “nofollow”. Der wahrscheinlich effektivste Weg ist allerdings die Technik der Linkmaskierung in Form von PRG Pattern (Post-Redirect-Get-Patterns). Mit diesem Entwicklungsansatz wird Duplicate Content vermieden und das Crawlbudget nachhaltig entlastet.



Datenvolumen

Zu große Datensätze, darunter Bilder aber auch Skripte, verhindern nicht nur eine schnelle Ladezeit, sondern auch die saubere Indexierung. Crawl Budget wird unnötig verschwendet, Besucher springen schneller ab, Suchmaschinen bewerten die Performance negativ, Conversion Rates gehen nach unten. Google empfiehlt eine Datengröße von nur 100kb pro Seite, ein Wert der aktuell kaum realisierbar ist. Trotzdem sollte eine Seite die Größe von 1MB nicht überschreiten, um SEO technisch nicht negativ ins Gewicht zu fallen.



Cloaking / Rendering

Eine Website sollte so programmiert sein, dass der Googlebot die Seite genauso sieht wie ein Besucher. Ist dies nicht der Fall, weil zum Beispiel blockierte Ressourcen das korrekte Rendering verhindern, kann der Googlebot die Seite nur auf Grundlage dieser “falschen” Sicht bewerten und wird wahrscheinlich zu einem negativeren Ergebnis kommen. Unter Umständen legt Google diese unterschiedliche Auslieferung der Website auch als Cloaking aus, also als absichtlichen Versuch, die Suchmaschine zu täuschen. Für Cloaking werden Website-Betreibern nicht selten Penaltys ausgesprochen, die im schlimmsten Fall eine temporäre Verbannung aus dem Google Index zur Folge haben.



Blockierte Ressourcen

Früher war es gang und gäbe beispielsweise bestimmte CSS & Javascripte für Suchmaschinen zu blockieren. Heute werden solche Sperren von Google in der Regel negativ bewertet, weil diese unter Umständen das korrekte Rendering einer Website verhindern.



User Signals

Neben allen technischen sowie inhaltlichen SEO Faktoren spielt natürlich auch das Feedback der Besucher eine wesentliche Rolle für die Bewertung einer Website, auch wenn diese User Signals kein offizieller Ranking Faktor sind. Dabei steht vor allem der qualifizierte Traffic einer Website im Fokus. Weniger die quantitative Menge an Besuchern ist entscheidend, sondern vielmehr deren Interaktionen auf der Seite. Eine hohe Bounce-Rate (Absprungrate) oder sehr kurze Verweil- bzw. Besuchsdauer sprechen in der Regel für ein geringes Interesse der Besucher und sollten deshalb möglichst optimiert werden. Wobei diese Werte immer differenziert betrachtet und nicht überbewertet werden sollten. Denn nur wenn Sie beispielsweise die optimale Besuchsdauer all Ihrer Seiten kennen, die durchaus recht kurz ausfallen kann, können Sie aus dem tatsächlichen Durchschnittswert auch eine aussagekräftige Erkenntnis gewinnen.




404 Fehler

404 Fehler werden gemeldet, wenn eine intern oder extern verlinkte Seite nicht mehr erreichbar ist. Das ist ärgerlich für den Besucher, entsprechend negativ wertet Google den für eine nicht auffindbare Seite ausgegebenen Code 404.




Flash Check

Flash Inhalte, die lange Zeit Standard und bis 2016 noch sehr verbreitet waren, werden auf mobilen Endgeräten gar nicht mehr dargestellt und mittlerweile von den meisten Internet Browsern blockiert. In Flash programmierte Inhalte sind für die meisten Besucher also nicht sichtbar und werden von Google dementsprechend negativ bewertet.



MIME Type

Der Mime-Type teilt dem Googlebot mit, welcher Dateityp sich hinter einer URL verbirgt, zum Beispiel “html” oder “pdf”. Fehlt diese Angabe, muss der Bot mehr Aufwand betreiben, um an die gewünschten Informationen zu kommen. Dadurch verzögert sich die Indexierung, Crawl Budget wird unnötig verbraucht und entsprechend negative SEO Effekte kommen zum Tragen.



Datenschutz

Der Datenschutz ist zwar kein offizieller Ranking Faktor, sollte von allen Website-Inhabern aber gesetzeskonform umgesetzt werden. Eine separat ausgewiesene Datenschutzerklärung ist Pflicht, auch deren notwendige Inhalte sind klar formuliert. Dies gilt ebenso für das Impressum. Bei Nichtberücksichtigung können Abmahnungen die Folge sein. Auch die Verwendung von Cookies sollte auf der Startseite ausgewiesen werden. Um auf der rechtlich sicheren Seite zu sein, empfiehlt sich zudem das Einholen der Einwilligung der Besucher.



Website Relaunch

Beim Relaunch einer Website werden oft zahlreiche SEO To Do’s übersehen, was sich negativ auf die Sichtbarkeit in der Google Suche auswirkt und hart erkämpfte Top Rankings gehen nicht selten verloren. Einer der häufigsten Fehler ist das Auslassen von notwendigen 301 Redirects. Denn beispielsweise externe Links verweisen nach wie vor auf Inhalte der alten Seite, welche nach dem Relaunch häufig unter einer anderen URL oder gar nicht mehr erreichbar sind. Werden für solche Fälle keine Weiterleitungen eingerichtet, entstehen etliche 404 Fehler. Diese führen Besucher in Sackgassen und werden von der Suchmaschine entsprechend negativ bewertet.

Dabei spielt auch die Art des Redirects eine wesentliche Rolle. Werden einfach sämtliche Inhalte auf die neue Startseite weitergeleitet, wertet Google das unter Umständen als “Soft 404” Fehler. Wichtig ist nämlich auch die inhaltliche Relevanz. Lautete beispielsweise die alte Seite zum Thema Suchmaschinenoptimierung “isemo.de/seo/” und nach dem Relaunch “isemo.de/suchmaschinenoptimierung/”, sollte der Redirect zu dieser themenverwandten Seite eingerichtet werden und nicht auf die zu unspezifische Startseite.



Weitere Themen aus dem Bereich der Suchmaschinenoptimierung:



Alle Informationen dieser Seite als PDF Download: OnPage Optimierung