Was sind die nachweislich größten SEO-Fehler auf Webseiten? Ein SEO-Audit für über eine Million Webseiten verrät es. Wie ist diese Studie zu interpretieren und wie gehst du damit um?

Wenn du von Zeit zu Zeit Webseiten auf SEO-Qualität hin untersuchst, wirst du sicher den einen oder anderen SEO-Fehler feststellen. Dazu brauchst du nicht einmal ein Profi-Tool. Es reichen Browser-Extensions, um einer Website auf den Zahn zu fühlen. Andere wollen es ganz genau wissen. Jüngst erschien ein Beitrag von Mysiteauditor, die mehr als 1 Millionen Seiten auf SEO-Qualität hin untersuchten. Die Ergebnisse präsentieren wir dir in diesem Beitrag.

Wie wurde die Analyse durchgeführt?

Grundlage der Analyse waren Audits von mehr als 1 Million Webseiten, jeweils auf der Grundlage eines Zielkeywords. Für ein Audit benötigte das System 30 Sekunden, wobei 60 SEO Signale abgefragt wurden. Bei den Bewertungskriterien stützten sich die Analysten im Wesentlichen auf die aktuellen MOZ-Ranking-Faktoren und auf den eigenen Erfahrungshintergrund von 12 Jahren SEO-Praxis. Hier die 14 wesentlichsten Ergebnisse der Studie.

Was waren die schlimmsten SEO-Content Fehler?

  1. Fehler im Domain-Namen
    32 Prozent aller Webseiten haben zu lange Domain-Namen. Und nur 20 Prozent aller Domains haben das Keyword im Domain-Namen. Ob Letzteres tatsächlich ein gravierender Fehler ist, darf bestritten werden. Wer wie Zalando & Co. entschlossen auf Branding setzt, braucht kein Zielkeyword im Domain-Namen. Hauptsache, der Markenname setzt sich durch.
    Generell werden wir die in der Studie aufgeführten Keyword-Fehler am Schluss kommentieren. Seid gespannt.
  2. Fehlerhafte Title-Tags
    Die Hauptfehler hier waren fehlende Zielkeywords (38 Prozent der Webseiten) und zu lange Titel in 34 Prozent der Webseiten.
  3. Fehler in der Description
    Nur 32 Prozent der Webseiten hatten das Zielkeyword in der Beschreibung. In 19 Prozent aller Fälle war die Description zu lang. Wer diese Fehler begeht, setzt seine Click-Through-Rate aufs Spiel und auf Dauer seine Rankings.
  4. Fehler bei der Bildoptimierung
    Welche Probleme traten hier auf?
    67 Prozent aller Webseiten hatten keine Bilder mit Alt-Tags.
    In 76 Prozent fehlten Ziel-Keywords in den Alt-Tags.
    In 81 Prozent aller Fälle fehlte das Keyword im Bildnamen.
    Zu 61 Prozent werden bei den Bildnamen Underscores anstelle von Bindestrichen benutzt.
    Bildoptimierung ist wichtig für Rankings und für Traffic. Ein guter Workflow bei der Bildoptimierung ist daher notwendig.
  5. Inkonsistente Überschriften-Struktur
    Fehler in der Struktur der HTML-Überschriften sind ein Klassiker. So ging die Studio explizit auf fehlende H1-Überschriften ein, die bei 31 Prozent aller Seiten fehlte. Ebenfalls zu erwähnen sind Inkonsistenzen in den Überschriften. Wie oft erlebst du es, dass auf eine H1 eine H3-Überschrift folgt?
    Diese Inkonsistenzen erschweren den Suchcrawlern das Erfassen der Seiten und bringen Ranking-Probleme mit sich.
  6. Dünner Content
    Hier ist die Studie sehr anspruchsvoll. Sie moniert, dass 95 Prozent aller Webseiten einen Umfang von weniger als 2000 Wörtern aufweisen. Andere SEO-Tools fordern hier 300 bis 400 Wörter. Zwar rankt Content mit hohem Wortumfang nachweislich besser und wird häufiger verlinkt. Aber es kommt sicher auf die Funktion der Seite auf einer Website an. Startseiten mit reiner Übersichts- und Teaser-Funktion kommen selten auf 2000 Wörter und mehr.
  7. Ziel-Keywords werden nicht hervorgehoben
    Weiter kritisiert die Studie an 85 Prozent aller Fälle, dass Ziel-Keywords im Textfluss optisch untergehen. Fettdruck, Unterstreichen oder Kursiv-Schrift wird gefordert. Wer das geschickt macht, erhöht die Lesbarkeit für Mensch und Suchmaschine. Wer das übertreibt, bringt Unruhe in sein Schriftbild.

    Kommen wir nun zu Fehlern im Bereich der technischen Onpage Optimierung.

    Was sind die schlimmsten technischen Fehler?

  8. Fehlende Ziel-Keywords am Beginn des Textes
    60 Prozent aller Webseiten unterlassen es, das wichtige Ziel-Keyword im ersten Satz bzw. im ersten Absatz zu platzieren. Das kann zu einem Relevanz-Problem führen, wenn der Text darauf verzichtet, das Schwerpunkt-Thema der Seite klar zu kommunizieren.
  9. Flash ist immer noch nicht ausgestorben
    Offenbar basieren 7 Prozent der untersuchten Webseiten auf Flash. Damit sind diese Seiten für Suchmaschen und für die User auf einigen Mobilgeräten nicht lesbar. Diese 7 Prozent stellen vielleicht auch noch auf HTML5 um.
  10. Nur 47 Prozent der Webseiten sind W3C-validiert
    Hier haben wir einen Fehler, bei dem sich Experten trefflich streiten. Ist er relevant oder nicht? Und wann ist er relevant? Viel zitiert wird hier ein Matt-Cutts-Video, nach dem ein W3C-valider Code kein Ranking-Kriterium darstellt.
  11. 89 Prozent aller Webseiten haben inline CSS
    Das ist schon eher ein Kriterium, denn Codemonster gehen in der Regel zu Lasten der Geschwindigkeit. Speed ist ein Ranking-Kriterium und außerdem wichtig für die Usability.
  12. 38 Prozent aller Webseiten nutzen keine Serverkomprimierung
    Ein weiterer Fehler, der die Webseite langsam macht. Sollte für bessere Rankings und bessere Usability abgestellt werden.
  13. Bei 25 Prozent aller Webseiten fehlt eine Mobile Sitemap
    Dadurch werden mobile Webseiten langsamer indiziert. Allerdings nur dann, wenn es für eine Webseite eine eigene mobile Version gibt. Responsive Webseiten brauchen keine eigene mobile Sitemap, so die Experten.
  14. Bei 64 Prozent aller Seiten fehlt das Viewport Metatag im
    Das kann zu Darstellungsproblemen bei mobilen Endgeräten führen und die Responsivität einschränken. Darauf sollten die Entwickler also gebrieft werden.
  15. Nur 23 Prozent aller Seiten nutzen https
    Https ist eher ein Sicherheits-Thema. Wer sensible Kundendaten einsammelt, sollte darauf setzen. Experten bezeichnen HTTPS als schwach gewichteten Ranking-Faktor.

Fazit – Beurteilung der Studie

Die genannten Schwachstellen, die dieses Massen-Audit aufdeckte, sollte jeder gute SEO bzw. Content-Marketer vermeiden.

Bei den Keyword-Fehlern (Title, Description, Bildoptimierung,) stellt sich allerdings einem kritischen Betrachter die Frage nach der Validität des Audit-Tools. Die Frage, die du dir stellst, ist: „Kann dieses Audit-Tool Synonyme erkennen und diese Synonyme als gleichwertigen Keyword-Ersatz bewerten? Wenn ja, sind die hier gezeigten Keyword-Fehler im Content der Webseiten in ihrer Häufigkeit erschreckend. Eine Rückfrage bei MySiteAuditor, ob das Audit-Tool in der Lage ist, Synonyme zu Zielkeywords als solche zu erkennen, wurde bisher nicht beantwortet. (Stand: 11.1.2017).

Im Prinzip ist das für deinen SEO-Alltag auch nicht relevant. Denn da kommt es nur auf deine ärgsten Wettbewerber an. Deren SEO-Stärken und SEO-Schwächen identifizierst du, baust deine Seiten mindestens gleichwertig, was die SEO-Stärken angeht, und besser, wenn sich dein Konkurrent Blößen gibt.

Send this to a friend