Was sind die nachweis­lich größten SEO-Fehler auf Websei­ten? Ein SEO-Audit für über eine Million Websei­ten verrät es. Wie ist diese Studie zu inter­pre­tie­ren und wie gehst du damit um?

Wenn du von Zeit zu Zeit Websei­ten auf SEO-Quali­tät hin unter­suchst, wirst du sicher den einen oder anderen SEO-Fehler feststel­len. Dazu brauchst du nicht einmal ein Profi-Tool. Es reichen Browser-Exten­si­ons, um einer Website auf den Zahn zu fühlen. Andere wollen es ganz genau wissen. Jüngst erschien ein Beitrag von Mysiteau­di­tor, die mehr als 1 Millio­nen Seiten auf SEO-Quali­tät hin unter­such­ten. Die Ergeb­nisse präsen­tie­ren wir dir in diesem Beitrag.

Wie wurde die Analyse durch­ge­führt?

Grund­lage der Analyse waren Audits von mehr als 1 Million Websei­ten, jeweils auf der Grund­lage eines Zielkey­words. Für ein Audit benötigte das System 30 Sekun­den, wobei 60 SEO Signale abgefragt wurden. Bei den Bewer­tungs­kri­te­rien stütz­ten sich die Analys­ten im Wesent­li­chen auf die aktuel­len MOZ-Ranking-Fakto­ren und auf den eigenen Erfah­rungs­hin­ter­grund von 12 Jahren SEO-Praxis. Hier die 14 wesent­lichs­ten Ergeb­nisse der Studie.

Was waren die schlimms­ten SEO-Content Fehler?

  1. Fehler im Domain-Namen
    32 Prozent aller Websei­ten haben zu lange Domain-Namen. Und nur 20 Prozent aller Domains haben das Keyword im Domain-Namen. Ob Letzte­res tatsäch­lich ein gravie­ren­der Fehler ist, darf bestrit­ten werden. Wer wie Zalando & Co. entschlos­sen auf Branding setzt, braucht kein Zielkey­word im Domain-Namen. Haupt­sa­che, der Marken­name setzt sich durch.
    Generell werden wir die in der Studie aufge­führ­ten Keyword-Fehler am Schluss kommen­tie­ren. Seid gespannt.
  2. Fehler­hafte Title-Tags
    Die Haupt­feh­ler hier waren fehlende Zielkey­words (38 Prozent der Websei­ten) und zu lange Titel in 34 Prozent der Websei­ten.
  3. Fehler in der Descrip­tion
    Nur 32 Prozent der Websei­ten hatten das Zielkey­word in der Beschrei­bung. In 19 Prozent aller Fälle war die Descrip­tion zu lang. Wer diese Fehler begeht, setzt seine Click-Through-Rate aufs Spiel und auf Dauer seine Rankings.
  4. Fehler bei der Bildop­ti­mie­rung
    Welche Probleme traten hier auf?
    67 Prozent aller Websei­ten hatten keine Bilder mit Alt-Tags.
    In 76 Prozent fehlten Ziel-Keywords in den Alt-Tags.
    In 81 Prozent aller Fälle fehlte das Keyword im Bildna­men.
    Zu 61 Prozent werden bei den Bildna­men Unders­cores anstelle von Binde­stri­chen benutzt.
    Bildop­ti­mie­rung ist wichtig für Rankings und für Traffic. Ein guter Workflow bei der Bildop­ti­mie­rung ist daher notwen­dig.
  5. Inkon­sis­tente Überschrif­ten-Struk­tur
    Fehler in der Struk­tur der HTML-Überschrif­ten sind ein Klassi­ker. So ging die Studio expli­zit auf fehlende H1-Überschrif­ten ein, die bei 31 Prozent aller Seiten fehlte. Ebenfalls zu erwäh­nen sind Inkon­sis­ten­zen in den Überschrif­ten. Wie oft erlebst du es, dass auf eine H1 eine H3-Überschrift folgt?
    Diese Inkon­sis­ten­zen erschwe­ren den Suchcraw­lern das Erfas­sen der Seiten und bringen Ranking-Probleme mit sich.
  6. Dünner Content
    Hier ist die Studie sehr anspruchs­voll. Sie moniert, dass 95 Prozent aller Websei­ten einen Umfang von weniger als 2000 Wörtern aufwei­sen. Andere SEO-Tools fordern hier 300 bis 400 Wörter. Zwar rankt Content mit hohem Wortum­fang nachweis­lich besser und wird häufi­ger verlinkt. Aber es kommt sicher auf die Funktion der Seite auf einer Website an. Start­sei­ten mit reiner Übersichts- und Teaser-Funktion kommen selten auf 2000 Wörter und mehr.
  7. Ziel-Keywords werden nicht hervor­ge­ho­ben
    Weiter kriti­siert die Studie an 85 Prozent aller Fälle, dass Ziel-Keywords im Textfluss optisch unter­ge­hen. Fettdruck, Unter­strei­chen oder Kursiv-Schrift wird gefor­dert. Wer das geschickt macht, erhöht die Lesbar­keit für Mensch und Suchma­schine. Wer das übertreibt, bringt Unruhe in sein Schrift­bild.

    Kommen wir nun zu Fehlern im Bereich der techni­schen Onpage Optimie­rung.

    Was sind die schlimms­ten techni­schen Fehler?

  8. Fehlende Ziel-Keywords am Beginn des Textes
    60 Prozent aller Websei­ten unter­las­sen es, das wichtige Ziel-Keyword im ersten Satz bzw. im ersten Absatz zu platzie­ren. Das kann zu einem Relevanz-Problem führen, wenn der Text darauf verzich­tet, das Schwer­punkt-Thema der Seite klar zu kommu­ni­zie­ren.
  9. Flash ist immer noch nicht ausge­stor­ben
    Offen­bar basie­ren 7 Prozent der unter­such­ten Websei­ten auf Flash. Damit sind diese Seiten für Suchma­schen und für die User auf einigen Mobil­ge­rä­ten nicht lesbar. Diese 7 Prozent stellen vielleicht auch noch auf HTML5 um.
  10. Nur 47 Prozent der Websei­ten sind W3C-validiert
    Hier haben wir einen Fehler, bei dem sich Exper­ten treff­lich strei­ten. Ist er relevant oder nicht? Und wann ist er relevant? Viel zitiert wird hier ein Matt-Cutts-Video, nach dem ein W3C-valider Code kein Ranking-Krite­rium darstellt.
  11. 89 Prozent aller Websei­ten haben inline CSS
    Das ist schon eher ein Krite­rium, denn Codemons­ter gehen in der Regel zu Lasten der Geschwin­dig­keit. Speed ist ein Ranking-Krite­rium und außer­dem wichtig für die Usabi­lity.
  12. 38 Prozent aller Websei­ten nutzen keine Server­kom­pri­mie­rung
    Ein weite­rer Fehler, der die Webseite langsam macht. Sollte für bessere Rankings und bessere Usabi­lity abgestellt werden.
  13. Bei 25 Prozent aller Websei­ten fehlt eine Mobile Sitemap
    Dadurch werden mobile Websei­ten langsa­mer indiziert. Aller­dings nur dann, wenn es für eine Webseite eine eigene mobile Version gibt. Respon­sive Websei­ten brauchen keine eigene mobile Sitemap, so die Exper­ten.
  14. Bei 64 Prozent aller Seiten fehlt das Viewport Metatag im
    Das kann zu Darstel­lungs­pro­ble­men bei mobilen Endge­rä­ten führen und die Respon­si­vi­tät einschrän­ken. Darauf sollten die Entwick­ler also gebrieft werden.
  15. Nur 23 Prozent aller Seiten nutzen https
    Https ist eher ein Sicher­heits-Thema. Wer sensi­ble Kunden­da­ten einsam­melt, sollte darauf setzen. Exper­ten bezeich­nen HTTPS als schwach gewich­te­ten Ranking-Faktor.

Fazit – Beurtei­lung der Studie

Die genann­ten Schwach­stel­len, die dieses Massen-Audit aufdeckte, sollte jeder gute SEO bzw. Content-Marke­ter vermei­den.

Bei den Keyword-Fehlern (Title, Descrip­tion, Bildop­ti­mie­rung,) stellt sich aller­dings einem kriti­schen Betrach­ter die Frage nach der Validi­tät des Audit-Tools. Die Frage, die du dir stellst, ist: „Kann dieses Audit-Tool Synonyme erken­nen und diese Synonyme als gleich­wer­ti­gen Keyword-Ersatz bewer­ten? Wenn ja, sind die hier gezeig­ten Keyword-Fehler im Content der Websei­ten in ihrer Häufig­keit erschre­ckend. Eine Rückfrage bei MySiteAu­di­tor, ob das Audit-Tool in der Lage ist, Synonyme zu Zielkey­words als solche zu erken­nen, wurde bisher nicht beant­wor­tet. (Stand: 11.1.2017).

Im Prinzip ist das für deinen SEO-Alltag auch nicht relevant. Denn da kommt es nur auf deine ärgsten Wettbe­wer­ber an. Deren SEO-Stärken und SEO-Schwä­chen identi­fi­zierst du, baust deine Seiten mindes­tens gleich­wer­tig, was die SEO-Stärken angeht, und besser, wenn sich dein Konkur­rent Blößen gibt.