Negative Onpage Ranking Faktoren
Bei der Onpage Optimierung gibt es natürlich nicht nur positive Onpage Ranking Faktoren, die greifen, genauso gibt es negative Aspekte, die man vermeiden sollte. Hier sind einige negative Faktoren aufgeführt, die man am besten nicht machen sollte:
Weitere Ranking Faktoren Themen:
- Positive Onpage Ranking Faktoren
- Positive Offpage Ranking Faktoren
- Negative Offpage Ranking Faktoren
sichere Ranking Faktoren
Die nachfolgenden Faktoren haben sichere Auswirkungen auf die Rankings:
- Textfarbe ist gleich der Hintergrundfarbe
- Ein Pixel Bildlinks
- Leere Linktexte
- Copyrightverletzung
- Doorway pages
- Kaputte interne Links
- Weitergeleitete interne Links
- Text in Bildern
- Text in Videos
- Text in Rich Media
- Frames und iFrames
- Dünner Content (Thin Content)
- Domainweiter Thin Content
- Zu viele Werbeanzeigen
- Duplicate Content von extern
- Interner Duplicate Content
- Links zu abgestraften Seiten
- Langsame Seite
- Seite auf NoIndex
- Verbiete Robots
- Schlechte Domainreputation
- Meta oder JavaScript Redirect
- Text in JavaScript
- Schlechte Uptime
- Zu viele externe Links
- Seiten mit Suchergebnissen
- Automatisch generierter Content
- Phishing Aktivitäten
- Verwaiste Seiten
- HTTP 400er und 500er Statuscodes
Textfarbe ist gleich der Hintergrundfarbe
Google sagt, dass es sich negativ auswirken wird, wenn die Textfarbe gleich der Hintergrundfarbe ist, denn dies kann der User nicht lesen, bzw. nur wenn er den Text markiert und dazu muss er wissen, wo der Text versteckt ist.
Da dieser Text nur für die Suchmaschinen erstellt wurde, ist dies eine Cloaking Methode und somit Penalty-verdächtig.
Ein Pixel Bildlinks
Eine Verlinkung mit einem Bild in der Größe 1px x 1 px oder mit einem sehr kleinen Text und mit dem Gedanken, dass du versuchen willst, Google für dumm zu verkaufen, hat definitiv eine Abstrafung verdient. So geht das aus der Quelle (Google) heraus.
Leere Linktexte
Auch hier wieder aus der Quelle Google zu lesen, dass versteckte Links sowie versteckter Text, Cloaking Methoden darstellen, welche als Manipulationsversuche gelten. Dies schreit nahezu nach einer Abstrafung.
Copyrightverletzung
Google sagt, dass die Absicht einer Veröffentlichung von Content, welcher gegen das Urheberrecht verstößt, zu einer Abstrafung führt. Entweder erkennt es Google selbst oder aber auch die User haben die Möglichkeit, diesen Vorfall zu melden.
Doorway pages
Doorway Pages, so Google, kann von Google erkannt werden und führt ebenfalls zu einer Abstrafung. Denn Doorway Pages sind nur eine Landinpage für die Suchmaschinen und bieten für die Besucher keinen Mehrwert.
Ein Beispiel wäre es, eine eigene Landinpage für z. B. jede einzelne Stadt des Landes zu kreieren. Das ist Spamdexing, bzw. zu spammen des Google Indexes, was der Suchmaschinenriese natürlich nicht gerne sieht.
Kaputte interne Links
Kaputte interne Links machen es den Suchmaschinen schwer, die Webseite richtig zu crawlen und auch die Navigation auf der Seite für die User ist erschwert. Sodass es ein Signal für eine schlechte Qualität der Seite ist. Berichtige die kaputten Links schnellstmöglich, bzw. lass es erst gar nicht dazu kommen.
Quellen: Patent US 20080097977 A1, Google via SEL
Weitergeleitete interne Links
Das ist eine einfache Falle, in die man fallen könnte. Denn hier ist das Thema “www” vs. “non-www” sowie Seiten mit oder ohne Slash.
Quellen: Patent US 6285999 B1, Matt Cutts via SER
Text in Bildern
Matt Cutts sagt in seinem Video, dass Google zwar Bilder und die darin enthaltenen Texte einigermaßen lesen kann, es aber unüblich ist, diese Wörter in Bildern unterzubringen. Es gibt zwar keine Abstrafung dafür, aber du kannst für diese Keywords dann nicht ranken, wenn du sie in Bildern unterbringst.
Text in Videos
Matt Cutts sagt in seinem Video, dass Texte in Videos von Google nicht gelesen werden können. Daher solltest du immer Transkripte mit bereitstellen, damit diese gelesen und indexiert werden können.
Text in Rich Media
Matt Cutts sagt im gleichen Video wie bei “Text in Bildern” und “Text in Videos”, dass Texte in Bildern und Videos teilweise analysiert werden können, es aber sehr unüblich ist, diesen Text nur dort unterzubringen. Es gibt zwar keine Abstrafung dafür, aber direkte positive Auswirkungen auf dein Ranking wird es auch nicht haben.
Frames und iFrames
In der Vergangenheit konnten die Suchmaschinen Frames nicht crawlen, nun können sie es zwar, aber es ist noch immer viel Aufwand für die Crawler. Daher gibt es keine Garantie, dass diese korrekt und komplett gelesen und indexiert werden.
Quelle: Google
Dünner Content (Thin Content)
Es ist generell immer besser längere Inhalte zu schreiben, welche das Thema auch als Ganzes gut behandeln. Content, der keine Eigenheit und somit keinen Mehrwert bietet, wird seit dem Panda Update abgestraft. “DaniWeb” hatte hierzu eine interessante Studie herausgebracht.
Quellen: Google, DaniWeb Study
Domainweiter Thin Content
Google hat viel in das Verstehen und Interpretieren deines Contents und dessen Qualität gesteckt. Mit dem Panda Update wurde es also Wirklichkeit und die Betrachtung fand nicht nur per Seite statt, sondern Domainweit.
Es ist also von Vorteil, wenn die Gesamtqualität der Seite verbessert wird und auf uninteressanten Seiten, wie z. B. Tag-Seiten oder Userprofilen in Foren den “noindex” Tag zu verwenden.
Quelle: Google
Zu viele Werbeanzeigen
Google wertet Seiten mit zu viel Werbeanzeigen, insbesondere im above-the-fold Bereich ab, da dies eine zu schlechte User Experience mit sich bringt. Trat mit dem Page Layout Update, auch Top Heavy Update in Kraft.
Duplicate Content von extern
Google mag duplicate content nicht. Wenn der Content also auf anderen Seiten erscheint, dann handelt es sich um duplicate Content, was zu einer starken Abwertung führen kann, selbst wenn es sich um keine Copyrightverletzung handelt. Es gilt allgemein, Inhalt, der einen Mehrwert bietet, wird besser performen.
Interner Duplicate Content
Auch internen doppelten Content mag Google nicht. Dies gilt nicht nur für eine gesamte Seite, sondern auch für Teile des doppelten Inhalts. Dies ist häufiges Phänomen, vor allem bei Tag Seiten, “www” vs “non-www” Seiten sowie Unterseiten mit Parametern.
Links zu abgestraften Seiten
Matt Cutts sagte “Google vertraue Seiten, die zu schlechten und SPAM Seiten linken, weniger”. Wenn du zu solch einer Seite verlinken musst, dann solltest du diesen Link mit “nofollow” markieren. Dies wurde übrigends mit dem “Bad Neighborhood” Algorithmus eingeführt.
Quellen: MC: Bad Neighbors, MC: Nofollow
Langsame Seite
Schnellere Seiten ranken besser als langsamere, denn niemand wartet gerne. Für die Überprüfung und Optimierung der PageSpeed gibt es zahlreichen Tools, sodass die Seitengeschwindigkeit auf jeden Fall verbessert werden kann und sollte.
Quelle: Google
Seite auf NoIndex
Keine Quelle, nur eine logische Schlussfolgerung. Denn, Seiten, die mit dem “noindex”-Tag versehen sind, werden von Google nicht indexiert und finden somit den Weg in die Suchergebnisse nicht. Dieser Tag kann für uninteressante Seiten verwendet werden, aber nicht für Seiten, mit denen du gefunden werden willst.
Verbiete Robots
Google sagt, dass wenn du eine robots.txt Datei hast, mit dem Inhalt “Disallow: *” oder “Disallow: Googlebot”, dann wird Google diese Seiten zwar nicht aus dem Index entfernen, aber Updates bzgl. positive Ranking Faktoren, wie z. B. Alter, Freshness, etc. werden nicht vorgenommen. Somit ggf. ein Nachteil für dich beim Ranking.
Schlechte Domainreputation
Matt Cutts sagt in seinem Video, dass Domänen über die Zeit eine gewisse Reputation aufbauen. Wenn der vorherige Besitzer diese an die Wand gefahren hat, dann wird es schwerer sein, wieder eine anständige Reputation zu erlangen.
Meta oder JavaScript Redirect
Laut Google ein klassisches SEO Penalty, welche heute so nicht mehr häufig vorkommt. Automatische Meta-refresh oder JavaScript zeitgesteuerte Weiterleitung kann den User verwirren, für höhere Absprungraten sorgen und somit auch als Cloaking gewertet werden. Verwende lieber 301 redirect oder 302 temporary redirect.
Text in JavaScript
Google versucht weiterhin das Crawlen von Text in JavaScript zu verbessern, aber der Crawler wird weiterhin Probleme damit haben, da der Text wohl nicht komplett richtig verstanden und interpretiert werden kann.
Daher kann sich dies negativ auf dein Ranking auswirken (negativer Faktor), aber es wird keine Abstrafung mit sich bringen.
Quelle: Matt Cutts
Schlechte Uptime
Google kann deine Seite nicht reindexieren, also keine Updates deiner Seite holen. Auch können die User deine Internetseite nicht aufsuchen, wenn diese nicht erreichbar ist. Klar, ein Ausfall ist kein Problem (bis zu 2 Tage), aber zu große und zu häufige Ausfälle können allerdings zu Problemen führen.
Quelle: Matt Cutts
Zu viele externe Links
Zu viele externe Verlinkungen können bedeuten, dass dies ein spamming Versuch ist, bzw. Pagerank Sculpting. Wenn du zu relevanten externen Seiten verlinkst, dann wird dies positiv gewertet, aber zu viele externe Verlinkungen, sind negativ.
Quelle: Matt Cutts
Seiten mit Suchergebnissen
Google will es, dass die User auf die Webseite gelangen und dort die gewollten Informationen vorfinden und nicht auf eine Ansammlung von Ergebnissen von denen die User wieder wählen sollen um auf eine weitere Quelle zu gelangen. Daher sind Seiten, die wie eine Ergebnisseite aussehen, schlecht und werden abgewertet.
Quelle: Matt Cutts
Automatisch generierter Content
Matt Cutts als auch in den Webmaster Guidelines sagen aus, dass automatisch generierter Content auf jeden Fall abgestraft wird, denn dies widerspricht den Google Webmaster Richtlinien. Denn dafür hat der Suchmaschinenriese aus Mountain View einige Methoden, dies herauszufinden.
Phishing Aktivitäten
Wenn Google Phishing Seiten, z. B. Internetseiten, welche die Loginpage einer Bank nicht abstrafen und normal behandeln würde, wäre es eine Verletzung gegen deren eigenen Webmasterrichtlinien, sowie der Unternehmensphilosophie. Dafür wird ein entsprechender Anti-Phishing Filter verwendet.
Quelle: Matt Cutts
Verwaiste Seiten
Seiten, welche nur schwer oder gar nicht gefunden werden können und noch dazu deine interne Linkarchitektur verwenden, können als “Doorway Pages” abgestempelt werden und somit auch als Webspam. Diese profitieren weder vom PageRank noch haben diese Unterseiten einen positiven Effekt bzgl. deines Rankings.
Quelle: Google Webmaster Central
HTTP 400er und 500er Statuscodes
Spekulativ, aber dennoch nicht zu verachten ist, wenn dein Webserver anstatt von Statuscodes wie z. B. 200 OK, 301 bzw. 302 redirect liefert, dann kann der Inhalt der Seite nicht angezeigt werden. Google erwartet, wenn Seiten nicht angezeigt werden können, dass diese einen 404 not found Error liefern.
mögliche Ranking Faktoren
Die nachstehenden Faktoren haben möglicherweise eine negative Wirkung auf deine Rankings in Bezug auf die Onpage Optimierung.
- Hohe Body Keyworddichte
- Keyword Verdünnung
- Keyworddensität im Title Tag
- Äußerst langer Title Tag
- Keyworddichte in Überschriften Tags
- Überschriften Tag (H1, H2, etc.) überstrapaziert
- Äußerst lange URLs
- Keyworddichte in ALT Tags
- Äußerst lange ALT Tags
- Zu viel Schreiben im “List-Style”
- CSS Versteckter Content
- Interner NoFollow
- Zu viele interne Links
- Geparkte Domains
- Zu viele Footer Links
- Veralteter Content
- Verkaufen von Links
- Spammiger User-generierter Inhalt
- Automatisch übersetzter Text
Hohe Body Keyworddichte
Wenn du Keyword Stuffing betreibst, auch innerhalb des Contents, dann kannst du deshalb ebenfalls abgestraft werden. Northcutt hat in einem Test herausgefunden, dass es bereits Anfang von 6% Keyworddichte zu Problemen führen kann, wobei die TF-IDF noch OK ist.
Quellen: Matt Cutts, Remix
Keyword Verdünnung
Im Zusammenhang des oben beschriebenen sagt dieser Faktor aus, dass wenn eine hohe Keyworddichte oder TF-IDF positiv ist, die Relevanz bzgl. der anderen Keywords / Themen sinkt. Damit verdünnt sich also der Kontext und es ist nicht klar, worum es sich eigentlich dreht in dem Artikel.
Quelle: Matt Cutts
Keyworddensität im Title Tag
Auch die Keyworddicht im Titel sollte nicht vollgespammt sein. Es macht also keinen Sinn, mehrere Male das gleiche Keyword zu verwenden.
Ein guter Titel ist unter 60 Zeichen und sollte im Idealfall auch als Überschrift für eine Werbeanzeige geeignet sein. Der Titel soll also kurz beschreiben, worum es auf der Zielseite geht.
Quelle: Matt Cutts
Äußerst langer Title Tag
Wenn der Title Tag zu lang ist (über 60 – 70 Zeichen), dann ist es auch nicht gut und kann als SPAM gewertet werden. Google kann das hier auch als Keyword Stuffing werten, wenn du ein Keyword mehrere Male verwendest.
Quelle: Matt Cutts
Keyworddichte in Überschriften Tags
In den Überschriften Tags (H1, H2, etc.) können wichtige Wörter untergebracht werden. Wenn du aber auch hier übertreibst und Keyword Stuffing betreibst, dann wird der positive Faktor ganz schnell in einen negativen Faktor umgewandelt und du erreichst das Gegenteil.
Quelle: Matt Cutts
Überschriften Tag (H1, H2, etc.) überstrapaziert
Die Überschriften Tags (H1, H2, etc.) dienen dazu, den Content entsprechend zu strukturieren. In der Regel kann es den H1 Tag nur einmal geben, da dieser als Kapitel erster Ordnung gilt. Daher, verwende den H1 Tag nur einmal pro Unterseite.
Den H2 Tag kannst du öfter verwenden, aber wenn es sinnvoll ist den H3 Tag zu verwenden, dann tu das. Auch zu viel Text in diesen Überschriften ist nicht gut.
Quelle: Matt Cutts
Äußerst lange URLs
Matt Cutts hatte mal erwähnt, dass die Gewichtung nach 5 Wörtern abnimmt. Deshalb solltest du darauf achten, dass du die wichtigsten Wörter zu Beginn stehen hast. Außerdem kann sich niemand lange URLs merken. Allerdings sind manchmal auch mehr als nur 5 Wörter für einen Titel notwendig.
Quelle: Matt Cutts
Keyworddichte in ALT Tags
Auch wenn die ALT Tags nicht direkt sichtbar sind, so wurden häufige Abstrafungen in diesem Bereich verhängt. Einige beschreibende Worte sind OK, aber zu viel kann zum Penalty führen.
Quelle: Matt Cutts
Äußerst lange ALT Tags
Das gleiche wie bei “Keyworddichte in ALT Tags”. Auch wenn es nicht sichtbar ist, solltest du einige beschreibende Wörter hinzufügen, aber nicht übertreiben.
Quelle: Matt Cutts
Zu viel Schreiben im “List-Style”
Matt Cutts sagt, dass egal von was man zu viel macht, es in eine Art “Keyword stuffing ist”. So also auch, übermäßiges Schreiben im “List-Style”.
Beispiele die dazu zählen wären unter anderem das auflisten von zu vielen Wörtern, Ideen, Notizen, Konzepten, Keywords, Phrasen etc., denn das ist nicht natürlich. Zu viel davon und du darfst dich über eine Penalty freuen.
CSS Versteckter Content
Google gibt an, dass dieser Punkt bei Google dokumentiert ist und zwar ausführlich. Denn Text vor dem Benutzer zu verstecken hat keinen Grund. Nur bei tooltips oder Tabs ist dies OK, andernfalls ist mit einem Penalty zu rechnen.
Interner NoFollow
Die eigene Seite auf “nofollow” zu setzen, kann auf zwei verschiedene Arten geschehen. Einmal über den Meta Tag “robots” und rel=”nofollow” pro Seite oder auch bei individuellen Links.
Egal wie, es sagt dem Crawler “nicht weiter crawlen”, “ich vertraue der Seite nicht”. Matt Cutts sagt eindeutig, auf gar keinen Fall die eigene Seite auf “nofollow” setzen.
Quelle: Matt Cutts
Zu viele interne Links
Jeder Link auf der Seite gibt den PageRank an die verlinkende Seite weiter. Je mehr Links davon existieren, desto höher die Streuung. Matt Cutts sagte einmal in einem Video, dass es ein hartes Limit von 100 Links pro Seite gibt.
Dies hat er zwar ein anderes Mal wiederrufen und gesagt, man sollte die Anzahl auf einer begrenzten Menge halten. Der Grund war, weil Google nicht mehr als 100k runterladen konnte, was nun nicht mehr so ist.
Quellen: Matt (blog), Matt (video)
Geparkte Domains
Geparkte Domains sind nicht projektiert und einige von diesen Domains haben einfach nur Werbung drauf, was dem Benutzer so nichts bringt. Ranken können diese Seiten in der heutigen Zeit nur schlecht, weil es einfach zu viele Kriterien gibt, welche sie nicht erfüllen.
Quelle: Google
Zu viele Footer Links
Links im Footer haben generell eine niedrigere Gewichtung, das war klar. Aber Links im Footer wurden auch für bezahlte Links verwendet und beinhalteten teilweise duzende von diesen Links. Daraufhin hat Google diese abgewertet und teilweise mit Penalties versehen.
Quelle: Matt Cutts
Veralteter Content
Im Patent Patent US 20080097977 A1 kann nachgelesen werden, dass Google in der Lage ist, veralteten Content zu identifizieren. Es ist nur die Frage, wann dieser veraltete Content schädlich ist. Womöglich dann, wenn die Suchanfrage des Users nach neuem und frischen Content verlangt (Query Deserves Freshness (QDF)).
Verkaufen von Links
Das Verkaufen von Links ist besonders in der heutigen Zeit sehr gefährlich, da hier leicht eine Abstrafung einzufangen ist. Matt Cutts hat hierzu ein Beispiel gezeigt, in der ersichtlich war, dass der Pagerank, welcher in der Toolbar angezeigt wurde, von 7 auf 3 abnahm.
Grund war, dass Google herausgefunden hat, dass die Seite Links verkauft hatte. Dies kann sowohl zu Onpage als auch zu Offpage Penalties führen.
Quelle: Matt Cutts
Spammiger User-generierter Inhalt
Einer der möglichen Warnmeldungen in den Google Webmaster Tools, bzw. der Search Console, kann durch diesen Punkt ausgelöst werden. Die Abstrafungen können gezielt vergeben werden. Northcutt hat herausgefunden, dass der Trackback Spam von WordPress in einem versteckten DIV nicht zu einem Penalty führt, bzw. dies unentdeckt bleibt.
Quelle: Matt Cutts
Automatisch übersetzter Text
Text, welcher für Zwecke der Internationalisierung automatisch übersetzt wurde, ist schlecht und kann von Google auf jeden Fall erkannt werden. Das kann zu einem üblen Penalty führen, da dies gegen die Google Webmaster Richtlinien verstößt.
Quelle: Matt Cutts
wahrscheinliche Ranking Faktoren
Wahrscheinlich haben die nachfolgenden Kriterien eine negative Wirkung auf dein Ranking:
- URL Keyword Wiederholung
- Lange interne Linktexte
- Übermäßiges Verwenden von Fett-, Kursivschrift, etc.
- Dynamischer Content
- Verwendung von Pop-Ups
- IP Adressen in der schlechten Nachbarschaft
- ccTLD im globalen Ranking
- Nicht valides HTML/CSS
- Ausgehende Affiliate Links
- Infizierte Seiten
- Explizite sexuelle Inhalte
- Soft Fehlerseiten
- Fremde Sprachen nicht isoliert
URL Keyword Wiederholung
Spekulationen besagen, dass es keine Abstrafung gibt, wenn man das Keyword einige Male in der URL verwendet. Getestet kann es werden, wenn man das Schlüsselwort einige Male in die URL aufnimmt, anstatt nur einmal. Das Schlüsselwort mehrere Male in die URL aufzunehmen bringt demnach also nichts.
Lange interne Linktexte
Ebenfalls spekulativ, sind lange interne Linktexte. Diese bringen keinen Mehrwert und können in extremen Fällen sogar als Keyword Stuffing angesehen werden, was wiederum zu einer Abstrafung führt.
Übermäßiges Verwenden von Fett-, Kursivschrift, etc.
Es bringt dir nichts, den gesamten oder den Großteil des Textes in fett, kursiv oder unterstrichen darzustellen, um so mehr Gewicht und Relevanz zu bekommen.
Denn das geht nach hinten los, denn Google versteht das unter “Spam Aktivitäten”. Northcutt hat dies auch für eigene Kunden untersucht und kann es bestätigen.
Quelle: Matt Cutts
Dynamischer Content
Dynamischer Content kann für die Suchmaschinen, speziell deren Crawler eine Herausforderung darstellen, wie z. B. das verstehen und ranken dieser.
Am besten solchen Content minimieren oder mit “noindex” versehen, wenn dieser Bereich von Google erreichbar ist, dies kann sich positiv auf die User Experience und den Rankings auswirken.
Quelle: Matt Cutts
Verwendung von Pop-Ups
Erst sagte Matt Cutts im Jahre 2010 zuerst “nein” zu diesem Punkt, John Müller allerdings im Jahre 2014 “ja”. Nachdem dieser Prozess und der Page Layout Algorithmus verstanden wurde, ist man zum Entschluss gekommen, dass Pop-Ups sehr wohl deine Rankings negativ beeinflussen können.
Quelle: Google
IP Adressen in der schlechten Nachbarschaft
Nach langem hin und her mit Matt Cutts bzgl. der Bevorzugung von dedizierten IP Adressen pro Seite ist in einigen Fällen bekannt geworden, dass Google sehr wohl einige Server IP Adressen abgestraft hat.
Diese waren möglicherweise als ein privates Netzwerk verwendet worden oder hatten eine schlechte Nachbarschaft (bad Neighbourhood).
Quelle: Matt Cutts
ccTLD im globalen Ranking
ccTLDs sind Länderspezifische Domainendungen, wie z. B. .de, .uk etc. Es handelt sich hierbei also um das Gegenteil von den globalen Domainendungen, den gTLDs, welche für internationales SEO / Internationalisierung gedacht sind.
Wenn eine ccTLD also global ranken möchte, dann kann dies zu einem Problem führen. Es sollten bei einem internationalen Ansatz gTLDs verwendet werden oder die jeweiligen ccTLDs für das entsprechende Land.
Quelle: Google
Nicht valides HTML/CSS
Matt Cutts hat zugegeben, dass das ein relevanter Faktor sein. Klar muss der Code nicht perfekt sein, aber zu schlechter Code kann dazu führen, dass einige Sachen evtl. gar nicht richtig funktionieren, etwas versteckt wird, etc.
Quelle: Matt Cutts
Ausgehende Affiliate Links
Google geht gegen Affiliate Webseiten vor, die keinen weiteren Mehrwert bieten. Es bringt auch nichts, die Links zu verstecken und mittels einem 301 redirect in ein Verzeichnis zu leiten, das mittels robots.txt gesperrt ist.
Google kann in die HTTP Headers reinschauen, ohne darauf zu navigieren. Einige Affiliates haben berichtet, dass diese Penalties erhielten, aufgrund von zu vielen Affiliate Links.
Quellen: Google, Affiliate Marketer’s Study
Infizierte Seiten
In den Webmaster Richtlinien steht drin, dass Seiten, die mit einem Virus bzw. Malware infiziert sind (oder anderen Exploits) und diese somit verteilen, Google dagegen vorgeht und es wirklich sehr ernst nimmt. Also schließe deine Lücken und halte deine Webseite sauber.
Explizite sexuelle Inhalte
Google hat den Safe Search Filter standardmäßig aktiviert, welcher aber auch ausgeschaltet werden kann. Dieser sorgt dafür, dass bestimmte Inhalte geblockt werden, da Google den Inhalt scannt.
Quelle: Google Safe Search
Soft Fehlerseiten
Soft 404 oder andere Softfehler werden von Google nun als normale 404 Fehlerseiten ausgegeben. Denn Softfehler gaben im Header weiterhin den Statuscode 200 OK aus, der User sieht dennoch eine Fehlerseite.
Da es für Google schwerer zu verarbeiten ist, entscheid man sich für diesen Schritt. Solche “Soft Fehler” können also nun auch einen Schatten auf deine Seite werfen und negativ raten.
Quelle: Google
Fremde Sprachen nicht isoliert
Matt Cutts sagt, dass wenn Text in einer Sprache geschrieben wird, welche nicht zu der Zielgruppe passt, dann helfen auch die positiven (Onpage) Faktoren nichts. Daher ist es wichtig, die Sprachen entsprechend zu trennen.
Mutmaßnungen
Über die nachstehenden Kriterien wird gemutmaßt, dass diese negative Wirkung auf dein Ranking haben:
- Hohes Verhältnis Links zu Text
- JavaScript versteckter Inhalt
- Private Whois
- Suddomain Verwendung
- Anzahl der Subdomains
- Domainweites Verhältnis an Fehlerseiten
- Codingfehler auf Seiten
- HTTP Expires Headers
- Sitemap Priorität
- Sitemap Änderungsrate
- Keyword stuffed Meta Description
- Keyword stuffed Meta Keywords
Hohes Verhältnis Links zu Text
Seiten die nur Links haben und sonst keine weitere Substanz, können als Seiten von niedriger Qualität angesehen werden. Dies würde zu Seiten passen, die wie Suchergebnisseiten aussehen. Allerdings ist es eine Spekulation.
JavaScript versteckter Inhalt
Google sagt, dass es keinen Sinn macht, Text in JavaScript hinzuzufügen, da dies von Google nicht gelesen werden kann. Das heißt zwar nicht, dass Google JS nicht crawlt, aber es kann als eine Art Cloaking angesehen werden und deine Seite wird abgestraft.
Private Whois
Matt Cutts sagte auf der PubCon im Jahre 2006, dass Google in der Lage sei, die whois Daten aller Registrare abzufragen. Wenn allerdings ein privater Whois vorhanden ist und dieser mit weiteren negativen Signalen in Bezug auf Ranking Faktoren aufgefallen ist, dass es dann zu einem Penalty führen kann.
Suddomain Verwendung
Subdomains (sub.domain.tld) werden von Google als eigenständige Webseiten angesehen, Unterverzeichnisse jedoch nicht (domain.tld/verzeichnis). Das kann negativ angesehen werden, verbunden mit weiteren negativen Signalen, wie z. B. zu viele Subdomains.
Quelle: Matt McGee and Paul Edmondson
Anzahl der Subdomains
Als Spekulation wird angenommen, dass die Anzahl der Subdomains, die eine Seite hat, als eines der meist signifikantesten Faktoren angenommen werden kann um zu identifizieren, dass die Subdomains als eigenständige Webseiten behandelt werden. Bei einer sehr großen Anzahl an Subdomains kann es also zu Missverständnissen kommen.
Domainweites Verhältnis an Fehlerseiten
Ebenfalls eine Spekulation. Es wird angenommen, dass wenn es zu viele Fehlerseiten gibt, der User leicht auf solche 400er / 500er Statuscodes gelangen kann und somit das Gesuchte nicht findet. Zu viele Fehlerseiten deuten auf eine schlechte Webseite hin.
Dies konnte bei nicht indexierten Webseiten mit solchen Statuscodes als auch bei Seiten mit kaputten Links beobachtet werden.
Codingfehler auf Seiten
Auch eine Spekulation. Seiten die voll von PHP oder Java Fehlern sind, können keine gute User Experience bieten, sodass diese als “schlecht” eingestuft werden. Daher ggf. ei n negativer Ranking Faktor.
HTTP Expires Headers
Mittels HTTP Expire im Header kann der Browser Cache kontrolliert werden, was zu einer besseren Performance führt (bessere PageSpeed). Dies kann aber auch nach hinten losgehen, wenn der Suchmaschine mitgeteilt wird, dass der Content für eine längere Zeit nicht aktualisiert wird.
Quelle: Moz Diskussion
Sitemap Priorität
Viele diskutieren darüber, dass die Priorität, welche den einzelnen Seiten im XML Sitemap zugewiesen wurde, einen Einfluss auf das Crawling und Ranking hat. Wahrscheinlich wird es höher gewichtet als andere Dinge, die du Google via den WMT / der Search Console mitgibst.
Es ist unüblich, dass einige Seiten besser ranken, nur weil du fragst, aber es ist ein nützliches Signal um weniger relevanten Content niedriger zu priorisieren.
Quelle: Sitemaps.org
Sitemap Änderungsrate
Die Änderungsrate in dem XML Sitemap soll Google helfen festzustellen, wie oft sich der Content ändert. Es wird angenommen, dass Google die Seiten nicht öfter crawlt, als du mitteilst, wie oft es sich ändert. Unklar ist jedoch, ob der Suchmaschinenriese dem folgt oder nicht.
Wenn ja, dann sollte es sich in der gleichen Art und Weise verhalten, als die Veränderung der Crawlspeed in WMT.
Quelle: Sitemaps.org
Keyword stuffed Meta Description
Auch wenn Google mitteilt, dass für das Ranking die Meta Description nicht verwendet wird, sondern nur für Werbeanzeigen, es dennoch möglich ist, Spam darzustellen. Daher könnte Keyword Stuffing in der Meta Description zu einer Abstrafung führen. Es ist jedoch eine Spekulation, Nachweise hierfür fehlen.
Keyword stuffed Meta Keywords
Google sagt, dass seit 2009 der Meta Tag “Keywords” nicht mehr angesehen wird. Allerdings kann es dennoch sein, dass durch Keyword Stuffing in diesem Tag negative Signale (SPAM) an Google gesendet werden.
Quelle: Matt Cutts
zweifelhafte Ranking Faktoren
Die nachfolgenden Kriterien werden angezweifelt, ob diese tatsächlich negative Onpage Ranking Faktoren sind:
Falsche Whois
Ähnlich zu den privaten Whois Daten, Google ist dieser Trick bekannt und wird als ein Problem behandelt. Wenn es keine Gründe dafür gibt, dann ist es ein Verstoß gegen ICANN Richtlinie, seine Domain von Hackern stehlen zu lassen. Nutze also keine Fake Daten, wenn du eine Domain registrierst.
Quelle: Matt Cutts
Abgestrafter Registrar
Dieser Punkt ist sehr spekulativ. Wenn also falsche und private Whois Daten schlecht sind und Matt Cutts gesagt hat, es würde als SPAM deklariert werden, wenn man diese nutzt, dann ist davon auszugehen, dass ein Domainbesitzer über zahlreiche Seiten hinweg abgestraft werden kann.
keine Ranking Faktoren, nur ein Mythos
Bei den folgenden Kriterien handelt es sich um keine negativen Rankingkriterien:
Ausgehende Links
Es ist bekannt, dass so etwas wie “PageRank Leakage” existiert. Du hast also viele Möglichkeiten / Punkte diesen zu verteilen, aber es kann nicht sein, dass diese Punkte wieder sofort zurückkehren.
Aber Matt Cutts hat bestätigt, dass es einige weitere Funktionen vorhanden sind, welche wirklich relevanten Content und autoritäre ausgehende Links bevorzugen.
Quellen: Matt Cutts, Nicole V. Beard
Vermisste robots.txt Datei
Bis 2015 haben die Google Webmaster Tools dich als Seitenbesitzer aufgefordert, eine robots.txt zu erstellen, sofern noch keine existiert. Viele dachten, dass wenn eine robots.txt fehlt, dass es sich negativ auswirkt. John Müller rät dazu, die robots.txt zu entfernen, wenn der Googlebot vollständig willkommen ist.
Quellen: John Mueller via SER
Weitere Ranking Faktoren Themen:
Keine Kommentare vorhanden