SEO: Beeinflussen Kommentare unter einem Beitrag das Ranking?

grafik.png
Bildquelle: Pixabay

Es wird ja nicht jeder Webmaster die Zeit haben und sich alle Webmaster-Hangouts ansehen.

Ich selbst sehe mir alle an. Ich muss schließlich immer auf den aktuellen Stand der Dinge sein.

Im letzten Hangout kam eine wirklich gute Frage. Diese lautete:
Beeinflusst ein schlechter Kommentar unter einem hochwertigen Artikel das Ranking der Artikel-Seite insgesamt?

Um hier nicht um den heißen Brei zu reden, lautet die kurze und eindeutige Antwort: Ja. Diese Erkenntnis ist sogar für mich neu. Ich hätte nicht gedacht das Google hier keine Trennung vornimmt. So kann man sich täuschen.

Google „sieht“ Kommentare und den eigentlichen Artikel einer Website als eine zusammenhängende Seite und beurteilt die Seite als gesamten Content. Kommentare werden demnach nicht als vom eigentlichen Inhalt der Website Getrenntes betrachtet.

D.h. schlechte Kommentare können das Ranking eines qualitativ hochwertigen Artikels im Ranking negativ beeinflussen.

Falls ihr einen Blog betreibt und sich dort viele Trolle herumtreiben und miese Kommentare hinterlassen, dann habt ihr wohl keine Wahl und müsst die Kommentare moderieren oder im schlimmsten Fall deaktivieren.

Die Frage, die für mich nun im Raum steht ist folgende: Was charakterisiert einen schlechten Kommentar?

Ich denke, das bezieht sich z.B. weniger auf den Inhalt des Kommentars selbst als mehr auf dessen Form. Eine schlechte Rechtschreibung fällt bekanntlich unter die Qualitätsrichtlinien von Google. Ebenso dürfte Google es für minderwertig halten, wenn viele Emoticons in den Kommentaren verwendet werden. Das ist jedoch nur meine eigene Einschätzung. Möglicherweise mag Google Emoticons sogar. Da habe ich keine Ahnung. Ich werde das mal hinterfragen.

Was will ich mit diesem Post sagen? Wenn Ihr qualitativ hochwertige Beiträge auf Euren Websites oder Blogs schreibt, dann bedenkt, dass billige und schlechte Kommentare Euren Beiträgen in SEO-Hinsicht schaden.

Also, habt immer ein Auge auf die Kommentare und vor allem achtet darauf, dass, falls Ihr URLs in den Kommentaren zulasst, die auf No follow konfiguriert sind. Ansonsten könnte ein schlechter Link auf Eure Website zurückschlagen.

Hier könnt Ihr Euch den Hangout ansehen, wo Johannes Müller von Google es ganz klar sagt. Schlechte Kommentare schaden der Website.

SEO: Werden Accordions komplett indexiert?

Auf vielen Websites finden wir FAQ-Seiten, die mit einem Accordion-Style realisiert werden.
In der SEO-Szene gibt es diverse Ansichten darüber, ob auch die aufgeklappten Antworten indexiert werden können. Meine Meinung war von Anfang an klar: ja, auch die Antworten bei einem Accordion, selbst wenn diese erst nach einem Klick auf die Frage für den Websitebesucher sichtbar werden, werden auch indexiert.
Der Grund ist ganz einfach: Googlebot „sieht ja den Quelltext“ und egal, ob die Frage aufgeklappt ist oder nicht, er „sieht“ auch die Antwort und wird diese indexieren.

Ihr kennt sicher diese Accordions. Man klickt auf eine Frage und dann öffnet sich die Antwort. Das Ganze wird meistens mit Javascript realisiert oder bei modereren Varianten mit puren HTML5 und CSS3. Im Falle, dass ein Arccordion, welches sich natürlich auch für andere Dinge als eine FAQ verwenden läßt, mit Javascript realisiert wurde, muss Javascript in der robots.txt zum rendern für Googlebot frei gegeben werden. Ich habe das schon in einen anderen Beitrag erwähnt, dass gerade Googlebot expilzit eine Erlaubnis dafür haben möchte, Javascript und auch CSS-Dateien zu verwenden. Sind diese Ressourcen nicht per robots.txt freigegeben betrachtet Googlebot diese Ressourcen als blockiert und wird das z.B. bei PageSpeed Insights als Fehler melden.

Damit Googlebot auf die entsprechenden Ressourcen zugreifen kann, fügt Ihr einfach diese paar Zeilen in der robots.txt hinzu:

#Googlebot
User-agent: Googlebot
Allow: *.css
Allow: *.js

grafik.png
Quelltext für das Accordion. Screenshoot von https://www.w3schools.com

grafik.png
So sieht das Ergebnis grafisch aus. Screenshoot https://www.w3schools.com

Da ich ja eine Frage nie unbeantwortet wissen möchte, habe ich direkt bei Johannes Müller angefragt. Er macht meistens die deutsprachigen Webmaster-Hangouts für Google und ist bekannt dafür, dass er fast jede Frage beantworten kann. Ich habe die Frage bewusst so gestellt, als ob ich keine Ahung hätte. Ich wollte ja eine klare Antwort.

grafik.png
Screenshoot meiner Frage bei Google+

Im Webmaster-Hangout vom 15.11.2018, zu finden auf Youtube, hat er dann auch diese Frage klar beantwortet. Wenn das Accordion komplett geladen wird, was ja meistens der Fall sein sollte, dann werden auch die Inhalte komplett indexiert die erst nach einem Klick zu sehen sind. Tatsächlich ist ja der Content schon komplett geladen. Der Besucher sieht diesen erst, wenn er auf die entsprechende Frage klickt. Googlebot sieht aber den kompletten geladenen Quelltext und damit auch die Antworten, selbst wenn diese noch nicht aufgeklappt sind.

Interessant finde ich in diesem Zusammenhang, dass ich mich unter dem besagten Webmaster-Hangout bedankt hatte. Dieser Kommentar ist jedoch für mich nur sichtbar, wenn ich mit dem Account eingeloggt bin, mit welchem ich diesen Kommentar geschrieben habe. Logge ich mich mit einem anderen Account oder Kanal-User ein, sehe ich diesen Kommentar nicht mehr.
Das ist eindeutig Shadow banning und darüber sollten wir uns echt Gedanken machen.

Ich hatte schon vor Monaten geschrieben, Google rollt für jeden Einzelnen seine SERPS individualisiert aus und SEO-Agenturen, die das Ihren Kunden nicht erzählen sind Blender.
Dass aber nun sogar Youtube derart individualisiert wird und Kommentare nicht mehr global angezeigt werden ist für mich eine neue Qualität der Zensur. Man kann darüber diskutieren, aber es bleibt dennoch Zensur wenn Kommentare, die öffentlich verfasst wurden, nicht mehr öffentlich zu sehen sind.

SEO: Haben Groß- und Kleinschreibung einen Effekt auf das Ranking?

Noch vor wenigen Jahren war ich selbst davon überzeugt, dass eine durchgehende Großschreibung bei z.B. Überschriften sich nachteilig auf das Website-Ranking auswirkt. Ich dachte immer, Großschreibung wirkt wie „schreien“ und könnte eventuell den Spam-Algorithmus von Google und Co. ansprechen.

grafik.png
Bildquelle Pixabay

Ich kann heute mit Gewissheit sagen, dass Großschreibung keine negativen Auswirkungen auf das Ranking einer Website hat. Die durchgehende Großschreibung ist vielmehr ein Aspekt der UX (User experience) und jeder weiß, durchgehend großgeschriebene Texte lesen sich einfach schlechter. Aus diesem Grund sollte auch darauf verzichtet werden.

In einigen Fällen, wo zwei inhaltlich sehr ähnliche Websites miteinander konkurrieren und eine von den beiden durchgehende Großschreibung verwendet, wird Google wahrscheinlich auf Grund der besseren UX die bevorzugen, auf der nicht durchgehend großgeschrieben wird. Das ist aber nur mehr eine Vermutung. Ich habe keine Beweise dafür finden können.

Die UX ist natürlich ein indirekter Rankingfaktor. Indirekt deswegen, weil keine Metrik genau messen kann, wie einem User die Bedienbarkeit einer Website gefällt. Es mag sogar einige geben, die finden eine durchgehende Großschreibung besser. Wie die UX einer Website abschneidet kann aber anhand anderer Faktoren abgeleitet werden.
So können wir davon ausgehen, dass schlecht bedienbare Websites ihre Besucher weniger lange auf der Website halten und damit die Bounce-Rate schlecht abschneidet. Ebenso zeigen Analytics-Dienste, die z.B. eine Heatmap-Funktion haben oder die sogar die Interaktion der Benutzer aufzeichnen, wie gut oder schlecht die UX ist.
Eine Heatmap zeigt dem Betreiber der Website an, welche Elemente am meisten geklickt werden.

Hier seht Ihr eine solche Heatmap. Die Hitze-Karte zeigt jene Punkte rot an, wo besonders oft geklickt wird. Diese Daten können sehr wertvoll sein, geben diese doch eventuell Hinweise darüber, welche Elemente umplaziert werden sollten.

grafik.png
Bild Wikipedia

Nicht alle Analyse-Dienste bieten die Heatmap-Funktion. Ich kenne von den bekannten Anbietern nur Yandex Metrica, wo es gratis dieses Feature gibt. Yandex Metrica ist der Website-Analytics-Service der russischen Konzerns Yandex. Yandex ist sehr ähnlich wie Google, wird aber in Deutschland eher weniger verwendet. Neben seiner Suchmaschine bietet Yandex auch E-Mail-Dienste und andere Services und Produkte an. Viele davon sind kostenfrei.

Da es jedoch möglich ist, mehrere Analytics-Dienste für das Website-Monitoring zu verwenden, spricht nichts dagegen, neben Google Analytics auch Yandex Metrica zu verwenden.

Ich persönlich würde empfehlen, auf jede durchgehende Großschreibung auf Websites zu verzichten und wenn jemand es unbedingt tun möchte, sollte es nur auf Überschriften beschränkt werden.

Anders sieht es bei den URLs aus. Hier sollte prinzipiell auf Großschreibung verzichtet werden. Damit beugt der Webmaster einigen Problemen in Zusammenhang mit Browsern und Servern vor und ist im Falle, dass die Website zu einem anderen Hoster transferiert wird, der andere Betriebssysteme verwendet, auf der sicheren Seite. URLs sollten immer klein geschrieben werfen.

Die Groß- oder Kleinschreiben der URL hat auch absolut nichts mit dem Ranking zu tun, es ist einfach praktischer keine durchgehende Großschreibung in URLs zu verwenden.

Bei WordPress z.B. kann jeder die Permalinks selbst festlegen. Verwendet hier nur Kleinschreibungen!
Auch wenn Ihr Dateien zum Download anbietet, dann gebt diesen Dateien einen kleingeschrieben Datei-Namen.

SEO | Traffic-Netzwerke sind nutzlos

Jeder Betreiber einer Website wünscht sich viele Besucher. Im günstigsten Fall kommen Besucher über die Suchmaschinen, über Links, welche auf anderen Websites auf die eigene Website verweisen, oder über Posts in den sozialen Netzwerken. Kommt der Traffic über solche Quellen zustande, sprechen wir von organischem Traffic.

Neben diesem Traffic gibt es noch unzählige Möglichkeiten Traffic künstlich zu generieren. Hier nenne ich an erster Stelle die sogenannten Besuchertausch-Systeme. Ich will hier keine Plattform besonders herausheben und werde auch nicht auf einen solchen Dienst verweisen. Auf diesen Plattformen registriert man sich, trägt seine Website-URL ein und kann sich dann andere Websites ansehen.

Prinzipiell gibt es zwei Arten von solchen Traffic-Netzwerken, manuelle und automatische. Bei den manuellen Besuchertausch-Systemen sieht der Teilnehmer sich für eine bestimmte Dauer (meistens um die 20 Sekunden) andere Websites an, muss dann irgendeine Aktion durchführen, die nicht zu automatisieren ist und bekommt dann die nächste Website angezeigt. Für jede gesehene Website werden Punkte gutgeschrieben. Dieses Punkte-Guthaben sorgt dafür, dass andere Teilnehmer sich die eigene Website ansehen.

Bei den automatischen Besuchertausch-Systemen muss der Teilnehmer lediglich eine Viewbar starten und dort werden automatisch alle 15 oder 20 Sekunden neue Websites angezeigt.

Jeder ältere Webmaster wird solche Systeme kennen und wird sich gefreut haben, wie sich der Besucher-Counter der Website überschlagen hat. Heute sind solche Systeme vollkommen überflüssig und der erzielte Effekt geht sogar nach hinten los.

Auf die Idee, diesen Beitrag zu schreiben, bin ich auf Ebay gekommen. Dort habe ich gesehen, dass einige Verkäufer Millionen von Besucher anbieten für einen schmalen Taler. In den Beschreibungen wird es dann so dargestellt, als wenn es wirklich irgendeinen positiven SEO-Effekt hätte, solche künstlichen Besucherströme auf eine Website zu leiten.

Wer sich jedoch etwas mit SEO beschäftigt, der wird sofort erkennen, warum künstlich erzeugter Traffic sinnlos ist oder sogar Schaden verursacht. Hier nenne ich stellvertretend die Bounce rate, das ist die Absprungrate. Diese Metrik zeigt auf, wie lange sich Besucher auf der Website aufgehalten und ob diese überhaupt in irgendeiner Form mit der Page interagiert haben.

Bei den Besuchertausch-Systemen kann es zwar tatsächlich auch mal vorkommen, dass jemand eine interessante Website über diese Dienste entdeckt und sich dann auch länger auf einer Website aufhält, aber die Wahrscheinlichkeit ist eher gering.
Eine hohe Bounce rate signalisiert Google und Co. das den User nichts auf der Website gehalten hat oder die UX (User experience/ Nutzer-Erfahrung) schlecht ist.

Wir müssen heute immer berücksichtigen, dass einer der Haupt-Algorithmen von Google eine künstliche Intelligenz namens RankBrain ist. Diese KI ist maßgeblich am Zustandekommen der SERPS (Search engine result pages/ Suchmaschinen-Ergebnis-Seiten) beteiligt. RankBrain generiert in der Tat für jede Suchanfrage ein Echtzeit-Ergebnis. Ich hatte es schon in anderen Beiträgen geschrieben: jeder bekommt seine eigenen und wenn genügend Daten vorhanden sind, auch individualisierten Suchergebnisse angezeigt.

Bei jeder Suche spielt auch die lokale Komponente eine wichtige Rolle. Das ist der Grund, warum wir je nach Ort, von dem aus wir suchen, andere Ergebnisse bekommen. Suchen wir in München nach „Pizza bestellen“, werden wir andere Ergebnisse erhalten als wenn wir dieselbe Suche von Berlin aus starten. Hier findet also schon mal eine Art Vorsortierung nach Ort statt.

Wir können davon ausgehen, dass Besuchertausch-Systeme auf Grund einfacher Muster-Erkennung identifiziert werden und als minderwertiger und künstlicher Traffic das Ranking einer Website negativ beeinflussen. Wer solche Dienste in Anspruch nimmt, sollte für seine Website Google Analytics oder auch ein anderes Website-Analyse-Werkzeug verwenden und wird dann sehr schnell feststellen, wie der Schuss nach hinten losgeht. Alle Werte werden sich negativ entwickeln und in der Folge sich das Ranking der Website verschlechtern.
Das Einzige was „positiv“ auf den ersten Blick wirkt, ist der Anstieg der Besucher-Anzahl. Gerade im E-Commerce geht es aber um die Steigerung der Umsätze. Was nutzen uns da täglich 10 000 Website-Besucher, wenn keiner etwas kauft?

grafik.png
Grafik by Pixabay