SEO: Haben Groß- und Kleinschreibung einen Effekt auf das Ranking?

Noch vor wenigen Jahren war ich selbst davon überzeugt, dass eine durchgehende Großschreibung bei z.B. Überschriften sich nachteilig auf das Website-Ranking auswirkt. Ich dachte immer, Großschreibung wirkt wie „schreien“ und könnte eventuell den Spam-Algorithmus von Google und Co. ansprechen.

grafik.png
Bildquelle Pixabay

Ich kann heute mit Gewissheit sagen, dass Großschreibung keine negativen Auswirkungen auf das Ranking einer Website hat. Die durchgehende Großschreibung ist vielmehr ein Aspekt der UX (User experience) und jeder weiß, durchgehend großgeschriebene Texte lesen sich einfach schlechter. Aus diesem Grund sollte auch darauf verzichtet werden.

In einigen Fällen, wo zwei inhaltlich sehr ähnliche Websites miteinander konkurrieren und eine von den beiden durchgehende Großschreibung verwendet, wird Google wahrscheinlich auf Grund der besseren UX die bevorzugen, auf der nicht durchgehend großgeschrieben wird. Das ist aber nur mehr eine Vermutung. Ich habe keine Beweise dafür finden können.

Die UX ist natürlich ein indirekter Rankingfaktor. Indirekt deswegen, weil keine Metrik genau messen kann, wie einem User die Bedienbarkeit einer Website gefällt. Es mag sogar einige geben, die finden eine durchgehende Großschreibung besser. Wie die UX einer Website abschneidet kann aber anhand anderer Faktoren abgeleitet werden.
So können wir davon ausgehen, dass schlecht bedienbare Websites ihre Besucher weniger lange auf der Website halten und damit die Bounce-Rate schlecht abschneidet. Ebenso zeigen Analytics-Dienste, die z.B. eine Heatmap-Funktion haben oder die sogar die Interaktion der Benutzer aufzeichnen, wie gut oder schlecht die UX ist.
Eine Heatmap zeigt dem Betreiber der Website an, welche Elemente am meisten geklickt werden.

Hier seht Ihr eine solche Heatmap. Die Hitze-Karte zeigt jene Punkte rot an, wo besonders oft geklickt wird. Diese Daten können sehr wertvoll sein, geben diese doch eventuell Hinweise darüber, welche Elemente umplaziert werden sollten.

grafik.png
Bild Wikipedia

Nicht alle Analyse-Dienste bieten die Heatmap-Funktion. Ich kenne von den bekannten Anbietern nur Yandex Metrica, wo es gratis dieses Feature gibt. Yandex Metrica ist der Website-Analytics-Service der russischen Konzerns Yandex. Yandex ist sehr ähnlich wie Google, wird aber in Deutschland eher weniger verwendet. Neben seiner Suchmaschine bietet Yandex auch E-Mail-Dienste und andere Services und Produkte an. Viele davon sind kostenfrei.

Da es jedoch möglich ist, mehrere Analytics-Dienste für das Website-Monitoring zu verwenden, spricht nichts dagegen, neben Google Analytics auch Yandex Metrica zu verwenden.

Ich persönlich würde empfehlen, auf jede durchgehende Großschreibung auf Websites zu verzichten und wenn jemand es unbedingt tun möchte, sollte es nur auf Überschriften beschränkt werden.

Anders sieht es bei den URLs aus. Hier sollte prinzipiell auf Großschreibung verzichtet werden. Damit beugt der Webmaster einigen Problemen in Zusammenhang mit Browsern und Servern vor und ist im Falle, dass die Website zu einem anderen Hoster transferiert wird, der andere Betriebssysteme verwendet, auf der sicheren Seite. URLs sollten immer klein geschrieben werfen.

Die Groß- oder Kleinschreiben der URL hat auch absolut nichts mit dem Ranking zu tun, es ist einfach praktischer keine durchgehende Großschreibung in URLs zu verwenden.

Bei WordPress z.B. kann jeder die Permalinks selbst festlegen. Verwendet hier nur Kleinschreibungen!
Auch wenn Ihr Dateien zum Download anbietet, dann gebt diesen Dateien einen kleingeschrieben Datei-Namen.

SEO: Artikel-Überschriften (Titel) und die Google-Logik

Dieser Artikel wurde zuerst in unserem Steemit-Blog veröffentlich.

Heute mal wieder ein kleiner SEO-Artikel von mir.
Anders als viele andere berichten wir hier nur über unsere eigenen Erfahrungen und die, dass könnt ihr glauben, sind sehr umfangreich. Schon seit 1999 haben wir erkannt, dass es möglich ist, Websites Vorteile bei den Suchmaschinen zu verschaffen. Damals war das noch sehr einfach.
Wir schoben eine Unmenge an Meta-Keywords in den Head der Website und schon fand Google die Website. Der Googlebot ließ sich sehr einfach beeinflussen.
Heute hat eine künstliche Intelligenz das Ruder bei Google übernommen und diese interessiert sich absolut nicht mehr für Meta-Keywords. Hier zählt nur noch der semantische Zusammenhang des Contents im Hinblick auf die Suchanfrage.

So gut wie alle klassischen On-Page-Maßnahmen sind heute zweitrangig und haben, wenn überhaupt, nur noch sehr marginal einen Einfluss auf das Ranking. Natürlich muss eine Website technisch fehlerfrei sein, aber die Attribute im HTML-Quelltext haben nicht mehr die Macht wie früher.
Ein Beispiel: Hatte früher eine H1-Überschrift immer eine besondere Stärke, muss das heute nicht mehr gelten.

Ich sehe alle Webmaster-Hangouts (wirklich alle) und dort wird sehr viel erzählt, wenn der Tag lang ist. Die Realität sieht jedoch anders aus und diese bedeutet tatsächlich: Jeder(!) sieht seine eigenen SERPS. Ich könnte sogar noch einen Schritt weiter gehen und behaupten, jeder hat sein eigenes Internet. Alles ist abhängig vom Ort der Abfrage und von den zur Verfügung stehenden Daten des Anfragenden bzw. des Endgerätes in Bezug auf die Suchanfrage.

Der Durchschnitts-User hat keine Ahnung von Tracking-Methoden und kümmert sich kaum um seine digital erzeugten Spuren, aber genau diese lassen einen personalisierten Datensatz anwachsen. Dieser kann sehr beträchtlich im Umfang werden und beeinflusst die Suchergebnisse.

Am einfachsten kann man es verstehen, wenn man Youtube heranzieht. Hier hat jeder bestimmte Kanäle abonniert und zeigt Youtube damit seine Interessen. Jedes Like oder Share wird gesammelt und so weiß Youtube, was jeder mag. Endsprechend werden Meldungen bei Euch eintrudeln und Videovorschläge gemacht. Youtube individualisiert das Portal speziell für jeden Geschmack und natürlich wird auch die Werbung entsprechend ausgespielt. Ein Gamer wird viel öfter Werbung zu Spielen sehen als z.b. jemand der sich nur für Musik interessiert. Das Ganze ist auch logisch nachvollziehbar. Je besser die Zielgruppe eingegrenzt wird, je höher ist die Klickrate. Nun, das ist wirklich eine sehr alte Regel, aber diese gilt heute immer noch. Manche Dinge ändern sich eben nie :-).

In einer ähnlichen Weise werden die SERPS (Die Ergebnis-Seiten der Suche) für jeden anders aussehen. Eine Ausnahme bilden hier große internationale Konzerne. Diese haben alle ein großes Budget und dieses sichert ihnen eine gute Platzierung und allumfassende Sichtbarkeit.
Das alles wird niemand offiziell seitens Google zugeben, aber es ist so. Glaubt mir oder glaubt mir nicht. Die Algorithmen laufen in Echtzeit bei dieser KI zusammen und die SERPS werden in Echtzeit und vor allem individualisiert ausgespielt.

Suchst Du in Frankfurt/Main z.B. nach „Auto kaufen“ wirst Du andere Ergebnisse erhalten, als wenn dieselbe Suche in Frankfurt/ Oder getätigt wird. Auch hier können wir die Logik der lokalen Komponente nachvollziehen. Es macht natürlich bei Produkten die direkt vor Ort gekauft werden können einen Sinn, den Ort mit einzubeziehen, von wo die Anfrage kommt.

Anders sieht es bei Produkten aus, die Online erworben werden können. Ihr könnt es selbst testen und viele wissen es auch. In den SERPS finden wir auf den ersten Plätzen immer erst die großen Verkaufts-Portale. Ob das gerecht ist, steht auf einem anderen Blatt, es ist jedenfalls so. Bei Google geht es auch nicht um Gerechtigkeit, sondern um Geldverdienen. Ich weiß, Google hört so etwas nicht gerne, aber es ist nun mal so. Kleine Online-Händler haben es deswegen sehr schwer gegen diesen enormen Wettbewerb zu bestehen. Bei Massenware ist es fast unmöglich einen gut laufenden Online-Shop aufzubauen. Bei Nischen-Produkten sieht es da besser aus.

Ok, jetzt habe ich wieder viel geschrieben, ohne auf das eigentliche Thema einzugehen. Dieses geht ja aus der Überschrift dieses Artikels hervor. „Artikel-Überschriften (Titel) und die Google-Logik“.

Damit ich nicht individualisierte SERPS erhalte, verwende ich eine Proxi-Suchmaschine wie z.B. startpage.com. Diese Suchmaschine verwendet den Index von Google, verhindert aber, dass Google „weiß“ wer da Etwas sucht. Die Proxi-Suchmaschine hängt sich sozusagen zwischen dem Anfragendem (Suchenden) und Google. Damit können die Ergebnisse nicht mehr individualisiert werden und die SERPS zeigen ein relativ neutrales Ergebnis.
Google behauptet ja immer, die bestmöglichen Ergebnisse zu liefern und das bedeutet, ein Suchergebnis zu zeigen, welches der Anfrage am ehesten entspricht.

Ich habe vor zirka einem Monat einen Artikel bei uns im Blog geschrieben. Dieser trägt die Überschrift: „ Crypto-Währungen im Auge behalten“, natürlich mit einem H1-Tag versehen. Wenn ich nun genau nach dieser Überschrift mit der Proxi-Suchmaschine suche, die wie ich bereits schrieb, den Google-Index verwendet, finde ich den Artikel erst auf Platz 80. Dieser Platz befindet sich also auf Seite 8 der Suchergebnisse. Damit hat dieser Artikel keine Chance organischen Traffic zu erhalten. Alle anderen Ergebnisse davor tragen andere Überschriften, enthalten auch nicht die Formulierung meiner Überschrift im Content und weichen damit erheblich von der Suchanfrage ab. Damit ist zweifelsfrei bewiesen, dass eine Artikel-Überschrift für sich alleine gesehen, die Chance auf ein gutes Ranking nicht beeinflusst. Diese Erkenntnis ist sogar für mich neu!

Offensichtlich korreliert der Inhalt meines Artikels (in den Augen von Google) in diesem Fall nicht genügend mit der Überschrift. Hier findet Ihr den Artikel: https://www.seo-boss.de/center/crypto-waehrungen-im-auge-behalten/

Als erstes kommt bei mir die Frage auf: Habe ich eine falsche Überschrift gewählt? Ja, das kann sehr gut sein. Eine Überschrift muss wohl zwingend ankündigen, was sich im Artikel befinden wird. Das allein zu realisieren ist schon eine kleine Herausforderung, steht jedoch der redaktionellen Freiheit entgegen, die Überschrift nach eigenem Gefallen wählen zu dürfen/ können.

Es wird in Zukunft immer schwieriger Websites für die Suche zu optimieren. Entscheidend ist und bleibt der Content.
Content ist und bleibt King. Gute Seo-Agenturen wissen sehr genau, dass heute die Hauptaufgabe darin besteht, die allgemeine Sichtbarkeit einer Website zu erhöhen. Alte Tricks helfen heute nicht mehr. Die Suchmaschienen sind einfach zu intelligent und folgen Ihrer eigenen Agenda. Gerechtigkeit ist in dieser nicht enthalten.

Copyright by @seo-boss

Gerne darf dieser Artikel in andere Sprachen übersetzt werden. Einzige Bedingung ist ein Verweis auf diesen Artikel hier.