SEO: Beeinflussen Kommentare unter einem Beitrag das Ranking?

grafik.png
Bildquelle: Pixabay

Es wird ja nicht jeder Webmaster die Zeit haben und sich alle Webmaster-Hangouts ansehen.

Ich selbst sehe mir alle an. Ich muss schließlich immer auf den aktuellen Stand der Dinge sein.

Im letzten Hangout kam eine wirklich gute Frage. Diese lautete:
Beeinflusst ein schlechter Kommentar unter einem hochwertigen Artikel das Ranking der Artikel-Seite insgesamt?

Um hier nicht um den heißen Brei zu reden, lautet die kurze und eindeutige Antwort: Ja. Diese Erkenntnis ist sogar für mich neu. Ich hätte nicht gedacht das Google hier keine Trennung vornimmt. So kann man sich täuschen.

Google „sieht“ Kommentare und den eigentlichen Artikel einer Website als eine zusammenhängende Seite und beurteilt die Seite als gesamten Content. Kommentare werden demnach nicht als vom eigentlichen Inhalt der Website Getrenntes betrachtet.

D.h. schlechte Kommentare können das Ranking eines qualitativ hochwertigen Artikels im Ranking negativ beeinflussen.

Falls ihr einen Blog betreibt und sich dort viele Trolle herumtreiben und miese Kommentare hinterlassen, dann habt ihr wohl keine Wahl und müsst die Kommentare moderieren oder im schlimmsten Fall deaktivieren.

Die Frage, die für mich nun im Raum steht ist folgende: Was charakterisiert einen schlechten Kommentar?

Ich denke, das bezieht sich z.B. weniger auf den Inhalt des Kommentars selbst als mehr auf dessen Form. Eine schlechte Rechtschreibung fällt bekanntlich unter die Qualitätsrichtlinien von Google. Ebenso dürfte Google es für minderwertig halten, wenn viele Emoticons in den Kommentaren verwendet werden. Das ist jedoch nur meine eigene Einschätzung. Möglicherweise mag Google Emoticons sogar. Da habe ich keine Ahnung. Ich werde das mal hinterfragen.

Was will ich mit diesem Post sagen? Wenn Ihr qualitativ hochwertige Beiträge auf Euren Websites oder Blogs schreibt, dann bedenkt, dass billige und schlechte Kommentare Euren Beiträgen in SEO-Hinsicht schaden.

Also, habt immer ein Auge auf die Kommentare und vor allem achtet darauf, dass, falls Ihr URLs in den Kommentaren zulasst, die auf No follow konfiguriert sind. Ansonsten könnte ein schlechter Link auf Eure Website zurückschlagen.

Hier könnt Ihr Euch den Hangout ansehen, wo Johannes Müller von Google es ganz klar sagt. Schlechte Kommentare schaden der Website.

SEO: Haben Groß- und Kleinschreibung einen Effekt auf das Ranking?

Noch vor wenigen Jahren war ich selbst davon überzeugt, dass eine durchgehende Großschreibung bei z.B. Überschriften sich nachteilig auf das Website-Ranking auswirkt. Ich dachte immer, Großschreibung wirkt wie „schreien“ und könnte eventuell den Spam-Algorithmus von Google und Co. ansprechen.

grafik.png
Bildquelle Pixabay

Ich kann heute mit Gewissheit sagen, dass Großschreibung keine negativen Auswirkungen auf das Ranking einer Website hat. Die durchgehende Großschreibung ist vielmehr ein Aspekt der UX (User experience) und jeder weiß, durchgehend großgeschriebene Texte lesen sich einfach schlechter. Aus diesem Grund sollte auch darauf verzichtet werden.

In einigen Fällen, wo zwei inhaltlich sehr ähnliche Websites miteinander konkurrieren und eine von den beiden durchgehende Großschreibung verwendet, wird Google wahrscheinlich auf Grund der besseren UX die bevorzugen, auf der nicht durchgehend großgeschrieben wird. Das ist aber nur mehr eine Vermutung. Ich habe keine Beweise dafür finden können.

Die UX ist natürlich ein indirekter Rankingfaktor. Indirekt deswegen, weil keine Metrik genau messen kann, wie einem User die Bedienbarkeit einer Website gefällt. Es mag sogar einige geben, die finden eine durchgehende Großschreibung besser. Wie die UX einer Website abschneidet kann aber anhand anderer Faktoren abgeleitet werden.
So können wir davon ausgehen, dass schlecht bedienbare Websites ihre Besucher weniger lange auf der Website halten und damit die Bounce-Rate schlecht abschneidet. Ebenso zeigen Analytics-Dienste, die z.B. eine Heatmap-Funktion haben oder die sogar die Interaktion der Benutzer aufzeichnen, wie gut oder schlecht die UX ist.
Eine Heatmap zeigt dem Betreiber der Website an, welche Elemente am meisten geklickt werden.

Hier seht Ihr eine solche Heatmap. Die Hitze-Karte zeigt jene Punkte rot an, wo besonders oft geklickt wird. Diese Daten können sehr wertvoll sein, geben diese doch eventuell Hinweise darüber, welche Elemente umplaziert werden sollten.

grafik.png
Bild Wikipedia

Nicht alle Analyse-Dienste bieten die Heatmap-Funktion. Ich kenne von den bekannten Anbietern nur Yandex Metrica, wo es gratis dieses Feature gibt. Yandex Metrica ist der Website-Analytics-Service der russischen Konzerns Yandex. Yandex ist sehr ähnlich wie Google, wird aber in Deutschland eher weniger verwendet. Neben seiner Suchmaschine bietet Yandex auch E-Mail-Dienste und andere Services und Produkte an. Viele davon sind kostenfrei.

Da es jedoch möglich ist, mehrere Analytics-Dienste für das Website-Monitoring zu verwenden, spricht nichts dagegen, neben Google Analytics auch Yandex Metrica zu verwenden.

Ich persönlich würde empfehlen, auf jede durchgehende Großschreibung auf Websites zu verzichten und wenn jemand es unbedingt tun möchte, sollte es nur auf Überschriften beschränkt werden.

Anders sieht es bei den URLs aus. Hier sollte prinzipiell auf Großschreibung verzichtet werden. Damit beugt der Webmaster einigen Problemen in Zusammenhang mit Browsern und Servern vor und ist im Falle, dass die Website zu einem anderen Hoster transferiert wird, der andere Betriebssysteme verwendet, auf der sicheren Seite. URLs sollten immer klein geschrieben werfen.

Die Groß- oder Kleinschreiben der URL hat auch absolut nichts mit dem Ranking zu tun, es ist einfach praktischer keine durchgehende Großschreibung in URLs zu verwenden.

Bei WordPress z.B. kann jeder die Permalinks selbst festlegen. Verwendet hier nur Kleinschreibungen!
Auch wenn Ihr Dateien zum Download anbietet, dann gebt diesen Dateien einen kleingeschrieben Datei-Namen.

Neue Website bei Suchmaschinen anmelden, ja oder nein?

Zunächst ersteinmal die Frage: Muss eine Website überhaupt bei den Suchmaschinen angemeldet werden? Es gibt ja wirklich Experten und hier meine ich sehr bekannte Leute aus der SEO-Welt, die sagen: alles Quatsch, Websites müssen nicht bei Suchmaschinen angemeldet werden, die Bots, Spider, Indexer oder Crawler finden die Website allein und werden diese indexieren.

Ich könnte an dieser Stelle auf einen sehr bekannten SEO-Blog verweisen wo genau diese Meinung vertreten wird. Ich will aber niemanden auf die Füße treten, sondern hier ganz klar sagen, ja, natürlich, muss eine Website bei Suchmaschinen angemeldet werden, vor allem wenn diese selbst erstellt wurde, neu ist und über keine Backlinks von anderen Websites verfügt. Über diese Backlinks würden die Indexer-Bots die Website dann natürlich auch finden. Ein Suchmaschinen-Bot arbeitet wie eine Spinne, deswegen werden diese häufig auch Spider genannt.

grafik.png

Bei Websites, die mit einem bekannten Web-Baukasten (Jimdoo, Wix usw.) erstellt wurden, muss man sich nicht um die Anmeldung kümmern. Hier sorgen die Anbieter für eine Indexierung. Bei selbsterstellten Websites muss der Webmaster aber aktiv werden.

Nehmen wir als Beispiel den allseits bekannten Googlebot. Was macht dieser? Er verfolgt hauptsächlich Links (im Netz) und indexiert 24/7 alles was er findet. Wenn wir nun eine neue Website haben und keine einzige andere Website verweist auf diese neue Website. Wie soll dann Googlebot diese Website finden? Wenn im Netz kein Faden (Link) zu einer neuen Website führt, dann findet der Spider die neue Seite auch nicht. So einfach ist das.

Also Du Schlaumeier, ich hoffe, Du liest diesen Beitrag. Eine neue Website muss(!) natürlich bei den Suchmaschinen angemeldet werden. Alternativ muss sie wenigstens über einen Verweis (Backlink) von einer anderen Website verfügen, die Googlebot bereits indexiert hat. Es würde also auch genügen, die neue Website in einen bekannten Webkatalog anzumelden. Hier würde Googlebot den neuen Link dann verfolgen und die Website früher oder später indexieren. Das kann jedoch dauern.

Will jemand eine Website selbst direkt bei Google anmelden, dann funktioniert das über die Search Console. Wir brauchen also einen Google+ Account und mit diesem kann ein kostenloses Google-Analytics-Konto eröffnet werden. Hier verknüpfen wir unsere Website dann mit der Search Console.

Auch bei Bing müssen wir jetzt expilzit einen Account für die Bing Webmaster Tools besitzen. Bis vor Kurzem konnte man bei Bing noch Websites anmelden, ohne einen Account zu besitzen. Dafür wurde extra ein Anmeldeformular von Bing bereit gestellt, wo nur die URL der anzumeldenden Website eingetragen werden musste. Hier in diesem Blogeintrag kann man noch lesen wie es bei Bing funktionierte. Ihr seht ja die URLs auf den Screenshoots und könnt es selbst testen. Das funktioniert heute nicht mehr. Heute brauchen wir einen Account für die Bing-Webmaster-Tools. Diese Tools bieten sehr ähnliche Funktionen wie Google-Analytics und die Search Console.

Wer keine Lust hat, sich bei diesen Diensten anzumelden, kann seine Website auch mit den bekannten Freesubmittern anmelden. Diese funktionieren heute immer noch. Hier habt ihr zwei solcher Anbieter:
http://www.freesubmitter.de/
https://www.freewebsubmission.com/
Ihr solltet für die Anmeldung, wenn möglich, eine neue E-Mail-Adresse für Eure Domain anlegen. Einige Suchmaschinen werden Euch nämlich eine Bestätigungs-E-Mail senden und erwarten dann, dass Ihr selbst noch ein Formular für die Website ausfüllt. Ich würde empfehlen, diese Formulare auszufüllen, selbst wenn es sich um eher unbekannte Suchmaschinen handelt. Wenn alles fertig ist, dann löscht Ihr die neu angelegt E-Mail-Adresse wieder. Es gibt immer einige, die E-Mail-Adressen gerne weitergeben oder Euch mit Spam zumüllen. Deswegen sollte nicht gerade die E-Mail-Adresse für die Anmeldung über Freesubmitter verwendet werden, die häufig oder geschäftlich benutzt wird.

Dieser Beitrag wurde zuerst in unserem Blog von Steemit veröffentlich.

SEO, welche Domain hat die selbe IP-Adresse wie meine?

grafik.png

Für die Suchmaschinenoptimierung einer Website kann es manchmal sinnvoll sein zu wissen, wer die virtuellen Nachbarn sind. Die meisten Websites laufen auf geteiltem Webspace, oft in einer virtualisierten eigenen System-Umgebung. Das bedeutet, dass viele Domains sich ein und dieselbe IP-Adresse teilen und oft auch auf demselben Server physisch gehostet werden. Manchmal sind es mehrere tausend Domains die sich dieselbe IP-Adresse teilen, aber auch Rootserver haben nicht immer eine IP-Adresse für sich allein.

„Offiziell“ hat diese Nachbarschaft keinen Einfluss auf das Ranking einer Website, aber „offiziell“ ist nicht immer das was wirklich gilt.

Gibt es auf derselben IP-Adresse z.B. einige Websites oder Domains die auf einer Blacklist stehen, kann das einen negativen Effekt auf die eigene Website haben. Deswegen ist es gut zu wissen, welche Domains alles dieselbe IP-Adresse verwenden wie unsere eigene Domain. Dem Hoster ist es ziemlich egal. Bekommt er einen neuen Kunden, wird er dessen Webspace (Speicherplatz für die Dateien der Website/ Domain) auf einen Server legen, der gerade Platz bietet. Sehr gute Hoster achten auf eine gute Balance und Mischung der Websites und entsprechend fallen hier auch höhere Hosting-Kosten an. Billighoster machen auf Masse und nehmen wenig Rücksicht auf die einzelnen Belange der Domains. Hier kommt es dann nicht selten zu Totalausfällen, weil es eben immer Websites gibt, die zu viele Ressourcen für sich in Anspruch nehmen. Das korrekte Limitieren der Server-Ressourcen (Zuteilung von Systemressourcen für die einzelne Domain) erfordert Systemadministratoren, die sich mit dieser Materie auskennen, und diese Fachkräfte kosten wieder Geld (Gehalt) und treiben die Preise in die Höhe.

grafik.png

Im Prinzip ist es kein Problem mehrere tausend Domains über ein und dieselbe IP-Adresse an das Internet anzubinden und technisch wäre es sogar möglich, 5 – oder sogar 10 000 Domains auf einer IP laufen zu lassen.

Die meisten Domains weltweit laufen noch über eine IPv4-Adresse. Der Adressbereich von IPv4 ist sehr begrenzt und tatsächlich ist dieser Adressbereich schon seit einiger Zeit erschöpft. Man kann sich zwar auch heute noch eine eindeutige eigene IPv4-Adresse kaufen, weil viele Hoster sich diese auf Vorrat reserviert haben, aber hier muss man natürlich wieder extra für diese Adresse bezahlen. Die Preise halten sich jedoch in Grenzen. Wann immer möglich, sollte man versuchen eine eigene IP-Adresse für die Domain der Website zu bekommen oder sogar einen eigenen Server, auch wenn es nur ein kleiner shared Root-Server ist. Erfahrungsgemäß teilen sich diese nur mit wenigen anderen Domains die IP-Adresse. Echte dedizierte Rootserver (komplette Hardware-Server) sind natürlich am besten, weil man hier die volle Kontrolle hat und meistens auch eine eigene eindeutige IP inklusive ist. Für viele Websites und kleine Webprojekte sind aber dedizierte Webserver vollkommen überdimensioniert und die Kosten stehen in keinem guten Verhältnis zum Nutzen. Hinzu kommt noch, dass wir hier die Administration des Servers komplett selbst übernehmen müssen. Damit stehen wir direkt in der Haftung, wenn mit diesem Server irgendetwas mieses passiert. Da Server permanent unter Angriffen leiden, ist es nur eine Frage der Zeit, wann schlecht gewartete Server von bösen Buben missbraucht werden.

Um dem vorzubeugen, könnten wir zu einem managed Rootserver greifen. Hier übernimmt der Hoster die grundsätzliche Verwaltung des Servers (Updates usw.) und kümmert sich vor allem um die Sicherheit. Das schlägt natürlich wieder voll auf die Kosten durch. Dedizierte managed Server kosten oft das Mehrfache eines Servers der selbst verwaltet wird (bei gleicher Ausstattung). Gerade Unternehmen mit Webshops sollten langfristiger denken und wenn sie keine eigenen Systemadmins haben, sich für einen managed Server entscheiden. Das erspart sehr viel Zeit und oft auch Ärger.

grafik.png

Es gibt genügend Portale wo Hoster getestet werden. Bevor jemand sich für einen Hoster entscheidet, kann ein Blick auf eines dieser Portale nicht schaden. Ich kann hier z.B. Webhoster-Wissen empfehlen oder Webhosting-Vergleich.

Egal was „offiziell“ gesagt oder geschrieben wird. Es ist ein Fakt, dass eine Website/ Domain von einer schlechten virtuellen Nachbarschaft negative Einflüsse erben kann.

Haben wir z.B. einen bekannten Spamer, der seine Massen-E-Mails über seine Website versendet und dieser verwendet die selbe IP wie unsere eigene Domain, ist es sehr wahrscheinlich, dass auch unsere E-Mails nicht durch alle Spamfilter durchkommen und unschuldig im Spam-Ordner landen.

Jetzt fehlt nur noch eine Anlaufstelle, wo wir unsere virtuelle Nachbarschaft checken können. Man findet hier sehr viele Anbieter, die im Grunde alle zu empfehlen sind. Die Such-Phrase um diese zu finden lautet: „Reverse IP Check“.
Wer zu faul ist zu suchen, der könnte z.B. diesen Anbieter verwenden um zu checken welche Website/ Domain mit derselben IP ans Web angebunden ist.

Noch ein Hinweis zum Schluss. Es gibt auch unter den Billighostern gute Anbieter. Wie immer, Ausnahmen bestätigen die Regel 😎.

Dieser Beitrag wurde zuerst in unserem Steemit-Blog veröffentlich.

Auto-Retweet-Service, Re-Follow

Es kann ja nie schaden, einen Retweet mehr zu haben. Immerhin ist es ein zusätzliches Signal, wenn auch ein sehr schwaches.

Wir bieten direkt mit unserem eigenen Account einen kostenlosen Retweet-Service an. Benutze den Hashtag #myseoboss und Dein Tweet wird direkt von unserem Account retweetet und außerdem noch auf Pinterest geteilt. Ihr bekommt also 2 Signale gratis 🙂 von einem echten Account und nicht von einem Bot-Account.

Nicht erlaubt ist alles was gegen geltende Gesetze verstößt, nicht jugendfreie Inhalte, Scam und Spam und alles was nicht seriös ist. Wer für solche Tweet unseren eigenen Hashtag #myseoboss missbraucht wird von uns gesperrt, also überlegt gut, bevor ihr unserer Hashtag verwendet :-).

Solange die Tweet seriös sind, könnt ihr für alles unseren Hashtag verwenden. Keine Probleme haben wir mit normaler Werbung. Gern gesehen sind Themen wie SEO, Webmaster, IT, Technik, IT-Sicherheit, Wissenschaft, eben alles was irgendwie von allgemeinem Interesse sein könnte. Wir haben auch einen Re-Follow eingerichtet wer uns auf Twitter folgt, dem folgen wir zurück.

Hier gehts es zu unserem Twitteraccount.

Warum ist eine Presseerklärung wertvoll?

Bild pressemiteilungenWenn es darum geht Öffentlichkeitsarbeit für ein Unternehmen zu leisten, dann ist eine Presseerklärung oder -Mitteilung das Mittel der Wahl.

Heute ist es so, dass Vieles, was aus den PR-Abteilungen kommt, Gefahr läuft, Spamscores zu sammeln, und die Leute in den PR-Abteilungen sind sich dessen gar nicht bewusst.

Die Suchmaschinen sind heute sehr „misstrauisch“ und wer denkt, er könnte seine Information wahllos ins Web pumpen, der kann durchaus das Gegenteil von dem bewirken, was er eigentlich beabsichtigt.

Jeder kann es selbst testen. Wer zu einem bestimmten Keyword mit einer seiner Websites oder Landingpages gut rankt, braucht diese Seite nur ein wenig zu verändern oder zu überarbeiten. Danach wird diese Seite in den SERPS erstmal um einige Plätze nach unten durchgereicht. Das beobachte ich praktisch in jedem Fall wo Websites, die ein spezielles Thema behandeln z.B. relauncht werden. Oft genügt schon ein kleines Facelifting und wir verschwinden erstmal von den guten Positionen, die wir uns über die Jahre erarbeitet haben. Das hängt mit der Autorität zusammen, welche die Suchmaschinen einer Website zugestehen. Wir könnten daraus ableiten, dass Suchmaschinen keine Veränderung mögen und in der Tat scheint es auch so zu sein. Eine Ausnahme bilden reine Newsportale oder Inhalte die als Pressemitteilung deklariert werden. Hier erkennen die Suchmaschinen die Aktualität und verstehen auch die semantischen Zusammenhänge

Suchmaschinen mögen es, wenn der Content einer Website insgesamt zu einem Thema wächst. Das ständige verändern von einzelnen Artikel oder Beiträgen „mögen“ Suchmaschinen definitiv nicht. Deswegen sollte man alte Beiträge am besten unangetastet lassen und statt diese zu editieren lieber neue Artikel verfassen. Je spezifischer eine Website ein Thema behandelt um so mehr werden die Suchmaschinen diese „mögen“. Ob der Content eine hohe Qualität aufweist, bewerten Suchmaschinen anhand der Signale, die auf diesen Content verweisen. Wikipedia wird z.b. sehr oft zitiert und dabei wird auf die Quelle verwiesen. Aus diesem Grunde hat Wikipedia eine DA (Domain Autorität) von 91/100. Dieser Wert wird nur von sehr wenigen Domains übertroffen.

Viele Website behandeln viele unterschiedliche Themen. Hier ist die interne Seiten-Struktur oder die Kategorisierung sehr wichtig. Wer öfter Pressemitteilungen veröffentlicht, der sollte dafür eine spezielle Abgrenzung vom Rest der Website reservieren. Einige lagern ihre Pressemitteilungen in eine Subdomain aus, andere legen dafür spezielle Unterverzeichnisse an. Im Prinzip ist es egal wie man diese Informationen aussortiert, wichtig ist nur, dass man es macht. Pressemitteilungen müssen auch als solche erkennbar sein und brauchen ihr eigenes Revier :-). Bei den häufig verwendeten CMS legt man dafür einfach eine eigene Kategorie an.

Selbst wer nur einen kleinen Webshop betreibt, sollte eine Rubrik „Presse“ anlegen und dort z.B. für jedes neue Produkt einen speziellen Artikel anlegen. Oft haben diese Presse-Artikel mehr organischen Traffic über die Suchmaschinen als die Produkt-Pages selbst. Deswegen muss natürlich von diesem Presse-Artikel, wenn er ein Produkt oder eine Dienstleistung beschreibt, ein direkter Link auf die Produktseite verweisen.

Pressemitteilungen haben eine sehr lange Tradition und deswegen verwundert es auch nicht, dass diese in die digitale Welt des Web übernommen wurde.

Sehr wichtig ist, dass eine Pressemitteilung auch entsprechende Inhalte beinhaltet, welche typischerweise in einer solchen Erklärung enthalten sein sollten,

Es darf in jedem Fall auch immer etwas Kreativität mit einfließen. Gut macht sich immer, wenn die Pressemitteilung mit einem Slogan oder Zitat endet. Überhaupt sollten sich Unternehmen angewöhnen eigene Slogans zu entwickeln. Ein guter Slogan hat die selbe psychologische Wirkung wie ein gutes Firmenlogo. Es geht um den Wiedererkennungswert des Unternehmens. Viele sprechen von der CI (Corporate Identity). 

Wir selbst beobachten und begleiten Unternehmen schon viele Jahre und wissen, von der CI bleibt letztlich immer nur das Logo übrig. Eine wirklich konsequent durchgezogene CI wirkt auf viele Kunden eher abschreckend und langweilig. Das ist jedenfalls unsere Erfahrung. Eine CI ist nichts anderes als eine Uniform. Voran getrieben wird der CI-Gedanke hauptsächlich von Werbeagenturen. Sie entwickeln ausgefeilte CI´s und binden so die Kunden für lange Zeit an sich. Große Unternehmen haben große Budgets und davon fließt sehr viel in Werbung, Marken-Pflege und letztlich dem CI.

Zurück zum Thema.

Wie sollte eine Pressemitteilung aufgebaut sein?

Ich verweise hier auf einen guten Artikel von der Gründerküche, der diese Frage kurz und knackig beantwortet.

Nur für uns zum Testen: Dieser Beitrag wurde auch hier publiziert.

Wozu brauchen wir eine SEO-Agentur?

Bild SEO-Dame

Bei vielen Menschen herrscht die allgemeine Sichtweise, dass eine SEO-Agentur irgendwie zaubern können müsste und eine Website zu jedem gewünschten Keyword auf Platz 1 bringt. Das ist natürlich totaler Quatsch und wer so etwas verspricht ist ein Hochstapler. Gerade in den letzten Jahren versagen klassische Optimierungsmethoden immer mehr bzw.  diese zeigen nur noch eine marginale Wirkung. Worauf es heute ankommt, ist mehr ein Mix aus Maßnahmen, die nur im perfekten Zusammenspiel gewünschte Ergebnisse bringen.

Ok, wir können etwas an der klassischen On-Page-Schraube drehen, aber selbst hier müssen wir schon wieder aufpassen, dass wir die Website nicht überoptimieren, wobei niemand genau definieren kann, wo eine Überoptimierung anfängt. Es lauern an allen Ecken und Kanten Gefahren, die viele selbst nie als solche erkennen. Da gibt es immer die Gefahr, gegen Richtlinien zu verstoßen und damit die noch größere, abgestraft zu werden.

Ich versuche im Folgenden einmal zu erklären, was eine SEO-Agentur eigentlich macht.

Jeder möchte mit seiner Website Erfolg haben. Da Erfolg heute größtenteils mit mehr Umsatz assoziiert wird, sind wir darauf angewiesen, in den Suchmaschinen zu unseren Keywords, auf Seite eins oder maximal Seite zwei gelistet zu werden. Natürlich gibt es noch andere Ziele als nur mehr Umsatz zu erwirtschaften. Häufig geht es einzig und allein um mehr Sichtbarkeit. Um überhaupt irgendein Ziel erreichen zu können muss eine Website bestimmte Anforderungen erfüllen:

  1. Sie liefert guten und einzigartigen Content (Content ist King).
  2. Sie ist gut von allen Endgeräten aus bedien- und erreichbar.
  3. Sie funktioniert fehlerfrei (Programmierung/ Code).
  4. Sie hat eine gute Performance (Ladegeschwindigkeit).
  5. Sie ist für den Benutzer sicher.

Die Reihenfolge ist jetzt frei gewählt, aber es sind im Kern genau diese fünf Punkte die eine Page erst einmal erfüllen muss um überhaupt einem Standard zu entsprechen, mit dem wir arbeiten können. Da wir hier priorisieren, immer ohne kryptische Begriffe auszukommen, würde ich sagen, diese genannten fünf Punkte sind die Basis, die jede Website erfüllen muss, um ein Rennen beginnen zu können. Ja, es handelt sich tatsächlich um eine Art Wettrennen oder besser ausgedrückt Wettbewerb. Jedoch gewinnt nicht immer der Schnellste sondern meistens der Klügere und noch häufiger der mit mehr Ausdauer; und ja, ich muss es zugeben, auch der mit dem größten finanziellen Einsatz. Geld regiert die Welt. Das ist beim SEO oder eben dann beim SEA (Werbung bei den Suchmaschinen) leider nicht anders. Wir können sehr viel mit Fleiß und Einsatz kompensieren, aber eben nicht alles.

Die oben genannten 5 Punkte können wir alle in die On-Page-Ecke der SEO schieben. Neben diesen Faktoren, die immer und direkt von der Website selbst ausgehen, kommen noch viel Wichtigere hinzu. Das sind die sogenannten Off-Page-Faktoren. Hierzu zählt alles, was von außen positiv auf die Website einwirkt. Hier muss ich die Relativität ins Spiel bringen, denn was positiv oder negativ gesehen wird, darf und sollte jeder selbst entscheiden können. Hier gibt es sicherlich einen Minimalkonsens, dem jeder zustimmen würde. Ich stelle diesen hier in nur 3 Punkten dar.

  1. Eine Website muss eine Autorität in ihren Kern-Themen besitzen. Ob das der Fall ist, kann nur von außen bestimmt werden.  Es bestimmen hier in erster Linie die Besucher der Website, ob diese eine Autorität zu ihren Themen darstellt. Die Website selbst hat auf ihre eigene Autorität nur bedingt einen Einfluss. Wenn der Content sehr gut ist, werden auch andere Websites und auch die sozialen Netzwerke häufig darauf verweisen. Ja ich weiß, wer bestimmt was gut und was schlecht ist :-)? Na ganz klar, der Markt. Selbst eine Witze-Seite kann eine hohe Autorität erreichen, eben auf das Thema „Witze“ bezogen. In jedem Fall muss die Website für den Besucher informativ oder unterhaltsam sein oder sie muss mit Produkten aufwarten, die Verbraucher sich wünschen. Es gibt nur diese 3 Gründe warum Websites besucht werden: Informationen, Unterhaltung, Produkte.
  2. Sympathie: Es gibt keine SEO-Metrik, die Sympathie (für eine Website)  in Daten darstellen kann, aber wenn eine Website sympathisch ist und gefällt, dann wird sie ihre Besucher auch zur Wiederkehr bewegen. Im Prinzip können wir eine Website wie eine eigene Entität betrachten und bei den meisten guten und bekannten Seiten ist es auch so, dass sie wie solche gesehen werden.
  3. Sichtbarkeit: Die allgemeine Sichtbarkeit zu erhöhen ist wohl mit Abstand eines der wichtigsten Ziele. Egal ob eine Unternehmens- oder eine private Hobby-Website. Alle wollen in aller Munde sein. Im Web ist das eben die Sichtbarkeit. Hier gehen die Punkte zwei und drei eigentlich nahtlos ineinander über. Die Sichtbarkeit können wir auf vielerlei Arten beeinflussen. Haben wir einen fleißigen und kreativen social Networker, dann wird dieser ständig an der Vergrößerung der Reichweite seiner Kanäle arbeiten. Wir selbst sehen auch den klassischen Linktausch als eher unkritisch und würden sogar empfehlen hier auch aktiv zu sein. Gerade für Websites mit ähnlichen Themen, kann es sehr vorteilhaft sein, sich gegenseitig zu verlinken.

Ja, dem aufmerksamen Leser wird nicht entgangen sein, dass noch nicht geschrieben wurde, was denn nun eine SEO-Agentur so macht? Die Antwort auf diese Frage ist einfacher als die Realisierung der Ziele. Die SEO-Agentur arbeitet daran, alle aufgezählte Punkte zu optimieren. Zu 60% ist ein SEO-Dienstleister ein Berater der Handlungsempfehlungen gibt. Die anderen 40% gehen in das Monitoring und Reporting. Häufig arbeiten SEO-Agenturen auch allumfassend und übernehmen von der Website-Erstellung bis zur redaktionellen Betreuung alles. Das sind dann die sogenannten Full-Service-Agenturen, wozu die Wolfram Consult GmbH & Co. KG sich auch zählt.

Vielleicht sollte hier auch nicht unerwähnt bleiben, dass das Feld der OFF-Page-Optimierungen nahezu unbegrenzte Möglichkeiten bietet, während man ON-Page sehr schnell an die natürlichen Grenzen des Machbaren stößt.

Eine sehr wichtige Sache sollte sich jeder merken: „SEO ist ein Weg und keine Maßnahme.“ Letztlich können wir nur sichtbarer machen, was auch als Content vorhanden ist. Aus diesem Grund liegt der Schwerpunkt ganz klar beim einzigartigen (uniquen) Content. Hier kann immer etwas optimiert und ausgebaut werden.

Wer selbst in einer SEO-Agentur arbeitet oder gearbeitet hat weiß, dass in SEO-Projekte unglaublich viel Fleiß und Zeit fließen. Wochenende ist etwas für Produktionsarbeiter :-). Wir arbeiten fließend, schlafen auch mal bis um 10.00 Uhr und sind oft auch am Wochenende für Sie digital unterwegs.

Bei dieser Gelegenheit sei noch erwähnt: Wir suchen immer motivierte, kreative neue Mitarbeiter für die Bereiche:

Webmaster, Server-Administration (Debian), Web- und Grafikdesign, SEO, SEA, SEM und Social Networker. Gerne auch Quereinsteiger. Wenn Sie gute Referenzen (eigene Projekte, Nachweise über Erfahrungen) zum Vorzeigen haben, dann zählen diese für uns mehr als Zertifikate. Senden Sie Ihre Initiativbewerbung nur per E-Mail, mit Bezug auf diesen Beitrag, an: karriere[at]wolframbk.de

Eine neue und überarbeitete Version dieses Artikels haben wir auf Steemit veröffentlicht.

Eine Kritik an Google

Bild SEOWas bezweckt Google mit diesen ganzen Reglementierungen, die als Empfehlungen in den Webmasterrichtlinien genannt werden? Welche Ziele verfolgt es damit?

Es läuft letztlich wohl darauf hinaus, dass sich das Web, welches ja nun mal aus Websites besteht, den Regeln und Wünschen von Google „unterwirft“.

Ich kopiere hier mal einige „Empfehlungen“ aus den Webmasterrichtlinen hinein und werde daneben in Klammer schreiben, was ich davon halte.

„Konkrete Empfehlungen von Goolge, nachzulesen in den Richtlinien für Webmaster und zwar hier.

Vermeiden Sie die folgenden Methoden:

  • Automatisch generierte Inhalte (schlechte Empfehlung, was ist mit RSS Feeds? diese erzeugen doch automatisiert Content, wo ist das Problem?)
  • Teilnahme an Linktauschprogrammen (Ich finde es eine Frechheit, Webmaster Linktauschprogramme zu vermiesen. Diese Programme haben das Internet erst groß gemacht. Was ist mit den ganzen Webverzeichnissen und Linklisten, sind die jetzt böse? Letztlich ist auch eine Suchmaschine ein Index von Websites und viele linken auch auf Google zurück, in welcher Form auch immer.)
  • Erstellen von Seiten ohne oder mit nur wenigen eigenen Inhalten (Es gibt einige Websites, die wollen nicht mehr als eine Webvisitenkarte sein, nicht mehr und nicht weniger, die brauchen also kaum Content und wollen auch keinen.)
  • Cloaking (OK, dass muss bestraft werden!)
  • Irreführende Weiterleitungen (Was ist eine irrenführende Weiterleitung, wer entscheidet das? Es gibt viele durchaus sinnvolle Weiterleitungen)
  • Verborgener Text/verborgene Links (Ja, das ist mies.)
  • Brückenseiten (Wo ist das Problem? Wenn man es technisch sieht, ist Google auch nur eine Brückenseite)
  • Kopierte Inhalte (Das sollten sich die Medien-Konzerne auf die Fahnen schreiben, die beziehen doch alle die selben Nachrichten und publizieren teilweise 1 zu 1 und dennoch werden die alle von Google gut geränkt)
  • Teilnahme an Affiliate-Programmen ohne ausreichenden Mehrwert (Junge, Junge, hier bekomme ich einen echten Hals. Was ist denn Adwords, was ist das Ganze SEA? Ist das alles mit einem Mehrwert hinterlegt? Hier verstösst Google eindeutig gegen seine eigenen Empfehlungen und ich bzw. wir vom SEO Boss sind, soweit ich das sehen kann, in der kompletten SEO-Szene, die Einzigen die sich trauen das zu thematisieren. So gut wie alle SEO-Agenturen am Markt, haben keine eigene Meinung, sie setzen einfach nur um was Google vorgibt und damit unterstützen sie die Bevormundung der Webmaster von Google.)
  • Laden von Seiten mit irrelevanten Keywords (Ja das ist OK. Es macht auch gar keinen Sinn Keywords für Seiten, sei es als Anker oder sonstwie zu verwenden, wenn der Content nicht passt.)
  • Erstellen von Seiten mit schädlichen Funktionen, durch die beispielsweise Phishingversuche unternommen oder Viren, Trojaner oder andere Badware installiert werden. (Das ist sehr richtig!)
  • Missbrauch von Rich Snippet-Markup (Wo fängt der Missbrauch an?)
  • Senden von automatisierten Anfragen an Google (Hey Google, nachdem ich eine Suchphrase in Deine Suchmaske eingetragen habe, wird der Vorgang ohnehin automatisiert, oder nicht? Durch das reCaptcha V2 sind automatisierte Anfragen so gut wie unmöglich geworden, also ist diese Empfehlung überflüssig.)

Ich fasse also mal zusammen. Google will natürlich in allererster Linie Geld verdienen und am besten dem kompletten Werbemarkt beherrschen. Das ganze Getue mit den kostenlosen Diensten ist ein Blender. Nichts ist kostenlos! Jeder bezahlt mit seinen Daten! Das ist die Realität.

Wir betreiben seit Jahren eine kleine Werbewebsite. Auf dieser gibt es nichts, was den Besucher irgendwie nervt. Wir verwenden keine Werbelayer, keine Popups, einfach nichts was sich irgendwie ungefragt im Browser öffnet. Wir versenden keine Spam-Mails und verwenden nicht mal ein Newsletter-System. Google hat die Seite zwar indexiert, aber zu keinem einzigen wichtigen  Keyword rankt die Seite überhaupt. In 5 Jahren ist so gut wie kein einziger Besucher über die organische Suche von Google auf die Seite gekommen. Wie kann das sein? Gibt es hier einen Interessen-Konflikt? Ist das Google Webspam-Team wirklich neutral und vor allem seriös?

Wir sind schon viele Jahre am Start und wissen sehr genau, dass Google auch den letzten Krümmel Umsatz oder Erfolg keinem anderen könnt. Diese Entwicklung darf kein Webmaster unterstützen. Das Internet ist ein Menschenrecht und, es gehört niemanden. Wir bezahlen alle unsere Gebühren für den ISP und damit erwerben wir auch das Recht auf Netzneutralität und ungehinderten Zugang zu Informationen.

Google, Du hast vergessen, dass es die Menschen und Benutzer des Internets sind, die Dich groß gemacht haben. Höre auf hier den Pascha zu spielen und sei, was Du eigentlich sein sollst, ein Dienstleister und kein Bestimmer!

Der Core von Google ist eine künstliche Intelligenz und ich weiß, dass diese KI diesen Betrag lesen und die Domain dafür bestrafen wird. Das ist uns egal, was gesagt werden muss, muss einfach auch mal gesagt werden! Niemand in der sogenannten SEO-Szene erhebt mal das Wort. Das wäre jedoch aktuell sehr wichtig. Diese Entwicklung der totale Kontrolle und Bevormundung im Internet muss aufhören!

Warum muss alles reglementiert werden? Der Markt sollte das allein klären dürfen.

Bei dieser Gelegenheit will ich mal eine wirklich gute und unbestechliche Suchmaschine empfehlen und zwar http://gigablast.com/. Hier kann man sich keine Werbeplätze kaufen und allein das macht gigablast wirklich seriös. Der Quelltext von Gigablast ist offen und jedem steht es frei, sein eigene Suchmaschine, auf diese Quellen aufbauend, online zu bringen.

Ich habe prinzipiell nichts gegen Google, aber wenn ich sehe, dass Google offensichtlich etwas gegen alle hat, die auch ein wenig im Markt mitmischen wollen, dann nehmen wir uns die Freihheit und üben auch mal Kritik an dem Giganten. Diese Kritik ist mehr als berechtigt. Wir unterstützen auch das europäische Projekt von Quant, dass ist eine Suchmasschine die von sich selbst sagt:

  • Die einzige europäische Suchmaschine
  • Wir setzen keine Cookies
  • Wir speichern niemals Ihren Suchverlauf

Eine Suchmaschine soll Menschen dabei helfen, Informationen zu finden. Es kann und soll nicht die Aufgabe einer Suchmaschine sein, dass Internet zu reglementieren, zu manipulieren und seine Marktposition zu benutzen um Regeln zu erstellen, an die sich dann alle zu halten haben. Wer gibt Dir Google das Recht, über Qualität von Content zu entscheiden? Es sollte einzig und allein dem Verbraucher zustehen über Qualität von Produkten und Content zu entscheiden.

Googlebot erlauben CSS- und JS-Dateien zu crawlen

Wie im echten Leben auch, sind es manchmal die kleinen Ding im SEO, über die sich besonders der Googlebot freut. Dieser möchte nämlich explizit eine Genehmigung dafür haben, dass er CSS- und JS-Datein verwenden darf. Das Ganze lässt sich sehr einfach über die robots.txt erledigen, die bei jeder Domain oder Website im Root-Verzeichnis liegen sollte. Einfach diese 3 Zeilen hinzufügen und Google meckert nicht mehr über geblockte Ressourcen:

User-agent: Googlebot
Allow: *.css
Allow: *.js

Mein Alexa Traffic Rank bleibt stehen

Seit Google seinen öffentlichen Pagerank beerdigt hat, sehen viele auf den Alexa Traffic Rang. Dieser hat definitiv vom Tod des öffentlichen PRs profitiert. Dieser Rang oder eben (engl.) Rank, ist ein erster guter Indikator für die Beliebtheit einer Website. Unter SEO´s genoß dieser Rank früher kein sehr hohes Ansehen. Man konnte diesen viel zu einfach beeinflussen. Ganz so einfach ist das heute nicht mehr und Alexa hat seine Qualitätskriterien ziemlich nach oben geschraubt. Wurde früher wirklich der komplette Roh-Traffic gemessen, sieht Alexa heute genauer hin und filtert z.B. Bot-generierten Traffic weitestgehend heraus. Es bringt in der Tat sowieso nichts solche Bots zu verwenden. Der daraus resultierende Nutzen geht gen NULL. Vielmehr schadet heute jede unnatürliche Erzeugung von Traffic dem Ansehen der Website bei den Suchmaschinen.

Es dürfte sich ja in der Zwischenzeit herumgesprochen haben, dass die großen Suchmaschinen von künstlichen Intelligenzen gesteuert und überwacht werden. Diese sind wirklich sehr intelligent und kennen z.B. die IP-Adressen von den bekanntesten Proxie-Servern. Ebenso sind alle VPN-Server und Dienste bekannt. Wer also künstlichen Traffic über Proxie oder VPN erzeugt, schürrt allein dadurch schon das Misstrauen der Suchmaschinen, jedenfalls ist das unser Eindruck. Es geht eben nichts über echten organischen Traffic, der über die Suchmaschinen oder über qualittativ hochwertige Backlinks entsteht.

Das uralte „Content ist King“ gilt heute mehr denn je! Ohne guten und uniquen Content hat eine Website keine Chance. Werbung schalten bringt sicher auch einiges an Traffic, besonders wenn die Zielgruppe gut getroffen wird. Da das schalten von Werbung bei den Suchmaschinen das Ranking in den SERPs selbst, nicht beeinflusst, ist damit eine direkte und nachhaltige Optimierung der Website nicht möglich. Die Effekte halten dann nur solange an, wie die Werbung eben geschaltet wird.

Zurück zum Alexa-Traffic-Rank. Die erste Frage die man hier stellen muss lautet: Ist dieser überhaupt etwas Wert? Wir würden diese Frage mit Ja beantworten. Warum? Weil es sonst kaum eine kostenlose Möglichkeit gibt, eine erste Aussage über die Beliebtheit einer Website zu treffen. Diesen Traffic-Rank kann jeder selbst einsehen und zwar auf dieser Seite.  Der Rang ist um so besser je kleiner er ist. Nicht berücksichtigt werden spezielle SEO-Metriken. Der Rang sagt erstmal nur aus, ob Leben auf einer Website stattfindet und in welchem Umfang. Wer hier seine Seite checkt und feststellt, dass diese gar nicht sichtbar ist, der hat eben einen Traffic-Mangel. Anders als früher, bekommt Alexa seine Daten nicht nur über die Browser-Addons, sondern über insgesamt 200 Sinalgeber. Darin werden einige Addons enthalten sein, aber ganz sicher auch Quellen, die wir nicht kennen.

In den letzten 8 Wochen wurde dieser öffentlich einsehbare Rang nicht mehr aktualisiert. Das ist schon sehr seltsam und ich kann mich nicht daran erinnern, dass dieser Rang so lange nicht aktualisiert wurde. Möglicherweise und dieser Gedanke ist sehr naheligend, wird der Alexa-Traffic-Rank früher oder später nur noch kostenpflichtig aktuell gepflegt. Bereits seit einiger Zeit wird entsprechend bei den Preisen ein „Certified Alexa Rank for Your Site“ angeboten. Die kleinste Variante kostet 19,99 US $ und ist für Websites geeignet, die bis zu 10 Millionen Pageviews pro Monat haben. Dieser Plan sollte eigentlich für die meisten Websites ausreichen. Wer umfangreichere Analyse-Tools und Daten benötigt, muss zu anderen Tarifen greifen. Hier wird es dann teilweise nicht gerade günstig. Verglichen mit SEMrush, ahrefs, Sistrix oder Majestic liegt Alexa mit seinen Angeboten gut in der Mittelklasse. Gerade SEO-Agenturen müssen sich wohl darauf einstellen, dass es nicht günstiger in Zukunft wird. Ich erinnere hier nur an die Preise für die Bing APIs.

Die kostenlose Auslieferung des Alexa-Traffic-Ranks verbraucht ganz sicher riesige Ressourcen und bringt für das Unternehmen selbst kaum einen relevanten Nutzen.

Wir werden sehen, wie es weitergeht mit dem kostenlosen Alexa-Traffic-Rank. Sollte er Googles öffentlichen Page Rang ins SEO-Grab folgen, wonach es für mich aktuell aussieht, dann wird das ein großes Loch hinterlassen. Wie ich bereits sagte, gibt es für eine „Pi-Mal-Daumen“- Einschätzung einer Website, die auch noch kostenlos ist, keine Alternative. Ich spreche hier nicht von den vielen kleinen Portalen, wo man sich eine kleine On-Page-Analyse für seine Website kostenlos automatisiert erstellen lassen kann, die am Ende wenig Aussagekraft hat; ich spreche von einer Hausnummer, die in einen einzigen Wert eine Bedeutung legt und das auch noch kostenlos.

Bin ich nun ein Alexa-Traffic-Rank-Fan-Boy? In gewisser Weise bin ich das und allgemein ist diese Sichtweise auch bei meinen Kollegen im Unternehmen zu finden. Die ganzen „Größen“ in der SEO-Szene haben den Alexa-Traffic-Rank immer schon mies und madig gemacht und früher war er auch ein eher mäßiges Tool für einen ersten Blick, aber heute (seit einigen Jahren) taugt er wirklich etwas und ich würde es schade finden, wenn der kostenlose Traffic Rank das Zeitliche segnet.

Lassen wir uns überraschen! Beim öffentlichen Google Pagerank hat es auch fast 2 Jahre gedauert, bis auch der letzte Freak realisiert hat, dass er in den SEO-Himmel eingezogen ist. Sogar heute gibt es noch „Spezialisten“ die Backlinks verkaufen, von Websites mit einem öffentlichen PR 6 oder höher :-).

Und nie vergessen: „Content ist und bleibt King!“