SEO: Artikel-Überschriften (Titel) und die Google-Logik

Dieser Artikel wurde zuerst in unserem Steemit-Blog veröffentlich.

Heute mal wieder ein kleiner SEO-Artikel von mir.
Anders als viele andere berichten wir hier nur über unsere eigenen Erfahrungen und die, dass könnt ihr glauben, sind sehr umfangreich. Schon seit 1999 haben wir erkannt, dass es möglich ist, Websites Vorteile bei den Suchmaschinen zu verschaffen. Damals war das noch sehr einfach.
Wir schoben eine Unmenge an Meta-Keywords in den Head der Website und schon fand Google die Website. Der Googlebot ließ sich sehr einfach beeinflussen.
Heute hat eine künstliche Intelligenz das Ruder bei Google übernommen und diese interessiert sich absolut nicht mehr für Meta-Keywords. Hier zählt nur noch der semantische Zusammenhang des Contents im Hinblick auf die Suchanfrage.

So gut wie alle klassischen On-Page-Maßnahmen sind heute zweitrangig und haben, wenn überhaupt, nur noch sehr marginal einen Einfluss auf das Ranking. Natürlich muss eine Website technisch fehlerfrei sein, aber die Attribute im HTML-Quelltext haben nicht mehr die Macht wie früher.
Ein Beispiel: Hatte früher eine H1-Überschrift immer eine besondere Stärke, muss das heute nicht mehr gelten.

Ich sehe alle Webmaster-Hangouts (wirklich alle) und dort wird sehr viel erzählt, wenn der Tag lang ist. Die Realität sieht jedoch anders aus und diese bedeutet tatsächlich: Jeder(!) sieht seine eigenen SERPS. Ich könnte sogar noch einen Schritt weiter gehen und behaupten, jeder hat sein eigenes Internet. Alles ist abhängig vom Ort der Abfrage und von den zur Verfügung stehenden Daten des Anfragenden bzw. des Endgerätes in Bezug auf die Suchanfrage.

Der Durchschnitts-User hat keine Ahnung von Tracking-Methoden und kümmert sich kaum um seine digital erzeugten Spuren, aber genau diese lassen einen personalisierten Datensatz anwachsen. Dieser kann sehr beträchtlich im Umfang werden und beeinflusst die Suchergebnisse.

Am einfachsten kann man es verstehen, wenn man Youtube heranzieht. Hier hat jeder bestimmte Kanäle abonniert und zeigt Youtube damit seine Interessen. Jedes Like oder Share wird gesammelt und so weiß Youtube, was jeder mag. Endsprechend werden Meldungen bei Euch eintrudeln und Videovorschläge gemacht. Youtube individualisiert das Portal speziell für jeden Geschmack und natürlich wird auch die Werbung entsprechend ausgespielt. Ein Gamer wird viel öfter Werbung zu Spielen sehen als z.b. jemand der sich nur für Musik interessiert. Das Ganze ist auch logisch nachvollziehbar. Je besser die Zielgruppe eingegrenzt wird, je höher ist die Klickrate. Nun, das ist wirklich eine sehr alte Regel, aber diese gilt heute immer noch. Manche Dinge ändern sich eben nie :-).

In einer ähnlichen Weise werden die SERPS (Die Ergebnis-Seiten der Suche) für jeden anders aussehen. Eine Ausnahme bilden hier große internationale Konzerne. Diese haben alle ein großes Budget und dieses sichert ihnen eine gute Platzierung und allumfassende Sichtbarkeit.
Das alles wird niemand offiziell seitens Google zugeben, aber es ist so. Glaubt mir oder glaubt mir nicht. Die Algorithmen laufen in Echtzeit bei dieser KI zusammen und die SERPS werden in Echtzeit und vor allem individualisiert ausgespielt.

Suchst Du in Frankfurt/Main z.B. nach „Auto kaufen“ wirst Du andere Ergebnisse erhalten, als wenn dieselbe Suche in Frankfurt/ Oder getätigt wird. Auch hier können wir die Logik der lokalen Komponente nachvollziehen. Es macht natürlich bei Produkten die direkt vor Ort gekauft werden können einen Sinn, den Ort mit einzubeziehen, von wo die Anfrage kommt.

Anders sieht es bei Produkten aus, die Online erworben werden können. Ihr könnt es selbst testen und viele wissen es auch. In den SERPS finden wir auf den ersten Plätzen immer erst die großen Verkaufts-Portale. Ob das gerecht ist, steht auf einem anderen Blatt, es ist jedenfalls so. Bei Google geht es auch nicht um Gerechtigkeit, sondern um Geldverdienen. Ich weiß, Google hört so etwas nicht gerne, aber es ist nun mal so. Kleine Online-Händler haben es deswegen sehr schwer gegen diesen enormen Wettbewerb zu bestehen. Bei Massenware ist es fast unmöglich einen gut laufenden Online-Shop aufzubauen. Bei Nischen-Produkten sieht es da besser aus.

Ok, jetzt habe ich wieder viel geschrieben, ohne auf das eigentliche Thema einzugehen. Dieses geht ja aus der Überschrift dieses Artikels hervor. „Artikel-Überschriften (Titel) und die Google-Logik“.

Damit ich nicht individualisierte SERPS erhalte, verwende ich eine Proxi-Suchmaschine wie z.B. startpage.com. Diese Suchmaschine verwendet den Index von Google, verhindert aber, dass Google „weiß“ wer da Etwas sucht. Die Proxi-Suchmaschine hängt sich sozusagen zwischen dem Anfragendem (Suchenden) und Google. Damit können die Ergebnisse nicht mehr individualisiert werden und die SERPS zeigen ein relativ neutrales Ergebnis.
Google behauptet ja immer, die bestmöglichen Ergebnisse zu liefern und das bedeutet, ein Suchergebnis zu zeigen, welches der Anfrage am ehesten entspricht.

Ich habe vor zirka einem Monat einen Artikel bei uns im Blog geschrieben. Dieser trägt die Überschrift: „ Crypto-Währungen im Auge behalten“, natürlich mit einem H1-Tag versehen. Wenn ich nun genau nach dieser Überschrift mit der Proxi-Suchmaschine suche, die wie ich bereits schrieb, den Google-Index verwendet, finde ich den Artikel erst auf Platz 80. Dieser Platz befindet sich also auf Seite 8 der Suchergebnisse. Damit hat dieser Artikel keine Chance organischen Traffic zu erhalten. Alle anderen Ergebnisse davor tragen andere Überschriften, enthalten auch nicht die Formulierung meiner Überschrift im Content und weichen damit erheblich von der Suchanfrage ab. Damit ist zweifelsfrei bewiesen, dass eine Artikel-Überschrift für sich alleine gesehen, die Chance auf ein gutes Ranking nicht beeinflusst. Diese Erkenntnis ist sogar für mich neu!

Offensichtlich korreliert der Inhalt meines Artikels (in den Augen von Google) in diesem Fall nicht genügend mit der Überschrift. Hier findet Ihr den Artikel: https://www.seo-boss.de/center/crypto-waehrungen-im-auge-behalten/

Als erstes kommt bei mir die Frage auf: Habe ich eine falsche Überschrift gewählt? Ja, das kann sehr gut sein. Eine Überschrift muss wohl zwingend ankündigen, was sich im Artikel befinden wird. Das allein zu realisieren ist schon eine kleine Herausforderung, steht jedoch der redaktionellen Freiheit entgegen, die Überschrift nach eigenem Gefallen wählen zu dürfen/ können.

Es wird in Zukunft immer schwieriger Websites für die Suche zu optimieren. Entscheidend ist und bleibt der Content.
Content ist und bleibt King. Gute Seo-Agenturen wissen sehr genau, dass heute die Hauptaufgabe darin besteht, die allgemeine Sichtbarkeit einer Website zu erhöhen. Alte Tricks helfen heute nicht mehr. Die Suchmaschienen sind einfach zu intelligent und folgen Ihrer eigenen Agenda. Gerechtigkeit ist in dieser nicht enthalten.

Copyright by @seo-boss

Gerne darf dieser Artikel in andere Sprachen übersetzt werden. Einzige Bedingung ist ein Verweis auf diesen Artikel hier.

Crypto-Währungen im Auge behalten

In letzter Zeit hören wir immer häufiger Nachrichten von digitalen Währungen. Es scheint wohl so zu sein, dass diese einen dauerhaften Platz im Markt der Investments einnehmen werden. Einige Zentralbanken von Ländern denken sogar darüber nach, eigene Coins auszugeben.

Wer die letzten Tage dieses Thema verfolgt hat, wird aber bemerkt haben, wie viel Risiko in dieser Crypto-Welt steckt. Da kann schon mal der Bitcoin (BTC) in 10 Minuten um 500 US$ im Kurs fallen. In der Folge rennen alle anderen Coins, von denen es nun schon fast 2000 gibt, dem BTC hinterher. Geht der BTC down, gehen alle down. Andersherum läuft es aber meistens auch so. Ich schätze, am Ende dieser Entwicklung werden vielleicht nur 50 oder 100 Coins überleben. Die meisten sind ohnehin nur als Spekulationsobjekt entstanden und die Leute bekommen sehr schnell mit, welcher Coin langfristig Chancen hat.

Wir selbst interessieren uns für die Blockchain-Technologie eher aus der Motivation heraus, diese für SEO nutzbar zu machen. Immerhin gibt es schon einige sogenannte Creation-Coin-basierten Portale. Hier sei an erster Stelle das Steemit-Netzwerk zu nennen, welches aktuell gut am Wachsen ist. Immer mehr Dienste schließen sich diesem an und sind dann per Steemit-Connect mit nur einem Hauptaccount zu benutzen. Auch Youtube bekommt mächtig Druck aus der Blockchain.

Wie man in der Gerüchteküche hört, arbeiten auch Google und Facebook an eigenen Blockchain-Projekten.

Wie auch immer, diese Entwicklung dürfen wir nicht aus den Augen verlieren. Hier ist sehr viel Dynamik drin und deswegen haben wir unseren eigenen Servive gestartet, wo jeder Interessierte die Entwicklung der einzelnen Coins verfolgen kann. Für uns ist besonders Steemit interessant, weil wir hier direkt in der Blockchain Content Marketing betreiben können. Ob das einen SEO-Einfluss haben wird oder überhaupt haben kann, bleibt abzuwarten. Immerhin haben Beiträge in der Blockchain einen Wert, nicht nur der Information wegen, sondern einen ihnen innewohnenden echten Wert. Ein Beitrag kann in der Blockchain sogar an Wert zunehmen, was im normalen Web nicht wirklich möglich ist. Jedes Upvote eines Artikels oder Beitrages, welcher in der Blockchain verfasst wurde, erhöht den Wert nominal. Unseren Account auf Steemit findet Ihr hier.

Zu unserem neuen Service: Dort werden in Echtzeit die Kurse und zusätzliche Informationen zu den Cryptos angezeigt. Hier geht es lang:

https://www.boomplace.com/cryptomarkt/

Auto-Retweet-Service, Re-Follow

Es kann ja nie schaden, einen Retweet mehr zu haben. Immerhin ist es ein zusätzliches Signal, wenn auch ein sehr schwaches.

Wir bieten direkt mit unserem eigenen Account einen kostenlosen Retweet-Service an. Benutze den Hashtag #myseoboss und Dein Tweet wird direkt von unserem Account retweetet und außerdem noch auf Pinterest geteilt. Ihr bekommt also 2 Signale gratis 🙂 von einem echten Account und nicht von einem Bot-Account.

Nicht erlaubt ist alles was gegen geltende Gesetze verstößt, nicht jugendfreie Inhalte, Scam und Spam und alles was nicht seriös ist. Wer für solche Tweet unseren eigenen Hashtag #myseoboss missbraucht wird von uns gesperrt, also überlegt gut, bevor ihr unserer Hashtag verwendet :-).

Solange die Tweet seriös sind, könnt ihr für alles unseren Hashtag verwenden. Keine Probleme haben wir mit normaler Werbung. Gern gesehen sind Themen wie SEO, Webmaster, IT, Technik, IT-Sicherheit, Wissenschaft, eben alles was irgendwie von allgemeinem Interesse sein könnte. Wir haben auch einen Re-Follow eingerichtet wer uns auf Twitter folgt, dem folgen wir zurück.

Hier gehts es zu unserem Twitteraccount.

Warum ist eine Presseerklärung wertvoll?

Bild pressemiteilungenWenn es darum geht Öffentlichkeitsarbeit für ein Unternehmen zu leisten, dann ist eine Presseerklärung oder -Mitteilung das Mittel der Wahl.

Heute ist es so, dass Vieles, was aus den PR-Abteilungen kommt, Gefahr läuft, Spamscores zu sammeln, und die Leute in den PR-Abteilungen sind sich dessen gar nicht bewusst.

Die Suchmaschinen sind heute sehr „misstrauisch“ und wer denkt, er könnte seine Information wahllos ins Web pumpen, der kann durchaus das Gegenteil von dem bewirken, was er eigentlich beabsichtigt.

Jeder kann es selbst testen. Wer zu einem bestimmten Keyword mit einer seiner Websites oder Landingpages gut rankt, braucht diese Seite nur ein wenig zu verändern oder zu überarbeiten. Danach wird diese Seite in den SERPS erstmal um einige Plätze nach unten durchgereicht. Das beobachte ich praktisch in jedem Fall wo Websites, die ein spezielles Thema behandeln z.B. relauncht werden. Oft genügt schon ein kleines Facelifting und wir verschwinden erstmal von den guten Positionen, die wir uns über die Jahre erarbeitet haben. Das hängt mit der Autorität zusammen, welche die Suchmaschinen einer Website zugestehen. Wir könnten daraus ableiten, dass Suchmaschinen keine Veränderung mögen und in der Tat scheint es auch so zu sein. Eine Ausnahme bilden reine Newsportale oder Inhalte die als Pressemitteilung deklariert werden. Hier erkennen die Suchmaschinen die Aktualität und verstehen auch die semantischen Zusammenhänge

Suchmaschinen mögen es, wenn der Content einer Website insgesamt zu einem Thema wächst. Das ständige verändern von einzelnen Artikel oder Beiträgen „mögen“ Suchmaschinen definitiv nicht. Deswegen sollte man alte Beiträge am besten unangetastet lassen und statt diese zu editieren lieber neue Artikel verfassen. Je spezifischer eine Website ein Thema behandelt um so mehr werden die Suchmaschinen diese „mögen“. Ob der Content eine hohe Qualität aufweist, bewerten Suchmaschinen anhand der Signale, die auf diesen Content verweisen. Wikipedia wird z.b. sehr oft zitiert und dabei wird auf die Quelle verwiesen. Aus diesem Grunde hat Wikipedia eine DA (Domain Autorität) von 91/100. Dieser Wert wird nur von sehr wenigen Domains übertroffen.

Viele Website behandeln viele unterschiedliche Themen. Hier ist die interne Seiten-Struktur oder die Kategorisierung sehr wichtig. Wer öfter Pressemitteilungen veröffentlicht, der sollte dafür eine spezielle Abgrenzung vom Rest der Website reservieren. Einige lagern ihre Pressemitteilungen in eine Subdomain aus, andere legen dafür spezielle Unterverzeichnisse an. Im Prinzip ist es egal wie man diese Informationen aussortiert, wichtig ist nur, dass man es macht. Pressemitteilungen müssen auch als solche erkennbar sein und brauchen ihr eigenes Revier :-). Bei den häufig verwendeten CMS legt man dafür einfach eine eigene Kategorie an.

Selbst wer nur einen kleinen Webshop betreibt, sollte eine Rubrik „Presse“ anlegen und dort z.B. für jedes neue Produkt einen speziellen Artikel anlegen. Oft haben diese Presse-Artikel mehr organischen Traffic über die Suchmaschinen als die Produkt-Pages selbst. Deswegen muss natürlich von diesem Presse-Artikel, wenn er ein Produkt oder eine Dienstleistung beschreibt, ein direkter Link auf die Produktseite verweisen.

Pressemitteilungen haben eine sehr lange Tradition und deswegen verwundert es auch nicht, dass diese in die digitale Welt des Web übernommen wurde.

Sehr wichtig ist, dass eine Pressemitteilung auch entsprechende Inhalte beinhaltet, welche typischerweise in einer solchen Erklärung enthalten sein sollten,

Es darf in jedem Fall auch immer etwas Kreativität mit einfließen. Gut macht sich immer, wenn die Pressemitteilung mit einem Slogan oder Zitat endet. Überhaupt sollten sich Unternehmen angewöhnen eigene Slogans zu entwickeln. Ein guter Slogan hat die selbe psychologische Wirkung wie ein gutes Firmenlogo. Es geht um den Wiedererkennungswert des Unternehmens. Viele sprechen von der CI (Corporate Identity). 

Wir selbst beobachten und begleiten Unternehmen schon viele Jahre und wissen, von der CI bleibt letztlich immer nur das Logo übrig. Eine wirklich konsequent durchgezogene CI wirkt auf viele Kunden eher abschreckend und langweilig. Das ist jedenfalls unsere Erfahrung. Eine CI ist nichts anderes als eine Uniform. Voran getrieben wird der CI-Gedanke hauptsächlich von Werbeagenturen. Sie entwickeln ausgefeilte CI´s und binden so die Kunden für lange Zeit an sich. Große Unternehmen haben große Budgets und davon fließt sehr viel in Werbung, Marken-Pflege und letztlich dem CI.

Zurück zum Thema.

Wie sollte eine Pressemitteilung aufgebaut sein?

Ich verweise hier auf einen guten Artikel von der Gründerküche, der diese Frage kurz und knackig beantwortet.

Nur für uns zum Testen: Dieser Beitrag wurde auch hier publiziert.

Alexa-Traffic-Rank-Script: korrekt einbauen.

Hallo Alexa,

Auf dieser Website unter dem Tab „Certified Alexa Rank“, finde man diese Grafik. Diese erklärt, wie der Code in die Website eingefügt werden soll. Hier wird eindeutig gezeigt, dass der Code zwischen <body> und </body> zu plazieren ist.

On this website under the tab „Certified Alexa Rank“, you will find this graphic. This explains how the code should be inserted into the website. Here it is clearly shown that the code is to be placed between <body> and </ body>.

Abbildung wie das Script von Alexa korrekt einzubauen ist.

Ist man im Account von Alexa eingeloggt, sieht man diese Anleitung.

If you are logged in the account you can see this manual.

Grafik: Anleitung zum einbau des Alexa-Codes

Hier wird eindeutig gesagt, der empfohlende Bereich ist der Head-Bereich zum Einbau des Scripts.

It is clearly stated here that the best area is the head area to including the script.

Was ist denn nun korrekt?

What is correct?

Wozu brauchen wir eine SEO-Agentur?

Bild SEO-Dame

Bei vielen Menschen herrscht die allgemeine Sichtweise, dass eine SEO-Agentur irgendwie zaubern können müsste und eine Website zu jedem gewünschten Keyword auf Platz 1 bringt. Das ist natürlich totaler Quatsch und wer so etwas verspricht ist ein Hochstapler. Gerade in den letzten Jahren versagen klassische Optimierungsmethoden immer mehr bzw.  diese zeigen nur noch eine marginale Wirkung. Worauf es heute ankommt, ist mehr ein Mix aus Maßnahmen, die nur im perfekten Zusammenspiel gewünschte Ergebnisse bringen.

Ok, wir können etwas an der klassischen On-Page-Schraube drehen, aber selbst hier müssen wir schon wieder aufpassen, dass wir die Website nicht überoptimieren, wobei niemand genau definieren kann, wo eine Überoptimierung anfängt. Es lauern an allen Ecken und Kanten Gefahren, die viele selbst nie als solche erkennen. Da gibt es immer die Gefahr, gegen Richtlinien zu verstoßen und damit die noch größere, abgestraft zu werden.

Ich versuche im Folgenden einmal zu erklären, was eine SEO-Agentur eigentlich macht.

Jeder möchte mit seiner Website Erfolg haben. Da Erfolg heute größtenteils mit mehr Umsatz assoziiert wird, sind wir darauf angewiesen, in den Suchmaschinen zu unseren Keywords, auf Seite eins oder maximal Seite zwei gelistet zu werden. Natürlich gibt es noch andere Ziele als nur mehr Umsatz zu erwirtschaften. Häufig geht es einzig und allein um mehr Sichtbarkeit. Um überhaupt irgendein Ziel erreichen zu können muss eine Website bestimmte Anforderungen erfüllen:

  1. Sie liefert guten und einzigartigen Content (Content ist King).
  2. Sie ist gut von allen Endgeräten aus bedien- und erreichbar.
  3. Sie funktioniert fehlerfrei (Programmierung/ Code).
  4. Sie hat eine gute Performance (Ladegeschwindigkeit).
  5. Sie ist für den Benutzer sicher.

Die Reihenfolge ist jetzt frei gewählt, aber es sind im Kern genau diese fünf Punkte die eine Page erst einmal erfüllen muss um überhaupt einem Standard zu entsprechen, mit dem wir arbeiten können. Da wir hier priorisieren, immer ohne kryptische Begriffe auszukommen, würde ich sagen, diese genannten fünf Punkte sind die Basis, die jede Website erfüllen muss, um ein Rennen beginnen zu können. Ja, es handelt sich tatsächlich um eine Art Wettrennen oder besser ausgedrückt Wettbewerb. Jedoch gewinnt nicht immer der Schnellste sondern meistens der Klügere und noch häufiger der mit mehr Ausdauer; und ja, ich muss es zugeben, auch der mit dem größten finanziellen Einsatz. Geld regiert die Welt. Das ist beim SEO oder eben dann beim SEA (Werbung bei den Suchmaschinen) leider nicht anders. Wir können sehr viel mit Fleiß und Einsatz kompensieren, aber eben nicht alles.

Die oben genannten 5 Punkte können wir alle in die On-Page-Ecke der SEO schieben. Neben diesen Faktoren, die immer und direkt von der Website selbst ausgehen, kommen noch viel Wichtigere hinzu. Das sind die sogenannten Off-Page-Faktoren. Hierzu zählt alles, was von außen positiv auf die Website einwirkt. Hier muss ich die Relativität ins Spiel bringen, denn was positiv oder negativ gesehen wird, darf und sollte jeder selbst entscheiden können. Hier gibt es sicherlich einen Minimalkonsens, dem jeder zustimmen würde. Ich stelle diesen hier in nur 3 Punkten dar.

  1. Eine Website muss eine Autorität in ihren Kern-Themen besitzen. Ob das der Fall ist, kann nur von außen bestimmt werden.  Es bestimmen hier in erster Linie die Besucher der Website, ob diese eine Autorität zu ihren Themen darstellt. Die Website selbst hat auf ihre eigene Autorität nur bedingt einen Einfluss. Wenn der Content sehr gut ist, werden auch andere Websites und auch die sozialen Netzwerke häufig darauf verweisen. Ja ich weiß, wer bestimmt was gut und was schlecht ist :-)? Na ganz klar, der Markt. Selbst eine Witze-Seite kann eine hohe Autorität erreichen, eben auf das Thema „Witze“ bezogen. In jedem Fall muss die Website für den Besucher informativ oder unterhaltsam sein oder sie muss mit Produkten aufwarten, die Verbraucher sich wünschen. Es gibt nur diese 3 Gründe warum Websites besucht werden: Informationen, Unterhaltung, Produkte.
  2. Sympathie: Es gibt keine SEO-Metrik, die Sympathie (für eine Website)  in Daten darstellen kann, aber wenn eine Website sympathisch ist und gefällt, dann wird sie ihre Besucher auch zur Wiederkehr bewegen. Im Prinzip können wir eine Website wie eine eigene Entität betrachten und bei den meisten guten und bekannten Seiten ist es auch so, dass sie wie solche gesehen werden.
  3. Sichtbarkeit: Die allgemeine Sichtbarkeit zu erhöhen ist wohl mit Abstand eines der wichtigsten Ziele. Egal ob eine Unternehmens- oder eine private Hobby-Website. Alle wollen in aller Munde sein. Im Web ist das eben die Sichtbarkeit. Hier gehen die Punkte zwei und drei eigentlich nahtlos ineinander über. Die Sichtbarkeit können wir auf vielerlei Arten beeinflussen. Haben wir einen fleißigen und kreativen social Networker, dann wird dieser ständig an der Vergrößerung der Reichweite seiner Kanäle arbeiten. Wir selbst sehen auch den klassischen Linktausch als eher unkritisch und würden sogar empfehlen hier auch aktiv zu sein. Gerade für Websites mit ähnlichen Themen, kann es sehr vorteilhaft sein, sich gegenseitig zu verlinken.

Ja, dem aufmerksamen Leser wird nicht entgangen sein, dass noch nicht geschrieben wurde, was denn nun eine SEO-Agentur so macht? Die Antwort auf diese Frage ist einfacher als die Realisierung der Ziele. Die SEO-Agentur arbeitet daran, alle aufgezählte Punkte zu optimieren. Zu 60% ist ein SEO-Dienstleister ein Berater der Handlungsempfehlungen gibt. Die anderen 40% gehen in das Monitoring und Reporting. Häufig arbeiten SEO-Agenturen auch allumfassend und übernehmen von der Website-Erstellung bis zur redaktionellen Betreuung alles. Das sind dann die sogenannten Full-Service-Agenturen, wozu die Wolfram Consult GmbH & Co. KG sich auch zählt.

Vielleicht sollte hier auch nicht unerwähnt bleiben, dass das Feld der OFF-Page-Optimierungen nahezu unbegrenzte Möglichkeiten bietet, während man ON-Page sehr schnell an die natürlichen Grenzen des Machbaren stößt.

Eine sehr wichtige Sache sollte sich jeder merken: „SEO ist ein Weg und keine Maßnahme.“ Letztlich können wir nur sichtbarer machen, was auch als Content vorhanden ist. Aus diesem Grund liegt der Schwerpunkt ganz klar beim einzigartigen (uniquen) Content. Hier kann immer etwas optimiert und ausgebaut werden.

Wer selbst in einer SEO-Agentur arbeitet oder gearbeitet hat weiß, dass in SEO-Projekte unglaublich viel Fleiß und Zeit fließen. Wochenende ist etwas für Produktionsarbeiter :-). Wir arbeiten fließend, schlafen auch mal bis um 10.00 Uhr und sind oft auch am Wochenende für Sie digital unterwegs.

Bei dieser Gelegenheit sei noch erwähnt: Wir suchen immer motivierte, kreative neue Mitarbeiter für die Bereiche:

Webmaster, Server-Administration (Debian), Web- und Grafikdesign, SEO, SEA, SEM und Social Networker. Gerne auch Quereinsteiger. Wenn Sie gute Referenzen (eigene Projekte, Nachweise über Erfahrungen) zum Vorzeigen haben, dann zählen diese für uns mehr als Zertifikate. Senden Sie Ihre Initiativbewerbung nur per E-Mail, mit Bezug auf diesen Beitrag, an: karriere[at]wolframbk.de

Eine neue und überarbeitete Version dieses Artikels haben wir auf Steemit veröffentlicht.

Eine Kritik an Google

Bild SEOWas bezweckt Google mit diesen ganzen Reglementierungen, die als Empfehlungen in den Webmasterrichtlinien genannt werden? Welche Ziele verfolgt es damit?

Es läuft letztlich wohl darauf hinaus, dass sich das Web, welches ja nun mal aus Websites besteht, den Regeln und Wünschen von Google „unterwirft“.

Ich kopiere hier mal einige „Empfehlungen“ aus den Webmasterrichtlinen hinein und werde daneben in Klammer schreiben, was ich davon halte.

„Konkrete Empfehlungen von Goolge, nachzulesen in den Richtlinien für Webmaster und zwar hier.

Vermeiden Sie die folgenden Methoden:

  • Automatisch generierte Inhalte (schlechte Empfehlung, was ist mit RSS Feeds? diese erzeugen doch automatisiert Content, wo ist das Problem?)
  • Teilnahme an Linktauschprogrammen (Ich finde es eine Frechheit, Webmaster Linktauschprogramme zu vermiesen. Diese Programme haben das Internet erst groß gemacht. Was ist mit den ganzen Webverzeichnissen und Linklisten, sind die jetzt böse? Letztlich ist auch eine Suchmaschine ein Index von Websites und viele linken auch auf Google zurück, in welcher Form auch immer.)
  • Erstellen von Seiten ohne oder mit nur wenigen eigenen Inhalten (Es gibt einige Websites, die wollen nicht mehr als eine Webvisitenkarte sein, nicht mehr und nicht weniger, die brauchen also kaum Content und wollen auch keinen.)
  • Cloaking (OK, dass muss bestraft werden!)
  • Irreführende Weiterleitungen (Was ist eine irrenführende Weiterleitung, wer entscheidet das? Es gibt viele durchaus sinnvolle Weiterleitungen)
  • Verborgener Text/verborgene Links (Ja, das ist mies.)
  • Brückenseiten (Wo ist das Problem? Wenn man es technisch sieht, ist Google auch nur eine Brückenseite)
  • Kopierte Inhalte (Das sollten sich die Medien-Konzerne auf die Fahnen schreiben, die beziehen doch alle die selben Nachrichten und publizieren teilweise 1 zu 1 und dennoch werden die alle von Google gut geränkt)
  • Teilnahme an Affiliate-Programmen ohne ausreichenden Mehrwert (Junge, Junge, hier bekomme ich einen echten Hals. Was ist denn Adwords, was ist das Ganze SEA? Ist das alles mit einem Mehrwert hinterlegt? Hier verstösst Google eindeutig gegen seine eigenen Empfehlungen und ich bzw. wir vom SEO Boss sind, soweit ich das sehen kann, in der kompletten SEO-Szene, die Einzigen die sich trauen das zu thematisieren. So gut wie alle SEO-Agenturen am Markt, haben keine eigene Meinung, sie setzen einfach nur um was Google vorgibt und damit unterstützen sie die Bevormundung der Webmaster von Google.)
  • Laden von Seiten mit irrelevanten Keywords (Ja das ist OK. Es macht auch gar keinen Sinn Keywords für Seiten, sei es als Anker oder sonstwie zu verwenden, wenn der Content nicht passt.)
  • Erstellen von Seiten mit schädlichen Funktionen, durch die beispielsweise Phishingversuche unternommen oder Viren, Trojaner oder andere Badware installiert werden. (Das ist sehr richtig!)
  • Missbrauch von Rich Snippet-Markup (Wo fängt der Missbrauch an?)
  • Senden von automatisierten Anfragen an Google (Hey Google, nachdem ich eine Suchphrase in Deine Suchmaske eingetragen habe, wird der Vorgang ohnehin automatisiert, oder nicht? Durch das reCaptcha V2 sind automatisierte Anfragen so gut wie unmöglich geworden, also ist diese Empfehlung überflüssig.)

Ich fasse also mal zusammen. Google will natürlich in allererster Linie Geld verdienen und am besten dem kompletten Werbemarkt beherrschen. Das ganze Getue mit den kostenlosen Diensten ist ein Blender. Nichts ist kostenlos! Jeder bezahlt mit seinen Daten! Das ist die Realität.

Wir betreiben seit Jahren eine kleine Werbewebsite. Auf dieser gibt es nichts, was den Besucher irgendwie nervt. Wir verwenden keine Werbelayer, keine Popups, einfach nichts was sich irgendwie ungefragt im Browser öffnet. Wir versenden keine Spam-Mails und verwenden nicht mal ein Newsletter-System. Google hat die Seite zwar indexiert, aber zu keinem einzigen wichtigen  Keyword rankt die Seite überhaupt. In 5 Jahren ist so gut wie kein einziger Besucher über die organische Suche von Google auf die Seite gekommen. Wie kann das sein? Gibt es hier einen Interessen-Konflikt? Ist das Google Webspam-Team wirklich neutral und vor allem seriös?

Wir sind schon viele Jahre am Start und wissen sehr genau, dass Google auch den letzten Krümmel Umsatz oder Erfolg keinem anderen könnt. Diese Entwicklung darf kein Webmaster unterstützen. Das Internet ist ein Menschenrecht und, es gehört niemanden. Wir bezahlen alle unsere Gebühren für den ISP und damit erwerben wir auch das Recht auf Netzneutralität und ungehinderten Zugang zu Informationen.

Google, Du hast vergessen, dass es die Menschen und Benutzer des Internets sind, die Dich groß gemacht haben. Höre auf hier den Pascha zu spielen und sei, was Du eigentlich sein sollst, ein Dienstleister und kein Bestimmer!

Der Core von Google ist eine künstliche Intelligenz und ich weiß, dass diese KI diesen Betrag lesen und die Domain dafür bestrafen wird. Das ist uns egal, was gesagt werden muss, muss einfach auch mal gesagt werden! Niemand in der sogenannten SEO-Szene erhebt mal das Wort. Das wäre jedoch aktuell sehr wichtig. Diese Entwicklung der totale Kontrolle und Bevormundung im Internet muss aufhören!

Warum muss alles reglementiert werden? Der Markt sollte das allein klären dürfen.

Bei dieser Gelegenheit will ich mal eine wirklich gute und unbestechliche Suchmaschine empfehlen und zwar http://gigablast.com/. Hier kann man sich keine Werbeplätze kaufen und allein das macht gigablast wirklich seriös. Der Quelltext von Gigablast ist offen und jedem steht es frei, sein eigene Suchmaschine, auf diese Quellen aufbauend, online zu bringen.

Ich habe prinzipiell nichts gegen Google, aber wenn ich sehe, dass Google offensichtlich etwas gegen alle hat, die auch ein wenig im Markt mitmischen wollen, dann nehmen wir uns die Freihheit und üben auch mal Kritik an dem Giganten. Diese Kritik ist mehr als berechtigt. Wir unterstützen auch das europäische Projekt von Quant, dass ist eine Suchmasschine die von sich selbst sagt:

  • Die einzige europäische Suchmaschine
  • Wir setzen keine Cookies
  • Wir speichern niemals Ihren Suchverlauf

Eine Suchmaschine soll Menschen dabei helfen, Informationen zu finden. Es kann und soll nicht die Aufgabe einer Suchmaschine sein, dass Internet zu reglementieren, zu manipulieren und seine Marktposition zu benutzen um Regeln zu erstellen, an die sich dann alle zu halten haben. Wer gibt Dir Google das Recht, über Qualität von Content zu entscheiden? Es sollte einzig und allein dem Verbraucher zustehen über Qualität von Produkten und Content zu entscheiden.

Googlebot erlauben CSS- und JS-Dateien zu crawlen

Wie im echten Leben auch, sind es manchmal die kleinen Ding im SEO, über die sich besonders der Googlebot freut. Dieser möchte nämlich explizit eine Genehmigung dafür haben, dass er CSS- und JS-Datein verwenden darf. Das Ganze lässt sich sehr einfach über die robots.txt erledigen, die bei jeder Domain oder Website im Root-Verzeichnis liegen sollte. Einfach diese 3 Zeilen hinzufügen und Google meckert nicht mehr über geblockte Ressourcen:

User-agent: Googlebot
Allow: *.css
Allow: *.js

Mein Alexa Traffic Rank bleibt stehen

Seit Google seinen öffentlichen Pagerank beerdigt hat, sehen viele auf den Alexa Traffic Rang. Dieser hat definitiv vom Tod des öffentlichen PRs profitiert. Dieser Rang oder eben (engl.) Rank, ist ein erster guter Indikator für die Beliebtheit einer Website. Unter SEO´s genoß dieser Rank früher kein sehr hohes Ansehen. Man konnte diesen viel zu einfach beeinflussen. Ganz so einfach ist das heute nicht mehr und Alexa hat seine Qualitätskriterien ziemlich nach oben geschraubt. Wurde früher wirklich der komplette Roh-Traffic gemessen, sieht Alexa heute genauer hin und filtert z.B. Bot-generierten Traffic weitestgehend heraus. Es bringt in der Tat sowieso nichts solche Bots zu verwenden. Der daraus resultierende Nutzen geht gen NULL. Vielmehr schadet heute jede unnatürliche Erzeugung von Traffic dem Ansehen der Website bei den Suchmaschinen.

Es dürfte sich ja in der Zwischenzeit herumgesprochen haben, dass die großen Suchmaschinen von künstlichen Intelligenzen gesteuert und überwacht werden. Diese sind wirklich sehr intelligent und kennen z.B. die IP-Adressen von den bekanntesten Proxie-Servern. Ebenso sind alle VPN-Server und Dienste bekannt. Wer also künstlichen Traffic über Proxie oder VPN erzeugt, schürrt allein dadurch schon das Misstrauen der Suchmaschinen, jedenfalls ist das unser Eindruck. Es geht eben nichts über echten organischen Traffic, der über die Suchmaschinen oder über qualittativ hochwertige Backlinks entsteht.

Das uralte „Content ist King“ gilt heute mehr denn je! Ohne guten und uniquen Content hat eine Website keine Chance. Werbung schalten bringt sicher auch einiges an Traffic, besonders wenn die Zielgruppe gut getroffen wird. Da das schalten von Werbung bei den Suchmaschinen das Ranking in den SERPs selbst, nicht beeinflusst, ist damit eine direkte und nachhaltige Optimierung der Website nicht möglich. Die Effekte halten dann nur solange an, wie die Werbung eben geschaltet wird.

Zurück zum Alexa-Traffic-Rank. Die erste Frage die man hier stellen muss lautet: Ist dieser überhaupt etwas Wert? Wir würden diese Frage mit Ja beantworten. Warum? Weil es sonst kaum eine kostenlose Möglichkeit gibt, eine erste Aussage über die Beliebtheit einer Website zu treffen. Diesen Traffic-Rank kann jeder selbst einsehen und zwar auf dieser Seite.  Der Rang ist um so besser je kleiner er ist. Nicht berücksichtigt werden spezielle SEO-Metriken. Der Rang sagt erstmal nur aus, ob Leben auf einer Website stattfindet und in welchem Umfang. Wer hier seine Seite checkt und feststellt, dass diese gar nicht sichtbar ist, der hat eben einen Traffic-Mangel. Anders als früher, bekommt Alexa seine Daten nicht nur über die Browser-Addons, sondern über insgesamt 200 Sinalgeber. Darin werden einige Addons enthalten sein, aber ganz sicher auch Quellen, die wir nicht kennen.

In den letzten 8 Wochen wurde dieser öffentlich einsehbare Rang nicht mehr aktualisiert. Das ist schon sehr seltsam und ich kann mich nicht daran erinnern, dass dieser Rang so lange nicht aktualisiert wurde. Möglicherweise und dieser Gedanke ist sehr naheligend, wird der Alexa-Traffic-Rank früher oder später nur noch kostenpflichtig aktuell gepflegt. Bereits seit einiger Zeit wird entsprechend bei den Preisen ein „Certified Alexa Rank for Your Site“ angeboten. Die kleinste Variante kostet 19,99 US $ und ist für Websites geeignet, die bis zu 10 Millionen Pageviews pro Monat haben. Dieser Plan sollte eigentlich für die meisten Websites ausreichen. Wer umfangreichere Analyse-Tools und Daten benötigt, muss zu anderen Tarifen greifen. Hier wird es dann teilweise nicht gerade günstig. Verglichen mit SEMrush, ahrefs, Sistrix oder Majestic liegt Alexa mit seinen Angeboten gut in der Mittelklasse. Gerade SEO-Agenturen müssen sich wohl darauf einstellen, dass es nicht günstiger in Zukunft wird. Ich erinnere hier nur an die Preise für die Bing APIs.

Die kostenlose Auslieferung des Alexa-Traffic-Ranks verbraucht ganz sicher riesige Ressourcen und bringt für das Unternehmen selbst kaum einen relevanten Nutzen.

Wir werden sehen, wie es weitergeht mit dem kostenlosen Alexa-Traffic-Rank. Sollte er Googles öffentlichen Page Rang ins SEO-Grab folgen, wonach es für mich aktuell aussieht, dann wird das ein großes Loch hinterlassen. Wie ich bereits sagte, gibt es für eine „Pi-Mal-Daumen“- Einschätzung einer Website, die auch noch kostenlos ist, keine Alternative. Ich spreche hier nicht von den vielen kleinen Portalen, wo man sich eine kleine On-Page-Analyse für seine Website kostenlos automatisiert erstellen lassen kann, die am Ende wenig Aussagekraft hat; ich spreche von einer Hausnummer, die in einen einzigen Wert eine Bedeutung legt und das auch noch kostenlos.

Bin ich nun ein Alexa-Traffic-Rank-Fan-Boy? In gewisser Weise bin ich das und allgemein ist diese Sichtweise auch bei meinen Kollegen im Unternehmen zu finden. Die ganzen „Größen“ in der SEO-Szene haben den Alexa-Traffic-Rank immer schon mies und madig gemacht und früher war er auch ein eher mäßiges Tool für einen ersten Blick, aber heute (seit einigen Jahren) taugt er wirklich etwas und ich würde es schade finden, wenn der kostenlose Traffic Rank das Zeitliche segnet.

Lassen wir uns überraschen! Beim öffentlichen Google Pagerank hat es auch fast 2 Jahre gedauert, bis auch der letzte Freak realisiert hat, dass er in den SEO-Himmel eingezogen ist. Sogar heute gibt es noch „Spezialisten“ die Backlinks verkaufen, von Websites mit einem öffentlichen PR 6 oder höher :-).

Und nie vergessen: „Content ist und bleibt King!“

 

Google-Updates von Juni 2017 bis Mai 2018

Viele bekommen davon nichts mit, aber Google aktualisiert sehr häufig seine Algorithmen. Semrush gibt darüber seine neuesten Infos heraus. Das kann für Seo´s sehr nützlich sein, aber auch manchmal deprimierend. Gerade bei den sogenannten Qualitäts-Updates wird mancher mit dem Kopf schütteln. Jetzt sind wir also dort angekommen, wo uns eine Maschine sagt: Das ist Qualität und das ist keine …
Bei dieser Gelegenheit will ich noch mal an eine der erfolgreichsten Werbewebsites aller Zeiten erinnern: milliondollarhomepage.com.
Nach heutigen Maßstäben wäre diese Seite eine Werbemüllhalde, trotz der genialen Idee.
Ich möchte noch hinzufügen, dass es keinen statischen Google-Index mehr gibt. Es ist vielmehr so, dass jeder seine sehr individualisierten Ergebnisse bei der Suche erhält. Umgehen kann man das nur, wenn man Proxi-Suchmaschinen wie startpage.de oder DuckDuckGo verwendet. Diese stehen dann zwischen dem Suchenden und den SERPS. Da diese beiden auch den Google-Index verwenden, kann man dort das Keyword-Ranking unabhängiger bewerten. Allein die Verwendung von VPN, wie viele meinen, kann eine Proxi-Suchmaschine nicht ersetzen. Google ist KI und kennt wahrscheinlich jeden einzelnen VPN-Server [vielleicht sogar persönlich :-)].
Es folgen die Update-News.
Quelle: semrush.com
May 24, 2018
Google-Update im Mai
Nach zwei relativ ereignislosen Wochen hat SEMrush Sensor plötzlich hohe Schwankungen erkannt, die ein weiteres Google-Update vermuten lassen. Auch Webmaster berichten von großen Veränderungenbei Rankings und Traffic.
Unconfirmed
Apr 17, 2018
Kernalgorithmus-Update im April
Google hat bestätigt, dass Mitte April ein Update seines Kernalgorithmus veröffentlicht wurde. Solche
Updates gibt es mehrmals im Jahr, und es gibt normalerweise keine speziellen Rezepte, um Positionsverschlechterungen zu beheben. SEMrush Sensor hat dieses Update mit besonders starken Veränderungen am 18. und 20. April registriert.
Mar 23, 2018
Fortgesetzte Anzeichen für ein Update
Es gibt Anzeichen dafür, dass entweder ein Kernalgorithmus-Update, das diesen Monat bereits von Google bestätigt wurde, weitere Auswirkungen auf SERPs hat oder dass am 23. März ein weiteres
Update stattgefunden hat.
Unconfirmed
Mar 9, 2018
Google-Kernalgorithmus-Update
Vertreter von Google haben bestätigt, dass sie am Wochenende den Ranking-Kernalgorithmus
aktualisiert haben. Solche Updates gibt es mehrmals jährlich, aber Google hat keine spezifischen
Empfehlungen dazu gegeben, was Webmaster unternehmen sollten, wenn sie von diesem Update
betroffen sind. Das Update hat auch Auswirkungen auf den SEMrush Sensor.
Mar 2, 2018
Anzeichen für ein Google-Update
SEMrush Sensor und Webmaster haben berichtet, dass der Frühling 2018 mit einem Google-Update
eingeläutet wurde. Es besteht jedoch kein vollständiger Konsens, und das Update bezieht sich
möglicherweise nur auf bestimmte Nischen.
Unconfirmed
Feb 21, 2018
Wichtiges Google-Update im Februar
Da SEMrush Sensor eine nie da gewesene Welle von Veränderungen in allen Datenbanken entdeckt
hat, ist es deutlich, dass am 21. Februar etwas passiert ist. Es gibt jedoch bisher kaum Berichte von Webmastern, und es gibt keine Hinweise darauf, um was es bei dem Update ging.
Unconfirmed
Jan 23, 2018
Eine Reihe kleinerer Google-Updates
SEMrush Sensor zeigt seit einiger Zeit mehr Veränderungen an Suchrängen. Viele Webmaster haben
Traffic-Änderungen berichtet. Es gibt jedoch noch keine Anzeichen für ein einzelnes wesentliches
Update. Alles deutet eher auf eine Reihe kleinerer Veränderungen hin.
Unconfirmed
Jan 15, 2018
Keyword-Datenbank wird aktualisiert
Wir aktualisieren unsere Keyword-Datenbank, entfernen alte, nicht mehr verwendete Keywords und
fügen die zurzeit aktuellen hinzu. Außerdem aktualisieren wir Suchvolumina, sodass sie genauer werden.
Jan 6, 2018
Anpassungen des Google-Algorithmus zu Jahresbeginn
Laut Barry Schwarz begann das neue Jahr mit Anpassungen mehrerer Algorithmus-Updates von Dezember. Laut seinem Bericht wurden die früheren Änderungen, die sich auf Keyword-Permutationen, PBNs und Promi-Websites bezogen, von Google etwa am 5.–7. Januar feinabgestimmt.
Unconfirmed
Dec 25, 2017
Google-Update nimmt Spam-ähnliche Links aufs Korn
Barry Schwarz ist anhand von Berichten von Webmastern zu der Ansicht gelangt, dass ungefähr an Weihnachten ein weiteres Google-Update veröffentlicht wurde. Es scheint gegen Spam-ähnliche Linktechniken gerichtet zu sein, wie PBNs (private Blognetzwerke). SEMrush Sensor hat das Update
jedoch nicht registriert.
Unconfirmed
Dec 13, 2017
Google-Update vor Weihnachten
Passend zu einem aktuellen Trend bekamen Websites Mitte Dezember wieder ein Google-Update zu spüren. Dies berichteten SEMrush Sensor und die Experten bei WebmasterWorld. Später bestätigten es
Vertreter von Google. Die von Barry Schwarz durchgeführte Analyse legt nahe, dass das Update Auswirkungen auf mindestens zwei Kategorien von Websites hat: – Websites mit zu vielen Landing-Pages, die über Permutationen von Keywords erreicht werden sollen – Websites mit zu vielen Anzeigen
oder dürftigem Inhalt
Google organic
Nov 15, 2017
Google-Update Mitte November
Webmaster und SEMrush Sensor haben diese Woche hohe Fluktuationen in Rankings berichtet. Dies lässt ein wesentliches Update vermuten. Erste Analysen zeigen, dass Websites mit vielen Anzeigen und
wenig Inhalt betroffen sind.
Google organic
Oct 8, 2017
Update am Wochenende 7.–9. Oktober
Am 7.–9. Oktober zeigten sich alle üblichen Anzeichen für ein Google-Update: SEMrush Sensor berichtete starke Schwankungen, und Webmaster sprachen über Positionsänderungen. Es scheint sich um ein nach und nach implementiertes Update zu handeln. Google hat noch keinen Kommentar
abgegeben.
Unconfirmed
Sep 26, 2017
Weiterhin starke Änderungen in Google-Suchergebnissen
Nachdem bereits am 16. und 20 September besonders hohe Schwankungen erkannt wurden, haben SEMrush Sensor und andere Überwachungstools erneut Anzeichen für ein mögliches Google-Update gemeldet. Wie üblich haben Vertreter von Google nicht offiziell bestätigt, dass ein Update implementiert wurde.
Unconfirmed
Sep 16, 2017
Google-Update am 16. September
SEMrush Sensor hat extreme Schwankungen der Google-Rankings am 16. September berichtet. Dies wurde durch zahlreiche Beiträge in Webmaster-Foren bestätigt, in denen Mitglieder von plötzlichen Veränderungen ihrer Domain-Positionen berichteten. Details zum Update sind noch nicht bekannt.
Unconfirmed
Datum
Sep 8, 2017
Update von Rankings am 8. September
SEMrush Sensor hat am 8. September besonders hohe Schwankungen erkannt. Dies ist ein Anzeichen für ein Update. In einem etwas ungewöhnlichen Muster begannen die Webmaster fast zwei Tage
früher, Veränderungen an Positionen und Traffic zu berichten. Es stehen noch keine Details zum
Update zur Verfügung.
Unconfirmed
Aug 22, 2017
Hawk-Update des Algorithmus für lokale Ergebnisse
Die Änderungen der Local Pack-Ränge, die vor einem Jahr auf den Possum-Algorithmus zurückgeführt wurden, scheinen jetzt teilweise rückgängig gemacht worden zu sein. Bisher führte Possum dazu, dass
ähnliche Unternehmen, deren Standorte nah aneinander lagen, aus lokalen Suchergebnissen herausgefiltert wurden. Am 22. August veröffentlichte Google ein überarbeitetes Update des Algorithmus mit dem Namen „Hawk“, mit dem die meisten dieser Unternehmen wieder im Local Pack
angezeigt werden. Unternehmen, die sich im selben Gebäude befinden, können jedoch weiterhin herausgefiltert werden.
Aug 19, 2017
Google-Qualitäts-Update Ende August
Für viele Websites ergaben sich am 14. und 19. August wesentliche Ranking-Änderungen. Die Analyse der Muster legt nahe, dass erneut ein Qualitäts-Update implementiert wurde, das Websites mit schlechter User Experience herabstuft. Hierzu gehören: – dürftiger Inhalt mit viel Werbung – defekte
Links und/oder Flash – geringe Relevanz zur Abfrage
Jul 8, 2017
Anzeichen für ein Google-Update am Wochenende
SEMrush Sensor und andere Tracking-Tools haben am Wochenende stärkere Schwankungen in Google-Suchergebnissen gezeigt. Ein potenzielles Update wurde jedoch von Webmastern und Vertretern von Google bisher nicht bestätigt.
Unconfirmed
Jun 24, 2017
Wesentliches langfristiges Google-Update
Da SEMrush Sensor höhere Schwankungs-Scores zeigt als je zuvor, scheint es sich um das bisher größte Update zu handeln. Auch viele Webmaster haben bestätigt, dass sie Traffic-Veränderungen beobachtet
haben. Trotz aller Bemühungen hat diese Analyse keine Muster im Update aufgedeckt, und es gibt bisher keine offizielle Bekanntgabe von Google.
Google organic
Jun 14, 2017
Kleines Google-Update am 14. Juni
SEMrush Sensor hat am 14. Juni starke Schwankungen in Google-Rankings erkannt. Außerdem liegen
Berichte von Webmastern vor, die deutlich mehr oder weniger Traffic erhalten haben. Insgesamt
scheint es sich um ein begrenztes Update zu handeln.