Wozu brauchen wir eine SEO-Agentur?

Bild SEO-Dame

Bei vielen Menschen herrscht die allgemeine Sichtweise, dass eine SEO-Agentur irgendwie zaubern können müsste und eine Website zu jedem gewünschten Keyword auf Platz 1 bringt. Das ist natürlich totaler Quatsch und wer so etwas verspricht ist ein Hochstapler. Gerade in den letzten Jahren versagen klassische Optimierungsmethoden immer mehr bzw.  diese zeigen nur noch eine marginale Wirkung. Worauf es heute ankommt, ist mehr ein Mix aus Maßnahmen, die nur im perfekten Zusammenspiel gewünschte Ergebnisse bringen.

Ok, wir können etwas an der klassischen On-Page-Schraube drehen, aber selbst hier müssen wir schon wieder aufpassen, dass wir die Website nicht überoptimieren, wobei niemand genau definieren kann, wo eine Überoptimierung anfängt. Es lauern an allen Ecken und Kanten Gefahren, die viele selbst nie als solche erkennen. Da gibt es immer die Gefahr, gegen Richtlinien zu verstoßen und damit die noch größere, abgestraft zu werden.

Ich versuche im Folgenden einmal zu erklären, was eine SEO-Agentur eigentlich macht.

Jeder möchte mit seiner Website Erfolg haben. Da Erfolg heute größtenteils mit mehr Umsatz assoziiert wird, sind wir darauf angewiesen, in den Suchmaschinen zu unseren Keywords, auf Seite eins oder maximal Seite zwei gelistet zu werden. Natürlich gibt es noch andere Ziele als nur mehr Umsatz zu erwirtschaften. Häufig geht es einzig und allein um mehr Sichtbarkeit. Um überhaupt irgendein Ziel erreichen zu können muss eine Website bestimmte Anforderungen erfüllen:

  1. Sie liefert guten und einzigartigen Content (Content ist King).
  2. Sie ist gut von allen Endgeräten aus bedien- und erreichbar.
  3. Sie funktioniert fehlerfrei (Programmierung/ Code).
  4. Sie hat eine gute Performance (Ladegeschwindigkeit).
  5. Sie ist für den Benutzer sicher.

Die Reihenfolge ist jetzt frei gewählt, aber es sind im Kern genau diese fünf Punkte die eine Page erst einmal erfüllen muss um überhaupt einem Standard zu entsprechen, mit dem wir arbeiten können. Da wir hier priorisieren, immer ohne kryptische Begriffe auszukommen, würde ich sagen, diese genannten fünf Punkte sind die Basis, die jede Website erfüllen muss, um ein Rennen beginnen zu können. Ja, es handelt sich tatsächlich um eine Art Wettrennen oder besser ausgedrückt Wettbewerb. Jedoch gewinnt nicht immer der Schnellste sondern meistens der Klügere und noch häufiger der mit mehr Ausdauer; und ja, ich muss es zugeben, auch der mit dem größten finanziellen Einsatz. Geld regiert die Welt. Das ist beim SEO oder eben dann beim SEA (Werbung bei den Suchmaschinen) leider nicht anders. Wir können sehr viel mit Fleiß und Einsatz kompensieren, aber eben nicht alles.

Die oben genannten 5 Punkte können wir alle in die On-Page-Ecke der SEO schieben. Neben diesen Faktoren, die immer und direkt von der Website selbst ausgehen, kommen noch viel Wichtigere hinzu. Das sind die sogenannten Off-Page-Faktoren. Hierzu zählt alles, was von außen positiv auf die Website einwirkt. Hier muss ich die Relativität ins Spiel bringen, denn was positiv oder negativ gesehen wird, darf und sollte jeder selbst entscheiden können. Hier gibt es sicherlich einen Minimalkonsens, dem jeder zustimmen würde. Ich stelle diesen hier in nur 3 Punkten dar.

  1. Eine Website muss eine Autorität in ihren Kern-Themen besitzen. Ob das der Fall ist, kann nur von außen bestimmt werden.  Es bestimmen hier in erster Linie die Besucher der Website, ob diese eine Autorität zu ihren Themen darstellt. Die Website selbst hat auf ihre eigene Autorität nur bedingt einen Einfluss. Wenn der Content sehr gut ist, werden auch andere Websites und auch die sozialen Netzwerke häufig darauf verweisen. Ja ich weiß, wer bestimmt was gut und was schlecht ist :-)? Na ganz klar, der Markt. Selbst eine Witze-Seite kann eine hohe Autorität erreichen, eben auf das Thema „Witze“ bezogen. In jedem Fall muss die Website für den Besucher informativ oder unterhaltsam sein oder sie muss mit Produkten aufwarten, die Verbraucher sich wünschen. Es gibt nur diese 3 Gründe warum Websites besucht werden: Informationen, Unterhaltung, Produkte.
  2. Sympathie: Es gibt keine SEO-Metrik, die Sympathie (für eine Website)  in Daten darstellen kann, aber wenn eine Website sympathisch ist und gefällt, dann wird sie ihre Besucher auch zur Wiederkehr bewegen. Im Prinzip können wir eine Website wie eine eigene Entität betrachten und bei den meisten guten und bekannten Seiten ist es auch so, dass sie wie solche gesehen werden.
  3. Sichtbarkeit: Die allgemeine Sichtbarkeit zu erhöhen ist wohl mit Abstand eines der wichtigsten Ziele. Egal ob eine Unternehmens- oder eine private Hobby-Website. Alle wollen in aller Munde sein. Im Web ist das eben die Sichtbarkeit. Hier gehen die Punkte zwei und drei eigentlich nahtlos ineinander über. Die Sichtbarkeit können wir auf vielerlei Arten beeinflussen. Haben wir einen fleißigen und kreativen social Networker, dann wird dieser ständig an der Vergrößerung der Reichweite seiner Kanäle arbeiten. Wir selbst sehen auch den klassischen Linktausch als eher unkritisch und würden sogar empfehlen hier auch aktiv zu sein. Gerade für Websites mit ähnlichen Themen, kann es sehr vorteilhaft sein, sich gegenseitig zu verlinken.

Ja, dem aufmerksamen Leser wird nicht entgangen sein, dass noch nicht geschrieben wurde, was denn nun eine SEO-Agentur so macht? Die Antwort auf diese Frage ist einfacher als die Realisierung der Ziele. Die SEO-Agentur arbeitet daran, alle aufgezählte Punkte zu optimieren. Zu 60% ist ein SEO-Dienstleister ein Berater der Handlungsempfehlungen gibt. Die anderen 40% gehen in das Monitoring und Reporting. Häufig arbeiten SEO-Agenturen auch allumfassend und übernehmen von der Website-Erstellung bis zur redaktionellen Betreuung alles. Das sind dann die sogenannten Full-Service-Agenturen, wozu die Wolfram Consult GmbH & Co. KG sich auch zählt.

Vielleicht sollte hier auch nicht unerwähnt bleiben, dass das Feld der OFF-Page-Optimierungen nahezu unbegrenzte Möglichkeiten bietet, während man ON-Page sehr schnell an die natürlichen Grenzen des Machbaren stößt.

Eine sehr wichtige Sache sollte sich jeder merken: „SEO ist ein Weg und keine Maßnahme.“ Letztlich können wir nur sichtbarer machen, was auch als Content vorhanden ist. Aus diesem Grund liegt der Schwerpunkt ganz klar beim einzigartigen (uniquen) Content. Hier kann immer etwas optimiert und ausgebaut werden.

Wer selbst in einer SEO-Agentur arbeitet oder gearbeitet hat weiß, dass in SEO-Projekte unglaublich viel Fleiß und Zeit fließen. Wochenende ist etwas für Produktionsarbeiter :-). Wir arbeiten fließend, schlafen auch mal bis um 10.00 Uhr und sind oft auch am Wochenende für Sie digital unterwegs.

Bei dieser Gelegenheit sei noch erwähnt: Wir suchen immer motivierte, kreative neue Mitarbeiter für die Bereiche:

Webmaster, Server-Administration (Debian), Web- und Grafikdesign, SEO, SEA, SEM und Social Networker. Gerne auch Quereinsteiger. Wenn Sie gute Referenzen (eigene Projekte, Nachweise über Erfahrungen) zum Vorzeigen haben, dann zählen diese für uns mehr als Zertifikate. Senden Sie Ihre Initiativbewerbung nur per E-Mail, mit Bezug auf diesen Beitrag, an: karriere[at]wolframbk.de

Eine neue und überarbeitete Version dieses Artikels haben wir auf Steemit veröffentlicht.

Eine Kritik an Google

Bild SEOWas bezweckt Google mit diesen ganzen Reglementierungen, die als Empfehlungen in den Webmasterrichtlinien genannt werden? Welche Ziele verfolgt es damit?

Es läuft letztlich wohl darauf hinaus, dass sich das Web, welches ja nun mal aus Websites besteht, den Regeln und Wünschen von Google „unterwirft“.

Ich kopiere hier mal einige „Empfehlungen“ aus den Webmasterrichtlinen hinein und werde daneben in Klammer schreiben, was ich davon halte.

„Konkrete Empfehlungen von Goolge, nachzulesen in den Richtlinien für Webmaster und zwar hier.

Vermeiden Sie die folgenden Methoden:

  • Automatisch generierte Inhalte (schlechte Empfehlung, was ist mit RSS Feeds? diese erzeugen doch automatisiert Content, wo ist das Problem?)
  • Teilnahme an Linktauschprogrammen (Ich finde es eine Frechheit, Webmaster Linktauschprogramme zu vermiesen. Diese Programme haben das Internet erst groß gemacht. Was ist mit den ganzen Webverzeichnissen und Linklisten, sind die jetzt böse? Letztlich ist auch eine Suchmaschine ein Index von Websites und viele linken auch auf Google zurück, in welcher Form auch immer.)
  • Erstellen von Seiten ohne oder mit nur wenigen eigenen Inhalten (Es gibt einige Websites, die wollen nicht mehr als eine Webvisitenkarte sein, nicht mehr und nicht weniger, die brauchen also kaum Content und wollen auch keinen.)
  • Cloaking (OK, dass muss bestraft werden!)
  • Irreführende Weiterleitungen (Was ist eine irrenführende Weiterleitung, wer entscheidet das? Es gibt viele durchaus sinnvolle Weiterleitungen)
  • Verborgener Text/verborgene Links (Ja, das ist mies.)
  • Brückenseiten (Wo ist das Problem? Wenn man es technisch sieht, ist Google auch nur eine Brückenseite)
  • Kopierte Inhalte (Das sollten sich die Medien-Konzerne auf die Fahnen schreiben, die beziehen doch alle die selben Nachrichten und publizieren teilweise 1 zu 1 und dennoch werden die alle von Google gut geränkt)
  • Teilnahme an Affiliate-Programmen ohne ausreichenden Mehrwert (Junge, Junge, hier bekomme ich einen echten Hals. Was ist denn Adwords, was ist das Ganze SEA? Ist das alles mit einem Mehrwert hinterlegt? Hier verstösst Google eindeutig gegen seine eigenen Empfehlungen und ich bzw. wir vom SEO Boss sind, soweit ich das sehen kann, in der kompletten SEO-Szene, die Einzigen die sich trauen das zu thematisieren. So gut wie alle SEO-Agenturen am Markt, haben keine eigene Meinung, sie setzen einfach nur um was Google vorgibt und damit unterstützen sie die Bevormundung der Webmaster von Google.)
  • Laden von Seiten mit irrelevanten Keywords (Ja das ist OK. Es macht auch gar keinen Sinn Keywords für Seiten, sei es als Anker oder sonstwie zu verwenden, wenn der Content nicht passt.)
  • Erstellen von Seiten mit schädlichen Funktionen, durch die beispielsweise Phishingversuche unternommen oder Viren, Trojaner oder andere Badware installiert werden. (Das ist sehr richtig!)
  • Missbrauch von Rich Snippet-Markup (Wo fängt der Missbrauch an?)
  • Senden von automatisierten Anfragen an Google (Hey Google, nachdem ich eine Suchphrase in Deine Suchmaske eingetragen habe, wird der Vorgang ohnehin automatisiert, oder nicht? Durch das reCaptcha V2 sind automatisierte Anfragen so gut wie unmöglich geworden, also ist diese Empfehlung überflüssig.)

Ich fasse also mal zusammen. Google will natürlich in allererster Linie Geld verdienen und am besten dem kompletten Werbemarkt beherrschen. Das ganze Getue mit den kostenlosen Diensten ist ein Blender. Nichts ist kostenlos! Jeder bezahlt mit seinen Daten! Das ist die Realität.

Wir betreiben seit Jahren eine kleine Werbewebsite. Auf dieser gibt es nichts, was den Besucher irgendwie nervt. Wir verwenden keine Werbelayer, keine Popups, einfach nichts was sich irgendwie ungefragt im Browser öffnet. Wir versenden keine Spam-Mails und verwenden nicht mal ein Newsletter-System. Google hat die Seite zwar indexiert, aber zu keinem einzigen wichtigen  Keyword rankt die Seite überhaupt. In 5 Jahren ist so gut wie kein einziger Besucher über die organische Suche von Google auf die Seite gekommen. Wie kann das sein? Gibt es hier einen Interessen-Konflikt? Ist das Google Webspam-Team wirklich neutral und vor allem seriös?

Wir sind schon viele Jahre am Start und wissen sehr genau, dass Google auch den letzten Krümmel Umsatz oder Erfolg keinem anderen könnt. Diese Entwicklung darf kein Webmaster unterstützen. Das Internet ist ein Menschenrecht und, es gehört niemanden. Wir bezahlen alle unsere Gebühren für den ISP und damit erwerben wir auch das Recht auf Netzneutralität und ungehinderten Zugang zu Informationen.

Google, Du hast vergessen, dass es die Menschen und Benutzer des Internets sind, die Dich groß gemacht haben. Höre auf hier den Pascha zu spielen und sei, was Du eigentlich sein sollst, ein Dienstleister und kein Bestimmer!

Der Core von Google ist eine künstliche Intelligenz und ich weiß, dass diese KI diesen Betrag lesen und die Domain dafür bestrafen wird. Das ist uns egal, was gesagt werden muss, muss einfach auch mal gesagt werden! Niemand in der sogenannten SEO-Szene erhebt mal das Wort. Das wäre jedoch aktuell sehr wichtig. Diese Entwicklung der totale Kontrolle und Bevormundung im Internet muss aufhören!

Warum muss alles reglementiert werden? Der Markt sollte das allein klären dürfen.

Bei dieser Gelegenheit will ich mal eine wirklich gute und unbestechliche Suchmaschine empfehlen und zwar http://gigablast.com/. Hier kann man sich keine Werbeplätze kaufen und allein das macht gigablast wirklich seriös. Der Quelltext von Gigablast ist offen und jedem steht es frei, sein eigene Suchmaschine, auf diese Quellen aufbauend, online zu bringen.

Ich habe prinzipiell nichts gegen Google, aber wenn ich sehe, dass Google offensichtlich etwas gegen alle hat, die auch ein wenig im Markt mitmischen wollen, dann nehmen wir uns die Freihheit und üben auch mal Kritik an dem Giganten. Diese Kritik ist mehr als berechtigt. Wir unterstützen auch das europäische Projekt von Quant, dass ist eine Suchmasschine die von sich selbst sagt:

  • Die einzige europäische Suchmaschine
  • Wir setzen keine Cookies
  • Wir speichern niemals Ihren Suchverlauf

Eine Suchmaschine soll Menschen dabei helfen, Informationen zu finden. Es kann und soll nicht die Aufgabe einer Suchmaschine sein, dass Internet zu reglementieren, zu manipulieren und seine Marktposition zu benutzen um Regeln zu erstellen, an die sich dann alle zu halten haben. Wer gibt Dir Google das Recht, über Qualität von Content zu entscheiden? Es sollte einzig und allein dem Verbraucher zustehen über Qualität von Produkten und Content zu entscheiden.

Mein Alexa Traffic Rank bleibt stehen

Seit Google seinen öffentlichen Pagerank beerdigt hat, sehen viele auf den Alexa Traffic Rang. Dieser hat definitiv vom Tod des öffentlichen PRs profitiert. Dieser Rang oder eben (engl.) Rank, ist ein erster guter Indikator für die Beliebtheit einer Website. Unter SEO´s genoß dieser Rank früher kein sehr hohes Ansehen. Man konnte diesen viel zu einfach beeinflussen. Ganz so einfach ist das heute nicht mehr und Alexa hat seine Qualitätskriterien ziemlich nach oben geschraubt. Wurde früher wirklich der komplette Roh-Traffic gemessen, sieht Alexa heute genauer hin und filtert z.B. Bot-generierten Traffic weitestgehend heraus. Es bringt in der Tat sowieso nichts solche Bots zu verwenden. Der daraus resultierende Nutzen geht gen NULL. Vielmehr schadet heute jede unnatürliche Erzeugung von Traffic dem Ansehen der Website bei den Suchmaschinen.

Es dürfte sich ja in der Zwischenzeit herumgesprochen haben, dass die großen Suchmaschinen von künstlichen Intelligenzen gesteuert und überwacht werden. Diese sind wirklich sehr intelligent und kennen z.B. die IP-Adressen von den bekanntesten Proxie-Servern. Ebenso sind alle VPN-Server und Dienste bekannt. Wer also künstlichen Traffic über Proxie oder VPN erzeugt, schürrt allein dadurch schon das Misstrauen der Suchmaschinen, jedenfalls ist das unser Eindruck. Es geht eben nichts über echten organischen Traffic, der über die Suchmaschinen oder über qualittativ hochwertige Backlinks entsteht.

Das uralte „Content ist King“ gilt heute mehr denn je! Ohne guten und uniquen Content hat eine Website keine Chance. Werbung schalten bringt sicher auch einiges an Traffic, besonders wenn die Zielgruppe gut getroffen wird. Da das schalten von Werbung bei den Suchmaschinen das Ranking in den SERPs selbst, nicht beeinflusst, ist damit eine direkte und nachhaltige Optimierung der Website nicht möglich. Die Effekte halten dann nur solange an, wie die Werbung eben geschaltet wird.

Zurück zum Alexa-Traffic-Rank. Die erste Frage die man hier stellen muss lautet: Ist dieser überhaupt etwas Wert? Wir würden diese Frage mit Ja beantworten. Warum? Weil es sonst kaum eine kostenlose Möglichkeit gibt, eine erste Aussage über die Beliebtheit einer Website zu treffen. Diesen Traffic-Rank kann jeder selbst einsehen und zwar auf dieser Seite.  Der Rang ist um so besser je kleiner er ist. Nicht berücksichtigt werden spezielle SEO-Metriken. Der Rang sagt erstmal nur aus, ob Leben auf einer Website stattfindet und in welchem Umfang. Wer hier seine Seite checkt und feststellt, dass diese gar nicht sichtbar ist, der hat eben einen Traffic-Mangel. Anders als früher, bekommt Alexa seine Daten nicht nur über die Browser-Addons, sondern über insgesamt 200 Sinalgeber. Darin werden einige Addons enthalten sein, aber ganz sicher auch Quellen, die wir nicht kennen.

In den letzten 8 Wochen wurde dieser öffentlich einsehbare Rang nicht mehr aktualisiert. Das ist schon sehr seltsam und ich kann mich nicht daran erinnern, dass dieser Rang so lange nicht aktualisiert wurde. Möglicherweise und dieser Gedanke ist sehr naheligend, wird der Alexa-Traffic-Rank früher oder später nur noch kostenpflichtig aktuell gepflegt. Bereits seit einiger Zeit wird entsprechend bei den Preisen ein „Certified Alexa Rank for Your Site“ angeboten. Die kleinste Variante kostet 19,99 US $ und ist für Websites geeignet, die bis zu 10 Millionen Pageviews pro Monat haben. Dieser Plan sollte eigentlich für die meisten Websites ausreichen. Wer umfangreichere Analyse-Tools und Daten benötigt, muss zu anderen Tarifen greifen. Hier wird es dann teilweise nicht gerade günstig. Verglichen mit SEMrush, ahrefs, Sistrix oder Majestic liegt Alexa mit seinen Angeboten gut in der Mittelklasse. Gerade SEO-Agenturen müssen sich wohl darauf einstellen, dass es nicht günstiger in Zukunft wird. Ich erinnere hier nur an die Preise für die Bing APIs.

Die kostenlose Auslieferung des Alexa-Traffic-Ranks verbraucht ganz sicher riesige Ressourcen und bringt für das Unternehmen selbst kaum einen relevanten Nutzen.

Wir werden sehen, wie es weitergeht mit dem kostenlosen Alexa-Traffic-Rank. Sollte er Googles öffentlichen Page Rang ins SEO-Grab folgen, wonach es für mich aktuell aussieht, dann wird das ein großes Loch hinterlassen. Wie ich bereits sagte, gibt es für eine „Pi-Mal-Daumen“- Einschätzung einer Website, die auch noch kostenlos ist, keine Alternative. Ich spreche hier nicht von den vielen kleinen Portalen, wo man sich eine kleine On-Page-Analyse für seine Website kostenlos automatisiert erstellen lassen kann, die am Ende wenig Aussagekraft hat; ich spreche von einer Hausnummer, die in einen einzigen Wert eine Bedeutung legt und das auch noch kostenlos.

Bin ich nun ein Alexa-Traffic-Rank-Fan-Boy? In gewisser Weise bin ich das und allgemein ist diese Sichtweise auch bei meinen Kollegen im Unternehmen zu finden. Die ganzen „Größen“ in der SEO-Szene haben den Alexa-Traffic-Rank immer schon mies und madig gemacht und früher war er auch ein eher mäßiges Tool für einen ersten Blick, aber heute (seit einigen Jahren) taugt er wirklich etwas und ich würde es schade finden, wenn der kostenlose Traffic Rank das Zeitliche segnet.

Lassen wir uns überraschen! Beim öffentlichen Google Pagerank hat es auch fast 2 Jahre gedauert, bis auch der letzte Freak realisiert hat, dass er in den SEO-Himmel eingezogen ist. Sogar heute gibt es noch „Spezialisten“ die Backlinks verkaufen, von Websites mit einem öffentlichen PR 6 oder höher :-).

Und nie vergessen: „Content ist und bleibt King!“

 

EuGH-Urteil zur DSGVO und Facebook

Quelle

Der Europäische Gerichtshof hat ein Urteil gesprochen. Dieses bezieht sich auf die Datenschutz-Problematik mit Facebook. Wie es aussieht, müssen wohl alle Facebookseiten (Fanseiten, Unternehmensseiten) geschlossen oder wenigstens auf „Seite nicht veröffentlichen“ geschaltet werden und zwar solange, bis Facebook die DSGVO umgesetzt hat.

Es dürfte sehr schwierig sein, das aktuelle Geschäftsmodell von Facebook mit der DSGVO in Einklang zu bringen.

Google-Updates von Juni 2017 bis Mai 2018

Viele bekommen davon nichts mit, aber Google aktualisiert sehr häufig seine Algorithmen. Semrush gibt darüber seine neuesten Infos heraus. Das kann für Seo´s sehr nützlich sein, aber auch manchmal deprimierend. Gerade bei den sogenannten Qualitäts-Updates wird mancher mit dem Kopf schütteln. Jetzt sind wir also dort angekommen, wo uns eine Maschine sagt: Das ist Qualität und das ist keine …
Bei dieser Gelegenheit will ich noch mal an eine der erfolgreichsten Werbewebsites aller Zeiten erinnern: milliondollarhomepage.com.
Nach heutigen Maßstäben wäre diese Seite eine Werbemüllhalde, trotz der genialen Idee.
Ich möchte noch hinzufügen, dass es keinen statischen Google-Index mehr gibt. Es ist vielmehr so, dass jeder seine sehr individualisierten Ergebnisse bei der Suche erhält. Umgehen kann man das nur, wenn man Proxi-Suchmaschinen wie startpage.de oder DuckDuckGo verwendet. Diese stehen dann zwischen dem Suchenden und den SERPS. Da diese beiden auch den Google-Index verwenden, kann man dort das Keyword-Ranking unabhängiger bewerten. Allein die Verwendung von VPN, wie viele meinen, kann eine Proxi-Suchmaschine nicht ersetzen. Google ist KI und kennt wahrscheinlich jeden einzelnen VPN-Server [vielleicht sogar persönlich :-)].
Es folgen die Update-News.
Quelle: semrush.com
May 24, 2018
Google-Update im Mai
Nach zwei relativ ereignislosen Wochen hat SEMrush Sensor plötzlich hohe Schwankungen erkannt, die ein weiteres Google-Update vermuten lassen. Auch Webmaster berichten von großen Veränderungenbei Rankings und Traffic.
Unconfirmed
Apr 17, 2018
Kernalgorithmus-Update im April
Google hat bestätigt, dass Mitte April ein Update seines Kernalgorithmus veröffentlicht wurde. Solche
Updates gibt es mehrmals im Jahr, und es gibt normalerweise keine speziellen Rezepte, um Positionsverschlechterungen zu beheben. SEMrush Sensor hat dieses Update mit besonders starken Veränderungen am 18. und 20. April registriert.
Mar 23, 2018
Fortgesetzte Anzeichen für ein Update
Es gibt Anzeichen dafür, dass entweder ein Kernalgorithmus-Update, das diesen Monat bereits von Google bestätigt wurde, weitere Auswirkungen auf SERPs hat oder dass am 23. März ein weiteres
Update stattgefunden hat.
Unconfirmed
Mar 9, 2018
Google-Kernalgorithmus-Update
Vertreter von Google haben bestätigt, dass sie am Wochenende den Ranking-Kernalgorithmus
aktualisiert haben. Solche Updates gibt es mehrmals jährlich, aber Google hat keine spezifischen
Empfehlungen dazu gegeben, was Webmaster unternehmen sollten, wenn sie von diesem Update
betroffen sind. Das Update hat auch Auswirkungen auf den SEMrush Sensor.
Mar 2, 2018
Anzeichen für ein Google-Update
SEMrush Sensor und Webmaster haben berichtet, dass der Frühling 2018 mit einem Google-Update
eingeläutet wurde. Es besteht jedoch kein vollständiger Konsens, und das Update bezieht sich
möglicherweise nur auf bestimmte Nischen.
Unconfirmed
Feb 21, 2018
Wichtiges Google-Update im Februar
Da SEMrush Sensor eine nie da gewesene Welle von Veränderungen in allen Datenbanken entdeckt
hat, ist es deutlich, dass am 21. Februar etwas passiert ist. Es gibt jedoch bisher kaum Berichte von Webmastern, und es gibt keine Hinweise darauf, um was es bei dem Update ging.
Unconfirmed
Jan 23, 2018
Eine Reihe kleinerer Google-Updates
SEMrush Sensor zeigt seit einiger Zeit mehr Veränderungen an Suchrängen. Viele Webmaster haben
Traffic-Änderungen berichtet. Es gibt jedoch noch keine Anzeichen für ein einzelnes wesentliches
Update. Alles deutet eher auf eine Reihe kleinerer Veränderungen hin.
Unconfirmed
Jan 15, 2018
Keyword-Datenbank wird aktualisiert
Wir aktualisieren unsere Keyword-Datenbank, entfernen alte, nicht mehr verwendete Keywords und
fügen die zurzeit aktuellen hinzu. Außerdem aktualisieren wir Suchvolumina, sodass sie genauer werden.
Jan 6, 2018
Anpassungen des Google-Algorithmus zu Jahresbeginn
Laut Barry Schwarz begann das neue Jahr mit Anpassungen mehrerer Algorithmus-Updates von Dezember. Laut seinem Bericht wurden die früheren Änderungen, die sich auf Keyword-Permutationen, PBNs und Promi-Websites bezogen, von Google etwa am 5.–7. Januar feinabgestimmt.
Unconfirmed
Dec 25, 2017
Google-Update nimmt Spam-ähnliche Links aufs Korn
Barry Schwarz ist anhand von Berichten von Webmastern zu der Ansicht gelangt, dass ungefähr an Weihnachten ein weiteres Google-Update veröffentlicht wurde. Es scheint gegen Spam-ähnliche Linktechniken gerichtet zu sein, wie PBNs (private Blognetzwerke). SEMrush Sensor hat das Update
jedoch nicht registriert.
Unconfirmed
Dec 13, 2017
Google-Update vor Weihnachten
Passend zu einem aktuellen Trend bekamen Websites Mitte Dezember wieder ein Google-Update zu spüren. Dies berichteten SEMrush Sensor und die Experten bei WebmasterWorld. Später bestätigten es
Vertreter von Google. Die von Barry Schwarz durchgeführte Analyse legt nahe, dass das Update Auswirkungen auf mindestens zwei Kategorien von Websites hat: – Websites mit zu vielen Landing-Pages, die über Permutationen von Keywords erreicht werden sollen – Websites mit zu vielen Anzeigen
oder dürftigem Inhalt
Google organic
Nov 15, 2017
Google-Update Mitte November
Webmaster und SEMrush Sensor haben diese Woche hohe Fluktuationen in Rankings berichtet. Dies lässt ein wesentliches Update vermuten. Erste Analysen zeigen, dass Websites mit vielen Anzeigen und
wenig Inhalt betroffen sind.
Google organic
Oct 8, 2017
Update am Wochenende 7.–9. Oktober
Am 7.–9. Oktober zeigten sich alle üblichen Anzeichen für ein Google-Update: SEMrush Sensor berichtete starke Schwankungen, und Webmaster sprachen über Positionsänderungen. Es scheint sich um ein nach und nach implementiertes Update zu handeln. Google hat noch keinen Kommentar
abgegeben.
Unconfirmed
Sep 26, 2017
Weiterhin starke Änderungen in Google-Suchergebnissen
Nachdem bereits am 16. und 20 September besonders hohe Schwankungen erkannt wurden, haben SEMrush Sensor und andere Überwachungstools erneut Anzeichen für ein mögliches Google-Update gemeldet. Wie üblich haben Vertreter von Google nicht offiziell bestätigt, dass ein Update implementiert wurde.
Unconfirmed
Sep 16, 2017
Google-Update am 16. September
SEMrush Sensor hat extreme Schwankungen der Google-Rankings am 16. September berichtet. Dies wurde durch zahlreiche Beiträge in Webmaster-Foren bestätigt, in denen Mitglieder von plötzlichen Veränderungen ihrer Domain-Positionen berichteten. Details zum Update sind noch nicht bekannt.
Unconfirmed
Datum
Sep 8, 2017
Update von Rankings am 8. September
SEMrush Sensor hat am 8. September besonders hohe Schwankungen erkannt. Dies ist ein Anzeichen für ein Update. In einem etwas ungewöhnlichen Muster begannen die Webmaster fast zwei Tage
früher, Veränderungen an Positionen und Traffic zu berichten. Es stehen noch keine Details zum
Update zur Verfügung.
Unconfirmed
Aug 22, 2017
Hawk-Update des Algorithmus für lokale Ergebnisse
Die Änderungen der Local Pack-Ränge, die vor einem Jahr auf den Possum-Algorithmus zurückgeführt wurden, scheinen jetzt teilweise rückgängig gemacht worden zu sein. Bisher führte Possum dazu, dass
ähnliche Unternehmen, deren Standorte nah aneinander lagen, aus lokalen Suchergebnissen herausgefiltert wurden. Am 22. August veröffentlichte Google ein überarbeitetes Update des Algorithmus mit dem Namen „Hawk“, mit dem die meisten dieser Unternehmen wieder im Local Pack
angezeigt werden. Unternehmen, die sich im selben Gebäude befinden, können jedoch weiterhin herausgefiltert werden.
Aug 19, 2017
Google-Qualitäts-Update Ende August
Für viele Websites ergaben sich am 14. und 19. August wesentliche Ranking-Änderungen. Die Analyse der Muster legt nahe, dass erneut ein Qualitäts-Update implementiert wurde, das Websites mit schlechter User Experience herabstuft. Hierzu gehören: – dürftiger Inhalt mit viel Werbung – defekte
Links und/oder Flash – geringe Relevanz zur Abfrage
Jul 8, 2017
Anzeichen für ein Google-Update am Wochenende
SEMrush Sensor und andere Tracking-Tools haben am Wochenende stärkere Schwankungen in Google-Suchergebnissen gezeigt. Ein potenzielles Update wurde jedoch von Webmastern und Vertretern von Google bisher nicht bestätigt.
Unconfirmed
Jun 24, 2017
Wesentliches langfristiges Google-Update
Da SEMrush Sensor höhere Schwankungs-Scores zeigt als je zuvor, scheint es sich um das bisher größte Update zu handeln. Auch viele Webmaster haben bestätigt, dass sie Traffic-Veränderungen beobachtet
haben. Trotz aller Bemühungen hat diese Analyse keine Muster im Update aufgedeckt, und es gibt bisher keine offizielle Bekanntgabe von Google.
Google organic
Jun 14, 2017
Kleines Google-Update am 14. Juni
SEMrush Sensor hat am 14. Juni starke Schwankungen in Google-Rankings erkannt. Außerdem liegen
Berichte von Webmastern vor, die deutlich mehr oder weniger Traffic erhalten haben. Insgesamt
scheint es sich um ein begrenztes Update zu handeln.

Silbentrennung PHP, HTML,

Einige PHP-Scripts haben Probleme, gerade bei der Silbentrennung in der Textausgabe der Deutschen Sprache. Wenn man nicht tiefergehende Kenntnisse in PHP hat, kann man sich auch mit CSS behelfen. Hier gibt es eine Syntax Namens: word-break.


Nach meiner Erfahrung fährt man mit word-break: normal am besten. Falls das nicht klappt, einfach mal die anderen testen. Es ist schließlich ärgerlich, wenn die Worte vollkommen sinnfrei am Zeilenende getrennt werden.

CSS Syntax

word-break: normal|break-all|keep-all|initial|inherit;

Property Values

ValueDescription
normalDefault value. Break words according to their usual rules
break-allLines may break between any two letters
keep-allBreaks are prohibited between pairs of letters
initialSets this property to its default value. Read about initial
inheritInherits this property from its parent element. Read about inherit

Pure HTML vs. CMS vs. Web-Baukasten

Lasst uns heute mal einen Blick darauf werfen, welche Vorteile es hat sich für eine bestimmte Variante zu entscheiden eine Website online zu stellen.

Da sind zunächst einmal die echten Cracks die alles selbst machen wollen. Sie beherrschen HTML, CSS, PHP und natürlich auch MySQL. Diese Leute können diese Seite gleich wieder verlassen, denn dieser Artikel richtet sich an den durchschnittlichen Websitebetreiber bzw. jene, die welche werden wollen.  Am Anfang muss sich jeder, der eine Website online stellen will selbst ein paar Fragen beantworten.

Die Cracks haben immer eigene Server und investieren ihr ganzes Leben in ihre Projekte. Sie wollen jeden Aspekt ihres Webprojektes selbst bestimmen und haben oftmals auch kein Privatleben mehr 😊. Das ist nicht böse gemeint. Ich war selbst viele Jahre genauso ein Typ.

Bevor man eine Website online stellt sollte man sich genau überlegen was man überhaupt möchte. Will man nur eine kleine Webvisitenkarte, also eine Website die sich die nächsten Jahre kaum verändern wird? Dann machen sogenannte Webbaukästen durchaus Sinn. Diese Systeme sind heute gut ausgereift und mit relativ wenig Aufwand kann man damit eine eigene Website online Stellen. Hier teilen sich 2 Platzhirsche praktisch den Markt. Das sind WIX und Jimdo. Beide haben ihre Vor- und Nachteile, sind aber gleichermaßen geeignet eine kleine Website zu produzieren ohne dass man selbst eine einzige Code-Zeile HTML schreiben muss. Wer z.B. einen kleinen Shop aussetzen will, mit einer überschaubaren Anzahl an Produkten, der ist z.B. bei Jimdo ganz gut aufgehoben.

Eines der vielen bekannten Shop-Scripte (Magento, Orocommerce, Shopware, Prestashop, Xt:Commerce, Gambio usw.) selbst aufzusetzen ist zwar kein Hexenwerk, aber das erfordert doch einen relativ hohen Zeitaufwand für die Konfiguration und die Pflege des Systems selbst. Auch bei Theme oder Template sind einige Kenntnisse erforderlich um diese anzupassen. Man muss häufig Updates einspielen und überhaupt sehr häufig nach dem Rechten sehen. Bei Jimdo oder anderen managed Shophostern (Strato) kann man sich eine Menge Zeit einsparen, weil sich hier die Hoster um die Technik im Background kümmern. Bei Jimdo hat man entsprechend auch keine Zugriffe auf Datenbank oder FTP. Das hat auch wieder Vor- oder Nachteile. Wer mit einem Minimum an Zeiteinsatz eine kleine Website oder einen Webshop hosten will, der ist deshalb mit einem Webbaukasten gut bedient. Meistens sind die Kosten sehr überschaubar und solche Seiten laufen oftmals 10 Jahre und länger, ohne jemals ein technisches Problem zu haben.

Ich gebe also hier eine klare Empfehlung für private Homepages, kleine Unternehmenswebsites oder eben kleinere Web-Shops sich ruhig einmal Jimdo anzusehen oder Wix.

Aus Seo-Sicht haben Web-Baukästen auch Nachteile. Da hier viele Inhalte in der Cloud und im CDN liegen, machen viele Seo-Tools Probleme und geben schlechten Noten. Das ist natürlich totaler Unfug, was kann ein CDN dafür, dass das Seo-Tool damit nicht klar kommt?

Wenn man z.B. ein Bild in einem Webbaukasten hochläd, dann wird es vom System meistens einfach umbenannt, und, vernüftig taggen kann man es auch nicht.

Diese Nachteile sind aber im Hinblick auf die Vorteile zu vernachlässigen. Suchmaschinen sind heute so intelligent, dass sie nicht zwingend von klassischen Ansichten ausgehen, wie es immer noch sehr viele Seo-Agenturen und vor allem sehr bekannte und teure Seo-Tools tun.

Übrigens, das ist hier kein Content-Marketing. Ich empfehle hier nicht Wix oder Jimdo, weil ich etwas dafür bekomme, sondern gebe hier einfach nachvollziehbare Erfahrungen weiter.

Der große Nachteil von den ganzen CMS-Systemen (Joomla, WordPress, Drupal usw.) ist einfach der Aufwand, diese Systeme aktuell und damit sicher zu halten. Je mehr Addons installiert wurden, um so mehr steigt die Wahrscheinlichkeit, dass nach einem Update irgend etwas nicht funktioniert. Wenn man dann selbst nicht zur Gruppe der erfahrenen Cracks gehört, heißt es, sich Stunden oder sogar Tage lang in Support-Foren herumzutreiben und die Community um Hilfe zu bitten.

Wer sich ausschließlich auf sein Geschäft konzentrieren will, hat einfach keine Zeit sich mit solchen Dingen herumzuschlagen.

Eigene dedizierte Rootserver sind etwas Herrliches, wenn man von dieser Materie etwas versteht. Für alle anderen will ich hier und heute die Lanze für einen Webbaukasten brechen. Glaubt mir, die Dinger sind besser als ihr Ruf und vor allem, ihr habt eure Ruhe! Das Projekt läuft stabil und macht so gut wie nie Probleme. Es gibt viele Websites, die bei Wix oder Jimdo gehostet sind, denen man nicht ansieht, dass sie mit so einem Baukasten designt wurden.

Wer es klein und unkompliziert will, muss sich nicht die Nerven zerreiben und kann guten Gewissens zu einem Webbaukasten greifen. Wenn Geld keine Rolle spielt, dann beauftragt man eine Agentur und lagert damit alles aus was mit der Website zu tun hat.

Wenn Sie dann endlich Ihre Website oder Ihrem Webshop online haben, dann kann der Seo Boss sicher für Sie aktiv werden. In Sachen Suchmaschinenmarketing denken wir sehr fortschrittlich und meistens funktioniert was wir tun gut. Wir verstehen wie Suchmaschinen denken und uns ist eigentlich egal wie es andere sehen. Wir betrachten Suchmaschinen als echte denkende Entitäten und wir behandeln diese auch so.

Kommen Sie einfach mal bei uns vorbei: https://www.seo-boss.de

Wir freuen uns auf Ihren Besuch!