SEO: Artikel-Überschriften (Titel) und die Google-Logik

Dieser Artikel wurde zuerst in unserem Steemit-Blog veröffentlich.

Heute mal wieder ein kleiner SEO-Artikel von mir.
Anders als viele andere berichten wir hier nur über unsere eigenen Erfahrungen und die, dass könnt ihr glauben, sind sehr umfangreich. Schon seit 1999 haben wir erkannt, dass es möglich ist, Websites Vorteile bei den Suchmaschinen zu verschaffen. Damals war das noch sehr einfach.
Wir schoben eine Unmenge an Meta-Keywords in den Head der Website und schon fand Google die Website. Der Googlebot ließ sich sehr einfach beeinflussen.
Heute hat eine künstliche Intelligenz das Ruder bei Google übernommen und diese interessiert sich absolut nicht mehr für Meta-Keywords. Hier zählt nur noch der semantische Zusammenhang des Contents im Hinblick auf die Suchanfrage.

So gut wie alle klassischen On-Page-Maßnahmen sind heute zweitrangig und haben, wenn überhaupt, nur noch sehr marginal einen Einfluss auf das Ranking. Natürlich muss eine Website technisch fehlerfrei sein, aber die Attribute im HTML-Quelltext haben nicht mehr die Macht wie früher.
Ein Beispiel: Hatte früher eine H1-Überschrift immer eine besondere Stärke, muss das heute nicht mehr gelten.

Ich sehe alle Webmaster-Hangouts (wirklich alle) und dort wird sehr viel erzählt, wenn der Tag lang ist. Die Realität sieht jedoch anders aus und diese bedeutet tatsächlich: Jeder(!) sieht seine eigenen SERPS. Ich könnte sogar noch einen Schritt weiter gehen und behaupten, jeder hat sein eigenes Internet. Alles ist abhängig vom Ort der Abfrage und von den zur Verfügung stehenden Daten des Anfragenden bzw. des Endgerätes in Bezug auf die Suchanfrage.

Der Durchschnitts-User hat keine Ahnung von Tracking-Methoden und kümmert sich kaum um seine digital erzeugten Spuren, aber genau diese lassen einen personalisierten Datensatz anwachsen. Dieser kann sehr beträchtlich im Umfang werden und beeinflusst die Suchergebnisse.

Am einfachsten kann man es verstehen, wenn man Youtube heranzieht. Hier hat jeder bestimmte Kanäle abonniert und zeigt Youtube damit seine Interessen. Jedes Like oder Share wird gesammelt und so weiß Youtube, was jeder mag. Endsprechend werden Meldungen bei Euch eintrudeln und Videovorschläge gemacht. Youtube individualisiert das Portal speziell für jeden Geschmack und natürlich wird auch die Werbung entsprechend ausgespielt. Ein Gamer wird viel öfter Werbung zu Spielen sehen als z.b. jemand der sich nur für Musik interessiert. Das Ganze ist auch logisch nachvollziehbar. Je besser die Zielgruppe eingegrenzt wird, je höher ist die Klickrate. Nun, das ist wirklich eine sehr alte Regel, aber diese gilt heute immer noch. Manche Dinge ändern sich eben nie :-).

In einer ähnlichen Weise werden die SERPS (Die Ergebnis-Seiten der Suche) für jeden anders aussehen. Eine Ausnahme bilden hier große internationale Konzerne. Diese haben alle ein großes Budget und dieses sichert ihnen eine gute Platzierung und allumfassende Sichtbarkeit.
Das alles wird niemand offiziell seitens Google zugeben, aber es ist so. Glaubt mir oder glaubt mir nicht. Die Algorithmen laufen in Echtzeit bei dieser KI zusammen und die SERPS werden in Echtzeit und vor allem individualisiert ausgespielt.

Suchst Du in Frankfurt/Main z.B. nach „Auto kaufen“ wirst Du andere Ergebnisse erhalten, als wenn dieselbe Suche in Frankfurt/ Oder getätigt wird. Auch hier können wir die Logik der lokalen Komponente nachvollziehen. Es macht natürlich bei Produkten die direkt vor Ort gekauft werden können einen Sinn, den Ort mit einzubeziehen, von wo die Anfrage kommt.

Anders sieht es bei Produkten aus, die Online erworben werden können. Ihr könnt es selbst testen und viele wissen es auch. In den SERPS finden wir auf den ersten Plätzen immer erst die großen Verkaufts-Portale. Ob das gerecht ist, steht auf einem anderen Blatt, es ist jedenfalls so. Bei Google geht es auch nicht um Gerechtigkeit, sondern um Geldverdienen. Ich weiß, Google hört so etwas nicht gerne, aber es ist nun mal so. Kleine Online-Händler haben es deswegen sehr schwer gegen diesen enormen Wettbewerb zu bestehen. Bei Massenware ist es fast unmöglich einen gut laufenden Online-Shop aufzubauen. Bei Nischen-Produkten sieht es da besser aus.

Ok, jetzt habe ich wieder viel geschrieben, ohne auf das eigentliche Thema einzugehen. Dieses geht ja aus der Überschrift dieses Artikels hervor. „Artikel-Überschriften (Titel) und die Google-Logik“.

Damit ich nicht individualisierte SERPS erhalte, verwende ich eine Proxi-Suchmaschine wie z.B. startpage.com. Diese Suchmaschine verwendet den Index von Google, verhindert aber, dass Google „weiß“ wer da Etwas sucht. Die Proxi-Suchmaschine hängt sich sozusagen zwischen dem Anfragendem (Suchenden) und Google. Damit können die Ergebnisse nicht mehr individualisiert werden und die SERPS zeigen ein relativ neutrales Ergebnis.
Google behauptet ja immer, die bestmöglichen Ergebnisse zu liefern und das bedeutet, ein Suchergebnis zu zeigen, welches der Anfrage am ehesten entspricht.

Ich habe vor zirka einem Monat einen Artikel bei uns im Blog geschrieben. Dieser trägt die Überschrift: „ Crypto-Währungen im Auge behalten“, natürlich mit einem H1-Tag versehen. Wenn ich nun genau nach dieser Überschrift mit der Proxi-Suchmaschine suche, die wie ich bereits schrieb, den Google-Index verwendet, finde ich den Artikel erst auf Platz 80. Dieser Platz befindet sich also auf Seite 8 der Suchergebnisse. Damit hat dieser Artikel keine Chance organischen Traffic zu erhalten. Alle anderen Ergebnisse davor tragen andere Überschriften, enthalten auch nicht die Formulierung meiner Überschrift im Content und weichen damit erheblich von der Suchanfrage ab. Damit ist zweifelsfrei bewiesen, dass eine Artikel-Überschrift für sich alleine gesehen, die Chance auf ein gutes Ranking nicht beeinflusst. Diese Erkenntnis ist sogar für mich neu!

Offensichtlich korreliert der Inhalt meines Artikels (in den Augen von Google) in diesem Fall nicht genügend mit der Überschrift. Hier findet Ihr den Artikel: https://www.seo-boss.de/center/crypto-waehrungen-im-auge-behalten/

Als erstes kommt bei mir die Frage auf: Habe ich eine falsche Überschrift gewählt? Ja, das kann sehr gut sein. Eine Überschrift muss wohl zwingend ankündigen, was sich im Artikel befinden wird. Das allein zu realisieren ist schon eine kleine Herausforderung, steht jedoch der redaktionellen Freiheit entgegen, die Überschrift nach eigenem Gefallen wählen zu dürfen/ können.

Es wird in Zukunft immer schwieriger Websites für die Suche zu optimieren. Entscheidend ist und bleibt der Content.
Content ist und bleibt King. Gute Seo-Agenturen wissen sehr genau, dass heute die Hauptaufgabe darin besteht, die allgemeine Sichtbarkeit einer Website zu erhöhen. Alte Tricks helfen heute nicht mehr. Die Suchmaschienen sind einfach zu intelligent und folgen Ihrer eigenen Agenda. Gerechtigkeit ist in dieser nicht enthalten.

Copyright by @seo-boss

Gerne darf dieser Artikel in andere Sprachen übersetzt werden. Einzige Bedingung ist ein Verweis auf diesen Artikel hier.

Eine Kritik an Google

Bild SEOWas bezweckt Google mit diesen ganzen Reglementierungen, die als Empfehlungen in den Webmasterrichtlinien genannt werden? Welche Ziele verfolgt es damit?

Es läuft letztlich wohl darauf hinaus, dass sich das Web, welches ja nun mal aus Websites besteht, den Regeln und Wünschen von Google „unterwirft“.

Ich kopiere hier mal einige „Empfehlungen“ aus den Webmasterrichtlinen hinein und werde daneben in Klammer schreiben, was ich davon halte.

„Konkrete Empfehlungen von Goolge, nachzulesen in den Richtlinien für Webmaster und zwar hier.

Vermeiden Sie die folgenden Methoden:

  • Automatisch generierte Inhalte (schlechte Empfehlung, was ist mit RSS Feeds? diese erzeugen doch automatisiert Content, wo ist das Problem?)
  • Teilnahme an Linktauschprogrammen (Ich finde es eine Frechheit, Webmaster Linktauschprogramme zu vermiesen. Diese Programme haben das Internet erst groß gemacht. Was ist mit den ganzen Webverzeichnissen und Linklisten, sind die jetzt böse? Letztlich ist auch eine Suchmaschine ein Index von Websites und viele linken auch auf Google zurück, in welcher Form auch immer.)
  • Erstellen von Seiten ohne oder mit nur wenigen eigenen Inhalten (Es gibt einige Websites, die wollen nicht mehr als eine Webvisitenkarte sein, nicht mehr und nicht weniger, die brauchen also kaum Content und wollen auch keinen.)
  • Cloaking (OK, dass muss bestraft werden!)
  • Irreführende Weiterleitungen (Was ist eine irrenführende Weiterleitung, wer entscheidet das? Es gibt viele durchaus sinnvolle Weiterleitungen)
  • Verborgener Text/verborgene Links (Ja, das ist mies.)
  • Brückenseiten (Wo ist das Problem? Wenn man es technisch sieht, ist Google auch nur eine Brückenseite)
  • Kopierte Inhalte (Das sollten sich die Medien-Konzerne auf die Fahnen schreiben, die beziehen doch alle die selben Nachrichten und publizieren teilweise 1 zu 1 und dennoch werden die alle von Google gut geränkt)
  • Teilnahme an Affiliate-Programmen ohne ausreichenden Mehrwert (Junge, Junge, hier bekomme ich einen echten Hals. Was ist denn Adwords, was ist das Ganze SEA? Ist das alles mit einem Mehrwert hinterlegt? Hier verstösst Google eindeutig gegen seine eigenen Empfehlungen und ich bzw. wir vom SEO Boss sind, soweit ich das sehen kann, in der kompletten SEO-Szene, die Einzigen die sich trauen das zu thematisieren. So gut wie alle SEO-Agenturen am Markt, haben keine eigene Meinung, sie setzen einfach nur um was Google vorgibt und damit unterstützen sie die Bevormundung der Webmaster von Google.)
  • Laden von Seiten mit irrelevanten Keywords (Ja das ist OK. Es macht auch gar keinen Sinn Keywords für Seiten, sei es als Anker oder sonstwie zu verwenden, wenn der Content nicht passt.)
  • Erstellen von Seiten mit schädlichen Funktionen, durch die beispielsweise Phishingversuche unternommen oder Viren, Trojaner oder andere Badware installiert werden. (Das ist sehr richtig!)
  • Missbrauch von Rich Snippet-Markup (Wo fängt der Missbrauch an?)
  • Senden von automatisierten Anfragen an Google (Hey Google, nachdem ich eine Suchphrase in Deine Suchmaske eingetragen habe, wird der Vorgang ohnehin automatisiert, oder nicht? Durch das reCaptcha V2 sind automatisierte Anfragen so gut wie unmöglich geworden, also ist diese Empfehlung überflüssig.)

Ich fasse also mal zusammen. Google will natürlich in allererster Linie Geld verdienen und am besten dem kompletten Werbemarkt beherrschen. Das ganze Getue mit den kostenlosen Diensten ist ein Blender. Nichts ist kostenlos! Jeder bezahlt mit seinen Daten! Das ist die Realität.

Wir betreiben seit Jahren eine kleine Werbewebsite. Auf dieser gibt es nichts, was den Besucher irgendwie nervt. Wir verwenden keine Werbelayer, keine Popups, einfach nichts was sich irgendwie ungefragt im Browser öffnet. Wir versenden keine Spam-Mails und verwenden nicht mal ein Newsletter-System. Google hat die Seite zwar indexiert, aber zu keinem einzigen wichtigen  Keyword rankt die Seite überhaupt. In 5 Jahren ist so gut wie kein einziger Besucher über die organische Suche von Google auf die Seite gekommen. Wie kann das sein? Gibt es hier einen Interessen-Konflikt? Ist das Google Webspam-Team wirklich neutral und vor allem seriös?

Wir sind schon viele Jahre am Start und wissen sehr genau, dass Google auch den letzten Krümmel Umsatz oder Erfolg keinem anderen könnt. Diese Entwicklung darf kein Webmaster unterstützen. Das Internet ist ein Menschenrecht und, es gehört niemanden. Wir bezahlen alle unsere Gebühren für den ISP und damit erwerben wir auch das Recht auf Netzneutralität und ungehinderten Zugang zu Informationen.

Google, Du hast vergessen, dass es die Menschen und Benutzer des Internets sind, die Dich groß gemacht haben. Höre auf hier den Pascha zu spielen und sei, was Du eigentlich sein sollst, ein Dienstleister und kein Bestimmer!

Der Core von Google ist eine künstliche Intelligenz und ich weiß, dass diese KI diesen Betrag lesen und die Domain dafür bestrafen wird. Das ist uns egal, was gesagt werden muss, muss einfach auch mal gesagt werden! Niemand in der sogenannten SEO-Szene erhebt mal das Wort. Das wäre jedoch aktuell sehr wichtig. Diese Entwicklung der totale Kontrolle und Bevormundung im Internet muss aufhören!

Warum muss alles reglementiert werden? Der Markt sollte das allein klären dürfen.

Bei dieser Gelegenheit will ich mal eine wirklich gute und unbestechliche Suchmaschine empfehlen und zwar http://gigablast.com/. Hier kann man sich keine Werbeplätze kaufen und allein das macht gigablast wirklich seriös. Der Quelltext von Gigablast ist offen und jedem steht es frei, sein eigene Suchmaschine, auf diese Quellen aufbauend, online zu bringen.

Ich habe prinzipiell nichts gegen Google, aber wenn ich sehe, dass Google offensichtlich etwas gegen alle hat, die auch ein wenig im Markt mitmischen wollen, dann nehmen wir uns die Freihheit und üben auch mal Kritik an dem Giganten. Diese Kritik ist mehr als berechtigt. Wir unterstützen auch das europäische Projekt von Quant, dass ist eine Suchmasschine die von sich selbst sagt:

  • Die einzige europäische Suchmaschine
  • Wir setzen keine Cookies
  • Wir speichern niemals Ihren Suchverlauf

Eine Suchmaschine soll Menschen dabei helfen, Informationen zu finden. Es kann und soll nicht die Aufgabe einer Suchmaschine sein, dass Internet zu reglementieren, zu manipulieren und seine Marktposition zu benutzen um Regeln zu erstellen, an die sich dann alle zu halten haben. Wer gibt Dir Google das Recht, über Qualität von Content zu entscheiden? Es sollte einzig und allein dem Verbraucher zustehen über Qualität von Produkten und Content zu entscheiden.

Mein Alexa Traffic Rank bleibt stehen

Seit Google seinen öffentlichen Pagerank beerdigt hat, sehen viele auf den Alexa Traffic Rang. Dieser hat definitiv vom Tod des öffentlichen PRs profitiert. Dieser Rang oder eben (engl.) Rank, ist ein erster guter Indikator für die Beliebtheit einer Website. Unter SEO´s genoß dieser Rank früher kein sehr hohes Ansehen. Man konnte diesen viel zu einfach beeinflussen. Ganz so einfach ist das heute nicht mehr und Alexa hat seine Qualitätskriterien ziemlich nach oben geschraubt. Wurde früher wirklich der komplette Roh-Traffic gemessen, sieht Alexa heute genauer hin und filtert z.B. Bot-generierten Traffic weitestgehend heraus. Es bringt in der Tat sowieso nichts solche Bots zu verwenden. Der daraus resultierende Nutzen geht gen NULL. Vielmehr schadet heute jede unnatürliche Erzeugung von Traffic dem Ansehen der Website bei den Suchmaschinen.

Es dürfte sich ja in der Zwischenzeit herumgesprochen haben, dass die großen Suchmaschinen von künstlichen Intelligenzen gesteuert und überwacht werden. Diese sind wirklich sehr intelligent und kennen z.B. die IP-Adressen von den bekanntesten Proxie-Servern. Ebenso sind alle VPN-Server und Dienste bekannt. Wer also künstlichen Traffic über Proxie oder VPN erzeugt, schürrt allein dadurch schon das Misstrauen der Suchmaschinen, jedenfalls ist das unser Eindruck. Es geht eben nichts über echten organischen Traffic, der über die Suchmaschinen oder über qualittativ hochwertige Backlinks entsteht.

Das uralte „Content ist King“ gilt heute mehr denn je! Ohne guten und uniquen Content hat eine Website keine Chance. Werbung schalten bringt sicher auch einiges an Traffic, besonders wenn die Zielgruppe gut getroffen wird. Da das schalten von Werbung bei den Suchmaschinen das Ranking in den SERPs selbst, nicht beeinflusst, ist damit eine direkte und nachhaltige Optimierung der Website nicht möglich. Die Effekte halten dann nur solange an, wie die Werbung eben geschaltet wird.

Zurück zum Alexa-Traffic-Rank. Die erste Frage die man hier stellen muss lautet: Ist dieser überhaupt etwas Wert? Wir würden diese Frage mit Ja beantworten. Warum? Weil es sonst kaum eine kostenlose Möglichkeit gibt, eine erste Aussage über die Beliebtheit einer Website zu treffen. Diesen Traffic-Rank kann jeder selbst einsehen und zwar auf dieser Seite.  Der Rang ist um so besser je kleiner er ist. Nicht berücksichtigt werden spezielle SEO-Metriken. Der Rang sagt erstmal nur aus, ob Leben auf einer Website stattfindet und in welchem Umfang. Wer hier seine Seite checkt und feststellt, dass diese gar nicht sichtbar ist, der hat eben einen Traffic-Mangel. Anders als früher, bekommt Alexa seine Daten nicht nur über die Browser-Addons, sondern über insgesamt 200 Sinalgeber. Darin werden einige Addons enthalten sein, aber ganz sicher auch Quellen, die wir nicht kennen.

In den letzten 8 Wochen wurde dieser öffentlich einsehbare Rang nicht mehr aktualisiert. Das ist schon sehr seltsam und ich kann mich nicht daran erinnern, dass dieser Rang so lange nicht aktualisiert wurde. Möglicherweise und dieser Gedanke ist sehr naheligend, wird der Alexa-Traffic-Rank früher oder später nur noch kostenpflichtig aktuell gepflegt. Bereits seit einiger Zeit wird entsprechend bei den Preisen ein „Certified Alexa Rank for Your Site“ angeboten. Die kleinste Variante kostet 19,99 US $ und ist für Websites geeignet, die bis zu 10 Millionen Pageviews pro Monat haben. Dieser Plan sollte eigentlich für die meisten Websites ausreichen. Wer umfangreichere Analyse-Tools und Daten benötigt, muss zu anderen Tarifen greifen. Hier wird es dann teilweise nicht gerade günstig. Verglichen mit SEMrush, ahrefs, Sistrix oder Majestic liegt Alexa mit seinen Angeboten gut in der Mittelklasse. Gerade SEO-Agenturen müssen sich wohl darauf einstellen, dass es nicht günstiger in Zukunft wird. Ich erinnere hier nur an die Preise für die Bing APIs.

Die kostenlose Auslieferung des Alexa-Traffic-Ranks verbraucht ganz sicher riesige Ressourcen und bringt für das Unternehmen selbst kaum einen relevanten Nutzen.

Wir werden sehen, wie es weitergeht mit dem kostenlosen Alexa-Traffic-Rank. Sollte er Googles öffentlichen Page Rang ins SEO-Grab folgen, wonach es für mich aktuell aussieht, dann wird das ein großes Loch hinterlassen. Wie ich bereits sagte, gibt es für eine „Pi-Mal-Daumen“- Einschätzung einer Website, die auch noch kostenlos ist, keine Alternative. Ich spreche hier nicht von den vielen kleinen Portalen, wo man sich eine kleine On-Page-Analyse für seine Website kostenlos automatisiert erstellen lassen kann, die am Ende wenig Aussagekraft hat; ich spreche von einer Hausnummer, die in einen einzigen Wert eine Bedeutung legt und das auch noch kostenlos.

Bin ich nun ein Alexa-Traffic-Rank-Fan-Boy? In gewisser Weise bin ich das und allgemein ist diese Sichtweise auch bei meinen Kollegen im Unternehmen zu finden. Die ganzen „Größen“ in der SEO-Szene haben den Alexa-Traffic-Rank immer schon mies und madig gemacht und früher war er auch ein eher mäßiges Tool für einen ersten Blick, aber heute (seit einigen Jahren) taugt er wirklich etwas und ich würde es schade finden, wenn der kostenlose Traffic Rank das Zeitliche segnet.

Lassen wir uns überraschen! Beim öffentlichen Google Pagerank hat es auch fast 2 Jahre gedauert, bis auch der letzte Freak realisiert hat, dass er in den SEO-Himmel eingezogen ist. Sogar heute gibt es noch „Spezialisten“ die Backlinks verkaufen, von Websites mit einem öffentlichen PR 6 oder höher :-).

Und nie vergessen: „Content ist und bleibt King!“

 

Pure HTML vs. CMS vs. Web-Baukasten

Lasst uns heute mal einen Blick darauf werfen, welche Vorteile es hat sich für eine bestimmte Variante zu entscheiden eine Website online zu stellen.

Da sind zunächst einmal die echten Cracks die alles selbst machen wollen. Sie beherrschen HTML, CSS, PHP und natürlich auch MySQL. Diese Leute können diese Seite gleich wieder verlassen, denn dieser Artikel richtet sich an den durchschnittlichen Websitebetreiber bzw. jene, die welche werden wollen.  Am Anfang muss sich jeder, der eine Website online stellen will selbst ein paar Fragen beantworten.

Die Cracks haben immer eigene Server und investieren ihr ganzes Leben in ihre Projekte. Sie wollen jeden Aspekt ihres Webprojektes selbst bestimmen und haben oftmals auch kein Privatleben mehr 😊. Das ist nicht böse gemeint. Ich war selbst viele Jahre genauso ein Typ.

Bevor man eine Website online stellt sollte man sich genau überlegen was man überhaupt möchte. Will man nur eine kleine Webvisitenkarte, also eine Website die sich die nächsten Jahre kaum verändern wird? Dann machen sogenannte Webbaukästen durchaus Sinn. Diese Systeme sind heute gut ausgereift und mit relativ wenig Aufwand kann man damit eine eigene Website online Stellen. Hier teilen sich 2 Platzhirsche praktisch den Markt. Das sind WIX und Jimdo. Beide haben ihre Vor- und Nachteile, sind aber gleichermaßen geeignet eine kleine Website zu produzieren ohne dass man selbst eine einzige Code-Zeile HTML schreiben muss. Wer z.B. einen kleinen Shop aussetzen will, mit einer überschaubaren Anzahl an Produkten, der ist z.B. bei Jimdo ganz gut aufgehoben.

Eines der vielen bekannten Shop-Scripte (Magento, Orocommerce, Shopware, Prestashop, Xt:Commerce, Gambio usw.) selbst aufzusetzen ist zwar kein Hexenwerk, aber das erfordert doch einen relativ hohen Zeitaufwand für die Konfiguration und die Pflege des Systems selbst. Auch bei Theme oder Template sind einige Kenntnisse erforderlich um diese anzupassen. Man muss häufig Updates einspielen und überhaupt sehr häufig nach dem Rechten sehen. Bei Jimdo oder anderen managed Shophostern (Strato) kann man sich eine Menge Zeit einsparen, weil sich hier die Hoster um die Technik im Background kümmern. Bei Jimdo hat man entsprechend auch keine Zugriffe auf Datenbank oder FTP. Das hat auch wieder Vor- oder Nachteile. Wer mit einem Minimum an Zeiteinsatz eine kleine Website oder einen Webshop hosten will, der ist deshalb mit einem Webbaukasten gut bedient. Meistens sind die Kosten sehr überschaubar und solche Seiten laufen oftmals 10 Jahre und länger, ohne jemals ein technisches Problem zu haben.

Ich gebe also hier eine klare Empfehlung für private Homepages, kleine Unternehmenswebsites oder eben kleinere Web-Shops sich ruhig einmal Jimdo anzusehen oder Wix.

Aus Seo-Sicht haben Web-Baukästen auch Nachteile. Da hier viele Inhalte in der Cloud und im CDN liegen, machen viele Seo-Tools Probleme und geben schlechten Noten. Das ist natürlich totaler Unfug, was kann ein CDN dafür, dass das Seo-Tool damit nicht klar kommt?

Wenn man z.B. ein Bild in einem Webbaukasten hochläd, dann wird es vom System meistens einfach umbenannt, und, vernüftig taggen kann man es auch nicht.

Diese Nachteile sind aber im Hinblick auf die Vorteile zu vernachlässigen. Suchmaschinen sind heute so intelligent, dass sie nicht zwingend von klassischen Ansichten ausgehen, wie es immer noch sehr viele Seo-Agenturen und vor allem sehr bekannte und teure Seo-Tools tun.

Übrigens, das ist hier kein Content-Marketing. Ich empfehle hier nicht Wix oder Jimdo, weil ich etwas dafür bekomme, sondern gebe hier einfach nachvollziehbare Erfahrungen weiter.

Der große Nachteil von den ganzen CMS-Systemen (Joomla, WordPress, Drupal usw.) ist einfach der Aufwand, diese Systeme aktuell und damit sicher zu halten. Je mehr Addons installiert wurden, um so mehr steigt die Wahrscheinlichkeit, dass nach einem Update irgend etwas nicht funktioniert. Wenn man dann selbst nicht zur Gruppe der erfahrenen Cracks gehört, heißt es, sich Stunden oder sogar Tage lang in Support-Foren herumzutreiben und die Community um Hilfe zu bitten.

Wer sich ausschließlich auf sein Geschäft konzentrieren will, hat einfach keine Zeit sich mit solchen Dingen herumzuschlagen.

Eigene dedizierte Rootserver sind etwas Herrliches, wenn man von dieser Materie etwas versteht. Für alle anderen will ich hier und heute die Lanze für einen Webbaukasten brechen. Glaubt mir, die Dinger sind besser als ihr Ruf und vor allem, ihr habt eure Ruhe! Das Projekt läuft stabil und macht so gut wie nie Probleme. Es gibt viele Websites, die bei Wix oder Jimdo gehostet sind, denen man nicht ansieht, dass sie mit so einem Baukasten designt wurden.

Wer es klein und unkompliziert will, muss sich nicht die Nerven zerreiben und kann guten Gewissens zu einem Webbaukasten greifen. Wenn Geld keine Rolle spielt, dann beauftragt man eine Agentur und lagert damit alles aus was mit der Website zu tun hat.

Wenn Sie dann endlich Ihre Website oder Ihrem Webshop online haben, dann kann der Seo Boss sicher für Sie aktiv werden. In Sachen Suchmaschinenmarketing denken wir sehr fortschrittlich und meistens funktioniert was wir tun gut. Wir verstehen wie Suchmaschinen denken und uns ist eigentlich egal wie es andere sehen. Wir betrachten Suchmaschinen als echte denkende Entitäten und wir behandeln diese auch so.

Kommen Sie einfach mal bei uns vorbei: https://www.seo-boss.de

Wir freuen uns auf Ihren Besuch!