SEO: Beeinflussen Kommentare unter einem Beitrag das Ranking?

grafik.png
Bildquelle: Pixabay

Es wird ja nicht jeder Webmaster die Zeit haben und sich alle Webmaster-Hangouts ansehen.

Ich selbst sehe mir alle an. Ich muss schließlich immer auf den aktuellen Stand der Dinge sein.

Im letzten Hangout kam eine wirklich gute Frage. Diese lautete:
Beeinflusst ein schlechter Kommentar unter einem hochwertigen Artikel das Ranking der Artikel-Seite insgesamt?

Um hier nicht um den heißen Brei zu reden, lautet die kurze und eindeutige Antwort: Ja. Diese Erkenntnis ist sogar für mich neu. Ich hätte nicht gedacht das Google hier keine Trennung vornimmt. So kann man sich täuschen.

Google „sieht“ Kommentare und den eigentlichen Artikel einer Website als eine zusammenhängende Seite und beurteilt die Seite als gesamten Content. Kommentare werden demnach nicht als vom eigentlichen Inhalt der Website Getrenntes betrachtet.

D.h. schlechte Kommentare können das Ranking eines qualitativ hochwertigen Artikels im Ranking negativ beeinflussen.

Falls ihr einen Blog betreibt und sich dort viele Trolle herumtreiben und miese Kommentare hinterlassen, dann habt ihr wohl keine Wahl und müsst die Kommentare moderieren oder im schlimmsten Fall deaktivieren.

Die Frage, die für mich nun im Raum steht ist folgende: Was charakterisiert einen schlechten Kommentar?

Ich denke, das bezieht sich z.B. weniger auf den Inhalt des Kommentars selbst als mehr auf dessen Form. Eine schlechte Rechtschreibung fällt bekanntlich unter die Qualitätsrichtlinien von Google. Ebenso dürfte Google es für minderwertig halten, wenn viele Emoticons in den Kommentaren verwendet werden. Das ist jedoch nur meine eigene Einschätzung. Möglicherweise mag Google Emoticons sogar. Da habe ich keine Ahnung. Ich werde das mal hinterfragen.

Was will ich mit diesem Post sagen? Wenn Ihr qualitativ hochwertige Beiträge auf Euren Websites oder Blogs schreibt, dann bedenkt, dass billige und schlechte Kommentare Euren Beiträgen in SEO-Hinsicht schaden.

Also, habt immer ein Auge auf die Kommentare und vor allem achtet darauf, dass, falls Ihr URLs in den Kommentaren zulasst, die auf No follow konfiguriert sind. Ansonsten könnte ein schlechter Link auf Eure Website zurückschlagen.

Hier könnt Ihr Euch den Hangout ansehen, wo Johannes Müller von Google es ganz klar sagt. Schlechte Kommentare schaden der Website.

SEO: Werden Accordions komplett indexiert?

Auf vielen Websites finden wir FAQ-Seiten, die mit einem Accordion-Style realisiert werden.
In der SEO-Szene gibt es diverse Ansichten darüber, ob auch die aufgeklappten Antworten indexiert werden können. Meine Meinung war von Anfang an klar: ja, auch die Antworten bei einem Accordion, selbst wenn diese erst nach einem Klick auf die Frage für den Websitebesucher sichtbar werden, werden auch indexiert.
Der Grund ist ganz einfach: Googlebot „sieht ja den Quelltext“ und egal, ob die Frage aufgeklappt ist oder nicht, er „sieht“ auch die Antwort und wird diese indexieren.

Ihr kennt sicher diese Accordions. Man klickt auf eine Frage und dann öffnet sich die Antwort. Das Ganze wird meistens mit Javascript realisiert oder bei modereren Varianten mit puren HTML5 und CSS3. Im Falle, dass ein Arccordion, welches sich natürlich auch für andere Dinge als eine FAQ verwenden läßt, mit Javascript realisiert wurde, muss Javascript in der robots.txt zum rendern für Googlebot frei gegeben werden. Ich habe das schon in einen anderen Beitrag erwähnt, dass gerade Googlebot expilzit eine Erlaubnis dafür haben möchte, Javascript und auch CSS-Dateien zu verwenden. Sind diese Ressourcen nicht per robots.txt freigegeben betrachtet Googlebot diese Ressourcen als blockiert und wird das z.B. bei PageSpeed Insights als Fehler melden.

Damit Googlebot auf die entsprechenden Ressourcen zugreifen kann, fügt Ihr einfach diese paar Zeilen in der robots.txt hinzu:

#Googlebot
User-agent: Googlebot
Allow: *.css
Allow: *.js

grafik.png
Quelltext für das Accordion. Screenshoot von https://www.w3schools.com

grafik.png
So sieht das Ergebnis grafisch aus. Screenshoot https://www.w3schools.com

Da ich ja eine Frage nie unbeantwortet wissen möchte, habe ich direkt bei Johannes Müller angefragt. Er macht meistens die deutsprachigen Webmaster-Hangouts für Google und ist bekannt dafür, dass er fast jede Frage beantworten kann. Ich habe die Frage bewusst so gestellt, als ob ich keine Ahung hätte. Ich wollte ja eine klare Antwort.

grafik.png
Screenshoot meiner Frage bei Google+

Im Webmaster-Hangout vom 15.11.2018, zu finden auf Youtube, hat er dann auch diese Frage klar beantwortet. Wenn das Accordion komplett geladen wird, was ja meistens der Fall sein sollte, dann werden auch die Inhalte komplett indexiert die erst nach einem Klick zu sehen sind. Tatsächlich ist ja der Content schon komplett geladen. Der Besucher sieht diesen erst, wenn er auf die entsprechende Frage klickt. Googlebot sieht aber den kompletten geladenen Quelltext und damit auch die Antworten, selbst wenn diese noch nicht aufgeklappt sind.

Interessant finde ich in diesem Zusammenhang, dass ich mich unter dem besagten Webmaster-Hangout bedankt hatte. Dieser Kommentar ist jedoch für mich nur sichtbar, wenn ich mit dem Account eingeloggt bin, mit welchem ich diesen Kommentar geschrieben habe. Logge ich mich mit einem anderen Account oder Kanal-User ein, sehe ich diesen Kommentar nicht mehr.
Das ist eindeutig Shadow banning und darüber sollten wir uns echt Gedanken machen.

Ich hatte schon vor Monaten geschrieben, Google rollt für jeden Einzelnen seine SERPS individualisiert aus und SEO-Agenturen, die das Ihren Kunden nicht erzählen sind Blender.
Dass aber nun sogar Youtube derart individualisiert wird und Kommentare nicht mehr global angezeigt werden ist für mich eine neue Qualität der Zensur. Man kann darüber diskutieren, aber es bleibt dennoch Zensur wenn Kommentare, die öffentlich verfasst wurden, nicht mehr öffentlich zu sehen sind.

SEO: Haben Groß- und Kleinschreibung einen Effekt auf das Ranking?

Noch vor wenigen Jahren war ich selbst davon überzeugt, dass eine durchgehende Großschreibung bei z.B. Überschriften sich nachteilig auf das Website-Ranking auswirkt. Ich dachte immer, Großschreibung wirkt wie „schreien“ und könnte eventuell den Spam-Algorithmus von Google und Co. ansprechen.

grafik.png
Bildquelle Pixabay

Ich kann heute mit Gewissheit sagen, dass Großschreibung keine negativen Auswirkungen auf das Ranking einer Website hat. Die durchgehende Großschreibung ist vielmehr ein Aspekt der UX (User experience) und jeder weiß, durchgehend großgeschriebene Texte lesen sich einfach schlechter. Aus diesem Grund sollte auch darauf verzichtet werden.

In einigen Fällen, wo zwei inhaltlich sehr ähnliche Websites miteinander konkurrieren und eine von den beiden durchgehende Großschreibung verwendet, wird Google wahrscheinlich auf Grund der besseren UX die bevorzugen, auf der nicht durchgehend großgeschrieben wird. Das ist aber nur mehr eine Vermutung. Ich habe keine Beweise dafür finden können.

Die UX ist natürlich ein indirekter Rankingfaktor. Indirekt deswegen, weil keine Metrik genau messen kann, wie einem User die Bedienbarkeit einer Website gefällt. Es mag sogar einige geben, die finden eine durchgehende Großschreibung besser. Wie die UX einer Website abschneidet kann aber anhand anderer Faktoren abgeleitet werden.
So können wir davon ausgehen, dass schlecht bedienbare Websites ihre Besucher weniger lange auf der Website halten und damit die Bounce-Rate schlecht abschneidet. Ebenso zeigen Analytics-Dienste, die z.B. eine Heatmap-Funktion haben oder die sogar die Interaktion der Benutzer aufzeichnen, wie gut oder schlecht die UX ist.
Eine Heatmap zeigt dem Betreiber der Website an, welche Elemente am meisten geklickt werden.

Hier seht Ihr eine solche Heatmap. Die Hitze-Karte zeigt jene Punkte rot an, wo besonders oft geklickt wird. Diese Daten können sehr wertvoll sein, geben diese doch eventuell Hinweise darüber, welche Elemente umplaziert werden sollten.

grafik.png
Bild Wikipedia

Nicht alle Analyse-Dienste bieten die Heatmap-Funktion. Ich kenne von den bekannten Anbietern nur Yandex Metrica, wo es gratis dieses Feature gibt. Yandex Metrica ist der Website-Analytics-Service der russischen Konzerns Yandex. Yandex ist sehr ähnlich wie Google, wird aber in Deutschland eher weniger verwendet. Neben seiner Suchmaschine bietet Yandex auch E-Mail-Dienste und andere Services und Produkte an. Viele davon sind kostenfrei.

Da es jedoch möglich ist, mehrere Analytics-Dienste für das Website-Monitoring zu verwenden, spricht nichts dagegen, neben Google Analytics auch Yandex Metrica zu verwenden.

Ich persönlich würde empfehlen, auf jede durchgehende Großschreibung auf Websites zu verzichten und wenn jemand es unbedingt tun möchte, sollte es nur auf Überschriften beschränkt werden.

Anders sieht es bei den URLs aus. Hier sollte prinzipiell auf Großschreibung verzichtet werden. Damit beugt der Webmaster einigen Problemen in Zusammenhang mit Browsern und Servern vor und ist im Falle, dass die Website zu einem anderen Hoster transferiert wird, der andere Betriebssysteme verwendet, auf der sicheren Seite. URLs sollten immer klein geschrieben werfen.

Die Groß- oder Kleinschreiben der URL hat auch absolut nichts mit dem Ranking zu tun, es ist einfach praktischer keine durchgehende Großschreibung in URLs zu verwenden.

Bei WordPress z.B. kann jeder die Permalinks selbst festlegen. Verwendet hier nur Kleinschreibungen!
Auch wenn Ihr Dateien zum Download anbietet, dann gebt diesen Dateien einen kleingeschrieben Datei-Namen.

SEO | Traffic-Netzwerke sind nutzlos

Jeder Betreiber einer Website wünscht sich viele Besucher. Im günstigsten Fall kommen Besucher über die Suchmaschinen, über Links, welche auf anderen Websites auf die eigene Website verweisen, oder über Posts in den sozialen Netzwerken. Kommt der Traffic über solche Quellen zustande, sprechen wir von organischem Traffic.

Neben diesem Traffic gibt es noch unzählige Möglichkeiten Traffic künstlich zu generieren. Hier nenne ich an erster Stelle die sogenannten Besuchertausch-Systeme. Ich will hier keine Plattform besonders herausheben und werde auch nicht auf einen solchen Dienst verweisen. Auf diesen Plattformen registriert man sich, trägt seine Website-URL ein und kann sich dann andere Websites ansehen.

Prinzipiell gibt es zwei Arten von solchen Traffic-Netzwerken, manuelle und automatische. Bei den manuellen Besuchertausch-Systemen sieht der Teilnehmer sich für eine bestimmte Dauer (meistens um die 20 Sekunden) andere Websites an, muss dann irgendeine Aktion durchführen, die nicht zu automatisieren ist und bekommt dann die nächste Website angezeigt. Für jede gesehene Website werden Punkte gutgeschrieben. Dieses Punkte-Guthaben sorgt dafür, dass andere Teilnehmer sich die eigene Website ansehen.

Bei den automatischen Besuchertausch-Systemen muss der Teilnehmer lediglich eine Viewbar starten und dort werden automatisch alle 15 oder 20 Sekunden neue Websites angezeigt.

Jeder ältere Webmaster wird solche Systeme kennen und wird sich gefreut haben, wie sich der Besucher-Counter der Website überschlagen hat. Heute sind solche Systeme vollkommen überflüssig und der erzielte Effekt geht sogar nach hinten los.

Auf die Idee, diesen Beitrag zu schreiben, bin ich auf Ebay gekommen. Dort habe ich gesehen, dass einige Verkäufer Millionen von Besucher anbieten für einen schmalen Taler. In den Beschreibungen wird es dann so dargestellt, als wenn es wirklich irgendeinen positiven SEO-Effekt hätte, solche künstlichen Besucherströme auf eine Website zu leiten.

Wer sich jedoch etwas mit SEO beschäftigt, der wird sofort erkennen, warum künstlich erzeugter Traffic sinnlos ist oder sogar Schaden verursacht. Hier nenne ich stellvertretend die Bounce rate, das ist die Absprungrate. Diese Metrik zeigt auf, wie lange sich Besucher auf der Website aufgehalten und ob diese überhaupt in irgendeiner Form mit der Page interagiert haben.

Bei den Besuchertausch-Systemen kann es zwar tatsächlich auch mal vorkommen, dass jemand eine interessante Website über diese Dienste entdeckt und sich dann auch länger auf einer Website aufhält, aber die Wahrscheinlichkeit ist eher gering.
Eine hohe Bounce rate signalisiert Google und Co. das den User nichts auf der Website gehalten hat oder die UX (User experience/ Nutzer-Erfahrung) schlecht ist.

Wir müssen heute immer berücksichtigen, dass einer der Haupt-Algorithmen von Google eine künstliche Intelligenz namens RankBrain ist. Diese KI ist maßgeblich am Zustandekommen der SERPS (Search engine result pages/ Suchmaschinen-Ergebnis-Seiten) beteiligt. RankBrain generiert in der Tat für jede Suchanfrage ein Echtzeit-Ergebnis. Ich hatte es schon in anderen Beiträgen geschrieben: jeder bekommt seine eigenen und wenn genügend Daten vorhanden sind, auch individualisierten Suchergebnisse angezeigt.

Bei jeder Suche spielt auch die lokale Komponente eine wichtige Rolle. Das ist der Grund, warum wir je nach Ort, von dem aus wir suchen, andere Ergebnisse bekommen. Suchen wir in München nach „Pizza bestellen“, werden wir andere Ergebnisse erhalten als wenn wir dieselbe Suche von Berlin aus starten. Hier findet also schon mal eine Art Vorsortierung nach Ort statt.

Wir können davon ausgehen, dass Besuchertausch-Systeme auf Grund einfacher Muster-Erkennung identifiziert werden und als minderwertiger und künstlicher Traffic das Ranking einer Website negativ beeinflussen. Wer solche Dienste in Anspruch nimmt, sollte für seine Website Google Analytics oder auch ein anderes Website-Analyse-Werkzeug verwenden und wird dann sehr schnell feststellen, wie der Schuss nach hinten losgeht. Alle Werte werden sich negativ entwickeln und in der Folge sich das Ranking der Website verschlechtern.
Das Einzige was „positiv“ auf den ersten Blick wirkt, ist der Anstieg der Besucher-Anzahl. Gerade im E-Commerce geht es aber um die Steigerung der Umsätze. Was nutzen uns da täglich 10 000 Website-Besucher, wenn keiner etwas kauft?

grafik.png
Grafik by Pixabay

Renkforce RF GT X1 Software downloaden

Dieser Artikel wurde zuerst in unserem Blog von Steemit veröffentlich:

Ich weiß, dass das hier kein Download-Portal ist und auch nicht werden soll, aber falls ein Gamer in der selben Situation ist wie ich, ist er sicher dankbar, hier fündig zu werden.

grafik.png

Bei meinem Gaming-Notebook, hat die W-Taste eine heftige Macke. Im Office-Betrieb funktioniert sie fehlerfrei, aber wenn mein Notebook sich unter Last erwärmt, dann spinnt die W-Taste beim Daddeln. Ja genau die, mit der man sich in 99,9% aller Shooter-Games vorwärts bewegt. Die Garantie von meinem Notebook ist abgelaufen🆘. Da es noch gut Dampf hat, sehe ich keine Veranlassung mir ein neues zu kaufen, zumal ich nicht so heiß auf aktuelle Titel bin. Habe heute mal Quake Champions angespielt, schafft es locker auf hohen Details. Dieses Game ist aktuell Free2Play und bei Steam erhältlich. Ja, wahrscheinlich auch Pay2Win 😫.

Hier geht es um die Software zum Programmieren der Tasten der Einhandtastatur Renkforce RF GT X1.

Scheinbar hat sich beim Hersteller noch nicht herumgesprochen, dass die meisten dicken Gaming-Notebooks kein optisches Laufwerk mehr haben. Man bestellt sich also diese coole Gaming-Tastatur und denkt, die Software werde ich mir schon irgendwo downloaden können. Fehlanzeige, ich habe die Software nirgendwo gefunden. Entweder hat man ein externes DVD-Laufwerk oder man kommt nicht an diese Software heran.

Nun sind es aber genau die programmierbaren Tasten, die ich gerne belegen würde und dazu brauche ich dringend diese Software, die sich ausschließlich im Lieferumfang auf einer CD-Rom befindet. Sehr zeitgemäß 👍.

grafik.png
Screenshoot von der Software-GUI

Lange Rede, kurzer Sinn: Hier kann sich jeder die Software für die Einhandtastatur Renkforce RF GT X1 downloaden: K L I C K

Hinweis: Ich biete den Download hier frei von jeglicher Haftung an. Wer damit nicht einverstanden ist, soll sich die Software woanders besorgen.

Hardware affine Webmaster sollten einen Mirror für die Software anbieten. Ich denke, wenn sich herumspricht, wie genial dieses Ding ist, dann besteht sicher Bedarf. 🎰

Noch ein paar Worte zu der Tastatur.
Wer kein Problem mit ein bisschen seltsamen Chemiegeruch hat, der sicher in 2 Tagen verflogen ist und wer nicht zwingend auf einen Markennamen geil ist, wo er mehr als das Doppelte für so eine Tastatur hinlegen muss, bekommt mit dieser kleinen Gamingtastatur ein richtig gutes Stück Technik. Die Tasten sind mechanische und sie ist für eine Tastatur relativ laut. Die Klickgeräusche sind bei allen mechanischen Tastaturen wahrnehmbar. Notebook-User sind halt nur die sanften Töne gewohnt. 🔔
Alle Tasten sind frei belegbar. Die Beleuchtung ist sehr variable und chick und auch längere Makros gehen gut auf die Tasten. Die Software ist idiotensicher zu bedienen. Einfach auf die Taste in der Software klicken und dann Funktion oder Makro zuweisen.
Rein von der Ergonomie her, spielt es sich nach einer kurzen Umgewöhnung besser als mit der Notebook-Tastaur.

Habe gerade bei Youtube gesucht. Nicht mal dort finde ich ein Review oder Unboxing zu diesem Teil. Ist wohl noch nicht lange auf dem Markt und jetzt bin ich wirklich gespannt, ob dieser Artikel zu Suchanfragen im Zusammenhang mit der Renkforce RF GT X1 sichtbar wird, diese ist identisch mit dem Modell KKmoon Delux T9 Pro. Hier sollte die selbe Software auch funktionieren. Wie es aussieht ist die T9 schon länger auf dem Markt. Diese wird schon einige Zeit auf Amazon angeboten. Demnach ist die X1 ein Abklatsch von der T9. Trotzdem ist es eine sehr gute Einhandtastaur.

Neue Website bei Suchmaschinen anmelden, ja oder nein?

Zunächst ersteinmal die Frage: Muss eine Website überhaupt bei den Suchmaschinen angemeldet werden? Es gibt ja wirklich Experten und hier meine ich sehr bekannte Leute aus der SEO-Welt, die sagen: alles Quatsch, Websites müssen nicht bei Suchmaschinen angemeldet werden, die Bots, Spider, Indexer oder Crawler finden die Website allein und werden diese indexieren.

Ich könnte an dieser Stelle auf einen sehr bekannten SEO-Blog verweisen wo genau diese Meinung vertreten wird. Ich will aber niemanden auf die Füße treten, sondern hier ganz klar sagen, ja, natürlich, muss eine Website bei Suchmaschinen angemeldet werden, vor allem wenn diese selbst erstellt wurde, neu ist und über keine Backlinks von anderen Websites verfügt. Über diese Backlinks würden die Indexer-Bots die Website dann natürlich auch finden. Ein Suchmaschinen-Bot arbeitet wie eine Spinne, deswegen werden diese häufig auch Spider genannt.

grafik.png

Bei Websites, die mit einem bekannten Web-Baukasten (Jimdoo, Wix usw.) erstellt wurden, muss man sich nicht um die Anmeldung kümmern. Hier sorgen die Anbieter für eine Indexierung. Bei selbsterstellten Websites muss der Webmaster aber aktiv werden.

Nehmen wir als Beispiel den allseits bekannten Googlebot. Was macht dieser? Er verfolgt hauptsächlich Links (im Netz) und indexiert 24/7 alles was er findet. Wenn wir nun eine neue Website haben und keine einzige andere Website verweist auf diese neue Website. Wie soll dann Googlebot diese Website finden? Wenn im Netz kein Faden (Link) zu einer neuen Website führt, dann findet der Spider die neue Seite auch nicht. So einfach ist das.

Also Du Schlaumeier, ich hoffe, Du liest diesen Beitrag. Eine neue Website muss(!) natürlich bei den Suchmaschinen angemeldet werden. Alternativ muss sie wenigstens über einen Verweis (Backlink) von einer anderen Website verfügen, die Googlebot bereits indexiert hat. Es würde also auch genügen, die neue Website in einen bekannten Webkatalog anzumelden. Hier würde Googlebot den neuen Link dann verfolgen und die Website früher oder später indexieren. Das kann jedoch dauern.

Will jemand eine Website selbst direkt bei Google anmelden, dann funktioniert das über die Search Console. Wir brauchen also einen Google+ Account und mit diesem kann ein kostenloses Google-Analytics-Konto eröffnet werden. Hier verknüpfen wir unsere Website dann mit der Search Console.

Auch bei Bing müssen wir jetzt expilzit einen Account für die Bing Webmaster Tools besitzen. Bis vor Kurzem konnte man bei Bing noch Websites anmelden, ohne einen Account zu besitzen. Dafür wurde extra ein Anmeldeformular von Bing bereit gestellt, wo nur die URL der anzumeldenden Website eingetragen werden musste. Hier in diesem Blogeintrag kann man noch lesen wie es bei Bing funktionierte. Ihr seht ja die URLs auf den Screenshoots und könnt es selbst testen. Das funktioniert heute nicht mehr. Heute brauchen wir einen Account für die Bing-Webmaster-Tools. Diese Tools bieten sehr ähnliche Funktionen wie Google-Analytics und die Search Console.

Wer keine Lust hat, sich bei diesen Diensten anzumelden, kann seine Website auch mit den bekannten Freesubmittern anmelden. Diese funktionieren heute immer noch. Hier habt ihr zwei solcher Anbieter:
http://www.freesubmitter.de/
https://www.freewebsubmission.com/
Ihr solltet für die Anmeldung, wenn möglich, eine neue E-Mail-Adresse für Eure Domain anlegen. Einige Suchmaschinen werden Euch nämlich eine Bestätigungs-E-Mail senden und erwarten dann, dass Ihr selbst noch ein Formular für die Website ausfüllt. Ich würde empfehlen, diese Formulare auszufüllen, selbst wenn es sich um eher unbekannte Suchmaschinen handelt. Wenn alles fertig ist, dann löscht Ihr die neu angelegt E-Mail-Adresse wieder. Es gibt immer einige, die E-Mail-Adressen gerne weitergeben oder Euch mit Spam zumüllen. Deswegen sollte nicht gerade die E-Mail-Adresse für die Anmeldung über Freesubmitter verwendet werden, die häufig oder geschäftlich benutzt wird.

Dieser Beitrag wurde zuerst in unserem Blog von Steemit veröffentlich.

SEO, welche Domain hat die selbe IP-Adresse wie meine?

grafik.png

Für die Suchmaschinenoptimierung einer Website kann es manchmal sinnvoll sein zu wissen, wer die virtuellen Nachbarn sind. Die meisten Websites laufen auf geteiltem Webspace, oft in einer virtualisierten eigenen System-Umgebung. Das bedeutet, dass viele Domains sich ein und dieselbe IP-Adresse teilen und oft auch auf demselben Server physisch gehostet werden. Manchmal sind es mehrere tausend Domains die sich dieselbe IP-Adresse teilen, aber auch Rootserver haben nicht immer eine IP-Adresse für sich allein.

„Offiziell“ hat diese Nachbarschaft keinen Einfluss auf das Ranking einer Website, aber „offiziell“ ist nicht immer das was wirklich gilt.

Gibt es auf derselben IP-Adresse z.B. einige Websites oder Domains die auf einer Blacklist stehen, kann das einen negativen Effekt auf die eigene Website haben. Deswegen ist es gut zu wissen, welche Domains alles dieselbe IP-Adresse verwenden wie unsere eigene Domain. Dem Hoster ist es ziemlich egal. Bekommt er einen neuen Kunden, wird er dessen Webspace (Speicherplatz für die Dateien der Website/ Domain) auf einen Server legen, der gerade Platz bietet. Sehr gute Hoster achten auf eine gute Balance und Mischung der Websites und entsprechend fallen hier auch höhere Hosting-Kosten an. Billighoster machen auf Masse und nehmen wenig Rücksicht auf die einzelnen Belange der Domains. Hier kommt es dann nicht selten zu Totalausfällen, weil es eben immer Websites gibt, die zu viele Ressourcen für sich in Anspruch nehmen. Das korrekte Limitieren der Server-Ressourcen (Zuteilung von Systemressourcen für die einzelne Domain) erfordert Systemadministratoren, die sich mit dieser Materie auskennen, und diese Fachkräfte kosten wieder Geld (Gehalt) und treiben die Preise in die Höhe.

grafik.png

Im Prinzip ist es kein Problem mehrere tausend Domains über ein und dieselbe IP-Adresse an das Internet anzubinden und technisch wäre es sogar möglich, 5 – oder sogar 10 000 Domains auf einer IP laufen zu lassen.

Die meisten Domains weltweit laufen noch über eine IPv4-Adresse. Der Adressbereich von IPv4 ist sehr begrenzt und tatsächlich ist dieser Adressbereich schon seit einiger Zeit erschöpft. Man kann sich zwar auch heute noch eine eindeutige eigene IPv4-Adresse kaufen, weil viele Hoster sich diese auf Vorrat reserviert haben, aber hier muss man natürlich wieder extra für diese Adresse bezahlen. Die Preise halten sich jedoch in Grenzen. Wann immer möglich, sollte man versuchen eine eigene IP-Adresse für die Domain der Website zu bekommen oder sogar einen eigenen Server, auch wenn es nur ein kleiner shared Root-Server ist. Erfahrungsgemäß teilen sich diese nur mit wenigen anderen Domains die IP-Adresse. Echte dedizierte Rootserver (komplette Hardware-Server) sind natürlich am besten, weil man hier die volle Kontrolle hat und meistens auch eine eigene eindeutige IP inklusive ist. Für viele Websites und kleine Webprojekte sind aber dedizierte Webserver vollkommen überdimensioniert und die Kosten stehen in keinem guten Verhältnis zum Nutzen. Hinzu kommt noch, dass wir hier die Administration des Servers komplett selbst übernehmen müssen. Damit stehen wir direkt in der Haftung, wenn mit diesem Server irgendetwas mieses passiert. Da Server permanent unter Angriffen leiden, ist es nur eine Frage der Zeit, wann schlecht gewartete Server von bösen Buben missbraucht werden.

Um dem vorzubeugen, könnten wir zu einem managed Rootserver greifen. Hier übernimmt der Hoster die grundsätzliche Verwaltung des Servers (Updates usw.) und kümmert sich vor allem um die Sicherheit. Das schlägt natürlich wieder voll auf die Kosten durch. Dedizierte managed Server kosten oft das Mehrfache eines Servers der selbst verwaltet wird (bei gleicher Ausstattung). Gerade Unternehmen mit Webshops sollten langfristiger denken und wenn sie keine eigenen Systemadmins haben, sich für einen managed Server entscheiden. Das erspart sehr viel Zeit und oft auch Ärger.

grafik.png

Es gibt genügend Portale wo Hoster getestet werden. Bevor jemand sich für einen Hoster entscheidet, kann ein Blick auf eines dieser Portale nicht schaden. Ich kann hier z.B. Webhoster-Wissen empfehlen oder Webhosting-Vergleich.

Egal was „offiziell“ gesagt oder geschrieben wird. Es ist ein Fakt, dass eine Website/ Domain von einer schlechten virtuellen Nachbarschaft negative Einflüsse erben kann.

Haben wir z.B. einen bekannten Spamer, der seine Massen-E-Mails über seine Website versendet und dieser verwendet die selbe IP wie unsere eigene Domain, ist es sehr wahrscheinlich, dass auch unsere E-Mails nicht durch alle Spamfilter durchkommen und unschuldig im Spam-Ordner landen.

Jetzt fehlt nur noch eine Anlaufstelle, wo wir unsere virtuelle Nachbarschaft checken können. Man findet hier sehr viele Anbieter, die im Grunde alle zu empfehlen sind. Die Such-Phrase um diese zu finden lautet: „Reverse IP Check“.
Wer zu faul ist zu suchen, der könnte z.B. diesen Anbieter verwenden um zu checken welche Website/ Domain mit derselben IP ans Web angebunden ist.

Noch ein Hinweis zum Schluss. Es gibt auch unter den Billighostern gute Anbieter. Wie immer, Ausnahmen bestätigen die Regel 😎.

Dieser Beitrag wurde zuerst in unserem Steemit-Blog veröffentlich.

SEO: Artikel-Überschriften (Titel) und die Google-Logik

Dieser Artikel wurde zuerst in unserem Steemit-Blog veröffentlich.

Heute mal wieder ein kleiner SEO-Artikel von mir.
Anders als viele andere berichten wir hier nur über unsere eigenen Erfahrungen und die, dass könnt ihr glauben, sind sehr umfangreich. Schon seit 1999 haben wir erkannt, dass es möglich ist, Websites Vorteile bei den Suchmaschinen zu verschaffen. Damals war das noch sehr einfach.
Wir schoben eine Unmenge an Meta-Keywords in den Head der Website und schon fand Google die Website. Der Googlebot ließ sich sehr einfach beeinflussen.
Heute hat eine künstliche Intelligenz das Ruder bei Google übernommen und diese interessiert sich absolut nicht mehr für Meta-Keywords. Hier zählt nur noch der semantische Zusammenhang des Contents im Hinblick auf die Suchanfrage.

So gut wie alle klassischen On-Page-Maßnahmen sind heute zweitrangig und haben, wenn überhaupt, nur noch sehr marginal einen Einfluss auf das Ranking. Natürlich muss eine Website technisch fehlerfrei sein, aber die Attribute im HTML-Quelltext haben nicht mehr die Macht wie früher.
Ein Beispiel: Hatte früher eine H1-Überschrift immer eine besondere Stärke, muss das heute nicht mehr gelten.

Ich sehe alle Webmaster-Hangouts (wirklich alle) und dort wird sehr viel erzählt, wenn der Tag lang ist. Die Realität sieht jedoch anders aus und diese bedeutet tatsächlich: Jeder(!) sieht seine eigenen SERPS. Ich könnte sogar noch einen Schritt weiter gehen und behaupten, jeder hat sein eigenes Internet. Alles ist abhängig vom Ort der Abfrage und von den zur Verfügung stehenden Daten des Anfragenden bzw. des Endgerätes in Bezug auf die Suchanfrage.

Der Durchschnitts-User hat keine Ahnung von Tracking-Methoden und kümmert sich kaum um seine digital erzeugten Spuren, aber genau diese lassen einen personalisierten Datensatz anwachsen. Dieser kann sehr beträchtlich im Umfang werden und beeinflusst die Suchergebnisse.

Am einfachsten kann man es verstehen, wenn man Youtube heranzieht. Hier hat jeder bestimmte Kanäle abonniert und zeigt Youtube damit seine Interessen. Jedes Like oder Share wird gesammelt und so weiß Youtube, was jeder mag. Endsprechend werden Meldungen bei Euch eintrudeln und Videovorschläge gemacht. Youtube individualisiert das Portal speziell für jeden Geschmack und natürlich wird auch die Werbung entsprechend ausgespielt. Ein Gamer wird viel öfter Werbung zu Spielen sehen als z.b. jemand der sich nur für Musik interessiert. Das Ganze ist auch logisch nachvollziehbar. Je besser die Zielgruppe eingegrenzt wird, je höher ist die Klickrate. Nun, das ist wirklich eine sehr alte Regel, aber diese gilt heute immer noch. Manche Dinge ändern sich eben nie :-).

In einer ähnlichen Weise werden die SERPS (Die Ergebnis-Seiten der Suche) für jeden anders aussehen. Eine Ausnahme bilden hier große internationale Konzerne. Diese haben alle ein großes Budget und dieses sichert ihnen eine gute Platzierung und allumfassende Sichtbarkeit.
Das alles wird niemand offiziell seitens Google zugeben, aber es ist so. Glaubt mir oder glaubt mir nicht. Die Algorithmen laufen in Echtzeit bei dieser KI zusammen und die SERPS werden in Echtzeit und vor allem individualisiert ausgespielt.

Suchst Du in Frankfurt/Main z.B. nach „Auto kaufen“ wirst Du andere Ergebnisse erhalten, als wenn dieselbe Suche in Frankfurt/ Oder getätigt wird. Auch hier können wir die Logik der lokalen Komponente nachvollziehen. Es macht natürlich bei Produkten die direkt vor Ort gekauft werden können einen Sinn, den Ort mit einzubeziehen, von wo die Anfrage kommt.

Anders sieht es bei Produkten aus, die Online erworben werden können. Ihr könnt es selbst testen und viele wissen es auch. In den SERPS finden wir auf den ersten Plätzen immer erst die großen Verkaufts-Portale. Ob das gerecht ist, steht auf einem anderen Blatt, es ist jedenfalls so. Bei Google geht es auch nicht um Gerechtigkeit, sondern um Geldverdienen. Ich weiß, Google hört so etwas nicht gerne, aber es ist nun mal so. Kleine Online-Händler haben es deswegen sehr schwer gegen diesen enormen Wettbewerb zu bestehen. Bei Massenware ist es fast unmöglich einen gut laufenden Online-Shop aufzubauen. Bei Nischen-Produkten sieht es da besser aus.

Ok, jetzt habe ich wieder viel geschrieben, ohne auf das eigentliche Thema einzugehen. Dieses geht ja aus der Überschrift dieses Artikels hervor. „Artikel-Überschriften (Titel) und die Google-Logik“.

Damit ich nicht individualisierte SERPS erhalte, verwende ich eine Proxi-Suchmaschine wie z.B. startpage.com. Diese Suchmaschine verwendet den Index von Google, verhindert aber, dass Google „weiß“ wer da Etwas sucht. Die Proxi-Suchmaschine hängt sich sozusagen zwischen dem Anfragendem (Suchenden) und Google. Damit können die Ergebnisse nicht mehr individualisiert werden und die SERPS zeigen ein relativ neutrales Ergebnis.
Google behauptet ja immer, die bestmöglichen Ergebnisse zu liefern und das bedeutet, ein Suchergebnis zu zeigen, welches der Anfrage am ehesten entspricht.

Ich habe vor zirka einem Monat einen Artikel bei uns im Blog geschrieben. Dieser trägt die Überschrift: „ Crypto-Währungen im Auge behalten“, natürlich mit einem H1-Tag versehen. Wenn ich nun genau nach dieser Überschrift mit der Proxi-Suchmaschine suche, die wie ich bereits schrieb, den Google-Index verwendet, finde ich den Artikel erst auf Platz 80. Dieser Platz befindet sich also auf Seite 8 der Suchergebnisse. Damit hat dieser Artikel keine Chance organischen Traffic zu erhalten. Alle anderen Ergebnisse davor tragen andere Überschriften, enthalten auch nicht die Formulierung meiner Überschrift im Content und weichen damit erheblich von der Suchanfrage ab. Damit ist zweifelsfrei bewiesen, dass eine Artikel-Überschrift für sich alleine gesehen, die Chance auf ein gutes Ranking nicht beeinflusst. Diese Erkenntnis ist sogar für mich neu!

Offensichtlich korreliert der Inhalt meines Artikels (in den Augen von Google) in diesem Fall nicht genügend mit der Überschrift. Hier findet Ihr den Artikel: https://www.seo-boss.de/center/crypto-waehrungen-im-auge-behalten/

Als erstes kommt bei mir die Frage auf: Habe ich eine falsche Überschrift gewählt? Ja, das kann sehr gut sein. Eine Überschrift muss wohl zwingend ankündigen, was sich im Artikel befinden wird. Das allein zu realisieren ist schon eine kleine Herausforderung, steht jedoch der redaktionellen Freiheit entgegen, die Überschrift nach eigenem Gefallen wählen zu dürfen/ können.

Es wird in Zukunft immer schwieriger Websites für die Suche zu optimieren. Entscheidend ist und bleibt der Content.
Content ist und bleibt King. Gute Seo-Agenturen wissen sehr genau, dass heute die Hauptaufgabe darin besteht, die allgemeine Sichtbarkeit einer Website zu erhöhen. Alte Tricks helfen heute nicht mehr. Die Suchmaschienen sind einfach zu intelligent und folgen Ihrer eigenen Agenda. Gerechtigkeit ist in dieser nicht enthalten.

Copyright by @seo-boss

Gerne darf dieser Artikel in andere Sprachen übersetzt werden. Einzige Bedingung ist ein Verweis auf diesen Artikel hier.

Crypto-Währungen im Auge behalten

In letzter Zeit hören wir immer häufiger Nachrichten von digitalen Währungen. Es scheint wohl so zu sein, dass diese einen dauerhaften Platz im Markt der Investments einnehmen werden. Einige Zentralbanken von Ländern denken sogar darüber nach, eigene Coins auszugeben.

Wer die letzten Tage dieses Thema verfolgt hat, wird aber bemerkt haben, wie viel Risiko in dieser Crypto-Welt steckt. Da kann schon mal der Bitcoin (BTC) in 10 Minuten um 500 US$ im Kurs fallen. In der Folge rennen alle anderen Coins, von denen es nun schon fast 2000 gibt, dem BTC hinterher. Geht der BTC down, gehen alle down. Andersherum läuft es aber meistens auch so. Ich schätze, am Ende dieser Entwicklung werden vielleicht nur 50 oder 100 Coins überleben. Die meisten sind ohnehin nur als Spekulationsobjekt entstanden und die Leute bekommen sehr schnell mit, welcher Coin langfristig Chancen hat.

Wir selbst interessieren uns für die Blockchain-Technologie eher aus der Motivation heraus, diese für SEO nutzbar zu machen. Immerhin gibt es schon einige sogenannte Creation-Coin-basierten Portale. Hier sei an erster Stelle das Steemit-Netzwerk zu nennen, welches aktuell gut am Wachsen ist. Immer mehr Dienste schließen sich diesem an und sind dann per Steemit-Connect mit nur einem Hauptaccount zu benutzen. Auch Youtube bekommt mächtig Druck aus der Blockchain.

Wie man in der Gerüchteküche hört, arbeiten auch Google und Facebook an eigenen Blockchain-Projekten.

Wie auch immer, diese Entwicklung dürfen wir nicht aus den Augen verlieren. Hier ist sehr viel Dynamik drin und deswegen haben wir unseren eigenen Servive gestartet, wo jeder Interessierte die Entwicklung der einzelnen Coins verfolgen kann. Für uns ist besonders Steemit interessant, weil wir hier direkt in der Blockchain Content Marketing betreiben können. Ob das einen SEO-Einfluss haben wird oder überhaupt haben kann, bleibt abzuwarten. Immerhin haben Beiträge in der Blockchain einen Wert, nicht nur der Information wegen, sondern einen ihnen innewohnenden echten Wert. Ein Beitrag kann in der Blockchain sogar an Wert zunehmen, was im normalen Web nicht wirklich möglich ist. Jedes Upvote eines Artikels oder Beitrages, welcher in der Blockchain verfasst wurde, erhöht den Wert nominal. Unseren Account auf Steemit findet Ihr hier.

Zu unserem neuen Service: Dort werden in Echtzeit die Kurse und zusätzliche Informationen zu den Cryptos angezeigt. Hier geht es lang:

https://www.boomplace.com/cryptomarkt/

Auto-Retweet-Service, Re-Follow

Es kann ja nie schaden, einen Retweet mehr zu haben. Immerhin ist es ein zusätzliches Signal, wenn auch ein sehr schwaches.

Wir bieten direkt mit unserem eigenen Account einen kostenlosen Retweet-Service an. Benutze den Hashtag #myseoboss und Dein Tweet wird direkt von unserem Account retweetet und außerdem noch auf Pinterest geteilt. Ihr bekommt also 2 Signale gratis 🙂 von einem echten Account und nicht von einem Bot-Account.

Nicht erlaubt ist alles was gegen geltende Gesetze verstößt, nicht jugendfreie Inhalte, Scam und Spam und alles was nicht seriös ist. Wer für solche Tweet unseren eigenen Hashtag #myseoboss missbraucht wird von uns gesperrt, also überlegt gut, bevor ihr unserer Hashtag verwendet :-).

Solange die Tweet seriös sind, könnt ihr für alles unseren Hashtag verwenden. Keine Probleme haben wir mit normaler Werbung. Gern gesehen sind Themen wie SEO, Webmaster, IT, Technik, IT-Sicherheit, Wissenschaft, eben alles was irgendwie von allgemeinem Interesse sein könnte. Wir haben auch einen Re-Follow eingerichtet wer uns auf Twitter folgt, dem folgen wir zurück.

Hier gehts es zu unserem Twitteraccount.