SEO: Werden Accordions komplett indexiert?

Auf vielen Websites finden wir FAQ-Seiten, die mit einem Accordion-Style realisiert werden.
In der SEO-Szene gibt es diverse Ansichten darüber, ob auch die aufgeklappten Antworten indexiert werden können. Meine Meinung war von Anfang an klar: ja, auch die Antworten bei einem Accordion, selbst wenn diese erst nach einem Klick auf die Frage für den Websitebesucher sichtbar werden, werden auch indexiert.
Der Grund ist ganz einfach: Googlebot „sieht ja den Quelltext“ und egal, ob die Frage aufgeklappt ist oder nicht, er „sieht“ auch die Antwort und wird diese indexieren.

Ihr kennt sicher diese Accordions. Man klickt auf eine Frage und dann öffnet sich die Antwort. Das Ganze wird meistens mit Javascript realisiert oder bei modereren Varianten mit puren HTML5 und CSS3. Im Falle, dass ein Arccordion, welches sich natürlich auch für andere Dinge als eine FAQ verwenden läßt, mit Javascript realisiert wurde, muss Javascript in der robots.txt zum rendern für Googlebot frei gegeben werden. Ich habe das schon in einen anderen Beitrag erwähnt, dass gerade Googlebot expilzit eine Erlaubnis dafür haben möchte, Javascript und auch CSS-Dateien zu verwenden. Sind diese Ressourcen nicht per robots.txt freigegeben betrachtet Googlebot diese Ressourcen als blockiert und wird das z.B. bei PageSpeed Insights als Fehler melden.

Damit Googlebot auf die entsprechenden Ressourcen zugreifen kann, fügt Ihr einfach diese paar Zeilen in der robots.txt hinzu:

#Googlebot
User-agent: Googlebot
Allow: *.css
Allow: *.js

grafik.png
Quelltext für das Accordion. Screenshoot von https://www.w3schools.com

grafik.png
So sieht das Ergebnis grafisch aus. Screenshoot https://www.w3schools.com

Da ich ja eine Frage nie unbeantwortet wissen möchte, habe ich direkt bei Johannes Müller angefragt. Er macht meistens die deutsprachigen Webmaster-Hangouts für Google und ist bekannt dafür, dass er fast jede Frage beantworten kann. Ich habe die Frage bewusst so gestellt, als ob ich keine Ahung hätte. Ich wollte ja eine klare Antwort.

grafik.png
Screenshoot meiner Frage bei Google+

Im Webmaster-Hangout vom 15.11.2018, zu finden auf Youtube, hat er dann auch diese Frage klar beantwortet. Wenn das Accordion komplett geladen wird, was ja meistens der Fall sein sollte, dann werden auch die Inhalte komplett indexiert die erst nach einem Klick zu sehen sind. Tatsächlich ist ja der Content schon komplett geladen. Der Besucher sieht diesen erst, wenn er auf die entsprechende Frage klickt. Googlebot sieht aber den kompletten geladenen Quelltext und damit auch die Antworten, selbst wenn diese noch nicht aufgeklappt sind.

Interessant finde ich in diesem Zusammenhang, dass ich mich unter dem besagten Webmaster-Hangout bedankt hatte. Dieser Kommentar ist jedoch für mich nur sichtbar, wenn ich mit dem Account eingeloggt bin, mit welchem ich diesen Kommentar geschrieben habe. Logge ich mich mit einem anderen Account oder Kanal-User ein, sehe ich diesen Kommentar nicht mehr.
Das ist eindeutig Shadow banning und darüber sollten wir uns echt Gedanken machen.

Ich hatte schon vor Monaten geschrieben, Google rollt für jeden Einzelnen seine SERPS individualisiert aus und SEO-Agenturen, die das Ihren Kunden nicht erzählen sind Blender.
Dass aber nun sogar Youtube derart individualisiert wird und Kommentare nicht mehr global angezeigt werden ist für mich eine neue Qualität der Zensur. Man kann darüber diskutieren, aber es bleibt dennoch Zensur wenn Kommentare, die öffentlich verfasst wurden, nicht mehr öffentlich zu sehen sind.

Neue Website bei Suchmaschinen anmelden, ja oder nein?

Zunächst ersteinmal die Frage: Muss eine Website überhaupt bei den Suchmaschinen angemeldet werden? Es gibt ja wirklich Experten und hier meine ich sehr bekannte Leute aus der SEO-Welt, die sagen: alles Quatsch, Websites müssen nicht bei Suchmaschinen angemeldet werden, die Bots, Spider, Indexer oder Crawler finden die Website allein und werden diese indexieren.

Ich könnte an dieser Stelle auf einen sehr bekannten SEO-Blog verweisen wo genau diese Meinung vertreten wird. Ich will aber niemanden auf die Füße treten, sondern hier ganz klar sagen, ja, natürlich, muss eine Website bei Suchmaschinen angemeldet werden, vor allem wenn diese selbst erstellt wurde, neu ist und über keine Backlinks von anderen Websites verfügt. Über diese Backlinks würden die Indexer-Bots die Website dann natürlich auch finden. Ein Suchmaschinen-Bot arbeitet wie eine Spinne, deswegen werden diese häufig auch Spider genannt.

grafik.png

Bei Websites, die mit einem bekannten Web-Baukasten (Jimdoo, Wix usw.) erstellt wurden, muss man sich nicht um die Anmeldung kümmern. Hier sorgen die Anbieter für eine Indexierung. Bei selbsterstellten Websites muss der Webmaster aber aktiv werden.

Nehmen wir als Beispiel den allseits bekannten Googlebot. Was macht dieser? Er verfolgt hauptsächlich Links (im Netz) und indexiert 24/7 alles was er findet. Wenn wir nun eine neue Website haben und keine einzige andere Website verweist auf diese neue Website. Wie soll dann Googlebot diese Website finden? Wenn im Netz kein Faden (Link) zu einer neuen Website führt, dann findet der Spider die neue Seite auch nicht. So einfach ist das.

Also Du Schlaumeier, ich hoffe, Du liest diesen Beitrag. Eine neue Website muss(!) natürlich bei den Suchmaschinen angemeldet werden. Alternativ muss sie wenigstens über einen Verweis (Backlink) von einer anderen Website verfügen, die Googlebot bereits indexiert hat. Es würde also auch genügen, die neue Website in einen bekannten Webkatalog anzumelden. Hier würde Googlebot den neuen Link dann verfolgen und die Website früher oder später indexieren. Das kann jedoch dauern.

Will jemand eine Website selbst direkt bei Google anmelden, dann funktioniert das über die Search Console. Wir brauchen also einen Google+ Account und mit diesem kann ein kostenloses Google-Analytics-Konto eröffnet werden. Hier verknüpfen wir unsere Website dann mit der Search Console.

Auch bei Bing müssen wir jetzt expilzit einen Account für die Bing Webmaster Tools besitzen. Bis vor Kurzem konnte man bei Bing noch Websites anmelden, ohne einen Account zu besitzen. Dafür wurde extra ein Anmeldeformular von Bing bereit gestellt, wo nur die URL der anzumeldenden Website eingetragen werden musste. Hier in diesem Blogeintrag kann man noch lesen wie es bei Bing funktionierte. Ihr seht ja die URLs auf den Screenshoots und könnt es selbst testen. Das funktioniert heute nicht mehr. Heute brauchen wir einen Account für die Bing-Webmaster-Tools. Diese Tools bieten sehr ähnliche Funktionen wie Google-Analytics und die Search Console.

Wer keine Lust hat, sich bei diesen Diensten anzumelden, kann seine Website auch mit den bekannten Freesubmittern anmelden. Diese funktionieren heute immer noch. Hier habt ihr zwei solcher Anbieter:
http://www.freesubmitter.de/
https://www.freewebsubmission.com/
Ihr solltet für die Anmeldung, wenn möglich, eine neue E-Mail-Adresse für Eure Domain anlegen. Einige Suchmaschinen werden Euch nämlich eine Bestätigungs-E-Mail senden und erwarten dann, dass Ihr selbst noch ein Formular für die Website ausfüllt. Ich würde empfehlen, diese Formulare auszufüllen, selbst wenn es sich um eher unbekannte Suchmaschinen handelt. Wenn alles fertig ist, dann löscht Ihr die neu angelegt E-Mail-Adresse wieder. Es gibt immer einige, die E-Mail-Adressen gerne weitergeben oder Euch mit Spam zumüllen. Deswegen sollte nicht gerade die E-Mail-Adresse für die Anmeldung über Freesubmitter verwendet werden, die häufig oder geschäftlich benutzt wird.

Dieser Beitrag wurde zuerst in unserem Blog von Steemit veröffentlich.

SEO, welche Domain hat die selbe IP-Adresse wie meine?

grafik.png

Für die Suchmaschinenoptimierung einer Website kann es manchmal sinnvoll sein zu wissen, wer die virtuellen Nachbarn sind. Die meisten Websites laufen auf geteiltem Webspace, oft in einer virtualisierten eigenen System-Umgebung. Das bedeutet, dass viele Domains sich ein und dieselbe IP-Adresse teilen und oft auch auf demselben Server physisch gehostet werden. Manchmal sind es mehrere tausend Domains die sich dieselbe IP-Adresse teilen, aber auch Rootserver haben nicht immer eine IP-Adresse für sich allein.

„Offiziell“ hat diese Nachbarschaft keinen Einfluss auf das Ranking einer Website, aber „offiziell“ ist nicht immer das was wirklich gilt.

Gibt es auf derselben IP-Adresse z.B. einige Websites oder Domains die auf einer Blacklist stehen, kann das einen negativen Effekt auf die eigene Website haben. Deswegen ist es gut zu wissen, welche Domains alles dieselbe IP-Adresse verwenden wie unsere eigene Domain. Dem Hoster ist es ziemlich egal. Bekommt er einen neuen Kunden, wird er dessen Webspace (Speicherplatz für die Dateien der Website/ Domain) auf einen Server legen, der gerade Platz bietet. Sehr gute Hoster achten auf eine gute Balance und Mischung der Websites und entsprechend fallen hier auch höhere Hosting-Kosten an. Billighoster machen auf Masse und nehmen wenig Rücksicht auf die einzelnen Belange der Domains. Hier kommt es dann nicht selten zu Totalausfällen, weil es eben immer Websites gibt, die zu viele Ressourcen für sich in Anspruch nehmen. Das korrekte Limitieren der Server-Ressourcen (Zuteilung von Systemressourcen für die einzelne Domain) erfordert Systemadministratoren, die sich mit dieser Materie auskennen, und diese Fachkräfte kosten wieder Geld (Gehalt) und treiben die Preise in die Höhe.

grafik.png

Im Prinzip ist es kein Problem mehrere tausend Domains über ein und dieselbe IP-Adresse an das Internet anzubinden und technisch wäre es sogar möglich, 5 – oder sogar 10 000 Domains auf einer IP laufen zu lassen.

Die meisten Domains weltweit laufen noch über eine IPv4-Adresse. Der Adressbereich von IPv4 ist sehr begrenzt und tatsächlich ist dieser Adressbereich schon seit einiger Zeit erschöpft. Man kann sich zwar auch heute noch eine eindeutige eigene IPv4-Adresse kaufen, weil viele Hoster sich diese auf Vorrat reserviert haben, aber hier muss man natürlich wieder extra für diese Adresse bezahlen. Die Preise halten sich jedoch in Grenzen. Wann immer möglich, sollte man versuchen eine eigene IP-Adresse für die Domain der Website zu bekommen oder sogar einen eigenen Server, auch wenn es nur ein kleiner shared Root-Server ist. Erfahrungsgemäß teilen sich diese nur mit wenigen anderen Domains die IP-Adresse. Echte dedizierte Rootserver (komplette Hardware-Server) sind natürlich am besten, weil man hier die volle Kontrolle hat und meistens auch eine eigene eindeutige IP inklusive ist. Für viele Websites und kleine Webprojekte sind aber dedizierte Webserver vollkommen überdimensioniert und die Kosten stehen in keinem guten Verhältnis zum Nutzen. Hinzu kommt noch, dass wir hier die Administration des Servers komplett selbst übernehmen müssen. Damit stehen wir direkt in der Haftung, wenn mit diesem Server irgendetwas mieses passiert. Da Server permanent unter Angriffen leiden, ist es nur eine Frage der Zeit, wann schlecht gewartete Server von bösen Buben missbraucht werden.

Um dem vorzubeugen, könnten wir zu einem managed Rootserver greifen. Hier übernimmt der Hoster die grundsätzliche Verwaltung des Servers (Updates usw.) und kümmert sich vor allem um die Sicherheit. Das schlägt natürlich wieder voll auf die Kosten durch. Dedizierte managed Server kosten oft das Mehrfache eines Servers der selbst verwaltet wird (bei gleicher Ausstattung). Gerade Unternehmen mit Webshops sollten langfristiger denken und wenn sie keine eigenen Systemadmins haben, sich für einen managed Server entscheiden. Das erspart sehr viel Zeit und oft auch Ärger.

grafik.png

Es gibt genügend Portale wo Hoster getestet werden. Bevor jemand sich für einen Hoster entscheidet, kann ein Blick auf eines dieser Portale nicht schaden. Ich kann hier z.B. Webhoster-Wissen empfehlen oder Webhosting-Vergleich.

Egal was „offiziell“ gesagt oder geschrieben wird. Es ist ein Fakt, dass eine Website/ Domain von einer schlechten virtuellen Nachbarschaft negative Einflüsse erben kann.

Haben wir z.B. einen bekannten Spamer, der seine Massen-E-Mails über seine Website versendet und dieser verwendet die selbe IP wie unsere eigene Domain, ist es sehr wahrscheinlich, dass auch unsere E-Mails nicht durch alle Spamfilter durchkommen und unschuldig im Spam-Ordner landen.

Jetzt fehlt nur noch eine Anlaufstelle, wo wir unsere virtuelle Nachbarschaft checken können. Man findet hier sehr viele Anbieter, die im Grunde alle zu empfehlen sind. Die Such-Phrase um diese zu finden lautet: „Reverse IP Check“.
Wer zu faul ist zu suchen, der könnte z.B. diesen Anbieter verwenden um zu checken welche Website/ Domain mit derselben IP ans Web angebunden ist.

Noch ein Hinweis zum Schluss. Es gibt auch unter den Billighostern gute Anbieter. Wie immer, Ausnahmen bestätigen die Regel 😎.

Dieser Beitrag wurde zuerst in unserem Steemit-Blog veröffentlich.

Software-Tipp: FreeFileSync

Heute mal ein Software-Tipp vom SEO BOSS

Gute Software, die auch noch kostenlos ist, findet wir immer seltener. Ich habe heute eine solche als Tipp für Euch.
Die Software nennt sich FreeFileSync und der Name lässt auch schon vermuten, was diese Software macht. Sie synchronisiert Verzeichnisse oder sogar komplette Laufwerke.
Ich verwende diese Software schon sehr lange und heute hatte ich mal wieder eine neue Version installiert. Da kam mir der Gedanke diesen Beitrag zu schreiben.
grafik.png

Gerade wer mit großen Dateimengen hantiert und häufig lokale Backups machen muss, sollte sich FreeFileSync mal ansehen. Die Software läuft sehr schnell und hat auch kein Problem mit sehr großen Datei-Mengen. Ich synchronisiere ca. 20 Mio Dateien täglich damit. Ich glaube, nach oben hin ist alles offen.
Da ich ja noch ein Webmaster der alten Garde bin sage ich: Es geht nichts über Backup-Laufwerke die auch physisch erreichbar sind. Clouds im Web sind auch etwas Schönes, aber das Problem ist, wenn es damit ein Problem gibt, hat man ein echtes Problem 😊.
Gerade die deutschen Hoster glänzen nicht mit dem besten Support. Man soll nicht alle über einen Kamm scherren, es mag auch Hoster mit gutem Support geben, dieser muss aber oft zusätzlich bezahlt werden. Oft ärgere ich mich mit First-Level-Typen herum, die meistens ja keine Ahnung von der Materie haben. Die werden nur vorgeschoben, damit der Kunde denkt, Wow Support ^^. Deutschland ist leider eine echte Support-Wüste geworden. Das betrifft viele Bereiche der Wirtschaft. Verglichen mit den USA sind wir in Sachen Support ein Entwicklungsland. Hier sparen die Unternehmer an der falschen Stelle und wir empfehlen jedem Unternehmer: „Bitte spare nicht am Support!“
Es geht nichts, aber auch wirklich nichts(!) über einen guten Kunden-Support! Ich würde sogar sagen, der Support entscheidet über den Erfolg eines Unternehmens entscheidend mit. Der zufriedene Kunde bezahlt gerne etwas mehr, wenn er sich gut betreut fühlt.

Zurück zu FreeFileSync. Wenn Ihr häufig Backups von Euren Dateien machen wollt oder müsst, dann seht euch diese Software an. Sie arbeitet mit Windows, Mac und auch mit Linux.
Es kann auch nicht schaden mal einen Taler dem Entwickler zu spenden. Ich bin auch nur ein normaler Angestellter und unterstütze trotzdem viele Open Source-Projekte, jeweils mit kleinen Beträgen.
grafik.png

Ich liebe den Open Source-Gedanken und gehe mit gutem Beispiel voran. Nur zu nehmen und nichts zu geben, rächt sich am Ende.

Dieser Artikel wurde von mir auch hier publiziert

SPF in Postfix implementieren

Wenn man eigene Server betreibt, mit Diensten die per Cron ausgeführt werden, und diese z.B Status-Emails versenden, kann es sehr nützlich sein, ein Sender Policy Framework für den Mail-Server zu konfigurieren. Warum? Weil dann die Wahrscheinlichkeit größer ist, dass die Status-E-Mails nicht im Spam-Verzeichnis landen :-). Mit SPF bekommt der E-Mail-Server ein bisschen mehr Vertrauen. Eine Garantie ist SPF nicht, dass E-Mails überall sauber durchgehen!

Ich hatte gerade SPF für Postfix konfiguriert und dabei war mir diese Anleitung sehr hilfreich.

Da wahrscheinlich auch andere diese Anleitung gebrauchen können, verlinke ich auf dieses Tutorial.