WordPress Revisionen begrenzen

Bild WordPress-TippsDiesen Tipp werden Sie ganz sicher schon an anderen Stellen gelesen haben. Dennoch kann es nicht schaden, diesem Tipp noch mehr Sichtbarkeit zu verschaffen. Es ist extrem nervig, dass WordPress bis heute keine Option im Dashboard für den Admin bereit hält, die Anzahl der Revisionen zu begrenzen. Wer also nicht explizit danach sucht oder sich keine Gedanken macht, dem wird im Laufe der Zeit die Datenbank verfetten. Ich habe schon WordPress-Installationen gesehen, da waren 90% des Datenbank-Umfangs ausschließlich von Revisionen alter Beiträge oder Entwürfen belegt. In einem Expremfall hatte sich die Datenbank auf fast 900 MB aufgeblasen.

Natürlich gibt es spezielle Addons die sich dieser Problematik annehmen, aber dennoch möchte ich an dieser Stelle das Dev-Team bitten, sich dieser Sache anzunehmen. Es ist einfach nervend!

Achso, um die Anzahl der Revisionen zu begrenzen muss folgende in die wp-config.php eingefügt werden, am besten gleich oben zu Beginn:

[sourcecode]// ** MySQL settings – You can get this info from your web host ** //
/** The name of the database for WordPress */
define(‚WP_POST_REVISIONS‘, 2);[/sourcecode]

Wichtig ist hier nur die Zeile 3. Ich habe dort eingetragen, dass WP nur 2 Revisonen speichert. Das sollte für den Normbedarf genügen.

SPF in Postfix implementieren

Wenn man eigene Server betreibt, mit Diensten die per Cron ausgeführt werden, und diese z.B Status-Emails versenden, kann es sehr nützlich sein, ein Sender Policy Framework für den Mail-Server zu konfigurieren. Warum? Weil dann die Wahrscheinlichkeit größer ist, dass die Status-E-Mails nicht im Spam-Verzeichnis landen :-). Mit SPF bekommt der E-Mail-Server ein bisschen mehr Vertrauen. Eine Garantie ist SPF nicht, dass E-Mails überall sauber durchgehen!

Ich hatte gerade SPF für Postfix konfiguriert und dabei war mir diese Anleitung sehr hilfreich.

Da wahrscheinlich auch andere diese Anleitung gebrauchen können, verlinke ich auf dieses Tutorial.

Google Aktivitäten löschen

Den meisten ist ganz sicher nicht bewusst, wie viel von ihren Online-Aktivitäten gespeichert bzw. aufgezeichnet werden. So entstehen im Laufe eines Online-Lebens riesige digitale Datensätze über jeden. Google hat jedoch eine Service-Option als Website im Angebot, wo jeder Einzelne seine Aktivitäten, die von Google ausgezeichnet wurden und werden, löschen kann.

Im Allgmeinen kümmern wir uns viel zu wenig um unsere digital hinterlassenen Spuren.  Hier sollte jedoch jeder etwas mehr Fingerspitzengefühl entwickeln. Dass Google Daten sammelt ist die eine Sache. Was jeder davon halten mag wieder eine andere. In jedem Fall ist es eine gute Sache, wenn gerade technisch eher Unversierte eine Möglichkeit bekommen, ihre Spuren selbstständig zu löschen. Für die Aktivitätenverfolgung bei Google, findet Ihr hier die Seite, wo ihr die Aktivitäten-Aufzeichnung selbständig löschen könnt. Ihr müsst im Google+ Account eingeloggt sein, sonst funktioniert das natürlich nicht. Was konkret gelöscht wird, weiß ich nicht und ich weiß auch nicht, ob die Daten wirklich gelöscht werden. Immerhin kann niemand mal eben in ein Rechen-Zentrum von Google hineingehen und dort nachsehen, und selbst wenn diese Möglichkeit bestünde, wären die meisten wohl mit der Recherche direkt auf der Console überfordert. Über Daten-Redundanzen will ich in diesem Zusammenhang auch gar nicht nachdenken. Trotzdem sollten wir es in jedem Fall begrüßen und diese Möglichkeit auch nutzen, wenn Google selbst uns die Löschung der über uns gespeicherten Aktivitäten, online anbietet. Wahrscheinlich gibt es für Bing auch eine entsprechende Seite. Ich habe jetzt nicht danach recherchiert. Vielleicht kennt jemand diese und könnte den Link zu der entsprechenden Website hier als Kommentar posten.

Alexa-Traffic-Rank-Script: korrekt einbauen.

Hallo Alexa,

Auf dieser Website unter dem Tab „Certified Alexa Rank“, finde man diese Grafik. Diese erklärt, wie der Code in die Website eingefügt werden soll. Hier wird eindeutig gezeigt, dass der Code zwischen <body> und </body> zu plazieren ist.

On this website under the tab „Certified Alexa Rank“, you will find this graphic. This explains how the code should be inserted into the website. Here it is clearly shown that the code is to be placed between <body> and </ body>.

Abbildung wie das Script von Alexa korrekt einzubauen ist.

Ist man im Account von Alexa eingeloggt, sieht man diese Anleitung.

If you are logged in the account you can see this manual.

Grafik: Anleitung zum einbau des Alexa-Codes

Hier wird eindeutig gesagt, der empfohlende Bereich ist der Head-Bereich zum Einbau des Scripts.

It is clearly stated here that the best area is the head area to including the script.

Was ist denn nun korrekt?

What is correct?

Wozu brauchen wir eine SEO-Agentur?

Bild SEO-Dame

Bei vielen Menschen herrscht die allgemeine Sichtweise, dass eine SEO-Agentur irgendwie zaubern können müsste und eine Website zu jedem gewünschten Keyword auf Platz 1 bringt. Das ist natürlich totaler Quatsch und wer so etwas verspricht ist ein Hochstapler. Gerade in den letzten Jahren versagen klassische Optimierungsmethoden immer mehr bzw.  diese zeigen nur noch eine marginale Wirkung. Worauf es heute ankommt, ist mehr ein Mix aus Maßnahmen, die nur im perfekten Zusammenspiel gewünschte Ergebnisse bringen.

Ok, wir können etwas an der klassischen On-Page-Schraube drehen, aber selbst hier müssen wir schon wieder aufpassen, dass wir die Website nicht überoptimieren, wobei niemand genau definieren kann, wo eine Überoptimierung anfängt. Es lauern an allen Ecken und Kanten Gefahren, die viele selbst nie als solche erkennen. Da gibt es immer die Gefahr, gegen Richtlinien zu verstoßen und damit die noch größere, abgestraft zu werden.

Ich versuche im Folgenden einmal zu erklären, was eine SEO-Agentur eigentlich macht.

Jeder möchte mit seiner Website Erfolg haben. Da Erfolg heute größtenteils mit mehr Umsatz assoziiert wird, sind wir darauf angewiesen, in den Suchmaschinen zu unseren Keywords, auf Seite eins oder maximal Seite zwei gelistet zu werden. Natürlich gibt es noch andere Ziele als nur mehr Umsatz zu erwirtschaften. Häufig geht es einzig und allein um mehr Sichtbarkeit. Um überhaupt irgendein Ziel erreichen zu können muss eine Website bestimmte Anforderungen erfüllen:

  1. Sie liefert guten und einzigartigen Content (Content ist King).
  2. Sie ist gut von allen Endgeräten aus bedien- und erreichbar.
  3. Sie funktioniert fehlerfrei (Programmierung/ Code).
  4. Sie hat eine gute Performance (Ladegeschwindigkeit).
  5. Sie ist für den Benutzer sicher.

Die Reihenfolge ist jetzt frei gewählt, aber es sind im Kern genau diese fünf Punkte die eine Page erst einmal erfüllen muss um überhaupt einem Standard zu entsprechen, mit dem wir arbeiten können. Da wir hier priorisieren, immer ohne kryptische Begriffe auszukommen, würde ich sagen, diese genannten fünf Punkte sind die Basis, die jede Website erfüllen muss, um ein Rennen beginnen zu können. Ja, es handelt sich tatsächlich um eine Art Wettrennen oder besser ausgedrückt Wettbewerb. Jedoch gewinnt nicht immer der Schnellste sondern meistens der Klügere und noch häufiger der mit mehr Ausdauer; und ja, ich muss es zugeben, auch der mit dem größten finanziellen Einsatz. Geld regiert die Welt. Das ist beim SEO oder eben dann beim SEA (Werbung bei den Suchmaschinen) leider nicht anders. Wir können sehr viel mit Fleiß und Einsatz kompensieren, aber eben nicht alles.

Die oben genannten 5 Punkte können wir alle in die On-Page-Ecke der SEO schieben. Neben diesen Faktoren, die immer und direkt von der Website selbst ausgehen, kommen noch viel Wichtigere hinzu. Das sind die sogenannten Off-Page-Faktoren. Hierzu zählt alles, was von außen positiv auf die Website einwirkt. Hier muss ich die Relativität ins Spiel bringen, denn was positiv oder negativ gesehen wird, darf und sollte jeder selbst entscheiden können. Hier gibt es sicherlich einen Minimalkonsens, dem jeder zustimmen würde. Ich stelle diesen hier in nur 3 Punkten dar.

  1. Eine Website muss eine Autorität in ihren Kern-Themen besitzen. Ob das der Fall ist, kann nur von außen bestimmt werden.  Es bestimmen hier in erster Linie die Besucher der Website, ob diese eine Autorität zu ihren Themen darstellt. Die Website selbst hat auf ihre eigene Autorität nur bedingt einen Einfluss. Wenn der Content sehr gut ist, werden auch andere Websites und auch die sozialen Netzwerke häufig darauf verweisen. Ja ich weiß, wer bestimmt was gut und was schlecht ist :-)? Na ganz klar, der Markt. Selbst eine Witze-Seite kann eine hohe Autorität erreichen, eben auf das Thema „Witze“ bezogen. In jedem Fall muss die Website für den Besucher informativ oder unterhaltsam sein oder sie muss mit Produkten aufwarten, die Verbraucher sich wünschen. Es gibt nur diese 3 Gründe warum Websites besucht werden: Informationen, Unterhaltung, Produkte.
  2. Sympathie: Es gibt keine SEO-Metrik, die Sympathie (für eine Website)  in Daten darstellen kann, aber wenn eine Website sympathisch ist und gefällt, dann wird sie ihre Besucher auch zur Wiederkehr bewegen. Im Prinzip können wir eine Website wie eine eigene Entität betrachten und bei den meisten guten und bekannten Seiten ist es auch so, dass sie wie solche gesehen werden.
  3. Sichtbarkeit: Die allgemeine Sichtbarkeit zu erhöhen ist wohl mit Abstand eines der wichtigsten Ziele. Egal ob eine Unternehmens- oder eine private Hobby-Website. Alle wollen in aller Munde sein. Im Web ist das eben die Sichtbarkeit. Hier gehen die Punkte zwei und drei eigentlich nahtlos ineinander über. Die Sichtbarkeit können wir auf vielerlei Arten beeinflussen. Haben wir einen fleißigen und kreativen social Networker, dann wird dieser ständig an der Vergrößerung der Reichweite seiner Kanäle arbeiten. Wir selbst sehen auch den klassischen Linktausch als eher unkritisch und würden sogar empfehlen hier auch aktiv zu sein. Gerade für Websites mit ähnlichen Themen, kann es sehr vorteilhaft sein, sich gegenseitig zu verlinken.

Ja, dem aufmerksamen Leser wird nicht entgangen sein, dass noch nicht geschrieben wurde, was denn nun eine SEO-Agentur so macht? Die Antwort auf diese Frage ist einfacher als die Realisierung der Ziele. Die SEO-Agentur arbeitet daran, alle aufgezählte Punkte zu optimieren. Zu 60% ist ein SEO-Dienstleister ein Berater der Handlungsempfehlungen gibt. Die anderen 40% gehen in das Monitoring und Reporting. Häufig arbeiten SEO-Agenturen auch allumfassend und übernehmen von der Website-Erstellung bis zur redaktionellen Betreuung alles. Das sind dann die sogenannten Full-Service-Agenturen, wozu die Wolfram Consult GmbH & Co. KG sich auch zählt.

Vielleicht sollte hier auch nicht unerwähnt bleiben, dass das Feld der OFF-Page-Optimierungen nahezu unbegrenzte Möglichkeiten bietet, während man ON-Page sehr schnell an die natürlichen Grenzen des Machbaren stößt.

Eine sehr wichtige Sache sollte sich jeder merken: „SEO ist ein Weg und keine Maßnahme.“ Letztlich können wir nur sichtbarer machen, was auch als Content vorhanden ist. Aus diesem Grund liegt der Schwerpunkt ganz klar beim einzigartigen (uniquen) Content. Hier kann immer etwas optimiert und ausgebaut werden.

Wer selbst in einer SEO-Agentur arbeitet oder gearbeitet hat weiß, dass in SEO-Projekte unglaublich viel Fleiß und Zeit fließen. Wochenende ist etwas für Produktionsarbeiter :-). Wir arbeiten fließend, schlafen auch mal bis um 10.00 Uhr und sind oft auch am Wochenende für Sie digital unterwegs.

Bei dieser Gelegenheit sei noch erwähnt: Wir suchen immer motivierte, kreative neue Mitarbeiter für die Bereiche:

Webmaster, Server-Administration (Debian), Web- und Grafikdesign, SEO, SEA, SEM und Social Networker. Gerne auch Quereinsteiger. Wenn Sie gute Referenzen (eigene Projekte, Nachweise über Erfahrungen) zum Vorzeigen haben, dann zählen diese für uns mehr als Zertifikate. Senden Sie Ihre Initiativbewerbung nur per E-Mail, mit Bezug auf diesen Beitrag, an: karriere[at]wolframbk.de

Eine neue und überarbeitete Version dieses Artikels haben wir auf Steemit veröffentlicht.

Eine Kritik an Google

Bild SEOWas bezweckt Google mit diesen ganzen Reglementierungen, die als Empfehlungen in den Webmasterrichtlinien genannt werden? Welche Ziele verfolgt es damit?

Es läuft letztlich wohl darauf hinaus, dass sich das Web, welches ja nun mal aus Websites besteht, den Regeln und Wünschen von Google „unterwirft“.

Ich kopiere hier mal einige „Empfehlungen“ aus den Webmasterrichtlinen hinein und werde daneben in Klammer schreiben, was ich davon halte.

„Konkrete Empfehlungen von Goolge, nachzulesen in den Richtlinien für Webmaster und zwar hier.

Vermeiden Sie die folgenden Methoden:

  • Automatisch generierte Inhalte (schlechte Empfehlung, was ist mit RSS Feeds? diese erzeugen doch automatisiert Content, wo ist das Problem?)
  • Teilnahme an Linktauschprogrammen (Ich finde es eine Frechheit, Webmaster Linktauschprogramme zu vermiesen. Diese Programme haben das Internet erst groß gemacht. Was ist mit den ganzen Webverzeichnissen und Linklisten, sind die jetzt böse? Letztlich ist auch eine Suchmaschine ein Index von Websites und viele linken auch auf Google zurück, in welcher Form auch immer.)
  • Erstellen von Seiten ohne oder mit nur wenigen eigenen Inhalten (Es gibt einige Websites, die wollen nicht mehr als eine Webvisitenkarte sein, nicht mehr und nicht weniger, die brauchen also kaum Content und wollen auch keinen.)
  • Cloaking (OK, dass muss bestraft werden!)
  • Irreführende Weiterleitungen (Was ist eine irrenführende Weiterleitung, wer entscheidet das? Es gibt viele durchaus sinnvolle Weiterleitungen)
  • Verborgener Text/verborgene Links (Ja, das ist mies.)
  • Brückenseiten (Wo ist das Problem? Wenn man es technisch sieht, ist Google auch nur eine Brückenseite)
  • Kopierte Inhalte (Das sollten sich die Medien-Konzerne auf die Fahnen schreiben, die beziehen doch alle die selben Nachrichten und publizieren teilweise 1 zu 1 und dennoch werden die alle von Google gut geränkt)
  • Teilnahme an Affiliate-Programmen ohne ausreichenden Mehrwert (Junge, Junge, hier bekomme ich einen echten Hals. Was ist denn Adwords, was ist das Ganze SEA? Ist das alles mit einem Mehrwert hinterlegt? Hier verstösst Google eindeutig gegen seine eigenen Empfehlungen und ich bzw. wir vom SEO Boss sind, soweit ich das sehen kann, in der kompletten SEO-Szene, die Einzigen die sich trauen das zu thematisieren. So gut wie alle SEO-Agenturen am Markt, haben keine eigene Meinung, sie setzen einfach nur um was Google vorgibt und damit unterstützen sie die Bevormundung der Webmaster von Google.)
  • Laden von Seiten mit irrelevanten Keywords (Ja das ist OK. Es macht auch gar keinen Sinn Keywords für Seiten, sei es als Anker oder sonstwie zu verwenden, wenn der Content nicht passt.)
  • Erstellen von Seiten mit schädlichen Funktionen, durch die beispielsweise Phishingversuche unternommen oder Viren, Trojaner oder andere Badware installiert werden. (Das ist sehr richtig!)
  • Missbrauch von Rich Snippet-Markup (Wo fängt der Missbrauch an?)
  • Senden von automatisierten Anfragen an Google (Hey Google, nachdem ich eine Suchphrase in Deine Suchmaske eingetragen habe, wird der Vorgang ohnehin automatisiert, oder nicht? Durch das reCaptcha V2 sind automatisierte Anfragen so gut wie unmöglich geworden, also ist diese Empfehlung überflüssig.)

Ich fasse also mal zusammen. Google will natürlich in allererster Linie Geld verdienen und am besten dem kompletten Werbemarkt beherrschen. Das ganze Getue mit den kostenlosen Diensten ist ein Blender. Nichts ist kostenlos! Jeder bezahlt mit seinen Daten! Das ist die Realität.

Wir betreiben seit Jahren eine kleine Werbewebsite. Auf dieser gibt es nichts, was den Besucher irgendwie nervt. Wir verwenden keine Werbelayer, keine Popups, einfach nichts was sich irgendwie ungefragt im Browser öffnet. Wir versenden keine Spam-Mails und verwenden nicht mal ein Newsletter-System. Google hat die Seite zwar indexiert, aber zu keinem einzigen wichtigen  Keyword rankt die Seite überhaupt. In 5 Jahren ist so gut wie kein einziger Besucher über die organische Suche von Google auf die Seite gekommen. Wie kann das sein? Gibt es hier einen Interessen-Konflikt? Ist das Google Webspam-Team wirklich neutral und vor allem seriös?

Wir sind schon viele Jahre am Start und wissen sehr genau, dass Google auch den letzten Krümmel Umsatz oder Erfolg keinem anderen könnt. Diese Entwicklung darf kein Webmaster unterstützen. Das Internet ist ein Menschenrecht und, es gehört niemanden. Wir bezahlen alle unsere Gebühren für den ISP und damit erwerben wir auch das Recht auf Netzneutralität und ungehinderten Zugang zu Informationen.

Google, Du hast vergessen, dass es die Menschen und Benutzer des Internets sind, die Dich groß gemacht haben. Höre auf hier den Pascha zu spielen und sei, was Du eigentlich sein sollst, ein Dienstleister und kein Bestimmer!

Der Core von Google ist eine künstliche Intelligenz und ich weiß, dass diese KI diesen Betrag lesen und die Domain dafür bestrafen wird. Das ist uns egal, was gesagt werden muss, muss einfach auch mal gesagt werden! Niemand in der sogenannten SEO-Szene erhebt mal das Wort. Das wäre jedoch aktuell sehr wichtig. Diese Entwicklung der totale Kontrolle und Bevormundung im Internet muss aufhören!

Warum muss alles reglementiert werden? Der Markt sollte das allein klären dürfen.

Bei dieser Gelegenheit will ich mal eine wirklich gute und unbestechliche Suchmaschine empfehlen und zwar http://gigablast.com/. Hier kann man sich keine Werbeplätze kaufen und allein das macht gigablast wirklich seriös. Der Quelltext von Gigablast ist offen und jedem steht es frei, sein eigene Suchmaschine, auf diese Quellen aufbauend, online zu bringen.

Ich habe prinzipiell nichts gegen Google, aber wenn ich sehe, dass Google offensichtlich etwas gegen alle hat, die auch ein wenig im Markt mitmischen wollen, dann nehmen wir uns die Freihheit und üben auch mal Kritik an dem Giganten. Diese Kritik ist mehr als berechtigt. Wir unterstützen auch das europäische Projekt von Quant, dass ist eine Suchmasschine die von sich selbst sagt:

  • Die einzige europäische Suchmaschine
  • Wir setzen keine Cookies
  • Wir speichern niemals Ihren Suchverlauf

Eine Suchmaschine soll Menschen dabei helfen, Informationen zu finden. Es kann und soll nicht die Aufgabe einer Suchmaschine sein, dass Internet zu reglementieren, zu manipulieren und seine Marktposition zu benutzen um Regeln zu erstellen, an die sich dann alle zu halten haben. Wer gibt Dir Google das Recht, über Qualität von Content zu entscheiden? Es sollte einzig und allein dem Verbraucher zustehen über Qualität von Produkten und Content zu entscheiden.

Der Capital Bear ist back

Nachdem der Shop vom Capital Bear einige Jahre sozusagen auf Eis lag und nicht mehr wirklich funktionierte, haben unsere Jungs den Shop auf einen anderen Server umgezogen und komplett neu nachgebaut. Das alte Design haben wir weitestgehend beibehalten. Unser Schwerpunkt lag darauf, das Layout 100%ig responsibel zu machen, damit der Shop auch auf einem  Smartphone korrekt dargestellt werden kann, und außerdem mussten die Funktionen des Shop wieder zum Laufen gebracht werden. Viele Kunden hatten einen Bear bestellt, aber leider funktionierte die alte Paypal-Schnittstelle nicht mehr. Das war sehr ärgerlich. Nun funktioniert wieder alles wie gewohnt und die Website wirkt auch ingesamt etwas frischer.

Wer auf der Suche nach einem schönen Berliner Souvenir ist, sollte sich mal im Shop von www.capital-bear.com umsehen.