NETPROFIT - Online erfolgreich
/assets/images/4/mechanismen-f240e29e.jpg
Google, Optimierung, Suchmaschinen

Redaxo für Suchmaschinen optimieren

22.04.2008, aktualisiert 16.02.2023

Vielerorts wird das CMS Redaxo sehr gelobt (etwa von Frank, Markus, …). Mir gefiel die schlanke und modulare Ausrichtung, so dass ich ein kleineres Projekt mit Redaxo umsetzte. Gerade aus Suchmaschinensicht bringt Redaxo einige ganz ordentliche Möglichkeiten, hat aber andererseits noch gravierende Schwächen. Wie man das CMS Redaxo mit Bordmitteln und gutem Template für Suchmaschinen besser macht, soll dieser Artikel aufzeigen.

CMS Redaxo

Redaxo ist wirklich einfach zu installieren und auch im Backend übersichtlich. In der grundlegenden Installation ist nur der kleinste gemeinsame Nenner enthalten, also das, was jede normale Webseite mindestens benötigt.
Wir wollen aber keine normale, sondern eine optimierte Webseite mit Redaxo bauen. Einen ordentlichen Server mit mod_rewrite setzen wir voraus.

Sinnvolle Erweiterungen

Man unterscheidet bei Redaxo zwischen Module, AddOns und Templates. Ein Modul ist für die Eingabe und Ausgabe von Inhaltsteilen zuständig. Ein AddOn erweitert die möglichen Funktionen und Templates formatieren bestimmte Seiten(teile).

Sprechende URLs mit AddOn realurl

Das hierfür benötigte AddOn ist realurl. Eine vom Prinzip her geniale Erweiterung. Mit etwas Sorgfalt kann man sich praktisch die URL-Varianten aussuchen. Ob /verzeichnis/seite/ oder /verzeichnis/seite.html und und ist alles möglich. Zwei kleine Einstellungen und es funktioniert out of the box.
Leider ist das AddOn manchmal etwas voreilig. So muss man unbedingt jede Siete einer Kategorie gleich füllen, ansonsten leitet das AddOn auf die nächste befüllte Seite weiter – bei gleicher URL. Damit generiert man doppelte Inhalte (duplicate content) am laufenden Band.

Doppelte Inhalte (duplicate content) vermeiden

Ein Ärgernis vieler CMS ist das Problem der doppelten Inhalte. Google listet nur jede Seite einmal, inhaltlich sehr ähnliche Seiten fliegen praktisch raus. Daher sollte man gar nicht erst doppelte Inhalte aufkommen lassen. Besonders wichtig und eklatant ist das Beispiel der Startseite.
Die Startseite sollte nur unter domain.de verlinkt sein. Kein index.html, index.php, startseite.html oder home.html. Nur die Domain. Mittlerweile scheint Google gerade diese Startseitenproblematik etwas besser zu erfassen, aber hier muss man unbedingt ansetzen.
Ähnlich wie bei TYPO3 hat auch Redaxo hier ein Problem. Aktuell löse ich es mit einer .htaccess-Anweisung, da es mit dem CMS selbst nicht so einfach machbar ist.

 

# mit www
RewriteCond %{HTTP_HOST} !^www.domain.de [NC]
RewriteCond %{HTTP_HOST} !^$
RewriteRule ^(.*) http://www.domain.de/$1 [R=301,L]
#Startseite auf Domain
RewriteRule ^startseite\.html$ http://www.domain.de/ [R=301,L]

 

Ich entferne praktisch den Startseitenteil und reduziere es auf die Domain. Der erste Teil leitet die nicht-www-Variante suchmaschinenfreundlich auf die www-Variante um.

Meta-Tags

Ui, meta-tags werden jetzt einige Leser denken, sind ja irrelevant. Nicht ganz. Eine ordentliche description für jede Seite hat noch nie geschadet, ebenso wie eine sinnvolle robots-Anweisung.
Wie man letzteres löst, will ich hier kurz zeigen. Es geht relativ einfach. Das Spielchen mit der description funktioniert sehr ähnlich.

Unter „meta infos“ legt man einen neuen Eintrag an, etwa art_meta_robots.

Von nun an, kann man bei jedem Artikel in den Metadaten die Abweichung von index,follow vornehmen, wenn gewünscht. Es empfielt sich aus meiner Sicht für Kategorien, Sitemap, Tags etc. den Wert auf noindex,follow zu stellen.
Wer jetzt fragt wieso, dieser Abschnitt würde genauso gut unter duplicate content passen. 🙂

Im Template frage ich erstens den Wert ab, sofern einer gegeben ist:

// robots
if($this->getValue("meta_robots") != "") {
  $meta_robots_inhalt = htmlspecialchars($this->getValue("meta_robots"));
} else {
  $meta_robots_inhalt = "index,follow";
}

und lese ihn einfach aus, etwa so:
print $meta_robots_inhalt

 

Fehlerseite mit korrektem Status-Code

Redaxo erlaubt es unter System eine spezielle Seite als Fehlerseite zu bestimmen. Wird etwa eine Seite nicht gefunden, erscheint diese anstatt der wenig hilfreichen Fehlermeldung des Servers.
Nun gibt die Fehlerseite aber immer den Status Code 200 im Header zurück. Das bedeuted, die Seite wurde gefunden. Richtig wäre der Wert 404, für »diese Seite wurde nicht gefunden«. Die Fehlerseite erscheint deshalb für den Besucher genauso.
Das lässt sich im Template zu Beginn wie folgt lösen:

// 404 http-header
if ($REX['NOTFOUND_ARTICLE_ID'] == $this->getValue("article_id")) {
  header("HTTP/1.0 404 Not Found");
  header("Status: 404 Not Found");
}
else {
// normale Ausgabe - regelmäßig nichts besonderes erforderlich
}

 

Moderneres Backend

Noch ein kleiner Hinweis abseits des Themas. Wer die Lupe für das Backend weglegen will, dem empfehle ich ein kleines CSS-Update. Dann kann das Backend besser aussehen.

Fazit

Redaxo finde ich ganz praktikabel. Leicht, schnell und selbsterklärend. So ging uns etwa die Seite zur Unternehmergesellschaft und Limited schnell von der Hand. Wer es gerne etwas moderner und optisch schöner will, der würde wohl Contao bevorzugen.

Kommentare zu Redaxo für Suchmaschinen optimieren

1. Kommentar
Carsten Todt |

Ich selbst hörte bislang noch nicht viel über Redaxo, aber deinen Artikel finde ich recht interessant. Eventuell schaue ich mir die Software künftig mal etwas näher an.

* Diese Felder bitte ausfüllen.

Kommentare werden erst nach manueller Freischaltung sichtbar. Die übermittelten Daten werden entsprechend der Datenschutzerklärung zur Verarbeitung des Kommentars gespeichert.

Bitte rechnen Sie 6 plus 9.
Suche