Suchmaschinen gegen Duplicate Content

Am Freitag hat Google in seinem Webmasters Blog einen neuen Meta-Tag zur Verringerung von Duplicate Conten publiziert. Der Meta-Tag ist eine Kooperation der drei großen Suchmaschinen Google, Yahoo und MSN, die alle dem Hinweis im Tag „streng folge leisten“ wollen.

Der Tag soll auf der Seite mit dem Duplicate Content im Header der Seite eingefügt werden:

<link rel=“canonical“ href=“http://www.beispiel.de/produkte.php?seite=orignianl-content“ />

Es wird empfohlen absolute Urls einzufügen, aber relative werder auch gefolgt.

Johannes hat die Einführung sehr kritisch in seinem Blog kommentiert, da er die Einführung des Tags im Prinzip für überflüssig hält, da diese Art von Duplicate Content Problem mit einer 301 Weiterleitung zu lösen ist und die 301 Weiterleitung sogar noch mehr Vorteile bietet.

Ich stimme Ihm zu, dass das größere Problem die Unwissenheit der Webseitenbesitzer ist, wo sie DC produzieren. Denkt man an Seiten, die aufgrund ihres Webhostings keinen Zugang zur .htaccess zulassen oder mod_rewrite ausgeschaltet ist, so ist die Lösung zur Vermeidung von DC durch den canonical-Tag durchaus sinnvoll.

Mich würde einmal interessieren, was passiert, wenn eine Seite sich selbst als canonical ausweist? Dies würde z.B. sehr viel Sinn für die index.html machen, so wäre es einfach alle Duplikate, die z.B. einige CMS produzieren, auf die Startseite zu verweisen. Ich denke den Test werde ich bei Gelegenheit einmal durchführen.