Duplicate Content ist tot? So ein Unsinn!

15. September 2008 | SEO Gedanken

duplicate-content-tot

Neues Google Announcement am Freitag dürfte einige unbedarftere Menschen zur Freude bewegt haben. Da schreibt Google tatsächlich im WebmasterCentral Blog

Lasst uns also eines ein für alle Mal klarstellen: Es gibt keine “Duplicate Content-Penalty”.

Was jetzt die ganzen Feed-Grabber und Content-Klauer jubeln! Und vor allem solche, die sich nicht einen Deut um valide URL-Räume und tausendfaches Parameter-Geraffel geschoren (?) haben, dürften sich von dieser Meldung hocherfreut im Stuhl zurücklehnen. Wirklich?

Leutz, Google spricht hier von einem Penalty. PENALTY. Habt Ihr schon mal einen gehabt? Seid froh, denn den werdet Ihr so schnell nicht wieder los. Wovor Ihr Euch nach wie vor fürchten müsst, ist immer noch Euer selbstgemachter hauseigener DC, vor allem, wenn Ihr ein unfähiges Content-Management-System betreibt.

Was Google nicht in seinem Statement beschreibt ist

  • Hausgemachter DC
  • Die Linksaft-Verteilung auf den DC und die ausgwewählte Seite

Google spricht auch nicht von Filtern, und vor denen solltet Ihr Euch sehr wohl in Acht nehmen. Jede Wette, dass jede Seite auf die ein oder andere Weise DC produziert. Vor allem beim Einsatz von Kategorien, Datums-Archiven und Tags in Blogs dürfte für Google ganz schnell die Grenze erreicht sein, wo Eure Content-Vermischung zum DC wird.

Merke: Das Neumischen von vorhandenem Content auf 3 verschiedene Weisen geht 1 mal gut, der Rest ist DC.

Problematisch wird das ganze, weil Euch höchstwahrscheinlich Eure Linkpower flöten geht. Natürlich bekommt Ihr kein Penalty, schlimm wäre es. Allerdings müsst Ihr damit rechnen, dass Google bewertet, welche Seite wichtig ist. Und das wollt Ihr ganz sicher auf Eurer eigenen Seite nicht. In Deutschland gibt es bisher außer bei Stefan Fischerländer keine kritische Auseinandersetzung mit dem Thema, die amerikanischen Kollegen dagegen haben schon heiss gekocht, das meiste ist aber leider viel Minigeblogge.

Da habt Ihr vielleicht Linkbuilding betrieben für eine Seite, die sagen wir mal duplicate-content.html heißt und Google entscheidet, dass die Seite duplicate-content.html?dc-spamming diejenige ist, die bewertet wird (und das tun sie wirklich). Google sagt zwar, dass DC-Seiten in einer Gruppe zusammengefasst werden und auch die Linkpower verteilt wird, aber genau kann man das nicht sagen.

Bis dahin solltet Ihr versuchen alles zu versuchen, was Euch hilft, DC auf der eigenen Seite zu verhindern (vor allem durch Parameter und Content-Neumischung). Grundsätzlich solltet Ihr bereits von vornherein Jens Ratschläge befolgen, ansonsten helfen (u.a.) weisse Lösungen:

  • Lagert Sortierungen in Javascript aus
  • Nutzt Eure robots.txt um Geraffel auszuschließen
  • Setzt alles, was Ihr habt auf NOINDEX, was eine Neumischung von bereits vorhandenem Content ist
  • Vermeidet die Indexierung von Parametern und versucht Eure URLs valide zu halten

Vor allem der letzte Punkt ist kritisch und schwierig. Die wenigsten Systeme können ohne Eingriffe Parameter erkennen und ausschließen. Versucht es einfach mal und setzt an Eure URL einen Parameter mit ? an (was Ihr wollt). Jeder, der Euch was will kann so unendlich viele neue Seiten erzeugen, die Euch in die DC-Falle bringen. Haltet Euch außerdem an den Beitrag von Stefan Fischerländer, sehr lesenswert.  Also schlussendlich:

Vermeidet Duplicate Content! – um jeden Preis!

Mehr zum Thema Duplicate Content auf Whiteside

Abstimmen für Duplicate Content ist tot? So ein Unsinn!
1 SEO Stern2 SEO Sterne3 SEO Sterne4 SEO Sterne5 SEO Sterne (bisher keine Stimme) Gefällt Dir der Beitrag?
Loading...Loading...
Duplicate Content ist tot? So ein Unsinn! weitersagen
 Mr. Wong  Webnews  Readster  Del.icio.us  Facebook
 Yahoo  Google
Anzeige
Mehr Whiteside-SEO

Ähnliche Beiträge
  1. 20 Kommentare

  2. Ja und amen!

    Kann ich nur zu 100% bestätigen. Habe gerade an einem Online-Shop gearbeitet, der lauter doppelte URLs generiert. Plus, der Online-Shop ist bei den ganzen Preisvergleichsseiten angemeldet, die dann auch nochmal direkt den ganzen Inhalt „ripörpesen“.

    Nachdem wir das URL-Chaos beseitigt und eigene Inhalte für einen Teil der Detailseiten geschrieben haben, sind auf einmal alle Seiten im Index und das Geschäft hat sich verzehnfacht.

    Sogesehen ist so eine Filterung eine Penalty. Wenn auch nur eine indirekte oder „ungewollte“.

    Viele Grüße
    Sasa

    Sasa Ebach am Sep 15, 2008

  3. Für viele stellt sich die Frage:

    Wie verhindere ich den Duplicate Content:

    a) zum Beispiel im Blog? Wie lege ich da die no-index an?

    b) was ist mit redirect von http://meinedomain.xyz auf http://www.meinedomain.xyz? Die meisten shared Hosting Angebote lassen dies gar nicht zu…

    Eine Frage an Sasa und Hannes:

    Welche Shopsoftware empfehlt Ihr denn? Eine die auch an die preisportale angebunden werden kann…

    XT-Commerce mit entsprechenden Tools oder Fertiglösungen wie Shopware von Hamann-Media?

    Beste Grüße

    Mario

    Mario am Sep 16, 2008

  4. “Jeder, der Euch was will kann so unendlich viele neue Seiten erzeugen, die Euch in die DC-Falle bringen”. Ui, Gray bis Black Hat würde ich sagen… Kids, dont try this at home! Schön geschriebener Artikel!

    Gibt es ein Leben nach Google? am Sep 16, 2008

  5. > Welche Shopsoftware empfehlt Ihr

    Sehr schwierig. Shopsoftware ist nicht mein Spezialgebiet, aber mir ist keine bekannt, die DC-Probleme komplett vermeidet. Selbstverständlich kann man (fast) jedes Paket entsprechend anpassen. Dieses Audit muss man eben bei Einsatz der Software mit einplanen. Im Fall von kommerzieller Software muss man sich vorher informieren, ob der Anbieter bereit ist seine Software entsprechend für einen fairen Betrag anzupassen.

    Was die Preisportale betrifft, so ist hier die beste Lösung zwei verschiedene Produkttexte zu erstellen. Eine für das Portal und eine für den eigenen Shop. Ich weiß, das macht die ganze Sache eben doppelt so schwer, aber ansonsten wird man immer unter den Portalen gerankt und wandert im schlimmsten Fall in den Supplemental Index, der neuerdings an folgendem Satz zu erkennen ist:

    „Um Ihnen nur die treffendsten Ergebnisse anzuzeigen, wurden einige Einträge ausgelassen, die den 321 bereits angezeigten Treffern sehr ähnlich sind.
    Sie können bei Bedarf die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen.“

    Wenn die Shopbetreiber wüssten, was für einen Schaden Sie sich selbst durch die Anbindung an die Preisvergleiche antun…

    Viele Grüße
    Sasa

    Sasa Ebach am Sep 16, 2008

  6. Sehr guter Artikel, schön konkret erklärt und auf den Punkt gebracht.

    jens am Sep 16, 2008

  7. Vielen Dank für Eure Kommentare und Eure Diskussion :)

    Mario, am besten ist es, wenn Du im Blog nur eine Art der Kategorisierung verwendest, z.B. nur Kategorien, nur Tags, nur autoren-Archive oder nur Datums-Archive. Das verhindert schonmal Duplicate Content durch Mischung. Die meisten Systeme sind da recht schlecht aufgestellt von Haus aus, Sasa hat das schon recht erschöpfend beantwortet.

    Sasa, Danke für Deine Beiträge

    SeoDeluxe, Jens, Dankeschön :)

    hannes am Sep 16, 2008

  8. Insgesamt sollte man sich nicht darauf verlassen wie Google entscheidet eine Website mit doppelten Inhalt zusammen zu fassen. Wenn man eine Website ins Netz stellt sollte man schon von vornherein nach dem Leitsatz vorgehen das kein doppelter Inhalt produziert wird und nur die original Seiten in den Index kommen. Einfachstes Hilfsmittel dafür ist natürlich die robots.txt und schon mit einfachen Tricks ohne spezielle SEO-Plugins kann man einen WordPress Blog optimieren. Natürlich bin ich der Meinung, dass durch das Vorgehen von Google es etwas einfacher geworden ist, seine Seite zu optimieren. Trotzdem sollte DC nicht unterschätzt werden.

    United20 am Sep 16, 2008

  9. Ich dachte es ging in dem Statement nur um Site internen DC? D.h. wenn ich im WordPress z.B. Archive und Tags auf dofollow habe…

    Stefan Johne am Sep 16, 2008

  10. Stefan, das ist im Gro richtig und genau das ist die Crux, denn Google schreibt, dass es für OnSite-DC keinen Penalty gibt. Es gibt wohl aber DC-Filter, auch für OnSite Duplicate Content. Das scheinen die meisten gleichgesetzt und vergessen zu haben.

    hannes am Sep 16, 2008

  11. Das es keine DC Penalty gibt halte ich nach wie vor für Schwachsinn. Es gibt sehr wohl DC Penalties, mich hat eine solche auch schon mal erwischt. Damals haben mir Proxies meine gesamten Seiteninhalte “geklaut” und siehe da, auf einmal war an meinen Suchmaschinenergebnissen der Proxy mit meinen Inhalten. Domain ist seitdem (1 Jahr her) übelst im Nirvana verschwunden, keine Rankings, kein PR, einfach Schrott.

    Vielleicht mag es keine Penalty geben für “eigenen” DC auf der eigenen Domain, aber ich gebe Dir sehr wohl Recht, Filter gibt es in diesem Fall auf jeden Fall. Und natürlich Penalties, wenn der eigene Content auf anderen Domains erscheint. Ob der nun “geklaut” ist oder nicht, ob man selbst was dafür kann oder nicht, das interessiert Google nicht die Bohne. Da kannst über die Webmaster Tools lamentieren so viel Du willst, nix passiert.

    Trendy am Sep 30, 2008

  12. google will den usern den gleichen content nur ein mal anbieten, aus der besten quelle. ich würde es content aggregation nennen und nicht penalty. wer seinen content überall einschleudert und dann auch “index”-seiten die stärker sind als seine hat dann pech gehabt.

    Maruda am Okt 14, 2008

  13. Naja mit einer .htaccess Datei und den dazugehörigen Code für eine 301-Weiterleitung dürfte das doch kein Problem sein, oder bringt das nichts?

    Martin am Feb 11, 2010

  14. Gegen was Martin :) ? DC ist vielfältig. 301 ist nur in wenigen Fällen wirklich hilfreich.

    hannes am Feb 11, 2010

  15. Es müssen halt restlos alle Faktoren berücksichtigt werden, nicht nur der ein oder andere, dann klappts auch!

    Mett Katz am Mrz 1, 2010

  16. Ähm Mett, danke für diesen äußerst unqualifizierten Kommentar. Deine URL wurde als Zahlmittel eingehalten.

    hannes am Mrz 3, 2010

  1. 5 Trackback(s)

  2. Sep 17, 2008: Google schreibt über Duplicate Content
  3. Okt 1, 2008: Metriken & Navigational Search: SEO-Erfolge reporten - und richtig relativieren - WhiteSide SEO
  4. Okt 5, 2008: Suchmaschinen, SEM & SEO - August/September 2008 - Inhouse SEO
  5. Feb 13, 2009: Was ist Duplicate Content? Teil 1: Interner DC - WhiteSide SEO
  6. Feb 15, 2009: Jahresabschluss - 1 Jahr WhiteSide-SEO - WhiteSide SEO

Kommentar schreiben zu
“Duplicate Content ist tot? So ein Unsinn!”