Duplicate content: hoe ga je ermee om?

Duplicate content is content met identieke inhoud, getoond op verschillende pagina’s. Op je eigen website of op een andere site. Duplicate content is ongewenst, en het is aan de webredacteur om deze te signaleren. Gelukkig zijn er verschillende manieren om duplicate content te voorkomen.

Waarom is duplicate content ongewenst?

De bezoeker heeft volgens zoekmachines geen baat bij identieke zoekresultaten. Duplicate content wordt daarom door zoekmachines bestraft: maar één van de identieke pagina’s heeft waarde en is zichtbaar in de zoekresultaten. Ook om te beheren is het niet ideaal. Dubbele content moet je dubbel beheren. Op externe websites heb je minder of helemaal geen invloed op de gedupliceerde content. Vervelend, vooral als je een belangrijke wijziging doorvoert.

Hoe voorkom je duplicate content?

Veel vormen van duplicate content zijn door een webmaster of contentmanager op te lossen. Dat kan bijvoorbeeld wanneer duplicate content ontstaat doordat de printversie van een pagina in een aparte url wordt getoond. Of bij een webwinkel, als er verschillende urls worden getoond bij een filter op prijs, kleur of maat.

In deze gevallen biedt een canonical link element uitkomst. In de <head> sectie van de originele pagina plaats je een canonical tag. Hiermee vertel je zoekmachines dat aan alleen deze pagina PageRank waarde moet worden toegekend. De code ziet er dan als volgt uit: <link rel=”canonical” href=http://www.webredacteuren.com/2012/12/duplicate-content” />.

Je kunt pagina’s ook uitsluiten met behulp van de meta tag noindex, nofollow. In je <head> sectie ziet dat er als volgt uit: <META NAME=”robots” CONTENT=”noindex,nofollow”>.

Beleid versus duplicate content

In de praktijk is het niet altijd zo eenvoudig om duplicate content op te lossen. Sinds een paar maanden werk ik voor Presenter bij een grote verzekeraar. Deze verzekeraar verkoopt meerdere producten. Al deze producten hebben een pagina over pakketkorting. Dit is een pagina waarvan je wilt dat deze goed vindbaar is, korting is immers een grote ’conversietrigger’.

Het CMS biedt geen mogelijkheid om deze content via één url bereikbaar te maken vanaf elk individueel product. Voor elke pagina unieke content creëeren is ook niet gewenst. De inhoud van de pagina is identiek aan de brochures, en beleid van de organisatie bepaalt dat dit zo moet blijven. Unieke metadata schrijven volstaat niet, voor zoekmachines is dit niet genoeg.

Signaalfunctie

Als webredacteur is het je verantwoordelijkheid te signaleren dat het bedrijf hiermee een hoop vissen in de vijver mist. Het is aan de organisatie zelf hoe zij daarmee omgaat. Mijn aanbeveling? Zorg ervoor dat de mogelijkheden van het CMS worden uitgebreid. In het geval van deze verzekeraar: ontwikkel een flexibel in te richten linkernavigatie, zodat elk individueel product in zijn linkernavigatie kan linken naar de overkoepelende pakketkortingspagina.

Kortom: hoe een organisatie omgaat met duplicate content is dus niet alleen aan de webredacteur zelf. Beleid speelt ook een grote rol. Ik hoop in een volgend blog meer te kunnen vertellen over de oplossing die deze organisatie koos aan de hand van mijn advies.

Over de auteur: Nadine Oom

Nadine was contentspecialist bij online communicatiebureau Presenter. Binnen Presenter was zij onder andere bezig met webredactie, contentmigratie, SEO, usability en social media.

Tags: webredactieproces, content, zoekmachineoptimalisatie, duplicate content



0 reacties op dit artikel
  • Philip Henssen zegt:

    Leuk artikel Nadine!

    De meest standaard en meest vergeten vorm van duplicate content is www / non-www. Websites die geen 301 redirect instellen voor domeinnaam.nl naar http://www.domeinnaam.nl hebben in de ogen van zoekmachines al bij voorbaat duplicate content. Iedere pagina wordt immers geindexeerd als URL met www en zonder www. De oplossing is eenvoudig: een 301-herschrijfregel in de htaccess plaatsen. Zoekmachines kunnen dan onmogelijk nog een URL indexeren zonder www, hetgeen die vorm van duplicate content onmogelijk maakt.

    Het lijkt voor de hand liggend dat zoekmachines zo ontwikkeld zijn dat ze snappen dat met www en zonder www dezelfde pagina is. Zo werkt het alleen (nog steeds) niet. Ook door bereikbaarheid op zowel http als https kan op vergelijkbare wijze duplicate content ontstaan.

    Het is eerder een aangelegenheid voor de webmaster dan voor de webredacteur, maar een webredacteur kan het uiteraard wel tijdig spotten. Zeker als de webredacteur verantwoordelijkheid draagt voor optimale vindbaarheid.

  • Gyurka Jansen zegt:

    Duplicate content is altijd een lastige, inderdaad. Veel dynamische pagina’s veel links, en je hebt al snel duplicate content, zeker als je CMS niet meezit. Canonicals helpen ten dele en anders is er altijd nog het geheime wapen om je CMS te jennen: de redirect en zijn vriendje de regular expression. Daarnaast kun je soms smokkelen door 1 grote pagina te bouwen met alle content rond 1 serie en daarvan aan de gebruiker bepaalde content wel of niet tonen mbv jQuery, bijvoorbeeld.
    Al deze nerd-oplossingen hebben als nadeel dat het overzicht voor tekstschrijvers en contentmanagers er niet per se beter op wordt. (En je moet goed opletten wat je doet, want voor je het weet creëer je juist dubbele content of juist ‘kapotte’ pagina’s.)

    De basis ligt echter in een goede webredactie, inderdaad, en vooral een goede planning van “wat willen we waar zien?”. De meeste dubbele content ontstaat omdat er nooit rekening is gehouden in de opzet van de site met het feit dat je eventueel ergens anders iets ook zou willen zien. En dan moet dat ineens maar met weer een extra pagina.

  • Janwillem Paimans zegt:

    Vanuit beheer én SEO is het belangrijk om goed nagedacht te hebben wat je met duplicate content doet.
    Een geoptimaliseerde landingspagina voor een product wil je graag geïndexeerd krijgen. Concurrentie van pagina’s binnen je eigen domein op de relevante zoektermen wil je voorkomen.
    Een niet geoptimaliseerde pagina over pakketkorting voor datzelfde product tast je linkwaarde aan. Dat geldt ook voor een (tijdelijke) actiepagina die niet geoptimaliseerd is. Als deze alweer offline is voordat deze goed en wel geïndexeerd is draagt het ook op die manier niet bij aan de linkwaarde.
    Om de waarde van de oorspronkelijke productpagina niet aan te tasten is voor dit soort pagina’s het toevoegen van een canonical een serieuze optie.
    Het beleid en het CMS moet dat dan inderdaad ondersteunen.