Contenu dupliqué : un danger pour votre site

Contenu dupliqué danger pour le SEO
Table des matières

Le duplicate content : une menace pour le référencement naturel de votre site

La bonne indexation d’un site internet par les robots de Google dépend de la qualité de son contenu. Elle reprend la cohérence de votre thématique avec ce que vous publiez, l’originalité et l’accessibilité. Sur le web, le contenu est roi, c’est la base de la pyramide SEO. L’algorithme du célèbre moteur de recherche a intégré la mise à jour Panda de 2011, sanctionnant le contenu dupliqué. Les sites utilisant des blocs de textes copiés sur plusieurs pages en ligne risquent désormais très gros. Si vous ne savez pas identifier le duplicate content, nous allons éclaircir cette mauvaise pratique pour votre référencement naturel et vous expliquer les risques que vous courez si vous n’êtes pas vigilant. 

Reconnaître un problème de contenu dupliqué sur le web

Le contenu dupliqué peut se trouver à l’intérieur de votre site. Il s’agit de copier-coller de textes sur différentes pages légèrement différents ; par exemple des fiches articles distinctes pour un même produit, mais dont la couleur change. Mais cela peut être également un problème lié à une refonte, et à des pages en doublon au lieu d’établir des redirections 301 (explication au paragraphe suivant). Cela représente le contenu dupliqué interne. 

 

Des contenus similaires existent entre différents sites web. Certains n’hésitent pas à plagier les écrits des autres : le contenu dupliqué externe. C’est un manque d’information de la part du créateur ou carrément un vol. Gardez à l’esprit que sur la toile les droits d’auteur s’appliquent aussi.

 

Google est bien formé à repérer les doublons, mais pas tout à fait à bien reconnaître l’écrivain originel. Ainsi, un site à forte autorité aurait tendance à récolter plus facilement la paternité des textes qu’il publie, qu’un plus petit site avec moins de trafic et d’antériorité. Néanmoins, pas de panique, des recours existent pour solutionner ce problème. Vous pourrez de toute façon faire appliquer votre copyright. Voici la marche à suivre :

Esquiver le piège du duplicate content 

Maintenant que nous avons éclairci comment reconnaître du contenu plagié, nous pouvons explorer les différentes techniques pour nous en prémunir. Comme nous l’avons dit plus haut, des doublons peuvent être présents en interne sans que cela vous ait alerté de prime abord. Or, Google n’aime pas ça et l’expérience utilisateur est moins agréable. Pensons donc aux robots et aux internautes, cela servira comme toujours le référencement naturel de votre site.

 

Voici les indispensables pour minimiser le duplicate content : 

Les outils antiplagiat

Différents logiciels gratuits et payants permettent de comparer des pages web afin de déceler des similitudes. Confronter des URL ou des blocs de textes grâce à :



 

Ces outils offrent une visibilité assez précise sur l’originalité des contenus. Ils proposent des résultats en pourcentage pour évaluer le niveau de plagiat. Ils sont des indispensables de SEO. 

La redirection 301

C’est une des bases du référencement : la redirection 301. Elle s’utilise dans les cas suivants :

  • suppression d’une page après une restructuration ou une refonte ;
  • URL cassée ;
  • changement de nom de domaine après une refonte.

 

Elle est permanente, même si votre page n’existe plus, le chemin doit continuer à travers votre site. L’internaute ne doit pas se retrouver dans un cul-de-sac, la fameuse erreur 404, cela impacte négativement votre référencement naturel. Il n’est pas judicieux de fermer un espace, ajouter la redirection 301 permet un passage vers une autre URL. Le jus capté par la page initiale est ainsi préservé et le Googlebot peut continuer à parcourir le site. Le trafic est sauvé. 

 

Lors d’une refonte de site, une page A indexée peut se transformer en une nouvelle grâce à la 301, tout en sauvegardant le flux qu’elle captait déjà. Plutôt que de créer une autre adresse B avec un contenu trop proche, la A n’a pas été supprimée, elle est devenue un pont vers la B. Elles ne font plus qu’une en quelque sorte.

 

⇒ Besoin d’aide pour votre nouveau site web ?

L’URL optimisée et unique

L’optimisation des URLs pourrait être un sujet d’article à part entière. Tentons de faire simple autant que possible. Les URLs sont les adresses des pages d’un site web. Elles se composent généralement du nom de domaine, suivi d’un slash puis du nom de la page. C’est ici qu’il faut veiller à choisir les mots clés de votre page pour avoir une adresse unique.

Exemple : alohaweb.fr/a-propos/ est une URL unique et optimisée, elle énonce le chemin à suivre pour trouver la page à propos du site alohaweb.

 

Alors que, l’URL alohaweb.fr/1djdhzi%$94854 est une URL non optimisée qui n’indique pas grand-chose à l’utilisateur, ni concernant la page en question.

 

Cette bonne pratique améliore votre SEO. Google et les internautes accordent davantage leur confiance aux URLs pertinentes. Il convient d’éviter les dates et les caractères spéciaux. Gardons à l’esprit que Google réplique au mieux la compréhension humaine pour offrir une expérience utilisateur digne de ce nom.

 

Une URL unique signifie une adresse = un contenu. 3 adresses de pages différentes ne peuvent pas mener vers la même page. Les e-commerces peuvent être victimes de ce genre de structure. Il s’agit de DUST « duplicate content same text » pour Google si vous utilisez des URLs légèrement différentes en fonction des couleurs d’un produit et que ces URLs renvoient à une seule fiche article. 

 

Exemple :

www.maisonshop.com/vase-graphique-bleu

www.maisonshop/vase-graphique-orange

www.maisonshop/vase-graphique-vert

 

Pour lutter efficacement contre ce phénomène, la balise canonicale nous sauve la mise.

La balise canonicale

Cette balise revient à indiquer l’URL de référence au Googlebot. C’est une balise HTML, comme un panneau de signalisation, elle annonce l’URL de la page principale par rapport aux autres existantes trop proches ou en doublon. Ainsi vous évitez que Google identifie du contenu dupliqué. 

 

La balise d’une page canonique : <link rel= » canonical » href= » https://www.siteinternet.com/page/ »/>

La désindexation des pages

Les pages qui ne servent pas votre stratégie de référencement naturel peuvent être désindexées grâce à la balise « noindex ». Celle-ci rend une page invisible dans la SERP. C’est donc une solution lorsque vous avez du contenu copié au sein de votre site, avec des pages en version PDF par exemple. Cette balise ne bloque pas le robot Google, elle lui indique simplement de ne pas indexer ce contenu dans les résultats de recherche. 

Les e-commerces ont tout intérêt à s’en servir également concernant certaines fiches produits qui ont l’air de doublon et pour toutes les pages pauvres en contenu : 

  • page paiement ;
  • page connexion ;
  • page création de compte ;
  • page de remerciement ;

Eviter le plagiat grâce à un contenu original et optimisé 

En SEO le contenu est roi, c’est vrai. Un contenu de qualité et optimisé est exigé pour vos utilisateurs et pour Google. Le géant ne cesse d’améliorer son algorithme pour mieux répondre aux recherches sur la toile. 

 

Un contenu original et optimisé veut dire que votre site doit fournir des textes uniques (non plagiés) et correspondants à des intentions de recherche.

 

La rédaction SEO revient à savoir parler le langage de Google tout en créant des contenus agréables et à valeur ajoutée pour chaque lecteur. Ainsi la diversité est préservée. C’est le rêve, en théorie.

N’avez-vous jamais croisé en 1re page de la SERP plusieurs adresses avec les mêmes phrases en descriptif de page ? Moi si et c’est bien dommage.

exemple de contenu dupliqué dans la SERP

Pour prévenir ce genre de déconvenues, il est plus que préférable de faire appel à un rédacteur web spécialiste du SEO pour remplir votre site. Vous vous éviterez des efforts contre-productifs.

Le référencement naturel d’un site dépend de la qualité des contenus écrits et de leurs densités. 

Un rédacteur web SEO connaît les balises HTML et les codes indispensables à la bonne indexation des pages par le Googlebot.

Contenu dupliqué : un danger pour votre site

Le duplicate content est sanctionné par Google depuis la mise à jour Panda en 2011. Le premier impacte des contenus plagiés c’est de faire chuter le trafic, vous affaiblissez votre PageRank. Cet indice de popularité s’acquiert grâce à la pertinence de vos écrits qui génèrent des visites et à la qualité des backlinks que vous recevez.

Le Googlebot accorde un crawling défini et donc limité, pour chaque site. S’il passe ce temps à explorer quelques pages qui se ressemblent, il classera rapidement le site web loin, loin dans la SERP, au mieux…

Le domaine web pénalisé peut même se retrouver désindexé par Google. Vous disparaissez purement et simplement. Persona non grata. C’est le pire des cas. 

Le danger est aussi de récolter une plainte de la part d’un site, vous accusant de plagiat. Cette plainte peut être rapportée à Google. Ce cas de figure est une catastrophe, il va falloir prouver votre authenticité et vous risquez un recours en justice. Les droits d’auteur existent sur le web ! Les rédacteurs en savent quelque chose.

 

L’e-réputation est également grandement entachée. Les internautes n’ont pas confiance dans un site qui copie-colle des blocs de contenu d’un autre. Cela démontre une non-qualification et ne donne pas envie de se fier à lui. 

Autrement dit, il n’y a plus qu’à tout recommencer. Repartir à zéro. Pour sortir le site du fond de l’eau, un travail de réécriture est nécessaire.

 

Vous l’avez compris, le SEO est une priorité pour générer du trafic et exister sur la toile. Le contenu dupliqué peut ruiner votre référencement naturel. Même si, comme nous avons pu le voir dans l’article, il est parfois indispensable aux e-commerces, il convient de connaître et d’employer les bonnes balises afin de faire comprendre à Google la qualité du site. Le pire étant qu’il soit jugé malveillant et directement supprimé de la SERP pour vol de contenu. Pour éviter toute confusion l’équipe d’Aloha Web se charge de vos contenus optimisés, votre site ne risquera rien avec des spécialistes de l’expérience utilisateur et du SEO.

Partagez cet article

Facebook
LinkedIn
Twitter
Email

Pour poursuivre votre lecture