Catégories
Referencement

Sur-optimisation et mythe de Sisyphe

Aujourd’hui nous allons faire un peu d’histoire. Le mythe de Sisyphe, beaucoup d’entre vous le connaissent mais ne savent certainement pas qu’il se nomme de la sorte. Pour faire très court, Sisyphe fut condamné après sa mort à faire rouler un énorme rocher au sommet d’une montagne et quand il était près d’en atteindre le faîte, l’immense rocher roulait jusqu’en bas, l’obligeant alors à recommencer de nouveau.
En SEO c’est pareil, sans avoir recours à des techniques BlackHat, vous pouvez parfois en voulant faire mieux que ce vous aviez déjà mis en place, passer du coté de la sur-optimisation aux yeux de Google. Et les positions que vous aviez si longuement gagnées vont chuter à une vitesse vertigineuse. Afin de regagner votre ranking initial (et donc annuler vos précédentes optimisations), il va vous falloir du temps, et comme tout le monde le sait « time is money ».

Avant de commencer :
Cet article traitera uniquement d’aspects on-site sur un site dont la stratégie SEO n’a pas été mise en place avant sa conception ou dont l’évolution du site entraine d’importantes modifications.

Le linking interne c’est bien, mais il ne faut pas en abuser

Ca y est, la pizza le site que vous aviez mis en ligne en 1999 est passé au travers du bug de l’an 2000 mais il faut dire qu’aujourd’hui, nombre de concurrents font mieux que vous et il vous faut alors mettre la main à la pate [à pizza, désolé je ne pouvais pas m’en empêcher].
Vous remarquez qu’un bon nombre de pages profondes pourraient faire quelques visites de plus, ce qui en soit ne serait pas un mal. Vous optez donc pour une mise en place/amélioration de votre linking interne.
Bon alors il est temps pour ces 424 pages qui tombaient aux oubliettes d’envoyer un peu de lien frais. Ni une ni deux, vous récupérez l’url de ces 424 pages comme bon vous semble, vous placez quelques ancres bien choisies, un bon script pour transformer tout cela en quelque chose de digeste pour une page HTML et BOUM, vous mettez votre quatre fromages format familiale en ligne sur toutes vos pages. La dernière fois que GoogleBot avait eu un tel mal de tête, ça remonte à sa cuite du 31 Décembre 1999 avec ses potes Slurp et msnbot, ou il a cru qu’il n’arriverai pas en 2000.

Supersize me, mais pas trop

Ca y est. votre linking interne est en place, ça c’est fait !
Mais votre contenu est vieillissant et un peu faiblard face à tous ces splogs blogs récents. Pas de problème, vous avez toujours aimé rédiger, c’est d’ailleurs ce qui vous a valu ce si bon positionnement durant toutes ces années. Alors pour écraser tous ces contenus concurrents, vous rédigez, mais vous n’êtes pas un blogueur vous, vous êtes un vrai, alors 1500 caractères, c’est tout juste bon pour une balise H1 ça !!!
Vous passez une bonne semaine à rédiger, et après avoir constaté que même Wikipedia fait un peu pauvre à coté de votre contenu, vous mettez tout ce beau contenu sur votre Home. Maintenant, vos pages profondes, si elles ne présentent pas ou peu de contenu, vont faire pale figure à coté de votre homepage.

Le keyword stuffing, c’était bien en 2000

Alors un petit tour sur le Google Adwords Keyword Tool pour choper du bon mot clé qui déchire, et ni une ni deux, vous modifiez votre précédent roman afin que préfigurent un peu partout tous ces petits rapporteurs d’affaire (clics, clics, clics, ROI, $$). Vous aurez comme ça un bon texte indigeste à quiconque viendra chercher effectivement la bonne information.
En effet, l’aspect « Mémoires d’outre-tombe » de votre site pourra en rebuter plus d’un.

L’automatisation, parfois ça peut faire mal

Tous les points abordés précédemment, si ils ont été développés de manière dynamique (CMS, framework, homemade,…) peuvent être traités avec quelques dizaines de lignes de code. Mais pensez à effectuer plusieurs tests et surtout FAITES effectuer plusieurs tests avant de mettre votre chef d’oeuvre en production. Je sais qu’un developpeur ne fait jamais d’erreurs, mais il arrive parfois que pendant la nuit (ca s’est vérifié plusieurs fois), le code que vous aviez mis en ligne ai muté et affiche d’infâmes erreurs ou génère de multiples pages en duplicate.

Pour conclure

Comme toujours, ces règles ne s’appliquent pas à tous les sites (surtout dans le cas pris en exemple ou le domaine est ancien). Si votre plan SEO est uniquement basé sur du WhiteHat, n’oubliez pas que c’est une véritable course de fond et que si vous brulez toutes vos cartes des le début, que vous restera-t-il par la suite ?
Lorsque vous effectuez des modifications sur votre site dans le but d’améliorer son ranking, NE FAITES PAS plusieurs modifications d’un coup, car si jamais votre site se prend une pénalité (ou autre), comment pourrez-vous en identifier la cause ?
Pensez également à faire tester votre site par des personnes tiers une fois vos modifications appliquées. Vous vous apercevrez que des utilisateurs lambda sont redoutables pour déceler des bugs (même si vous aviez tout prévu).
Et surtout, prenez suffisamment de recul après avoir effectué une modification qui entraine une baisse de position, il se peut que ce soit parfois pour mieux revenir plus tard (sisi, c’est possible).

A lire également :
La self negative seo
Référencement naturel, long terme et régularité – Chez Sylvain
La triplette du bourrin – Chez Laurent

8 réponses sur « Sur-optimisation et mythe de Sisyphe »

Oh, J’y crois pas !Dibs! (je suis premier a commenté),

C’est vrai qu’en terme de SEO, on a la tentation d’en mettre plus. Malheureusement en Referencement, parfois le mieux est l’ennemi du bien donc il faut savoir se restreindre et en garder sous le pieds. J’ai un débat en ce moment avec « Loiseau2nuit » qui pense que j’en mets trop dans mes audits de préventes (cf -http://lemusclereferencement.com/2010/10/25/putain-ce-vendeur-m’a-litteralement-fait-l’amour-comme-un-dieu/) car il a eu le cas de client qui gardent cet audit de prévente et essaie ensuite de mettre les reco en place eux memes. Malheureusement en général, il basculent du coté sur optimisation et derriere quand il faut désoptimiser un site… pfiouuuu galere!

C’est la qu’est la valeur ajoutée d’un professionnel le Juge. De part notre expérience, nous savons pondérer l’optimisation, les liens en fonction de l’historique du domaine, du site, des implémentations.
On parlait de Sisyphe il y a même pas une semaine, mais on ne se souvenait plus de son nom, double merci. 😉

Il est vrai qu’en tant que développeur/référenceur, on a tendance à optimiser des scripts aux oignons pour générer des pages (contenu) et que parfois il suffit d’oublier un élément et boom duplicate. Le problème c’est que quand on a plusieurs dizaines de sites internet on mets parfois du temps à détecter le soucis !

En effet, parfois mieux vaut ne pas être trop parfait et procéder étape par étape car à vouloir aller trop vite trop haut, on se brûle les ailes !
Un élément crucial souvent négligé et pouvant être exploité en négative SEO est l’url rewriting.
Mieux vaut connaître ces techniques avant de foncer tête baissée pour pouvoir s’en prémunir.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *