Catégories
Referencement

La self negative SEO

Nos amis Black-Hat parlaient il y a quelques temps de la negative SEO, ou comment pénaliser un site concurrent.
Au cours de mes divers audits, il m’arrive souvent de repérer les mêmes erreurs que je qualifie de self negative SEO (et oui, comment faire pour vous pénaliser vous-meme !!!).
J’ai donc décider de vous énumérer les 10 erreurs les plus fréquentes que je rencontre lors de ces audits, et quelques pistes pour les corriger.

Par convention, j’appelerai www.example.com l’url de votre site web (à remplacer donc dans les exemples qui vont suivre) [merci pour la remarque de Tony en commentaire].

Le site n’est pas indexé

C’est de moins en moins fréquent, mais ça arrive encore aujourd’hui. « Je me vois pas dans google, comment ça se fait ? »

Solutions :

  • Quelques backlinks à droite à gauche devrait vous aider à sortir de l’ombre, et comme je suis sympa : 120 backlinks pour commencer
  • Vous aimez google ? Utilisez le GWT et soumettez un superbe sitemap de votre site

Les erreurs de code

Elles sont fréquentes et rapides à déceler si le site est assez ancien (dans l’index google bien sur, pas dans le temps). Pour déceler ces erreurs voici quelques approches (ces commandes sont à saisir chez notre ami Google) :

  • site:www.example.com « Warning: » (celui ci est radical)
  • site:www.example.com mysql (en espérant que votre site ne soit pas dédié à mysql)
  • site:www.example.com include header (erreurs les plus fréquentes en PHP)

Solutions :

  • Envoyez ces erreurs à votre développeur préféré, ça lui fera vraiment très très plaisir.

Les redirections oubliées

Ca pourrait être un bon titre de film ça, non ?
Plus sérieusement, c’est une cause très fréquente de self NSEO lorsque vous avez décidé de refaire votre site car vous le trouviez pas assez web 2.0. Aujourd’hui il l’est, mais toutes les anciennes pages présentes dans l’index de Google renvoient un beau code d’erreur 404. Pas cool !!!

Solutions :

  • site:www.example.com dans google et après vous cliquez sur chaque lien (là vous dites quel salaud !!!)
  • Vous demandez à votre développeur de vous pondre un tool qui va extraire les urls de la requête précédente (avec sa lib curl préférée et simplehtmldom) et vérifier les codes de retour de ces urls (avec linklint par exemple)

Les erreurs d’encodage

Tous les accents de mon site apparaissent sous forme de caractères bizarres. C’est normal chef ? UTF-8, ISO-8859-1, ISO-8859-15, kesako ?
Les erreurs d’encodage de caractères sont aussi monnaie courante en terme de self NSEO.

Solutions :

  • Demandez à votre admin sys de convertir votre DB => il va adorer
  • ou
  • Demandez à votre developpeur de modifier l’encodage du site web et d’utiliser les fonctions qui vont bien => il va adorer
  • Une solution parfois oubliée, votre éditeur est bien réglé en UTF-8, votre DB est en UTF-8, les accents apparaissent correctement dans votre éditeur, vous avez bien votre balise
    <meta http-equiv="content-type" content="text/html; charset=UTF-8">

    => Ajoutez la directive

    AddDefaultCharset UTF-8

    dans votre .htaccess

Les erreurs 404 qui renvoient un code 200

Cette erreur est aussi très fréquente, notamment lorsque vous utilisez des frameworks ou CMS qui ne prennent pas en compte ce type d’erreur (ils vous affichent bien une page d’erreur 404 personnalisée, mais renvoient un code 200). Une erreur 404 doit renvoyer un code 404 un point c’est tout.

Solutions :

  • Téléchargez LiveHTTPHeaders pour Firefox et vérifiez que vos 404 renvoient un code 404
  • Demandez à votre développeur d’utiliser les fonctions du Framework prévues à cet effet, ou sinon demandez lui d’apporter un léger hack au CMS pour palier à ce problème => il va adorer

Le robots.txt foireux

La dernière belle boulette en date est celle de last.fm, ou le mec se fait chier à mettre des règles Disallow en vrac pour finir sur un beau Allow:/ (Si il n’est pas encore corrigé vous pouvez le voir ici). Vous avez surement déjà du voir egalement un beau Disallow:/ dans un robots.txt avec le client qui vous demande pourquoi son site n’est pas indexé.

Solution (et oui ici il y en a qu’une) :

P.S. : Dans le meme style il y a aussi

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Les sessions dans l’url

BOUHHH que c’est pas beau. Et pourtant, je ne compte pas les PHPSESSID présent sur bon nombre de sites e-commerce. Résultat, duplicate content assure !!
Pour vérifier que votre site ne possède pas cette belle variable dans l’url :

site:www.example.com inurl:PHPSESSID

Solutions :

  • Demandez à votre admin sys de modifier le php.ini pour utiliser les cookies et mettre le session.use_trans_sid à 0
  • Si vous n’avez pas d’admin sys (bha oui ça peut arriver), placez ces 2 lignes dans votre htaccess (à adapter selon votre hébergeur)
    php_flag session.use_trans_sid off
    php_flag session.use_only_cookies on
  • Et pour virer ces vilaines urls de l’index de google, ajoutez en plus ces quelques lignes (toujours dans votre .htaccess):
    <IfModule mod_rewrite.c>
    RewriteEngine On
    # A adapter selon la structure de vos urls
    RewriteCond %{QUERY_STRING} PHPSESSID=.*$
    RewriteRule .* %{REQUEST_URI}? [R=301,L]
    </IfModule>

Votre site est accessible et indexé avec et sans www.

Elementaire mon cher Watson, vous avez oublié de rediriger example.com vers www.example.com

Solutions :

  • Rendez-vous dans le GWT, Configuration du site => Paramètres => Domaine favori
  • Grace au fichier .htaccess de cette manière :
    RewriteEngine on
    RewriteCond %{HTTP_HOST} !^www.example.com$
    RewriteRule ^(.*) htp://www.example.com/$1 [QSA,L,R=301]

Le duplicate content

Et oui, un texte strictement identique à la virgule près, disponible via 3-4 urls (parfois bien plus), c’est comment dire … pas bien du tout.

Solutions :

  • Utilisez la balise canonical [à placer dans votre head]
    <link rel="canonical " href= "http://www.example.com/page-que-vous-souhaitez-faire-indexer-en-priorite.html" />
  • Si les pages en duplicate n’ont pas lieu d’exister, ou n’existent plus, des redirections 301 seront efficaces
  • Si vous ne souhaitez utiliser aucune des méthodes précédentes, écrivez de nouveaux textes sur les pages présentant le Duplicate

Un super menu en javascript, en flash ou en images

C’est sur que votre menu il en jette un max, au moins on est d’accord sur ce point. Mais pensons à cette petite araignée (appelée « spider » par nos amis anglophones), comment va t’elle faire pour voir vos jolis liens avec sa mauvaise vision et ses huit pattes ? Vous ne saviez pas que l’araignée ne sait pas manier la souris et que son browser préféré est le lynx ? (Putain, ce jeu de mot là il vient de loin, mais alors de très loin).

Solution :

  • Demandez à ce que l’on vous fasse un menu un peu plus accessible, mentionnez les araignées la souris et le lynx, ça devrait aider votre interlocuteur à comprendre pourquoi

Voila pour la self negative SEO, je sais qu’il y a d’autres points pénalisants, mais je tenais à faire sortir les 10 points les plus récurrents lors de mes audits. Si vous avez des remarques à propos de cet article, you’re welcolme !!!

17 réponses sur « La self negative SEO »

Perso, ce que je vois souvent dans mes audits, c’est la 11ème erreur, celle dont tu ne parles pas mais qui est pourtant à la base de tout, bien souvent source des 10 erreurs sus-citées. Cette erreur là, très sournoise, se situe grosso merdo à 15 pouces de l’écran, entre le clavier et le dossier de la chaise du bureau, c’est le client qui trèèèès souvent ne veut surtout pas mettre la main au portefeuille pour avoir un truc vraiment propre ! La qualité, ca se paie !

Chouette résumé des erreurs communes. Cet article était consacré au self negative SEO on-page, il reste plus qu’à faire un article sur le self negative SEO off-page. 🙂
Sinon, juste une petite précision technique. Au lieu de citer « votresite.com » il est possible d’utiliser « example.com » qui est réservé (impossible d’acheter ce domaine), spécifiquement pour être utilisé dans les documentations.

trés bon article, tu me coupe l’herbe sous le pieds, mon article (similaire) était en relecture, je n’ai plus cas l’anulé … snif

mais encore félicitation, si je ne l’avais pas trouvé clair, j’aurais tout de même publier le mien 🙂

@Loiseau2nuit :
C’est une chose indéniable !! Après des clients, il y en a partout, certains plus réceptifs que d’autres (heureusement d’ailleurs), donc plus enclin à mettre la main au portefeuille comme tu le dis si bien 😉

@Tony :
Bonne idée pour un prochain article (mais les vacances et le déménagement approchent donc peut-être à lire chez blackat) !! En ce qui concerne example.com, bonne remarque je modifierai l’article en conséquence.

@blackat :
Arf, désolé de t’avoir coupé l’herbe sous le pied et merci pour le compliment 🙂

Salut.

non non je t’assure, pas de H dans mon nom …. 😉
si non pas grave je garde le mien sous le coude. je le modifierais et le republierais dans 2 ou 3 mois lol

C’est vrai qu’avant même d’aller chercher les backlinks comme on cherche de l’eau dans le désert, vaudrait mieux jeter un œil sur la qualité de ce que l’on veut référencer !
@Loiseau2nuit : C’est vrai que cette 11e erreur, c’est bien la pire, car dans bien des cas elle n’est pas soluble…

Bonne liste!
Je rajouterai les titres et descriptions dupliqués qui sont vraiment fréquent (en tout cas j’en rencontre beaucoup!) 🙂

J’ai bien aimé l’astuce pour les erreurs de code, c’est en effet un point que j’ai tendance à ne pas consulter. J’y ferai gaffe la prochaine fois 🙂

@Pureshore : très très bonne remarque que j’ai oublier d’inclure dans ma liste. C’est vrai que les descriptions et et titres dupliqués sont vraiment récurrents.

Pour les erreurs de code, j’en ai tellement fait dans le passé que c’est devenu un réflexe pendant mes audit et je peux t’assurer que parfois il y a de très mauvaises surprises (gouffres de sécurité).

Tres bon post precis, avec les solutions qui vont bien.

Quoique des fois cest bien d’avoir des cas comme ca – me rapelle d’ex client qui ont payé tres cher pour juste la supression de Noindex,nofollow – et qui etaient tres content apres!

dans les erreurs, j’ajouterai :

– écrire entièrement son site avec des balises h1, ou h1 >> 1 …
– la densité de mots clés (spam)
– des url non explicite > 200 caractères 😀

etc …

il y en a des regles, ma checkliste n’en fini pas !

Sebastien

Merci pour ce joli listing! Reste que la question du contenu reste celle qui est la plus bête! Surtout vu ce qui se fait actuellement! Entre du spin, les malgaches, les redac et les plateformes genre TM, IP and cie, c´est vraiment balo!!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *