SEO, BASH, PHP et plus si affinités

Freinez les traceurs de backlinks

You want to view my backlink ?

Il y a surement plus d’une fois ou lorsque vous trouvez un plan d’enfer pour poser vos jolis backlinks (par milliers, n’oublie pas mon petit …), vous aimeriez bien que les traceurs – entendez par la vos concurrents, ou simplement cette bande de chacals puants (joke pour ceux qui ne comprennent pas l’humour) – n’aient pas accès à votre plan dans 3 jours. Et bien il existe une façon simple à mettre en place afin de leur compliquer sérieusement la tache.

La manière la plus simple d’obtenir vos backlinks

Pour les SEO, rien de nouveau, mais pour les autres, sachez qu’il existe des services en ligne, certains plus aboutis que d’autres, des gratuits et des payants, qui permettent d’obtenir les backlinks d’un site donné. Je ne vais pas vous fournir une liste complète puisque ce n’est pas l’objet de cet article, mais vous présenter les plus « aboutis » à mon sens. Je vous donne également les tarifs de ces outils (les versions gratuites de certains d’entre eux étant très obsolètes, je ne les mettrais pas dans la catégorie des gratuits)

  • L’astuce linkdomain par Seoblackout [gratuit]
  • Seomoz [99$/mois a 499$/mois]
  • Majestic SEO [29.99£/mois a 250£/mois]
  • Blekko, avec son slashtag /inbound ou /seo. Ne l’oubliez pas !! [gratuit, inscription préalable pour la fonction SEO]
  • Ahrefs [49$/mois a 499$/mois]

Comment cacher vos backlinks ?

Pour les lecteurs réguliers et assidus, vous savez qu’il est possible de cacher une partie de vos commentaires sur les blogs cibles grâce aux feuilles de styles (CSS) et à ghostlinker.
Mais cette méthode n’empêchera pas les services cités précédemment de récupérer vos backlinks.
Et bien sachez que ces services utilisent des crawlers pour parcourir le web, et que la plupart peuvent être bloqué par un fichier robots.txt. Vous savez aussi que je ne suis pas fan de cette méthode, et que je lui préfère un blocage via .htaccess.

Voici donc un fichier .htaccess type pour bloquer ces crawlers.

<IfModule mod_rewrite.c>
RewriteEngine On
 
# On block les backlinks crawlers
# Majestic SEO [http://www.majestic12.co.uk/projects/dsearch/mj12bot.php]
RewriteCond %{HTTP_USER_AGENT} MJ12bot				[NC,OR]
# Ahrefs [http://ahrefs.com/robot/]
RewriteCond %{HTTP_USER_AGENT} AhrefsBot	 		[NC,OR]
# Seomoz [http://www.seomoz.org/dp/rogerbot]
RewriteCond %{HTTP_USER_AGENT} rogerbot		 		[NC,OR]
# SeoProfiler [http://www.seoprofiler.com/bot/]
RewriteCond %{HTTP_USER_AGENT} spbot				[NC,OR]
# Backlinktest [http://www.backlinktest.com/]
RewriteCond %{HTTP_USER_AGENT} BacklinkCrawler 		        [NC,OR]
 
# Sosospider [http://help.soso.com/webspider.htm]
RewriteCond %{HTTP_USER_AGENT} Sosospider			[NC,OR]
# Alexa [http://www.alexa.com/help/webmasters]
RewriteCond %{HTTP_USER_AGENT} ia_archiver			[NC,OR]
# Ezooms
RewriteCond %{HTTP_USER_AGENT} Ezooms				[NC,OR]
# Gigablast [http://www.gigablast.com/spider.html]
RewriteCond %{HTTP_USER_AGENT} Gigabot				[NC,OR]
# Findlinks [http://wortschatz.uni-leipzig.de/findlinks/]
RewriteCond %{HTTP_USER_AGENT} findlinks			[NC,OR]
# Sogou [http://www.sogou.com/docs/help/webmasters.htm#07]
RewriteCond %{HTTP_USER_AGENT} Sogou\ web\ spider	        [NC,OR]
 
# Blocage des whois source
RewriteCond %{HTTP_USER_AGENT} 	SurveyBot			[NC,OR]
# SeoEngine [http://www.seoengine.com/seoengbot.htm]
RewriteCond %{HTTP_USER_AGENT} 	SEOENGBot			[NC,OR]
 
# BrandProtect [http://www.brandprotect.com/]
RewriteCond %{HTTP_USER_AGENT} BPImageWalker		        [NC,OR]
RewriteCond %{HTTP_USER_AGENT} bdbrandprotect		        [NC,OR]
RewriteCond %{HTTP_USER_AGENT} LinkWalker			[NC,OR]
 
# Bots de merde
RewriteCond %{HTTP_USER_AGENT} Updownerbot 			[NC,OR]
 
# Les aspirateurs de site
RewriteCond %{HTTP_USER_AGENT} HTTrack 				[NC,OR]
RewriteCond %{HTTP_USER_AGENT} Net\ Vampire 		        [NC,OR]
 
# Notre ami appspot
RewriteCond %{HTTP_USER_AGENT} AppEngine-Google 	        [NC]
 
RewriteRule ^(.*)$ - [F]
</IfModule>

Soyons clair, il ne suffit pas d’appliquer cette astuce pour ne pas se faire tracer, mais vous savez que moins vous donnez d’infos, plus il sera difficile de vous suivre.

Attention quand même

Bien évidemment, si vous utilisez ces services pour suivre vos backlinks, ne mettez pas cette astuce en place !!
Et avant de prendre cet article au pied de la lettre, lisez bien cette petite réflexion. Le crawler par définition inspecte VOTRE site lorsqu’il n’est pas bloqué par un robots.txt, un fichier .htaccess ou un cloaking américain. D’où mon interrogation : est-ce que le fait d’empêcher le crawl de mon site empêchera la prise en compte de ses backlinks ?
En effet, par définition, le backlink ne se trouve pas sur votre site. Donc pour moi, le fait de bloquer le crawl de votre site empêchera uniquement l’analyse et la récupération des backlinks émanants de celui-ci.
Vous devez alors vous dire : « Super, tout ce blabla pour un truc qui ne fonctionne pas !! ». Minute, passons maintenant à la suite.

Et si on cloakait tout ça ?

Allons un peu plus loin dans la filouterie. Vous aurez remarqué que dans mon exemple, le .htaccess bloque les crawlers (403 Forbidden) avec la ligne

RewriteRule ^(.*)$ - [F]

Et si on renvoyait tous ces fouineurs sur Google (ou autre) ? Ou alors encore mieux, pourquoi ne pas les renvoyer sur le site d’un concurrent !! Pas n’importe quel concurrent bien sur, prenez par exemple un site de 1999-2000 avec 3-4 backlinks 😉 Sinon vous risquez de donnez de fortes indications à vos concurrents assoiffés de sang.

RewriteRule ^(.*)$ http://www.google.com [R=301]

Ce qu’il faut retenir de cette méthode :

  1. Vous allez fausser en masse les données des sites du premier paragraphe.
  2. Les sites permettant d’analyser les backlinks doivent IMPERATIVEMENT vérifier le backlink et ne pas se contenter de répertorier les backlinks présents sur une page
  3. Les sites permettant d’analyser les backlinks doivent prendre en compte les redirections, sinon ça ne fonctionnera pas
  4. Si vous faites le coup à un concurrent, qui fait la même chose sur un autre concurrent, c’est balo 🙂

Il n’y a pas de miracle

Je vais surement me répéter, mais cette méthode utilisée seule ne vous rendra pas invisible. Il y a pleins d’autres paramètres qui permettent de remonter des plans : les spins trop basiques, les spins foirés (ceux ou il manque une accolade vous savez), l’absence de spins, poster avec le même « username », tout envoyer le même jour à la même heure …
Portez donc une attention particulière à tous ces facteurs avant de lancer vos blasts 😉
Pour ceux qui n’ont rien compris à cet article, sachez que vous pouvez vous procurer le baume référencement qui fonctionne de la même manière. Selon mes sources, cette fonctionnalité sera prochainement disponible pour la modique somme de 42$.

P.S. : Ce test est en cours sur un site déjà crawlé par ces sangsues. Le prochain test portera sur un site tout frais et cet article sera mis a jour suivant les résultats obtenus.

A lire également :
Duplicate Content Poison chez l’ami 512banque.
Comment cacher vos backlinks aux autres concurrents Pandaranol ? par Jojo.
Comment se protéger du duplicate content liés aux web proxy Appspot ? par Jojo again.

51 Réponses to “Freinez les traceurs de backlinks”

  1. Ha le roublard !
    Moi j’achète le baume c’est moins compliqué..

  2. Aurelien dit :

    Excellent article merci beaucoup

  3. Martin dit :

    Attention, les expressions rationnelles sont coûteuses, et chaque ligne dans le .htaccess réduit les performances de l’ensemble du site, le .htaccess étant habituellement lu et interprété par le serveur web Apache à chaque requête au serveur et ceci multiplié par le nombre de sous-dossiers dans l’arborescence. Aussi, si l’on peut alléger le .htaccess, il faut privilégier cette possibilité.

    Or, ici, le bot MJ12bot est respectueux de robots.txt. Aussi, nul besoin de le bloquer via .htaccess, ce qui est coûteux, alors que le blocage par robots.txt est plus performant, avec le même effet. Mêmes remarques pour ia_archiver, par exemple.

  4. Moi j’ai aussi plus simple, j’utilise un raccourcisseur d’url (ici goog.le), et d’après le beau gosse Matt Cutts il n’y a pas de déperdition de PR …

  5. Aymeric dit :

    Conclusion: Quand on joue à cache-cache avec un renard rusé, on est sûr de perdre!
    Merci pour cet article bien complet, qui au delà des différentes techniques suggérées peut donner bien d’autres idées… On peut vraiment s’amuser avec le mod_rewrite 😉

  6. Aurélien dit :

    Sympa, je jouais avec le robots.txt pour ma part. 😉

  7. Dan dit :

    Très malin, ça me plait bien cette idée de se protéger des « charognards » 😀

  8. dz dit :

    Pouet !

    Juste pour répondre @MARTIN même si ce n’est pas le sujet de l’article, je cite:

    […] chaque ligne dans le .htaccess réduit les performances de l’ensemble du site, le .htaccess étant habituellement lu et interprété par le serveur web Apache à chaque requête au serveur […]

    En effet ! Et bien pour palier a ce type de problèmes, je vous encourage a ajouter vos règles au niveau de la conf de votre vhost; lue une seule fois au démarrage ca améliorera les perfs au détriment de la flexibilité mais bon une fois en prod logiquement plus besoin de les modifier 15 fois par jour.

    Bisous (:

  9. loran750 dit :

    J’adore cet article !
    Rien à dire de plus à part que je me suis régalé.
    merci.

  10. Keeg dit :

    Pas mal, effectivement à prendre dans certaines thématiques. Maintenant, ce qu’il y a de pratiques quand on suit tes liens, c’est que forcement, les concurrents ont un temps de retard sur toi. 😀

  11. Location corse dit :

    Bon suis pas codeur et donc voila ma question noobesque : Admettons que demain y’a une faucheuse qui code un chromebot pour voir les BL d’un site et que donc son bot a un nom bien a lui qui forcément n’est pas mentionné dans ton htaccess … il trouve tes BL non ?

  12. Discodog dit :

    Excellent! Je kiffe, je kiffe, je kiffe!

  13. Pour les backlinks, j’avoue que cacher son plan est souvent judicieux, surtout quand on passe du temps à le trouver. Mais ces services ne permettent ils pas aussi d’avoir nous même des indications sur notre propre site? les bloquer pourrait nous rendre aveugle non?

  14. cdillat dit :

    Pour cacher les backlinks sortant de ton site vers un autre je comprend, mais si tu poses tes backlinks sur un autre site qui n’a pas ce htaccess les bots les prendront en compte non ?

    Enfin si ça se trouve j’ai rien compris ^^

  15. Jambonbuzz dit :

    Comme le dit très bien Keeg, le fait d’apparaitre dans ces systèmes montrent une longueur d’avance. Par contre si cela est trop visible, ne serait-ce pas là un signal fort donné à Google pour avouer que le site spam à tout va ?

  16. RDD dit :

    @samuel
    J’avais zappe d’inclure cette option dans mes tests. As-tu vérifier que les services cites dans le premier paragraphe ne récupèrent pas le backlink quand même ? Parce qu’il s’agit d’une 301 et que quelques uns arrivent a les suivre.

    @martin
    Oui, je le sais puisque c’est un peu (je peux dire beaucoup) mon domaine. Apres comme le dis dz, tu peux très bien stocker les règles dans la conf du vhost. Apres je suis complètement d’accord avec toi que le fait d’alléger (ou alourdir) le .htaccess influe directement sur les performances. Mais bon ce n’est pas avec ces pauvres lignes que je vais sentir une différence.

    @aymeric
    Comme le dis PercevalSEO : « C’est pas faux » 😉 C’est vrai que le mod_rewrite permet d’aller plus loin que ce simple article, mais il y a aussi d’autres modules apache qu’il ne faut pas négliger ^^
    P.S. : Sympa ton dernier article sur la feinte du whois.Perso j’avais mis en place il y a 2 ans un test sur le TXT record, et toujours rien ^^

    @Keeg
    C’est un effet un bon indicateur de se faire tracer. Par contre voir un plan se faire pourrir en moins de 4H, ça fait toujours ch***.

    @Emile
    Ta question est très pertinente, puisque le mot « bot » est très employé et très vaste. C’est pour cette raison que je préfère appeler les bots des crawlers dans cet article. Pour répondre à ta question, le chromebot ne sera pas un crawler, ça sera effectivement un bot qui se servira des services d’analyse de backlinks (ou autre service existant déjà) afin de te sortir une liste. Puisque je bloque certains de ces services, le chromebot interrogeant ces derniers n’y aura pas accès. Je doute que le chromebot soit un crawler autonome qui parcours le web sans s’arrêter à la recherche de backlinks et autres infos utiles => il faut pour cela une capacité de stockage monstrueuse et un code exemplaire pour traiter et analyser tout ce beau monde 😉

    @Panneaux solaires
    C’est en effet une remarque que j’évoque dans le 3eme paragraphe. Si tu utilises des softs pour ton référencement, ou si tu le fais a la main, à toi d’effectuer ton propre suivi. Et contrairement aux services cités, tu sauras exactement à l’instant T combien tu auras de backlinks.

    @cdillat
    Non, non, tu as tout compris. C’est pour cela que j’ai lancé ce test afin de voir quels services respectent les 4 points du paragraphe « Et si on cloakait tout ça ? ».
    Il y aura forcement dans le lot des crawlers qui se contenteront de lister les liens sortants d’un site, et d’autres qui feront l’effort de les suivre. Ce sont ces derniers qui m’intéressent 😛

    @jambonbuzz
    Si je suis seul, ou alors si nous sommes un petit nombre a savoir que l’on a une longueur d’avance, ça me suffit, pas la peine que ces services me le rappellent 😉
    En ce qui concerne le signal envoyé à Google, disons que je si j’étais perdu au milieu de l’océan et que je voyais un bateau Google approcher, je réfléchirai à deux fois avant de tirer ma fusée de détresse ^^ Il y a tellement de « signaux » visibles – autres que celui la – qu’il ne voit pas (ou refuse de voir plutôt) !!
    Je pense que tu vois ce que je veux dire 🙂

  17. Merci pour la liste.
    Il m’en manquait quelques uns et pas des moindres.
    Concernant le chois robots.txt ou htaccess, je pense que les deux sont complémentaires.
    Par exemple, Ezooms se confiche du robots.txt et l’htaccess est le seul moyen de le bloquer.

  18. Au passage je viens de comprendre comment font ces sites web pour trouver les backlinks d’une page web. Avant je croyais qu’ils passaient par google pour ce faire.

  19. slate dit :

    Par principe j’aurais un peu peur de cloaker AppEngine-Google, on sait jamais des fois que l’algo prenne ça mal.

  20. ah!! hier je traçais un site américain bien positionné sur une requête pour vendre du .edu.
    Je me suis dit, si il est bien positionné, c’est qu’il utilisé une partie des plans qui vends, du coup: on trace ses BL.
    Et bien pas de bol il en avait qu’un seul de bl :).
    Je comprend mieux comment il à fait cet enf****.
    Bref, RDD merci pour cet article!

  21. Personnellement, je redirige les bots sur http://www.robotstxt.org/ quand j’utilise ce mode d’écriture
    RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot
    RewriteRule ^(.*)$ http://www.robotstxt.org/

    Il existe également un autre moyen pour interdire l’accès en utilisant des variables d’environnement dans votre htacces :

    # les bad bot que l’on vire
    SetEnvIfNoCase User-Agent « ^AhrefsBot » bad_bot
    SetEnvIfNoCase User-Agent « ^BacklinkCrawler » bad_bot
    SetEnvIfNoCase User-Agent « ^Bandit » bad_bot
    SetEnvIfNoCase User-Agent « ^Baiduspider » bad_bot
    SetEnvIfNoCase User-Agent « ^HTTrack » bad_bot

    # black list
    Order Allow,Deny
    Allow from All
    Deny from env=bad_bot

  22. @Reyvax : Tu peux compléter ta recherche par un bon vieux linkdomain des familles. Ca te donnera au moins quelques idées. Pour peu qu’il y ai quelques splogs, tu pourras les tracer…

  23. blog voyage dit :

    tout est dans le .htaccess mais aussi la moindre mauvaise bidouille c’est tout le référencement du site qui y est en danger. Et merci bien pour ce genre d’infos

  24. cuisine dit :

    super! merci pour ces indications 🙂 Ca va servir à beaucoup de monde!

  25. LaurentB dit :

    Très malin !
    Parmi les crawlers, tu peux ajouter SEO Spyglass que j’utilise personnellement.
    C’est clair que je privilégie le .htacess à la place du robots.txt qui n’est pas respecté par la plupart des bots.
    Ensuite, ne pas oublier non plus de sécuriser son .htaccess !

  26. Loic Helias dit :

    Magnifique !
    je vais checker ça de plus près !
    par contre il faudrait que j’étudie un peu mieux la solution htacess, car le mien est surchargé, va falloir faire du tri.

  27. Agence de com dit :

    Salut RDD 😉

    Merci pour le tuyaux !

    Sinon, sauf erreur de ma part, l’astuce linkdomain par Seoblackout ne fonctionne plus. Tu me confirmes ou j’ai bu ? ^^a

  28. C’est cool car j’étais passé à coté de l’astuce de seoblackout.
    Comme justement je vais régulièrement voir les BL de mes concurrents je suppose que je devrais mettre ça en place sur mon site.

  29. Franck dit :

    Très bon article, merci beaucoup petit renard 😉

  30. Logan dit :

    Bon moyen de se protéger des chacals puants! Ghostwriter était déjà bien pratique mais je vais opter pour ta technique!

  31. Spiruline dit :

    Il est en effet intéressant de ne pas dévoiler sa stratégie de netliking à tout le monde.
    Cependant je ne pense pas que ces méthodes plaisent (ou plairont) à google.

  32. Personnellement je préfère le robots.txt car je pense qu’il est plus facile que .htaccess au niveau programmation et création.

  33. Ça sent les techniques avancées de référencement tout ça 🙂 Pourvu que tout le monde ne fasse pas ça, je veux pouvoir continuer à analyser les stratégies concurrentes !

    Julien

  34. Grand article. Très utile. Merci:)

  35. 512banque dit :

    @fertility calculator => ta gueule 🙂

  36. sandrine dit :

    Sympa, je jouais avec le robots.txt pour ma part. bonne continuation 😉

  37. Petite question au sujet des backlinks: Si on poste, disons, 1000 backlinks en même temps, google ne va t’il pas voir cela comme du spam ou une technique de black hat SEO? En conséquence le résultat sera nul voir négatif sur le référencement?

  38. Groupon dit :

    Je suis assez d’accord avec Jambonbuzz. Je me demande si freiner les crawlers de BL n’est pas un moyen de se faire remarquer par Google..

  39. Il faut avouer que cette technique pour cacher ses backlink n’est pas à la porté de Tous.

    Et merci pour le lien pour l’astuce Yahoo.

  40. Alala… si on ne peut même plus se fier à ces outils de backlinks, où allons-nous…
    Merci pour l’article, j’ai appris plein de trucs !

  41. Pierre dit :

    Bonjour,

    Personnellement, dès qu’il est question de toucher au .htaccess, j’ai les genoux qui tremble de peur de faire une bétise,..
    Mais bon je vais quand même essayer
    Merci

  42. animalerie dit :

    Voilà une nouvelle chose que j’apprends sur le référencement. Merci pour l’article!

  43. buzzmobile dit :

    Effectivement, rien de tel qu’un bon .htaccess. Merci pour le partage. PS : les astuces de Seoblackout sur Bing ne sont plus valables malheureusement

  44. lejean dit :

    Et une astuce de plus merci.

  45. Sophie dit :

    Ben, c’est toujours bien de vouloir se cacher. Mais moi personnellement je pense qu’il faut aider les tous nouveaux à se faire une petite place (rire) . Dans tous les cas merci pour le tuyau.

  46. Guillaume dit :

    Je serais perdu sans le renard du dezert ^^ Merci pour ses astuces 😀

  47. vpngratuit dit :

    RDD, quel est l’intérêt de cacher ses backlink ? question d’un débutant lol

  48. SEO convertic dit :

    J’arrive un peu tard mais je te remercie pour ces astuces.
    Si on utilise ces services pour suivre ses backlinks, il est toujours possible de continuer à analyser avec GWT (enfin si le site est assez propre pour une ouverture de compte 🙂

  49. Arafetovich dit :

    Très Très bon article. Voila un bon .htaccess que je cherche depuis longtemps.
    Merci beaucoup RDD.

  50. Alsaseo dit :

    Exactement ce que je recherchais !

    Penses-tu mettre à jour l’exemple au fur et à mesure, notamment avec tout ce qui a été spécifié dans les commentaires, ainsi que les nouveaux outils qui sortent ?

  51. Balaize le Renar ! Merci pour l’astuce. Je vais pouvoir arrêter de me servir du robot.txt et utiliser cette méthode.

Trackbacks/Pingbacks

  1. Freinez les traceurs de backlinks | Ma Veille | Scoop.it - [...] background-color:#222222; background-repeat : no-repeat; } www.renardudezert.com - Today, 2:09 [...]
  2. Freinez les traceurs de backlinks | Web Marketing France | Scoop.it - [...] background-position: 50% 0px; background-color:#222222; background-repeat : no-repeat; } www.renardudezert.com -…
  3. Freinez les traceurs de backlinks |Articles| Keups - [...] compliquer sérieusement la tache. La manière la plus simple d’obtenir vos backlinks…..Via www.renardudezert.com GD Star [...]

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Je suis un gros footer de merde !! - Powered by le Presse mot