Catégories
Referencement

Comment Google en voulant assainir le web a développé l’effet inverse

Si ca c’est pas du titre qui va faire jaser, je sais pas ce que c’est 🙂
Plus sérieusement, cela fait maintenant longtemps que je suis dans le web, agence ou pas, et les pratiques SEO évoluent (heureusement me direz-vous) mais pas forcément dans le bon sens. En voulant imposer des guidelines clean aux webmasters, on voit vraiment tout et son contraire arriver sur le net.

Du webmaster qui vient de lire 4 blogs SEO dont les articles datent de 2005, au BlackHat acharné qui va justement étudier de fond en combles ces guidelines pour voir ou est la faille, l’opportunité (tel un avocat, qui pour défendre son client, va souvent trouver le moyen de détourner tel ou tel article de loi), le web est devenu un véritable « Risk » à échelle mondiale (désolé pour tout ceux qui n’ont pas connu ce jeu) . Je sais que cette description est très réductrice, mais pourtant …

Retour en arrière, les balbutiements du SEO :

A l’origine du Web, Google n’était pas encore le dieu, bien loin de la même. Tous les moteurs de recherche proposaient d’inscrire (gratuitement ou moyennant une modeste rémunération) son site afin de le voir apparaitre dans les SERPs. La concurrence n’était pas du tout ce qu’elle est aujourd’hui et il était relativement « facile » de se voir apparaitre au sein de ces résultats.
Au fil du temps, arrivent alors les premières méthodes « Grey Hat », qui vont consister a bourriner en mots cle dans les 3 balises suivantes :

  • meta keywords
  • img, attribut alt
  • le commentaire html

Et que vous me croyiez ou non, je peux vous assurez que cette méthode a prouvé son efficacité (encore certains sites de l’époque de l’agence pour laquelle je travaille ont un code source regroupant ces optimisations, et étant donné qu’ils n’ont jamais ou peu changé et que les domaines sont anciens, ils sont toujours bien placés dans les SERPs => cf article de Sylvain Mettre son site à jour pour améliorer son référencement).

Google commence à mettre en place gentiment son système d’addiction (et oui le « inscrivez-vous c’est gratos » ça marche), puis quelques temps plus tard, Overture et Adwords font leur entrée.
Comme tout produit à ses débuts, vu que la concurrence n’est pas féroce, adwords pour une web-agency qui souhaite positionner ses clients, c’est peanuts !!! Mais comme tout produit qui connait un succès rapide, les peanuts se tranforment en bras, les bras en reins, les reins en porsches, et les porsches en $$$$$$$$$.

Adwords grossit tellement vite et bien, qu’il va être temps pour Google de commencer à assainir son index. Il est préférable pour Google de montrer à ses annonceurs que Google c’est LE moteur sur lequel il faut annoncer, parce qu’il propose des résultats de recherche pertinents contrairement à ses concurrents.
Les méthodes d’optimisation citées auparavant ne fonctionnent plus ou très peu, il va falloir faire autrement pour éviter de dépenser des millions de $ dans adwords. C’est la [deuxieme] naissance du SEO, et pour ne pas faciliter la tache aux webmasters, plusieurs critères vont désormais entrer en compte.

Is Google watching you ?

Bien sur que non. A l’heure d’aujourd’hui :

  • Un satellite qui prend des jolies photos
  • Pleins de voitures qui prennent aussi des jolies photos (et accessoirement des Access Point WiFi Open)
  • Google Analytics (pour ceux qui ne savent pas encore, la BDD qui stock ces zolies informations, c’est la propriété de google, cf article 6 en EN des Terms Of Service d’analytics)
  • Google WebmasterTools – Ou comment en voulant vous aider on en sait encore un peu plus sur vous
  • Local Business Center (Futur concurrent de PJ ?)
  • Sur google.com, vous avez aussi les annonces immobilières sur GoogleMaps => faites une recherche avancée dans Gmaps et sélectionnez Real Estate

Je m’arrête ici, parce que je pourrais continuer avec Gmail,Buzz,…
Vous aurez donc compris que ma première réponse était tout bonnement ironique.
Autant dire qu’ils ont toutes les cartes en main pour faire évoluer leur moteur de recherche en croisant un maximum d’informations (plus on a d’infos, plus on rit).

Les répercussions au niveau SEO

Le jour ou Google a eu la fabuleuse idée d’annoncer à la planète entière que le linking – et plus précisément les backlinks – était [tres] important et que content is king, ce fut le début de la décadence. Cette annonce couplée à la précédente invention du PageRank a commencée a pourrir leur index (bha oui les gars, il faut vous en prendre uniquement à vous, il y a des choses qu’il ne vaut mieux pas dire, les plus intelligents étudieront la concurrence, et les autres évolueront plus lentement). Et comme si tout cela ne suffisait pas, allez on ajoute un attribut rel= »nofollow » pour les balises a. Mais c’est que ca en fait de l’évolution tout ca, et en peu de temps en plus !!!! Alors le SEO qui à la base était uniquement de l’optimisation onsite, est devenu principalement (je n’ai pas dis qu’il n’y a plus d’opti onsite à faire hein) de l’optimisation offsite.

Qu’est ce que cela a engendré :

On va commencer par la naissance des linksfarm, aller hop je vais acheter des centaines de NDD et je vais balancer du lien sur les sites que je souhaite faire monter. Ou sinon je vais faire péter les sous-domaines (moins cher que la méthode précédente) et je vais appliquer cette technique. Certains sites « clean » utilisent cette technique, et du coté des BlackHat on va voir naitre LFE (c’est 100000 fois moins chiant que de monter des centaines de site, et en plus il gère le content spinning, le linking, la création auto de blog en cassant les captcha, elle est pas belle la vie). Tout ça engendre alors un phénomène bien connu chez nos amis Black Hat : SERP domination

Un autre problème lié à ces évolutions, c’est la fameuse pratique de l’échange de lien. Et bien oui, avant tout ce bordel, il était quand même assez simple d’échanger quelques liens entre webmaster. Maintenant pour faire un échange de lien, la plupart des webmasters regardent le PR (je vais quand même pas lui filer du jus a lui, j’ai galéré pour avoir mon PR2), jettent un oeil au Yahoo linkdomain (bouh il est spammy ton site, t’as vu t’as des liens qui proviennent de tumblr, de commentaires de blogs…) et cette technique qui avait le vent en poupe il y a pas très longtemps est devenue un grand n’importe quoi. Personnellement, sur un échange de lien, je me cogne total du PR et des linkdomain, du moment que le site est pas blacklisté et qu’il ne propose pas de la bouillie, pourquoi pas.

Arrive ensuite le Duplicate Content. Alors la ce fut tout simplement magnifique, génial, truculent, l’apothéose en quelque sorte. Tous les heureux possesseurs d’annuaire ont du soit reformuler les titres et descriptions de sites, soit envoyer des mails aux submitters afin qu’ils procèdent à la modification des fiches. Certains webmasters ont eu des sites qui ont tout simplement dégagé des SERPs, alors que c’était le site en question qui avait été copié et pas l’inverse (je peux en parler puisque ça m’est arrivé). La copie a toujours existé, elle n’est pas née avec le web, et elle continuera d’exister (c’est comme ca IRL aussi, dès qu’un brevet tombe, c’est la fête de la variété dans nos supermarchés). Je ne critique pas la pénalisation du DC qui a été utile au moment ou elle a été mise en place, mais qui pour moi aujourd’hui n’a plus beaucoup d’utilité.Comme dans toute avancée, les Black Hat ont plus d’un tour dans leur sac, et pour lutter contre le DC notamment au niveau de leurs farms, ils développent le Content Spinning. Et quand Google améliorera son algorithme pour lutter contre le Content Spinning et bien ils trouveront encore autre chose, faites leur confiance big G 😉

Ne broyons pas que du noir

Le point positif à ce triste constat, ce fut l’obligation de la naissance du métier de SEO. Et bien oui, un développeur, un webmaster, un intégrateur n’a que 2 bras, un cerveau, et une journée ne dure que 24H (j’ai déjà essayé dans le passé de les allonger, mais ca ne fonctionne pas). Le métier de SEO lui demande ENORMEMENT de veille, de tests et d’observations, sans parler du job a proprement parler. C’est devenu aujourd’hui un métier à part entière et indispensable pour tout site voulant sortir de la masse, et bien ignorants sont ceux qui pensent pouvoir porter plusieurs casquettes (je parle niveau professionnel).

Avant de clore cet article, on peut lutter contre le spam des moteurs (qui finalement n’est pas si éloigné que ça du spam au niveau des mails), mais quand un site clean passe pour un faux-positif (même si c’est 0.9%, à l’échelle de l’index de Google ca représente tout de même un sacré paquet de site), il faudrait – je pense – un certain niveau de support/réactivité derrière. Pour ceux qui ne savent pas, contacter Google, c’est comme contacter le SAV de Free (rien de négatif, rien de positif dans cette phrase, donc propos non calomnieux).

Cet article a la couleur, la forme et l’odeur d’un coup de gueule, mais ce n’en est pas un, c’est tout simplement un constat. Alors monsieur Spam Fighter de Google alias Matt, plutôt que de nous dire ce que tout le monde sait déjà, soit tu nous balances le code source du moteur, soit tu fais de VRAIES annonces.

11 réponses sur « Comment Google en voulant assainir le web a développé l’effet inverse »

Chouette article.

Cela dit, je pense que Google laisse volontairement une marge de manœuvre aux référenceurs et spammeurs (si tenté que maintenant il y ait un différence…). Ca fait marcher son business, ce qui permet de maintenir son gros % d’utilisation.

Tiens, un beau sujet a développer si j’ai le temps.

Oulah c’est du lourd.
On pourrait disserter un moment sur le problème, mais je crois qu’il faut plutôt voir le positif.
Franchement, on s’est bien gavé grâce à Google avec un modèle économique inédit et surréaliste.
Ce qui est risible est plutôt de voir la manière dont Google essaye de propager la bonne parole ou plutôt carrément imposer SA loi.
Au final, on s’en tape car même si c’est un chouia plus compliqué qu’avant, cela reste tout à fait jouable.
Le principal est d’y voir clair comme tu le fais et surtout pas se prendre la tête outre mesure.
Bon, cela dit, je suis aussi le roi du coup de gueule; alors c’est l’hôpital qui se fout de la charité.

Et bien voilà un article qui fera sans aucun doute partie de mon top 10 du mois.
Et ce n’est pas parce que tu me fais un gentil BL, c’est parce que tu viens de retracer une bonne partie de mes 10 dernières années professionnelles.
Il me rapelle l’un des mien que j’avais titré « don’t be evil ».

Je dois avouer que pendant très longtemps je pensais au moteur (volontairement au singulier) en tâche de fond, pendant que je concevait des sites pour les visiteurs.
J’ai sacrément changé. Je fonctionne aujourd’hui à l’inverse.

Google, te rend tu compte de ce que tu as fait de nous?

Je ne pense pas que fournir le code source du moteur soit pertinent pour en déterminer les algorithmes et ainsi en déterminer la stratégie de référencement idéale. En effet, les moteurs de recherche se basent désormais sur une masse de données conséquente, répartie sur des dizaines de milliers de machines, voire plus encore, et ces données font partie intégrante du comportement de l’ensemble. L’algorithme seul ne suffit pas, je le crains, et les données sont trop nombreuses pour pouvoir être traitées par des groupes de taille modeste que sont les équipes chargées de référencement.

En outre, je soupçonne Google utiliser des êtres humains pour modifier la pondération de certains paramètres eux-même pondérés entre eux. Ainsi, je soupçonne que référencer un site immobilier en France ne se fait pas de la même manière qu’en Belgique, Canada ou en Suisse du fait de la diversité des langues officielles de ces pays, par exemple.

Je veux dire que le français est la seule langue officielle en France. Aussi, avoir des liens issus de sites anglophones ne paraît pas pertinent pour un marché local qu’est l’immobilier. En revanche, au Canada, l’anglais et le français sont les deux langues officielles du pays, et certaines villes, comme Montréal, privilégient certaines langues selon le quartier. Des liens entre les sites immobiliers francophones et anglophones, ou du moins entre les pages en ces deux langues paraissent tout à fait pertinents au Canada, contrairement à la France. Mêmes remarques pour la Belgique et la Suisse.

En outre, je soupçonne que le poids de ces paramètres varie dans le temps, indépendamment de la structure du web. Ainsi, il semble logique aujourd’hui, maintenant que l’actualité est passée, de proposer une page encyclopédique en guise de résultat pour le terme « Eyjafjöll », alors qu’il y a quelques mois, l’actualité primait. De même, le Vuvuzela est aujourd’hui associé à la Coupe du monde, ce qui n’était pas le cas au printemps dernier. Cela dit, de l’aveu même de notre ami Matt, Google a encore des difficultés à correctement filtrer les mots-clés liés à l’actualité, en témoigne le blocage des requêtes « michael jackson » le jour de son décès surprise, voici un an.

Mais revenons-en à ton coup de gueule, car cela en est un, celui que Google engendre le spam de par son comportement même. Est-ce vraiment le cas ? Pour ce qui est de LFE, je l’ai acheté, essayé, abandonné. Pourquoi ? Parce que c’est bel et bien un outil de spam qui parasite le web profond dans l’espoir de faire ressortir des sites plus populaires. Alors certes, employé en masse, au quotidien, sur la longue traîne, cela marche, au grand dam des plateformes de blogs, de blogs indépendants et de digg like pollués par du contenu médiocre que les webmasters peinent à nettoyer, voyant leurs sites déclassés du fait de ce vandalisme généralisé. Cependant, pour employer d’autres méthodes plus en rapport avec les « conseils aux webmasters » prodigués par les principaux moteurs de recherche, je noterai que le contenu de qualité, associé à quelques liens à peine, mais connexes et ciblés, suffit pour apparaître dans les premiers résultats des mots-clés secondaires, et un travail plus constructif pour l’ensemble du web que la (veine) tentative de pollution de résultats web est lui aussi très efficace.

Bref, si le référencement bas de gamme ne nécessite que peu de connaissances et, employé en masse, produit quelques (maigres) résultats, un travail plus qualitatif et inscrit dans le temps permet lui aussi d’acquérir une visibilité accrue sur les moteurs de recherche. Et… maintenant que les réseaux sociaux rivalisent, en terme d’audience avec les moteurs de recherche et deviennent de plus en plus le départ à toute navigation web, le référencement web peut s’appuyer sur d’autres leviers pour engendrer du trafic qu’un vaste réseau de liens. Bref, notre métier n’a pas fini d’évoluer, et c’est tant mieux !

A mon sens, très bonne analyse. Je suis convaincu que si Google ne « redresse » pas la barre dans sa politique et sa stratégie, le mal sera encore pire. Je ne sais pas si tu as eu l’occasion de lancer un nouveau site, mais ça devient un vrai exercice de style, et j’ai le sentiment que c’est de plus en plus difficile sur une stratégie « clean », alors qu’une stratégie border line, voir BH, paye !

Tout cela ne serait que littérature si la concurrence était un peu plus équilibrée, on peut espérer, Google dans son hégémonie semble y travailler, tout seul, comme un grand !

Dis donc toi : tu sais qu’il est bien torché ton article ?

Je te rejoins tout à fait sur le fond. Et j’ajoute :

Le référencement est un jeu (je suis certain que tous les référenceurs seront d’accord). Pour le BH c’est celui du gendarme et du voleur. Et dans la vie le gendarme courra toujours après le voleur qui aura toujours une longueur d’avance.

C’est donc normal qu’avec ses pratiques Google développe le SEO BH (c’est comme au temps de la prohibition qui a vu se développer le crime organisé aux USA). Et c’est tant mieux car il nous fait bien ch***.

Bon, et bien moi, je me relis la prochaine fois avant de laisser passer de telles fautes d’orthographe.
Les commentaires à partir d’un iPhone les yeux fatigués, ça le fait pas.

Au passage, je cautionne l’approche de petit nuage concernant la géolocalisation et la langue, ainsi que les variations dans le temps selon l’actualité.

On dirait que j’ai bien choisi la première phrase de cet article.

Merci à tous pour ces commentaires qui dans l’ensemble rejoignent et viennent appuyer mon retour d’expérience.

@Keeg : Exactement, et comme l’a dit Eric Schmidt dans une interview récente pour je ne sais quel canard, l’objectif de Google c’est toujours more more and more $$$$ (mais en fait ce sont des BH !!!), d’ou leur diversification (OS, téléphonie, fournisseur d’accès …). Au plaisir de lire ton article qui risque aussi de faire couler beaucoup de bande passante (bha oui avec internet on n’utilise plus trop de stylos et c’est bien dommage).

@LaurentB : Je te rejoins en ajoutant que la ou Google a fait très très très fort, c’est réussir a s’imposer comme LA référence avec un budget publicitaire (à l’époque) de … oui oui c’est ça, environ 0$.

@Sylvain : Dans ton cas tu as évolué avec internet et tu continues d’évoluer avec (tu en as même changé ta façon de concevoir les sites), ce qui n’est pas le cas de tous les responsables de Web-Agency (je sais de quoi je parle).

@Petit Nuage : Dis donc, ça c’est du commentaire !! Par contre il y a certains points sur lesquels je ne suis pas d’accord et je vais m’en expliquer.
Tout d’abord je ne dis pas que Google engendre le Spam de par son comportement, je dis que Google a engendré le Spam par son évolution (la nuance peut paraitre faible, mais sur l’analyse que j’en ai fait, la nuance est en fait énorme). Pour ce qui est de LFE, bien sur que ça pollue les résultats (mais je peux te donner en exemple des sites qui n’utilisent pas du tout LFE et qui pourtant polluent également les résultats de recherche), après de la à dire que c’est un référencement « bas de gamme qui ne nécessite que peu de connaissances » je ne suis pas du tout d’accord. C’est un tool qui combiné à d’autres est tout simplement redoutable et qui contrairement à ce que tu en dis nécessite beaucoup de connaissances (on ne met pas le volant d’une Ferrari entre les mains d’un jeune permis [pour moi qui suis motard ça serait plutôt : on enfourche pas un gex 1000 avec le papier jaune]).Pour utiliser LFE, il faut quand même de solides connaissances en SEO non ?
Pour ce qui est du contenu de qualité bien évidemment que cela joue, après tu rentres dans le constat que j’ai fait sur l’évolution de l’échange de lien. Tu connais beaucoup de sites « Trust » qui seront prêts à te faire un gentil lien sur leur home vers ton site que tu as lancé il y a un mois, PR N/A, backlinks 0 simplement parce que tu a un contenu de qualité ?? C’est bien cette évolution qui me désespère, car il y a quelques temps ces critères n’existaient pas et l’échange de lien était « sain ». De même que pour certains sites, il est tout simplement « complètement con » de produire du contenu de qualité juste pour pouvoir ranker (je pense notamment à des sites qui proposent des devis comparatifs en ligne), parce que CE N’EST PAS le but premier du site (quand on veut un devis pour poser une climatisation chez soi, on s’en cogne totalement de savoir comment fonctionne la-dite climatisation, on la choisi uniquement selon certains critères). Et c’est exactement dans ces cas la que l’emploi de méthodes borderline est quasi inévitable (même si tu passes par FB ou Twitter pour le lancement de ton site, tu triches un peu quand même non ?).
Pour finir sur les réseaux sociaux, je pense que nos amis BH y étaient bien avant que Twitter fasse son apparition dans la langue de Moliere (cf : tu dois surement avoir des followers avec eux-mêmes 6000-7000 followers et seulement 4 tweets => bizarre non ?). Juste pour finir ce n’est pas du tout une attaque envers toi (je tiens bien à le préciser), mais je pense qu’il est bon d’éclaircir quelques points sur lesquels il y a surement eu une incompréhension (je parle d’une évolution sur environ 10 ans, pas uniquement aujourd’hui). Il va sans dire que je suis d’accord avec toi sur les points que je n’ai pas cités.

@Littlebuzz : Oui ils ont intérêt de redresser la barre mais … n’est il pas déjà trop tard ? Cela nous « met la rage » parce que nous sommes tout simplement des moutons derrière « THE search engine » (et oui plus de 90% d’utilisation en France, ce qui est loin d’être le cas outre atlantique). Pour ce qui est de lancer un nouveau site sur un domaine concurrentiel en utilisant des méthodes 100% clean, ce n’est plus un exercice de style, c’est une utopie !! Encore un point que je n’ai pas développé dans cet article, mais maintenant pour lancer un site « neuf », il est préférable de racheter un vieux NDD qui a déjà été indexé plutôt que le lancer avec un nom sciemment choisi, phénomène totalement inexistant il y a encore 4 ans. Je te rejoins complètement sur l’ensemble de tes propos.

@Philippe : Merci !!! J’ai bien rigolé en lisant ton commentaire, car figure toi que j’avais justement fait allusion au gendarme et au voleur dans mon ébauche en prenant en exemple la prohibition (les grands esprits se rencontreraient-ils vraiment ?? :)). Et oui, Google nous fait bien ch*** <= 200% d'accord (encore une fois trop fort ce Google, il réussi à faire parler de lui, même en mal).

Gros article extrêmement intéressant.

Pour vous donner l’avis de quelqu’un qui vient de mettre les pieds dans le référencement, sachant que j’étais encore limite en couche culottes quand vous avez commencé, ce que je vois c’est qu’on m’a appris à conseiller les guidelines Google à la concurrence, et à développer un potentiel autre.

Le visiteur ne prime plus, il se contentera du contenu. Aujourd’hui, personne ne colle au guidelines, mais tout le monde colle à l’algo, et je pense que c’est déjà un signe important des défauts de celui-ci.

Après, c’est faire une critique en tant qu’usager. Si j’ai un mot à dire en tant que référenceur, c’est tout de même « merci ». Merci, parce que l’existence de cette algorithme et sa relative maniabilité permet aux plus doués, de gagner leur croute.

Bienvenue dans mon google reader 😉 je suis tombé sur ton article via twitter et j’en suis ravi.
Je partage également ce sentiment vis à vis de google et commence sérieusement à penser à sombrer dans le « dark side » quand on voit comme ca passe bien.

Excellent article, il manque juste une donnée c’est des dates. Cela permettrait de savoir quand est ce que les « pseudos référenceurs » auquel je suis confronté ont arrêté de faire de la veille techno.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *