Depuis quelques jours, la blogosphère professionnelle ou semi-professionnelle scrute le PageRank de ses pages. Le PageRank est en effet une valeur, allant de 0 à 10, indiquant, sur la Barre d’outils Google ou des services web officieux la notoriété d’une page basée sur la quantité et la notoriété des liens qui pointent vers cette page. Plus cette valeur est importante, et l’échelle semble logarithmique (chaque point de PageRank supplémentaire nécessiterait dix fois plus de liens), plus la page visitée a de notoriété selon Google. Puisque la plupart des sites web ne font que gagner de nouveaux liens, leur PageRank, en principe, ne fait que se conserver ou monter à chaque mise à jour, opérée une à quatre fois par an par Google. Or, avec la mise à jour actuellement en cours, de nombreux sites ont perdu un, deux, voire trois points de PageRank, ce qui est une nouveauté qu’il est intéressant d’étudier.
Les premières observations (en français) montrent en effet que les sites ayant subi le plus grosses pertes sont des sites promus à base de fermes de liens. Mais cette hypothèse semble un peu rapide. En effet, je vois moi-même un impact sur le nouvel algorithme de calcul du PageRank sur mes propres sites. Or, ceux-ci n’ont jamais été promus à base d’échange de liens, ni encore via des fermes à liens. En revanche, il est vrai que mes sites apparaissent souvent en liens isolés sur de nombreuses pages.
Prenons pour exemple mon site Les perles du chat qui traite de tchat et de sexualité et s’adresse à un large public de non informaticiens et non spécialistes du web. Une part non négligeable de ce public publie un blog personnel, et certains de mes amis, afin de retrouver aisément le lien vers mon site et afin de permettre à leurs visiteurs de découvrir mon blog l’ont inséré, spontanément ou suite à une invitation à le faire de ma part, dans leur liste de favoris (ou blogroll) apparaissant dans les pages de leurs blogs.
La raison pour laquelle ces utilisateurs non spécialistes de l’informatique insèrent des liens dans leur blogroll plutôt qu’au sein de leurs articles est simple : malgré l’utilisation d’éditeurs texte WYSIWYG sur les plateformes de blogs, ces blogueurs ne savent pas insérer un lien sur un mot ou une expression. Notez que ce n’est en rien spécifique aux blogs. Ces mêmes personnes ne savent pas non plus utiliser les fonctions équivalentes de leur traitement de textes. Autant l’utilisation de liens hypertextes est intuitive, autant leur création ne l’est pas. Un exemple flagrant et qui revient sur de nombreux blogs de non informaticiens est de lire des renvois non pas sous forme de liens hypertextes, mais sous la forme « voyez l’article précédent » ou « regardez le lien dans la marge du blog ». En revanche, guidés par la main par leurs plateformes de blogs clés en main, ces mêmes blogueurs savent insérer un lien dans leur blogroll.
Par conséquent, la nouvelle explication concernant la baisse du PageRank de certaines pages pourtant réputées jusque-là très populaires semble être que Google a baissé, voire supprimé l’importance des liens apparaissant sur des mots ou expressions isolés au profit de liens apparaissant dans le corps d’un texte. Cette hypothèse paraît d’autant plus logique que Google mène depuis déjà un certain temps la guerre contre les liens payants, comme l’explique Matt Cutts, responsable anti-spam web chez Google. Le but principal de la manoeuvre semble alors non pas de pénaliser les blogs, mais plutôt de pénaliser les régies publicitaires dont le modèle économique repose sur la vente de liens, rendant leur modèle économique obsolète.
Mais la mise à jour du PageRank est-elle synonyme d’une baisse de trafic ? Certainement pas. En réalité, le PageRank interne à Google semble mis à jour en temps réel ou du moins à intervalles de temps réguliers. Ce n’est que le PageRank public qui varie de temps à autres. La mise à jour du PageRank n’est donc que le reflet d’une situation passée. C’est ainsi, par exemple, que l’on peut constater l’impact des mesures prises par Google sur la dévalorisation de liens isolés sur la page Blogs Sexe que je gère. Le graphique qui suit montre en effet l’évolution du trafic sur les six derniers mois en provenance de Google sur un mot-clé associé à cette page :
Comme vous pouvez le constater, la dévalorisation des liens isolés a commencé vers le 27 juin et semble s’être stabilisée vers le 15 septembre 2007. La mise à jour du PageRank ne fait donc que confirmer la finalisation de la mise en place du nouvel algorithme de calcul de la notoriété des liens et n’aura donc plus d’impact supplémentaire sur le trafic dans les prochains jours ou semaines. En revanche, les régies publicitaires misant sur l’achat et la vente de liens isolés, ou bien encore les sites web misant sur des liens isolés, qu’ils soient naturels ou non, en plus de constater leur trafic chuter ces derniers mois, peuvent découvrir l’impact du nouvel algorithme sous la forme du PageRank mis à jour.
Les liens isolés n’ayant donc plus ou peu d’impact sur le positionnement d’une page dans les résultats de Google, leader dans le domaine de la recherche en ligne, une bonne stratégie de référencement consiste par conséquent à faire parler les sites tiers de ses propres pages au sein d’articles au contenu rédactionnel fort. Or, cela a toujours été la politique de Google que de promouvoir du contenu. Il ne me reste plus, pour ma part, qu’à former les dizaines d’amis blogueurs que je peux avoir pour les aider à apprivoiser les hyperliens pour les faire figurer au sein de leurs articles…
En effet le contenu est devenu une évidence tout en gardant a l’esprit que les mots clés de la page en question soit répéter plusieurs fois a l’intérieur du texte mais aussi dans le titre et dans le premier paragraphe le plus haut possible.
Ce que semble perdre de vue nombre de personnes se plaindre de ne pas apparaitre sur la première Google…
@madrier bois : Pour apparaître en première page de Google ou de Bing, il convient en effet de faire apparaître les mots-clés visés sur la page en question. Le titre et le corps du texte sont des facteurs importants. Toutefois, pour ce qui est de Google du moins, la répétition des termes n’est pas prise en compte. En revanche, il devient de plus en plus rare que les expressions tapées comme requêtes de recherche soient composées d’un mot unique. Aussi, il est pertinent de ne pas se contenter d’un seul mot répété à plusieurs reprises, mais de faire apparaître ce même mot dans plusieurs contextes connexes, associé à plusieurs mots dans le voisinage immédiat, afin de drainer le trafic issu de la longue traîne.
Par ailleurs, je vois que tu es dans une phase d’optimisation du netlinking visant à améliorer le positionnement de ton site sur l’expression madrier bois. C’est une approche tout à fait pertinente, mais pas dans les commentaires d’un blog dont les liens des commentaires apparaissent en nofollow. Cet attribut de lien, mis en place par Google en 2007, a beaucoup évolué depuis. Alors qu’il était totalement ignoré initialement, seul le poids des liens transmis aux pages cibles est nul, la découverte de ces liens est prise en compte par Google.
Autre défaut des liens en commentaires : l’absence de contexte. Cette page parle de référencement web, de référencement naturel, et de la manière de positionner les liens dans une stratégié d’acquisition de liens. Aucun rapport avec un quelconque chantier immobilier. Les liens non contextuels — car on parle de cela ici — sont considérés comme non pris en compte par les moteurs de recherche.
Pour autant, certains spammeurs sont convaincus du contraire. Pour les dissuader de polluer ce présent site, j’ai donc supprimé le lien. Comme ça, en son absence, il est sûr et certain de ne transmettre aucun poids.