La Wikipédia se remet au NOFOLLOW

Une boussole pour retrouver son cheminLa Wikipédia anglophone a de nouveau remis l’attribut nofollow dans les liens vers les sites externes. Mais revenons un peu sur le pourquoi du comment de cet attribut maudit qu’est le nofollow

C’est le 18 janvier 2005 que Google propose l’attribut nofollow sur les liens des commentaires et rétroliens apparaissant sur les blogs. Très rapidement, dans les jours suivants, même, les principaux moteurs de recherche, ainsi que la plupart des outils de publication de blogs du marché l’ont adopté.

L’idée était simple : les moteurs de recherche tiennent compte de la quantité et de la qualité des liens entre les pages web pour en déterminer la notoriété. En somme, plus une page web a de liens pointant vers elle depuis d’autres pages web, et en particulier depuis d’autres sites web, plus elle gagne de places dans les résultats des moteurs de recherche. C’est le principe même de l’algorithme PageRank qui a fait le succès de Google.

Le souci, c’est qu’une fois que l’on connait l’astuce, il « suffit » de créer des millions de pages web comportant des adresses vers les pages que l’on souhaite promouvoir et l’on améliore alors automatiquement son classement dans les résultats de recherche. Cette forme de spamdexing n’a pas été très efficace. En effet, peu de gens ajoutent des liens vers des pages générées automatiquement, aussi, ces pages n’amenaient presque aucun poids aux résultats. De plus, elles étaient aisément identifiables du fait de contenu dupliqué ou de contenu dépourvu de sens, pouvant être facilement ignorés par les robots d’indexation. Aussi, les spammeurs ont trouvé une autre astuce : ajouter des liens sur des pages ayant un contenu original en rapport ou non avec leur propre site. Ce fut facile avec les blogs : créer un robot spammeur de blogs est en effet relativement facile et celui-ci peut publier des millions de commentaires chaque jour, attachant à chacun un lien vers un site à promouvoir. Cela a commencé à devenir un réel problème pour les blogueurs, devant nettoyer leurs blogs régulièrement de tous les commentaires parasites, et aux moteurs de recherche, ayant des difficultés à identifier les liens générés par des êtres humains des liens automatisés.

Aussi, Google en est arrivé à proposer de marquer certains liens comme des liens ne devant pas être pris en compte par les moteurs de recherche. Alors qu’un lien (X)HTML écrit sous la forme suivante :

<a href="http://www.example.com">mon site</a>

est pris en compte par un moteur de recherche pour estimer la popularité du site ainsi lié, celui-ci, en revanche, ne l’est pas :

<a rel="nofollow" href="http://www.example.com">mon site</a>

Bref, pour Google, il suffisait alors que les développeurs de plateformes de blogs ajoutent un rel="nofollow" à tous les liens présents dans les commentaires que les spammeurs des blogs se lassent, voyant leurs efforts pour améliorer le référencement des sites à promouvoir réduits à néant.

Deux ans plus tard, le spam des blogs a-t-il disparu ? Non, pas le moins du monde. Comme toutes les autres formes de spam, il a même augmenté. Cela montre donc bien l’échec de cette solution, qui pouvait pourtant sembler comme une bonne idée.

En revanche, si cette solution n’a pas profité aux blogueurs (car même si vous déposez un commentaire sur de nombreux blogs, dont celui-ci, d’ailleurs, cela ne vous apportera aucun autre trafic que celui de la page où vous laissez le commentaire), elle a profité aux moteurs de recherche qui n’ont plus eu à faire le tri eux-mêmes entre le bon grain et l’ivraie. Les développeurs des plateformes de blogs ont donc travaillé gratuitement pour les grands noms de l’indexation du web, sans aucune contrepartie.

Au contraire, même ! Les blogueurs d’une même plateforme de blogs ayant tendance à laisser des commentaires sur des blogs voisins, le référencement à base de commentaires était une forme non négligeable du référencement naturel des blogs d’une même plateforme, d’autant plus que ce référencement naturel était tout à fait pertinent, puisque les blogueurs ont tendance à lire des blogs traitant du même sujet que le leur…

Peut-on pour autant se passer de l’attribut nofollow ? Non, c’est désormais impossible, pour une question de référencement. En effet, les moteurs de recherche tiennent compte du voisinage des pages en se basant sur les liens entrants et les liens sortants liés à chaque page. Si vous autorisez des commentaires sans l’attribut nofollow sur votre blog, celui-ci risque d’être pénalisé si des réactions de lecteurs pointent sur des pages sans rapport avec le sujet de votre article. Dans un autre domaine : le marketing. Désormais, la vente de liens sponsorisés sans l’attribut nofollow est considérée comme du spam par Matt Cutts, le responsable de l’équipe de spam relatif au web de Google.

Mais revenons un peu à la Wikipédia : qu’elle soit francophone ou anglophone, elle applique désormais l’attribut nofollow sur tous les liens externes sans distinction. Aussi, alors que des millions de pages web pointent vers cette encyclopédie gratuite en lui envoyant de la notoriété, celle-ci refuse désormais de partager cette notoriété auprès des moteurs de recherche avec les cites qui lui ont servi de référence, sous prétexte de prévenir le spam. Pourtant, le spam des blogs n’a pas cessé avec cet attribut de malheur, alors pourquoi devrait-il cesser pour les wikis ?

Enfin, il sera intéressant d’étudier l’évolution du référencement de la Wikipédia dans les mois à venir pour vérifier l’importance des liens sortants sur le référencement d’une page. En effet, un site qui ne pointe vers aucune page externe peut-il être considéré comme une source d’informations exhaustive et pertinente ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.