En matière de SEO (Search Engine Optimization, ou optimisation pour les moteurs de recherche), il faut choisir avec soin les mots-clés que l’on souhaite promouvoir dans les SERP (Search Engine Result Pages, ou pages de résultats de moteurs de recherche). En effet, le référencement naturel nécessite un investissement en temps non négligeable et le seul moyen de garantir un ROI (Return on Investment, ou retour sur investissement) est de viser des mots-clés populaires, d’une part, et des mots-clés peu concurrentiels, d’autre part.
L’un des outils d’analyse de popularité des mots-clés est Google Trends. Cet outil permet aux utilisateurs de suivre l’évolution des mots-clés dans le temps, comme le montre le graphique ci-dessous montrant l’évolution des requêtes « blog sexe », « blog sex » et « blog sexy » en France sur le moteur de recherche Google :
Si vous possédez les chiffres de fréquentation correspondant à ces mots-clés, vous pourrez vous servir de référence pour estimer la fréquentation d’autres mots-clés. En l’occurrence, ayant eu une page référencée sur la requête « blog sexe » où elle apparaissait en première place durant tout le mois de février 2007, en regardant les statistiques de fréquentation de cette page, je sais que cette position permet de générer 12.206 visites durant cette période.
En appliquant les répartitions de clics des liens des résultats de recherche, on peut aisément déduire à l’avance le trafic d’une page référencée sur un moteur de recherche à partir du mot-clé et de la position visée dans les résultats de recherche, comme le montre le graphique ci-dessous :
On peut donc aisément en conclure que le choix des mots-clés doit faire partie du service de référencement proposé aux sites désireux d’améliorer leur trafic qualifié en provenance des moteurs de recherche. Cela montre aussi qu’il est possible d’estimer le trafic d’un site référencé en provenance des moteurs de recherche avant même de commencer le travail de référencement.
Certes, comme il n’est pas possible de garantir une position précise, puisque les moteurs de recherche sont souverains dans le choix des sites référencés ou non, ou encore dans le classement qu’ils proposent à leurs utilisateurs, l’estimation du trafic engendré ne peut être que très grossière, d’autant plus que les délais du référencement ne peuvent eux non plus être garantis avec précision, même si l’expérience montre qu’il faut au moins trois mois de référencement pour obtenir les premiers résultats. Néanmoins, ces estimations peuvent servir de base pour choisir les mots-clés à privilégier, compte tenu de leur trafic potentiel, d’une part, et de leur concurrence, d’autre part.
Enfin, tout ceci pour dire que Google Trends vient de mettre à jour sa base de données et permet d’estimer les requêtes jusqu’aux environs du mois de mars 2007, contre le mois de novembre 2006 jusqu’à récemment.
Voila une bonne info sur la répartition des clics en fonction du rang d’affichage dans la page résultat !
Perso je n’aime pas beaucoup Google Trends, car on a qu’une tendance pas de vrais chiffres.
Je prefere espotting:
http://www.miva.com/fr/content/advertiser/landing1.asp
Je te l'accorde, Gilles, l'absence de chiffres sur Google Trends impose que l'on ait déjà un point de comparaison fiable. Néanmoins, en regardant les chiffres fournis par Overture, notamment, il y a de quoi être surpris sur la quantité de recherches prétenduement effectuées par les Internautes. Du coup, je préfère me rabattre sur d'autres sources d'information.
Google trends est intéressant mais, comme trop souvent chez Google, il se contente d'être superficiel ce qui le rend peu pratique pour une analyse véritable. Quels défauts ? Comme le dit Gilles il ne s'agit que de tendances et il n'est pas toujours aisé de connaître le rapport entre cette tendance et le niveau de requêtes effectuées. Il a aussi pour défaut de ne concerner grosso modo que les expressions les plus courantes. Il est presque impossible d'avoir des résultats dés qu'on aborde une niche, une activité btob un peu hors norme. C'est dommage… Quand à Overture, quand il marche, ce qui est d'ailleurs le cas depuis quelques mois il faut lui reconnaitre ce progres, les résultats sont aussi malheureusement assez aléatoires. Les stats qui reviennent des affichages sur des sites de contenus faussent nécessairement le dispositif ( ce qui explique que le mot générique atteinge systématiquement des sommets incroyables par rapport au 2ème combinatoire proposé). Bref… l'analyse de mots clés dans les moteurs de recherche c'est encore un peu la misère ! ;-( Alors qu'il serait possible de faire tellement mieux ! allez, un effort messieurs les outils de recherche !
Le souci, Raph, que rencontrent les moteurs de recherche, est qu'ils ont trois objectifs antagonistes.
D'une part, ils souhaitent satisfaire leurs clients qui achètent des espaces publicitaires en leur procurant des informations précises sur les comportements des Internautes. D'autre part, ils souhaitent éviter que les sociétés proposant des services de référencement naturel qui n'a de "naturel" que le nom, et qui risquent, avec des informations trop précises, de pénaliser la qualité des résultats de recherche des moteurs. Enfin, les moteurs essayent de veiller au respect de la vie privée de leurs utilisateurs, car c'est par la qualité de leurs résultats et le respect des utilisateurs que les moteurs de recherche arrivent à acquérir et à maintenir leur audience, audience qu'ils monétisent auprès des annonceurs.
Google trends est intéressant, mais les résultats ne correspondent qu’à des recherches faites sur google.com et pas google.fr, donc essentiellement par des anglophones.
Plus intéressant : http://www.netvibes.com/buzzdujour