Mesurer la quantité de backlinks, le nombre de partages de vos articles, tracker des clics dans vos emailing… Aujourd’hui, n’importe quel business est de plus en plus lié au concept de « Big Data ». Au SEO Campus 2014, j’ai pu assister à la conférence de François Goube sur le sujet, ce qui me permet de vous livrer ici quelques pistes de réflexion.
Le Big Data c’est quoi ?
En quelques mots pour simplifier: il s’agit de gérer, organiser, hiérarchiser, analyser, mesurer et traiter un gros volume de données. Les exemples cités en introduction ne sont qu’une goutte d’eau dans la mer. Dans votre stratégie digitale, vous devez prendre en compte quantité de paramètres, qui doivent être mesurés et analysés pour pouvoir établir une vraie stratégie de référencement.
Google Analytics est, certes, un outil avancé avec énormément d’informations, de chiffres plus ou moins pertinents selon ce que vous souhaitez faire. Mais c’est loin de suffire, que ce soit dans votre stratégie de contenu, votre boutique e-commerce, votre référencement, etc. Comment analysez-vous la popularité de vos contenus (partages, backlinks, nombre de vues, etc.) ? Comment mesurez-vous votre positionnement sur des mots-clés précis ?
Comment traquez-vous l’impact des changements sur votre site (optimisations ergonomiques, changements UX, modification de l’argumentaire de vente, utilisation de nouvelles techniques marketing) ? Comment gérez-vous les données liées à vos clients et ce qu’ils font sur votre site ?
Autant de problématiques qui conduisent inévitablement au concept de Big Data.
Comment s’en sortir ?
Pour chaque cadre d’application, il existe diverses technologies. Évidemment, il vous faut avoir des objectifs adaptés à vos besoins et utiliser les technologies qui sont à votre portée (que ce soit sur le plan technique ou le plan financier).
Avoir une approche scientifique sur vos données est à priori le meilleur choix, selon François Goube, sachant que c’est également l’approche adoptée par Google. Typiquement : Analyser, produire, mesurer, collecter, analyser à nouveau et on recommence. Les règles évoluent constamment, Google améliore son algorithme en permanence, les usages évoluent, de nouveaux outils apparaissent… Donc chacune de vos actions doit être mesurée, analysée, traitée, et ce constamment.
Lister toutes les technologies existantes pour chaque besoin n’a pas vraiment de sens, mais je vous en cite deux qui sont vraiment intéressantes.
Elastic Search : c’est un moteur de recherche et d’analyse. Par exemple, si vous avez plusieurs sites, vous pouvez importer et centraliser toutes leurs données dans un seul et même endroit, ce qui peut faciliter considérablement la tâche d’analyse. Ce n’est bien sûr pas le seul intérêt de l’outil.
Elastic search est un système très puissant qui offre de nombreuses possibilités: Analyse en temps réel de vos données, recherche de contenus liés (pas forcément une page entière, ça peut être un paragraphe), recherche dans les logs… En bref, de quoi centraliser vos données, faire des analyses croisées et en déduire les points faibles ou points forts dans ce que vous analysez.
Une autre utilisation de cet outil est extrêmement intéressante : Vous pouvez l’utiliser pour faire de la curation de contenu, et augmenter largement votre productivité. Mais ce n’est pas ici l’objet de cet article, je m’étends pas sur ce sujet.
Hadoop : Sans rentrer dans la technique, il s’agit d’un outil conçu pour traiter en masse un volume de données conséquent. Concrètement, il vous permet d’effectuer un grand nombre de calculs sur plusieurs grappes de serveurs.
C’est le genre de technologie généralement utilisée par des entreprises qui ont de très gros volume de données à traiter. A titre informatif, Twitter et Facebook l’utilisent à l’heure actuelle. Yahoo l’a utilisé jusqu’en 2009, avant de s’associer à Microsoft qui a développé sa propre solution.
Quels outils pour mesurer ces données ?
Il existe pléthore d’outils de mesure selon les paramètres que vous souhaitez observer. La conférence parlait essentiellement de référencement (SEO notamment). Ceux qui me connaissent savent que je préfère de loin d’autres méthodes pour obtenir du trafic, mais comme c’est un sujet qui intéresse une bonne partie de mon audience, je vous livre ici quelques détails de la conférence.
Pour les backlinks (liens sur d’autres sites qui pointent sur vos pages) par exemple, les deux meilleurs sont Majestic SEO et ahrefs. Il s’agit en fait de services en ligne plutôt que d’outils (Saas). Vous pouvez analyser en détails vos liens: nombre, qualité, poids dans votre référencement…
Ils peuvent aussi vous aider à identifier d’éventuelles raisons d’une perte de trafic soudaine et inattendue (si vous êtes victime d’une pénalité Google ou de Negative SEO par exemple). Au passage, être dépendant à Google (comme à n’importe quelle autre source de trafic d’ailleurs) est l’une des raisons pour lesquelles, je déconseille généralement de se prendre la tête avec le référencement, sauf si vous avez un business local, ou n’avez vraiment pas le choix (comme c’est le cas de la presse par exemple).
Pour ce qui est du positionnement, Ranks.fr est sans doute l’un des meilleurs, mais relativement onéreux pour du suivi de positionnement. D’autres services sont très intéressants, comme rank tracker (gratuit jusqu’à 50 mots-clés), myposeo ou encore Raven Tools. Ces services sont excellents mais assez chers.
Il existe des logiciels permettant de réduire vos coûts, tels que SEO Soft ou Advanced Webranking par exemple, qui auront toutefois besoin de proxies pour fonctionner rapidement sans risquer de blacklister votre adresse ip: ce qui peut impliquer la location de quelques proxies chez un fournisseur tel que buyproxies.org (qui seront de toute façon moins couteux que l’abonnement à l’un des services cités précédemment).
Pour le reste, vous connaissez et utilisez sans doute déjà Google Analytics ou son alternative open source Piwik. Mais il vous manque encore beaucoup d’informations qui ne sont pas encore analysées et traitées, notamment concernant l’optimisation de vos pages (on-site). La société Cogniteev a développé un outil de monitoring (http://oncrawl.com/) pour pouvoir analyser le On-site. Concrètement, vous pourrez analyser le nombre de niveaux nécessaires pour atteindre une page, obtenir tout un tas de statistiques sur l’utilisation de certains mots-clés dans vos titres, la manière dont vous utilisez les H1, H2 etc. ou encore votre architecture de liens internes.
N’ayant pas encore eu le temps de faire tous mes retours sur l’événement, je vous propose de jeter un oeil sur celui proposé ici par miss-seo-girl: http://www.miss-seo-girl.com/mon-compte-rendu-seocampus-2014-et-les-slides-des-conferences-partie/