Bien sûr, il vaut mieux anticiper les problèmes avant qu’ils ne posent véritablement problème. Si vous anticipez les problèmes avant qu’ils n’aient un impact négatif sur votre trafic naturel vous êtes probablement en train de sauver l’entreprise. C’est la raison pour laquelle tous mes clients sont sur ContentKing.

Salut Gerry! Est-ce que tu peux te présenter ?

Je suis un geek du marketing digital, généralement impliqué dans les domaines du SEO et de la data. Je suis actuellement à la direction du SEO Technique chez Just Eat qui est un marché international en ligne de livraison de repas à domicile. Je travaille aussi en freelance en tant que responsable de croissance en e-commerce sur DrinksPal.com et j’aide à l’organisation d’un événement occasionnel de marketing digital appelé Take it Offline.

Tu as dit il y a peu que tu sentais que “crawler et faire des rapports constamment serait la prochaine étape”. Pourquoi est-ce que tu penses que ce sera le cas?

Oui, je l’ai dit dans mon article 10 Outils Digitaux Indispensables à Gerry White. Google crawle votre site en permanence, ça représente des milliers de pages par jour sur les gros sites. S’il y a un problème sur votre site, vous ne pouvez pas attendre jusqu’à votre crawling mensuel pour s’assurer que le trafic provenant des moteurs de recherche n’ai pas chuté brusquement. Nous avons tous eu des clients qui ont été informé d’un problème et qui ne s’en sont pas occupé avant que leur trafic plonge dangereusement.

Faire un crawl depuis un ordinateur de bureau vous empêchera souvent de travailler efficacement. Le cloud crawling est la méthode à adopter. La question est la suivante : faut-il prévoir un crawl une ou deux fois par mois ou utiliser un outil qui est constamment en train de veiller sur votre site? Avec beaucoup d’outils, votre budget restreint la fréquence et la profondeur de vos crawls lorsque vous le faites sur l’ensemble de vos sites.

Quels outils utilises-tu pour ça, et comment les utilises-tu?

Dans la trousse à outil de Just Eat on trouve un monitoring de données de haut niveau pour voir si les moteurs de recherche ou le trafic utilisateur agissent différemment. En plus de ça on utilise beaucoup Screaming Frog pour vérifier nous-même, les nouvelles informations de Google Search Console qui sont de plus en plus utiles mais qui peuvent être décalées de quelques jours.

La plupart de nos clients sont sur Google Analytics parce que Google Analytics a une excellente API, et un compte bien configuré en dira long sur ce qui se passe sur votre site, tout particulièrement depuis que vous pouvez transférer ces données à autant d’endroits et sur autant d’outils.

Bien sûr, il vaut mieux anticiper les problèmes avant qu’ils ne posent véritablement problème. Si vous anticipez les problèmes avant qu’ils n’aient un impact négatif sur votre trafic naturel vous êtes probablement en train de sauver l’entreprise. C’est la raison pour laquelle tous mes clients sont sur ContentKing.

Pourquoi penses-tu qu’il est important de monitorer constamment les sites et d’avoir accès aux données en temps réel?

Les clients ajoutent du code plusieurs fois par semaine, parfois plusieurs fois par jour (un seul bug qui n’est pourtant pas visible pour les utilisateurs et les utilisatrices peut ajouter ou supprimer quelque chose et donc impacter significativement vos performances de référencement naturel. On a vu des pages tests supprimer des directives robots noindex ou encore des pages en ligne créer des crawler traps.

Comment est-ce que cette nouvelle tendance a changé ta façon de faire du SEO?

Je peux faire des vérifications rapides avec beaucoup de clients en utilisant la fonction “historique des modifications” de ContentKing pour repérer rapidement les données analytiques du compte à propos d’une page et voir que tous les changements effectués sur cette page durant la campagne sur laquelle on a travaillé ont été monitorés continuellement. Je peux même voir lorsque les balises titres ont été mises à jour ou lorsque les balise canoniques a été mises en place pour mener à la page d’accueil, en sachant exactement quand est-ce que c’est arrivé, ce qui permet d’isoler quel JIRA a été mis en ligne à ce moment-là.

Je travaille sur plusieurs sites en même temps. Moins je passe de temps à vérifier les problèmes basiques de SEO, plus j’ai le temps d’avancer, de repérer les nouvelles opportunités qui feront la différence ainsi que les problèmes. Avoir une vision en temps réel des sites sur lesquels je travaille est essentiel pour un développement plus rapide.

Quel format les utilise-tu pour ce qui est des comptes rendus permanents?

Google Data Studio fait partie intégrante de mon quotidien maintenant : ce n’est pas seulement pour les comptes rendus, c’est devenu un outil d’analyse puissant et une façon de demander des données depuis les APIs. Dans le futur, tout sera en un seul rapport avec un mélange de données et plus, mais pour l’instant j’ai toujours besoin d’utiliser quelques outils supplémentaires.

J’aime beaucoup les données de Sistrix, avec une visibilité quotidienne sur les mises à jour. C’est un autre outil qui peut nous alerter à travers plusieurs sites et plusieurs pays (et qui se concentre sur les téléphones portables). Sistrix est mon outil favori concernant la visibilité, mais pour les mots-clefs spécifiques on utilise généralement AccuRanker et avec notre agence nous avons accès à SEOmonitor (ces deux outils sont des leaders bien implantés sur le marché et comme les données peuvent être extraites de Google Data Studio par un connecteur gratuit, c’est l’approche choisie par de plus en plus d’entreprises).

Quel genre de rapport as-tu mis en place et quels ICPs utilises-tu dans tes compte-rendus?

J’ai tendance à éviter les compte-rendus autant que faire ce peut et je privilégie les recherches et l’intelligence : personne ne lit les rapports de données hebdomadaires ou mensuels à moins que ce soit une partie essentielle de leur rôle, raison pour laquelle je me concentre sur ce qui s’est passé, pourquoi et l’impact que ça à eu, qu’il soit positif ou négatif. Il faut que ce soit concret ou que cela prouve qu’il y ait besoin d’enquêter d’avantage sur tel ou tel point.

J’ai aussi tendance à faire une fixation sur la segmentation : en utilisant Data Studio, les instructions “case” et Google Tag Manager, vous pouvez vous en tirer plus rapidement pour améliorer la segmentation des types de visiteurs (par exemple les utilisateurs et les utilisatrices qui sont connectées, le type de page, ou encore les statuts de pages tels que les 404).

Si tu pouvais donner un conseil aux SEOs en matière de data SEO en temps réel, quel serait-il?

Vous ne pouvez pas tout surveiller de partout. N’en faites pas une obsession.

Cela dit, les tableaux de bords interactifs qui utilisent les données SEO en temps réel sont définitivement une perspective d’avenir. C’est une tendance qui va se développer à l’avenir et je suis assez confiant pour prédire que 2020 verra plus d’alertes intelligentes basées sur l’apprentissage significatif des machines.

Poursuivre votre lecture sur les interviews approfondi avec les spécialistes en SEO

Vous pouvez aller voir nos articles précédents de SEO en Gros PLan ici :

  1. Pourquoi les Crawler Traps peuvent sérieusement endommager votre SEO avec Dawn Anderson
  2. Pourquoi votre process SEO doit rester agile avec Kevin Indig
  3. Faire avancer les choses avec le Edge SEO avec Dan Taylor
Steven van Vessum

Steven est le Chef de l’expérience client dans l’entreprise ContentKing. Cela signifie qu’il s’occupe de tout lié avec les clients et avec l’inbound marketing. C’est là où il veut être. Il aime améliorer le référencement des sites web dans les moteurs de recherche et parler de l’inbound marketing.

Commencer votre essai gratuit de 14 jours

Vous pouvez commencer en 20 secondes

Insérez un nom de domaine valide, s'il vous plaît (www.exemple.fr).
  • La carte de crédit n'est pas requise
  • Aucune installation requise
  • Sans engagement