Présentation
Seolyzer est un outil en ligne, made in France, qui analyse gratuitement les logs Google en temps réel.
Encore confidentiel, je profite de cet article pour vous faire connaître cet outil génial que j’ai depuis, placé dans ma barre de favoris.
Explication
Pour commencer, il est important de comprendre le fonctionnement (nébuleux) de Google. Le moteur de recherche n° 1 dans le monde avec 93% de part de marché en France doit indexer les sites internet. Il utilise pour cela des crawlers, bots ou spiders.
Les crawlers vont indexer les contenus des pages web et ainsi faire monter ou descendre une page.
La maîtrise du crawl est un élément important dans le référencement naturel ou SEO. On parle alors de techniques d’optimisation du crawl Google et d’optimisation du budget de crawl.
Les analyses
Avec Seolyzer vous pourrez voir :
Volume de crawl
C’est le nombre de passage du bots Google sur tel ou tel page.
Codes HTTP
Hyper pratique pour déceler en temps réel les erreurs 404, des redirection 301 ou 200 quand tout va bien.
Performance par page
Affichage de la vitesse des temps de réponses pour chaque page. Cela vous permettra de voir quelle page est longue à charger et rapidement faire le nécessaire pour l’optimiser.
Performance moyenne
C’est le temps de réponse moyen des pages crawlées par Googlebot.
Pages actives
Ici vous afficherez le volume de pages uniques ayant généré au moins une visite SEO.
Nouvelles pages
Affichage des pages crawlées pour la première fois (depuis le début de l’analyse)
Pages les plus crawlées
On comprend facilement l’intitulé. On verra le nombre de passage des bots pour chaque page.
Crawl desktop vs mobile
Sans doute la fonctionnalité la plus pratique du moment. On voit en un coup d’oeil le partage de crawl entre Googlebot Desktop et Googlebot Mobile. On sait que Google commence à prioriser les pages mobiles. Pour ma part je constate sur mon site que c’est toujours Googlebot Desktop qui est devant avec 82,5% contre 17,5% pour Googlebot Mobile.
Crawl HTTP vs HTTPS
C’est le volume de pages crawlées par Googlebot en HTTP et HTTPS.
Visites SEO
Ce sont les visites d’utilisateurs provenant de Google.
Bon vous voyez que le menu fait envie… Je vous propose donc de passer à la partie Installation.
Installation
Elle est simple, n’ayez pas peur. Pas besoin de connaissance particulière en programmation. Vous allez juste avoir besoin de l’accès FTP du site que vous souhaitez analyser.

Cliquez sur « S’inscrire, c’est gratuit ».
Ajoutez l’adresse complète du site internet. Vous pourrez rajouter plusieurs entités.
Pour cet exemple j’ai choisi le site de ma copine : www.16bijoux.com. Son site est hébergé sur OVH. Donc ici je vais cliquer sur Hébergement mutualisé.
La première étape consiste à télécharger le fichier php et le placer à la racine de votre site. Vous pouvez utiliser Filezilla ou un autre client FTP. Ici j’ai utilisé le client FTP (moche) de chez OVH.
Ici on peut voir le fichier php seolyzer dans la racine du site.
Pour la deuxième étape il faudra ouvrir votre fichier wp-config.php pour un site sous WordPress ou config.inc.php pour Prestashop.
Là aussi j’ai utilisé l’éditeur de fichier d’OVH. Il faut placer le code tout en haut du fichier comme sur la capture ci-dessus.
Et pour finir, on test en cliquant sur le bouton « Tester l’installation ».
Oh Yeah ! Le site est bien configuré. Si vous avez un message d’erreur, faites-le-moi savoir dans les commentaires.
Maintenant il va falloir patienter le temps que l’outil collecte les premières données.
Les premières analyses
La patience est d’or. Voilà ! les premiers résultats sont accessibles. Il faudra attendre 24 à 48h pour pouvoir découvrir toutes les analyses. Vous allez rapidement comprendre toutes les fonctionnalités.
L’outil est simple à mettre en place et vous pouvez dialoguer par chat avec l’auteur de ce projet : Olivier PAPON.
One more thing ! Les groupes
Je viens de le configurer sur mon site. Il s’agit de regrouper des pages dans des groupes. Les groupes sont analysés comme des pages.
J’ai regroupé mes pages liées à internet, le Design, le Marketing dans des groupes. Idem pour les plans sitemaps.xml, les articles du blog et enfin la page d’accueil. Sur les 30 derniers jours, je peux voir un aperçu des catégories les plus crawlés par Google. Ici on voit très nettement que les sitemaps sont les plus indexés.
Conclusion
Alors oui d’autres outils existent mais sont souvent payants. Vous pouvez aussi utiliser la console Google mais les infos sont décalés de 3 jours. C’est donc trop tard pour corriger un éventuel problème sur une page.
Note pour le développeur : Pourrait-on imaginer un paramétrage d’alertes émail ? Par exemple, un nombre anormal de pages 404 détectés ou si une page est plus longue à charger que lors du dernier scan.