Posted on / by Abdelkhalek / 1 comment

5 Astuces pour utiliser au mieux les données de la search console de google

Google Search Console est un ensemble d’outils et de rapports qui permettent aux webmasters (et à quiconque exploite un site) de surveiller, gérer et améliorer leurs sites. Il s’agit d’un service Web fourni gratuitement par Google, qui vous donne des informations sur votre site et les personnes qui le visitent.

L’utilisation de Google Search Console (et des données fournies) peut rendre l’optimisation de votre site beaucoup plus facile.

Pour profiter au mieux de ces données sans se laisser abuser par les failles, voici les combines proposées par des experts du tracking.

Filtrer les données du search

L’utilisation des filtres dans le rapport de performance de la Search Console n’a rien de nouveau. En effet, il était possible jusqu’alors de filtrer les données proposées selon 3 critères : contenant une chaîne, ne contenant pas une chaîne et correspondant exactement à une chaîne.

Toutefois, ces filtres omettaient les requêtes se trouvant à la croisée de ces conditions, et ne permettaient pas, par exemple, de faire ressortir une requête contenant une chaîne parmi plusieurs chaînes optionnelles. L’introduction par Google des regex dans la Search Console permettra de contourner cette faille en créant des filtres plus complexes, pouvant mettre en évidence toutes les URLs de pages et les requêtes relatives à votre marque ou à vos produits.

L’arrivée des filtres regex dans le rapport de performance de la Search Console est loin d’être anecdotique, puisqu’elle vous permettra d’obtenir une vue plus exhaustive des requêtes liées à votre marque et mettre ainsi en évidence des questions ou demandes inédites de la part des internautes. Ces éventuelles pistes inexplorées sont autant de nouvelles opportunités SEO à saisir et viendront nourrir votre stratégie de mots-clés.

Pour utiliser les filtres d’expressions régulières dans le rapport de performances, cliquez sur le bouton + Nouveau, puis sur Requête et sélectionnez “Personnalisée (expression régulière)”, puis saisissez la regex de votre choix dans la syntaxe RE2. Vous pouvez tester votre expression régulière sur cet outil en ligne ou consulter la page d’aide Google sur les filtres regex.

Le rapport de couverture de l’index de Google Search Console indique l’état d’indexation de toutes les URL que Google a explorées ou tenté d’explorer dans votre propriété.

Se reposer sur le rapport de la couverture

Le rapport de couverture de la Google Search Console fournit de nombreuses informations sur les pages de votre site qui sont indexées. Il liste également les problèmes rencontrés par le Googlebot lors du crawl et de l’indexation.

La page principale dans le rapport de couverture montre les URLs de votre site groupées par statuts :

Erreur : la page n’est pas indexée. Il peut y avoir plusieurs explications à cela comme par exemple une page répondant en 404.

Valide avec avertissement : la page est indexée mais rencontre des problèmes.

Valide : la page est indexée.

Exclue : la page n’est pas indexée, Google a suivi les règles de votre site comme les balises noindex dans le robots.txt, les balises meta et canoniques… Ces règles peuvent empêcher les pages d’être indexées.

Ce rapport de couverture fournit bien plus d’informations que celui de l’ancienne Search Console. Google a réellement amélioré les données qu’il partage mais il y a encore certains points qui ont besoin d’amélioration.

Google montre un graphique avec le nombre d’URLs dans chaque catégorie. S’il y a une augmentation soudaine des erreurs, vous pouvez analyser les données et même les mettre en relation avec les impressions. Cela permettrait de déterminer si une augmentation des URLs en erreur ou des avertissements fait dangereusement chuter vos impressions.

La page récapitulative affiche les résultats de toutes les URL de votre propriété, regroupées par état (erreur, avertissement ou valide) et le motif spécifique de cet état (tel que URL envoyée introuvable (404)).

Cliquez sur une ligne du tableau pour afficher toutes les URL ayant le même état ou le même motif et pour en savoir plus sur le problème.

Le rapport enregistre également toutes les erreurs rencontrées par Googlebot lors de l’exploration d’une page.

Toutefois, Google précise dans sa page d’aide

Il n’est pas nécessaire de vérifier le rapport de couverture de l’index tous les jours, dixit Google, parce que des e-mails seront envoyés chaque fois que la Search Console détecte une nouvelle erreur d’indexation.

Toutefois, si une erreur existante s’aggrave, Google n’enverra pas de notification par e-mail. Il est donc nécessaire de vérifier le rapport au moins de temps en temps pour s’assurer que rien ne va de mal en pis. Ce sont les bases du rapport de couverture de l’index de Google Search Console.

Les signaux Web vitals, à consommer avec modération

L’optimisation de la qualité de l’expérience utilisateur est la clé du succès à long terme de tout site sur le Web. Que vous soyez propriétaire d’une entreprise, responsable marketing ou développeur, les signaux Web essentiels ou vitaux peuvent vous aider à mesurer l’expérience de votre site et à identifier les opportunités d’amélioration.

Le rapport des signaux web essentiels est une initiative de Google visant à fournir des conseils unifiés pour les signaux de qualité qui sont essentiels pour offrir une expérience utilisateur exceptionnelle sur le Web et au même temps pour mesurer la performance des pages web. D’ailleurs l’expérience utilisateur (Expérience de page) devient un facteur de classement en mai 2021.

Google a fourni un certain nombre d’outils au fil des ans pour mesurer les performances des pages web et aider les SEO à réduire le temps de chargement de leur site web. Certains propriétaires de sites sont devenus experts dans l’utilisation de ces outils, mais plusieurs d’autres ont trouvé de la difficulté à suivre l’abondance d’outils et de métriques qui ne cessent de chargent au fil du temps.

Les propriétaires de sites ne devraient pas être des gourous de la performance pour comprendre la qualité de l’expérience qu’ils offrent à leurs utilisateurs. L’initiative de rapport sur les signaux web essentiels (Core Web Vitals) vise à simplifier le travail des propriétaires des sites et à leur aider à ressourdre leur problème liés à la performance et aux mesures les plus importantes de leur site web, soient les Core Web Vitals. L’ensemble de ces signaux concerne l’expérience utilisateur mais en particulier les facons d’accélerer la vitesse de votre site web.

Si vous recherchez le rapport de la vitesse de votre site dans Google Search Console, il ne porte plus ce nom. Google a discrètement remplacé le nom du rapport de la vitesse par Signaux Web essentiels.

Lorsque vous vous connectez à Google Search Console, Google vous affichera une notification concernant ce nouveau rapport qui vous indique si vous avez des problèmes vitaux avec votre site, comme la vitesse de chargement de votre site et autres signaux essentiels liés à l’expèrience utilisateur que nous allons détailler dans cet article.

Google élargit rapidement le nombre d’outils et les façons dont les propriétaires de sites peuvent mesurer les signaux Web essentiels (Core Web Vitals), en particulier tester la vitesse de chargement de leur site. Google offre désormais 6 façons pour mesurer la santé de votre site, en particulier les signes vitaux. Ça veut dire des signaux qui sont vitaux pour votre web, il s’agit de vie ou de mort de votre site.

Core Web Vitals (signaux Web essentiels) a été introduit il y a quelques semaines à peine et, à l’époque, il ne pouvait être mesuré qu’à l’aide du rapport Chrome UX.

Avec l’annonce de l’intégration de Core Web Vitals (signaux Web essentiels) dans l’algorithme de classement, Google ajoute des capacités de mesure à bon nombre de ses outils existants.

Les valeurs vitales (signaux Web essentiels du Web de base) peuvent désormais être mesurées en utilisant:

Search Console

PageSpeed ​​Insights

Lighhouse

Chrome DevTools

Rapport Chrome UX

Extension Web Vitals

 Ajouter des propriétés pour éclairer les échantillons

Il est très important d’utiliser une taille correcte pour votre échantillon.  S’il est trop grand, ça peut créer des coûts inutiles et des retards.  Quand votre échantillon est trop petit, les résultats ne sont pas statistiquement significatifs et aucune conclusion fiable ne peut être tirée.

Il existe différentes méthodes d’échantillonnage, dont l’échantillon aléatoire est le plus connu.  Avec cette méthode, chaque individu de la population a la même probabilité de figurer dans l’échantillon.  Sur la page ‘assistance’ de notre site vous trouverez un outil utile pour facilement calculer la taille minimale de votre échantillon pour un projet basé sur un échantillon aléatoire.  Pour faire cela, il faut remplir quelques paramètres comme la taille de la population la marge d’erreur préférée et le niveau de confiance désiré….

Attention : le niveau de confiance et la marge d’erreur sont, comme déjà dit, seulement valables pour des échantillons représentatifs et aléatoires. En plus, les propriétés ou variables examinées doivent suivre la loi normale.  Pour des échantillons supérieurs à 30, la loi normale est en général une bonne approximation de la distribution réelle (voir théorème central limite). Ca ne ‘s applique pas aux échantillons plus petits où la loi de Student est plus appropriée.  L’outil de calculation sur le site n’est pas convenable pour ce type d’échantillons.

Passer à la vitesse supérieure avec I’API

Le futur du travail et de la collaboration s’inscrit dans un monde de flux, d’interactions, d’échanges, d’interfaces, d’applications. Les développeurs sont les batisseurs de ce monde en réseau. Nous sommes heureux de leur ouvrir aujourd’hui une première interface d’échange de données et inaugurer par la même occasion un site web d’informations techniques.

Les clients de l’API utilisent des appels HTTP pour demander une ressource (une méthode GET) ou envoyer des données au serveur (une méthode POST), ou l’une des autres méthodes HTTP prises en charge par l’API. GET et POST sont les méthodes les plus fréquemment utilisées, mais d’autres méthodes comme HEAD, PUT, PATCH, DELETE, CONNECT, OPTIONS ET TRACE peuvent également être prises en charge. La documentation de l’API montre les méthodes disponibles prises en charge par l’API

Sans état:  Une application sans état ne maintient pas de connexion ni ne stocke d’informations entre deux requêtes du même client. Un client fait une requête, l’API exécute l’action définie dans la requête et répond. Une fois que l’API a répondu, elle se déconnecte et ne conserve aucune information sur le client dans sa mémoire active. L’API traite chaque requête comme une première demande.

Avec mise en cache:  Une API REST doit normalement permettre la mise en cache des données fréquemment demandées. Pour réduire la bande passante, la latence et la charge du serveur, une API doit pouvoir identifier les ressources pouvant être mises en cache, déterminer qui peut les mettre en cache et décider pendant combien de temps elles peuvent rester dans le cache.

Interface uniforme:  Le client interagit avec le serveur selon une manière définie, indépendamment de l’appareil ou de l’application.

Identification des ressources: :  L’API doit avoir un URI (identifiant de ressource uniforme) spécifique pour chaque ressource, tel que /monitor/{monitorGuid} de Uptrends API version 4.

Auto-descriptif : Comprend des métadonnées telles que Content-Type qui décrit comment interpréter la réponse. En savoir plus sur les types MIME.

HATEOAS (Hypermédia comme moteur d’état de l’application) :  la réponse du serveur comprend les URI des méthodes supplémentaires auxquelles le client peut accéder à l’aide des données de réponse. En savoir plus sur HATEOAS.

Système en couches:  Une API peut avoir plusieurs couches, telles que des serveurs proxy ou des dispositifs de répartition de charge, et le serveur d’extrémité peut déployer des serveurs supplémentaires pour formuler une réponse. Le client ne sait pas quel serveur répond à la requête. Un système en couches rend une API plus évolutive.

Code sur demande (facultatif):  L’API peut envoyer du code exécutable tel que des applets Java ou JavaScript.

Presque tout ce qui se passe sur Internet implique des API. Les API fonctionnent en arrière-plan pour effectuer des tâches telles que la validation d’adresses, le traitement des cartes de crédit, la réservation ou la planification de rendez-vous.

La concurrence est très forte sur internet, et elle ne cesse d’augmenter. Dans ces conditions-là, un référencement efficace et l’optimisation SEO de votre site sont indispensables pour la réussite de votre projet web.

Si votre site n’apparaît pas sur une bonne position sur les moteurs de recherche (Google, en l’occurrence), vous aurez du mal à concurrencer sur vos mots clés et attirer de la clientèle. Nous vous proposons la conception du site avec son référencement pensé en amont. Pour les sites existants, nous proposons des actions d’optimisation du SEO et d’amélioration de votre visibilité.

Google Search Console est un ensemble d’outils et de rapports qui permettent aux webmasters (et à quiconque exploite un site) de surveiller, gérer et améliorer leurs sites. Il s’agit d’un service Web fourni gratuitement par Google, qui vous donne des informations sur votre site et les personnes qui le visitent.

L’utilisation de Google Search Console (et des données fournies) peut rendre l’optimisation de votre site beaucoup plus facile.

Pour profiter au mieux de ces données sans se laisser abuser par les failles, voici les combines proposées par des experts du tracking.

Filtrer les données du search

L’utilisation des filtres dans le rapport de performance de la Search Console n’a rien de nouveau. En effet, il était possible jusqu’alors de filtrer les données proposées selon 3 critères : contenant une chaîne, ne contenant pas une chaîne et correspondant exactement à une chaîne.

Toutefois, ces filtres omettaient les requêtes se trouvant à la croisée de ces conditions, et ne permettaient pas, par exemple, de faire ressortir une requête contenant une chaîne parmi plusieurs chaînes optionnelles. L’introduction par Google des regex dans la Search Console permettra de contourner cette faille en créant des filtres plus complexes, pouvant mettre en évidence toutes les URLs de pages et les requêtes relatives à votre marque ou à vos produits.

L’arrivée des filtres regex dans le rapport de performance de la Search Console est loin d’être anecdotique, puisqu’elle vous permettra d’obtenir une vue plus exhaustive des requêtes liées à votre marque et mettre ainsi en évidence des questions ou demandes inédites de la part des internautes. Ces éventuelles pistes inexplorées sont autant de nouvelles opportunités SEO à saisir et viendront nourrir votre stratégie de mots-clés.

Pour utiliser les filtres d’expressions régulières dans le rapport de performances, cliquez sur le bouton + Nouveau, puis sur Requête et sélectionnez “Personnalisée (expression régulière)”, puis saisissez la regex de votre choix dans la syntaxe RE2. Vous pouvez tester votre expression régulière sur cet outil en ligne ou consulter la page d’aide Google sur les filtres regex.

Le rapport de couverture de l’index de Google Search Console indique l’état d’indexation de toutes les URL que Google a explorées ou tenté d’explorer dans votre propriété.

Se reposer sur le rapport de la couverture

Le rapport de couverture de la Google Search Console fournit de nombreuses informations sur les pages de votre site qui sont indexées. Il liste également les problèmes rencontrés par le Googlebot lors du crawl et de l’indexation.

La page principale dans le rapport de couverture montre les URLs de votre site groupées par statuts :

Erreur : la page n’est pas indexée. Il peut y avoir plusieurs explications à cela comme par exemple une page répondant en 404.

Valide avec avertissement : la page est indexée mais rencontre des problèmes.

Valide : la page est indexée.

Exclue : la page n’est pas indexée, Google a suivi les règles de votre site comme les balises noindex dans le robots.txt, les balises meta et canoniques… Ces règles peuvent empêcher les pages d’être indexées.

Ce rapport de couverture fournit bien plus d’informations que celui de l’ancienne Search Console. Google a réellement amélioré les données qu’il partage mais il y a encore certains points qui ont besoin d’amélioration.

Google montre un graphique avec le nombre d’URLs dans chaque catégorie. S’il y a une augmentation soudaine des erreurs, vous pouvez analyser les données et même les mettre en relation avec les impressions. Cela permettrait de déterminer si une augmentation des URLs en erreur ou des avertissements fait dangereusement chuter vos impressions.

La page récapitulative affiche les résultats de toutes les URL de votre propriété, regroupées par état (erreur, avertissement ou valide) et le motif spécifique de cet état (tel que URL envoyée introuvable (404)).

Cliquez sur une ligne du tableau pour afficher toutes les URL ayant le même état ou le même motif et pour en savoir plus sur le problème.

Le rapport enregistre également toutes les erreurs rencontrées par Googlebot lors de l’exploration d’une page.

Toutefois, Google précise dans sa page d’aide

Il n’est pas nécessaire de vérifier le rapport de couverture de l’index tous les jours, dixit Google, parce que des e-mails seront envoyés chaque fois que la Search Console détecte une nouvelle erreur d’indexation.

Toutefois, si une erreur existante s’aggrave, Google n’enverra pas de notification par e-mail. Il est donc nécessaire de vérifier le rapport au moins de temps en temps pour s’assurer que rien ne va de mal en pis. Ce sont les bases du rapport de couverture de l’index de Google Search Console.

Les signaux Web vitals, à consommer avec modération

L’optimisation de la qualité de l’expérience utilisateur est la clé du succès à long terme de tout site sur le Web. Que vous soyez propriétaire d’une entreprise, responsable marketing ou développeur, les signaux Web essentiels ou vitaux peuvent vous aider à mesurer l’expérience de votre site et à identifier les opportunités d’amélioration.

Le rapport des signaux web essentiels est une initiative de Google visant à fournir des conseils unifiés pour les signaux de qualité qui sont essentiels pour offrir une expérience utilisateur exceptionnelle sur le Web et au même temps pour mesurer la performance des pages web. D’ailleurs l’expérience utilisateur (Expérience de page) devient un facteur de classement en mai 2021.

Google a fourni un certain nombre d’outils au fil des ans pour mesurer les performances des pages web et aider les SEO à réduire le temps de chargement de leur site web. Certains propriétaires de sites sont devenus experts dans l’utilisation de ces outils, mais plusieurs d’autres ont trouvé de la difficulté à suivre l’abondance d’outils et de métriques qui ne cessent de chargent au fil du temps.

Les propriétaires de sites ne devraient pas être des gourous de la performance pour comprendre la qualité de l’expérience qu’ils offrent à leurs utilisateurs. L’initiative de rapport sur les signaux web essentiels (Core Web Vitals) vise à simplifier le travail des propriétaires des sites et à leur aider à ressourdre leur problème liés à la performance et aux mesures les plus importantes de leur site web, soient les Core Web Vitals. L’ensemble de ces signaux concerne l’expérience utilisateur mais en particulier les facons d’accélerer la vitesse de votre site web.

Si vous recherchez le rapport de la vitesse de votre site dans Google Search Console, il ne porte plus ce nom. Google a discrètement remplacé le nom du rapport de la vitesse par Signaux Web essentiels.

Lorsque vous vous connectez à Google Search Console, Google vous affichera une notification concernant ce nouveau rapport qui vous indique si vous avez des problèmes vitaux avec votre site, comme la vitesse de chargement de votre site et autres signaux essentiels liés à l’expèrience utilisateur que nous allons détailler dans cet article.

Google élargit rapidement le nombre d’outils et les façons dont les propriétaires de sites peuvent mesurer les signaux Web essentiels (Core Web Vitals), en particulier tester la vitesse de chargement de leur site. Google offre désormais 6 façons pour mesurer la santé de votre site, en particulier les signes vitaux. Ça veut dire des signaux qui sont vitaux pour votre web, il s’agit de vie ou de mort de votre site.

Core Web Vitals (signaux Web essentiels) a été introduit il y a quelques semaines à peine et, à l’époque, il ne pouvait être mesuré qu’à l’aide du rapport Chrome UX.

Avec l’annonce de l’intégration de Core Web Vitals (signaux Web essentiels) dans l’algorithme de classement, Google ajoute des capacités de mesure à bon nombre de ses outils existants.

Les valeurs vitales (signaux Web essentiels du Web de base) peuvent désormais être mesurées en utilisant:

Search Console

PageSpeed ​​Insights

Lighhouse

Chrome DevTools

Rapport Chrome UX

Extension Web Vitals

 Ajouter des propriétés pour éclairer les échantillons

Il est très important d’utiliser une taille correcte pour votre échantillon.  S’il est trop grand, ça peut créer des coûts inutiles et des retards.  Quand votre échantillon est trop petit, les résultats ne sont pas statistiquement significatifs et aucune conclusion fiable ne peut être tirée.

Il existe différentes méthodes d’échantillonnage, dont l’échantillon aléatoire est le plus connu.  Avec cette méthode, chaque individu de la population a la même probabilité de figurer dans l’échantillon.  Sur la page ‘assistance’ de notre site vous trouverez un outil utile pour facilement calculer la taille minimale de votre échantillon pour un projet basé sur un échantillon aléatoire.  Pour faire cela, il faut remplir quelques paramètres comme la taille de la population la marge d’erreur préférée et le niveau de confiance désiré….

Attention : le niveau de confiance et la marge d’erreur sont, comme déjà dit, seulement valables pour des échantillons représentatifs et aléatoires. En plus, les propriétés ou variables examinées doivent suivre la loi normale.  Pour des échantillons supérieurs à 30, la loi normale est en général une bonne approximation de la distribution réelle (voir théorème central limite). Ca ne ‘s applique pas aux échantillons plus petits où la loi de Student est plus appropriée.  L’outil de calculation sur le site n’est pas convenable pour ce type d’échantillons.

Passer à la vitesse supérieure avec I’API

Le futur du travail et de la collaboration s’inscrit dans un monde de flux, d’interactions, d’échanges, d’interfaces, d’applications. Les développeurs sont les batisseurs de ce monde en réseau. Nous sommes heureux de leur ouvrir aujourd’hui une première interface d’échange de données et inaugurer par la même occasion un site web d’informations techniques.

Les clients de l’API utilisent des appels HTTP pour demander une ressource (une méthode GET) ou envoyer des données au serveur (une méthode POST), ou l’une des autres méthodes HTTP prises en charge par l’API. GET et POST sont les méthodes les plus fréquemment utilisées, mais d’autres méthodes comme HEAD, PUT, PATCH, DELETE, CONNECT, OPTIONS ET TRACE peuvent également être prises en charge. La documentation de l’API montre les méthodes disponibles prises en charge par l’API

Sans état:  Une application sans état ne maintient pas de connexion ni ne stocke d’informations entre deux requêtes du même client. Un client fait une requête, l’API exécute l’action définie dans la requête et répond. Une fois que l’API a répondu, elle se déconnecte et ne conserve aucune information sur le client dans sa mémoire active. L’API traite chaque requête comme une première demande.

Avec mise en cache:  Une API REST doit normalement permettre la mise en cache des données fréquemment demandées. Pour réduire la bande passante, la latence et la charge du serveur, une API doit pouvoir identifier les ressources pouvant être mises en cache, déterminer qui peut les mettre en cache et décider pendant combien de temps elles peuvent rester dans le cache.

Interface uniforme:  Le client interagit avec le serveur selon une manière définie, indépendamment de l’appareil ou de l’application.

Identification des ressources: :  L’API doit avoir un URI (identifiant de ressource uniforme) spécifique pour chaque ressource, tel que /monitor/{monitorGuid} de Uptrends API version 4.

Auto-descriptif : Comprend des métadonnées telles que Content-Type qui décrit comment interpréter la réponse. En savoir plus sur les types MIME.

HATEOAS (Hypermédia comme moteur d’état de l’application) :  la réponse du serveur comprend les URI des méthodes supplémentaires auxquelles le client peut accéder à l’aide des données de réponse. En savoir plus sur HATEOAS.

Système en couches:  Une API peut avoir plusieurs couches, telles que des serveurs proxy ou des dispositifs de répartition de charge, et le serveur d’extrémité peut déployer des serveurs supplémentaires pour formuler une réponse. Le client ne sait pas quel serveur répond à la requête. Un système en couches rend une API plus évolutive.

Code sur demande (facultatif):  L’API peut envoyer du code exécutable tel que des applets Java ou JavaScript.

Presque tout ce qui se passe sur Internet implique des API. Les API fonctionnent en arrière-plan pour effectuer des tâches telles que la validation d’adresses, le traitement des cartes de crédit, la réservation ou la planification de rendez-vous.

La concurrence est très forte sur internet, et elle ne cesse d’augmenter. Dans ces conditions-là, un référencement efficace et l’optimisation SEO de votre site sont indispensables pour la réussite de votre projet web.

Si votre site n’apparaît pas sur une bonne position sur les moteurs de recherche (Google, en l’occurrence), vous aurez du mal à concurrencer sur vos mots clés et attirer de la clientèle. Nous vous proposons la conception du site avec son référencement pensé en amont. Pour les sites existants, nous proposons des actions d’optimisation du SEO et d’amélioration de votre visibilité.

One thought

Leave a Reply

LinkedIn
Share
Instagram