Google Search Console et big query : tutoriel étape par étape

analyse google search console big query
Table des matières

Même si la Google Search Console fournit des données extrêmement intéressantes, les exportations des mots-clés générant des impressions et des clics vers votre site sont néanmoins limitées. Big Query est une solution pour exporter de gros volumes de données.

BigQuery est un outil de stockage et d’analyse utilisant le langage SQL. En mettant en place une méthodologie définie et en utilisant les bonnes ressources pour votre stratégie SEO, BigQuery vous donne des possibilités intéressantes d’évolution.

Les exports de la Google Search Console sans passer par l’API se limitent à 1000 lignes. Pour les sites qui génèrent un gros volume de données, cette limite est restrictive, bien évidemment. L’utilisation de l’API devient alors incontournable pour exploiter pleinement les données fournies par la GSC.

Compréhension des outils

Qu’est-ce que la Google Search Console et pourquoi est-elle indispensable ?

La Google Search Console est un outil performant, gratuit, complet et incontournable pour les webmasters. Fournie par Google, la Search Console analyse, indexe, surveille et résous les problèmes des sites web liés aux résultats de recherche de Google. Tous les éléments recueillis par la plateforme représentent une source précieuse pour votre optimisation : performances, requêtes, impressions, clics, etc. 

Pourquoi BigQuery est-il un allié de poids dans l’analyse des données ?

BigQuery est une plateforme de big data présente sur le cloud de Google. Son objectif principal ? L’analyse en temps réel de données. C’est un outil puissant qui exécute des requêtes SQL. Les données importées de la Google Search Console dans BigQuery, sont stockées dans un espace sécurisé afin d’être analysées puis extraites pour votre stratégie SEO. 

Comment la combinaison de GSC et BigQuery enrichit-elle votre stratégie SEO ?

L’abondance des données de la Search Console associée à la puissance analytique de BigQuery procure aux analystes une solution d’optimisation efficace pour le SEO. Les possibilités d’analyse se multiplient grâce à l’extraction d’informations auparavant inaccessibles. 

Besoin d’aide pour vos exports ? Faites appel à une agence de référencement naturel technique.

Intégration de GSC et BigQuery

Pourquoi intégrer la Google Search Console et BigQuery est-il stratégique ?

L’intégration entre la Google Search Console et BigQuery est une démarche stratégique incontournable pour amplifier les actions SEO et la capacité d’analyse des données. L’interface utilisateur de la GSC limite l’export de données à 1000 lignes. L’association des deux outils présente l’avantage de passer outre ces limites. L’utilisation de l’API de la Google Search Console et l’automatisation du transfert des données vers l’outil BigQuery garantit l’accès à des résultats d’analyses pointues et fiables. 

Comment les méthodologies d’intégration peuvent-elles être mises en œuvre ?

Pour profiter de l’association de la Search Console et de BigQuery, diverses méthodes sont proposées. L’utilisation de Python pour extraire les données via l’API de la GSC et les charger dans BigQuery est l’approche la plus courante. Cette méthode est flexible, comme le détaillent les développeurs de Google. Supermetrics, quant à lui, gère l’extraction et le chargement des données. C’est une alternative moins technique mais tout autant intéressante.

Quels sont les principaux défis et solutions lors de l’intégration ?

L’intégration de données n’est pas exempte de soucis plus ou moins graves. Des erreurs d’API, des limites de requêtes et la gestion de grands volumes de données peuvent laisser apparaître des problèmes nécessitant de trouver des solutions fiables. Diverses possibilités sont alors à envisager : mise en œuvre de stratégies de gestion des erreurs robustes, utilisation de backoffs en cas d’erreurs d’API, et mise en place de pratiques plus performantes lors de l’utilisation de BigQuery. Découvrez les  meilleures pratiques pour les comptes utilisateurs sur Google Cloud.

Voir aussi :   Server-side rendering et SEO : risques, fonctionnement et bonnes pratiques

Comment configurer un nouvel export de données en masse ?

Lors d’une exportation de données massives, vous devez respecter les étapes ci-dessous :

Étape 1: Accédez à votre compte BigQuery

Étape 2: Sélectionnez le projet correspondant

  • Assurez-vous que vous êtes dans le projet où vous souhaitez stocker les données de la console de recherche.

Étape 3: Accédez au menu

  • Cliquez sur le menu “burger” (les trois lignes horizontales) en haut à gauche de votre écran.

Étape 4: Naviguez vers IAM et admin > IAM

  • Allez dans « IAM et admin » puis sélectionnez « IAM ».

Étape 5: Accordez l’accès

  • Cliquez sur le bouton « GRANT ACCESS » (« Accorder l’accès »).

Étape 6: Ajoutez un nouveau principal

  • Dans « New Principals » (« Nouveaux principaux »), collez le nom du compte de service suivant : [email protected]

Étape 7: Sélectionnez un rôle

  • Cliquez sur le menu déroulant « Select a role » (« Sélectionner un rôle »).

Étape 8: Recherchez et sélectionnez le rôle « BigQuery Job User »

  • Recherchez « BigQuery Job User » et sélectionnez la première option.

Étape 9: Ajoutez un autre rôle

  • Cliquez sur le bouton « + ADD ANOTHER ROLE » (« + AJOUTER UN AUTRE RÔLE »).

Étape 10: Sélectionnez « BigQuery Data Editor » et sauvegardez

  • Sélectionnez « BigQuery Data Editor » dans le menu déroulant et cliquez ensuite sur le bouton « Save » (« Enregistrer »).

Étape 11: Cliquez sur le menu déroulant du projet

  • Cliquez sur le menu déroulant du projet.

Étape 12: Copiez votre ID de projet

  • Copiez votre ID de projet.

Étape 13: Connectez-vous à votre compte Google Search Console avec les permissions « propriétaire »

  • Connectez-vous à votre compte Google Search Console et assurez-vous d’avoir les permissions « owner » (« propriétaire »).

Étape 14: Accédez aux paramètres

  • Faites défiler la page vers le bas, trouvez et cliquez sur « Settings » (« Paramètres »).

Étape 15: Cliquez sur « Bulk Data Export » sous « General Setting »

  • Cliquez sur « Bulk Data Export » (« Exportation de données en masse ») sous « General Setting » (« Paramètres généraux »).

Étape 16: Entrez votre ID de projet BigQuery et continuez

  • Entrez votre ID de projet BigQuery et cliquez ensuite sur le bouton « Continue » (« Continuer »).

Étape 17: Configurez l’exportation

  • Cliquez sur le bouton « Set up export » (« Configurer l’exportation »).

Étape 18: Terminez la configuration

  • Cliquez sur le bouton « Done » (« Terminé »).

Étape 19: Accédez à Google Cloud Platform après 48 heures

Voir aussi :   Histoire de Google : création, fondateurs, anecdotes et évolution

Étape 20: Ouvrez le menu de navigation

  • Cliquez sur le menu de navigation en haut à gauche.

Étape 21: Accédez à l’espace de travail SQL BigQuery

  • Recherchez « BigQuery » en faisant défiler vers le bas puis cliquez sur « SQL Workspace » (« Espace de travail SQL »).

Analyse des données

Comment explorer les données dans BigQuery ?

Une fois les données de la Google Search Console chargées dans BigQuery, le travail d’analyse peut commencer. Généralement, l’exploration des données débute par des requêtes SQL. Elles permettent de sonder les données, d’identifier les tendances du moment et d’explorer les domaines méritant une investigation plus poussée. Citons pour exemple : une requête banale pourrait viser à identifier les pages les plus performantes en termes de clics ou d’impressions au cours d’une période prédéfinie.

Pourquoi et comment visualiser vos données ?

Google Data Studio, Looker ou Tableau vont vous permettre de créer des tableaux de bord interactifs. Vos données vont devenir actionnables et modifiables. Notez qu’avec l’outil Google Data Studio, l’intégration avec BigQuery est relativement facile. La visualisation est faite en temps réel sur la base des données les plus récentes. 

Comment l’optimisation SEO peut-elle être guidée par vos analyses de données ?

Une fois les données de la GSC dans BigQuery analysées, des opportunités d’optimisation SEO peuvent se révéler intéressantes à travailler. Identifier les pages nécessitant un travail d’optimisation ou les problèmes techniques par exemple. En fonction des résultats de l’analyse, vous pouvez ensuite apporter les modifications nécessaires à votre contenu. Les erreurs 404, décelées par l’outil peuvent être aussitôt résolues.

Analyse des données avec exemples d’export SEO

Comment identifier les pages les plus performantes ?

Les dix meilleures pages sont présentées par l’outil d’analyse. La requête pour accéder à ces données est :  

SELECT page, SUM(clicks) as total_clicks, SUM(impressions) as total_impressions
FROM `your_project_id.your_dataset_id.your_table_id`
GROUP BY page
ORDER BY total_clicks DESC
LIMIT 10;

Cette requête vous donnera un aperçu des 10 pages les plus cliquées de votre site.

Comment trouver les requêtes avec un faible taux de clics (CTR) ?

Un faible CTR indique principalement un décalage entre l’attente des utilisateurs (basée sur la requête de recherche) et le contenu présenté dans les SERP. Une requête à fort volume d’impressions mais dotée d’un faible CTR laisse présager qu’avec une modification du titre ou de la description, l’impact sur l’optimisation pourrait être significatif. Pour identifier ce type d’opportunités, la requête est :

SELECT query, AVG(ctr) as avg_ctr, SUM(impressions) as total_impressions
FROM `your_project_id.your_dataset_id.your_table_id`
GROUP BY query
HAVING total_impressions > 100
ORDER BY avg_ctr ASC
LIMIT 10;

Comment repérer les opportunités de mots-clés à longue traîne ?

Les mots-clés de longue traîne sont nettement moins concurrentiels que les mots-clés de courte traîne. Ils représentent des opportunités intéressantes pour améliorer votre SEO. De nouvelles niches peuvent être alors exploitées. La requête pour repérer ces mots-clés est :  

SELECT query, SUM(clicks) as total_clicks
FROM `your_project_id.your_dataset_id.your_table_id`
WHERE LENGTH(query) > 5 AND total_clicks < 10
GROUP BY query
ORDER BY LENGTH(query) DESC
LIMIT 10;

Comment identifier les pages avec un positionnement moyen faible ?

Repérer les pages pouvant bénéficier d’une amélioration de positionnement est possible avec la requête suivante :

SELECT page, AVG(position) as avg_position
FROM `your_project_id.your_dataset_id.your_table_id`
GROUP BY page
ORDER BY avg_position DESC
LIMIT 10;

Les pages avec une position moyenne élevée (plus éloignées de la position 1) peuvent devenir intéressantes pour une optimisation SEO ciblée, notamment en matière de contenu, de balises de titre et de backlinks.

Voir aussi :   E-E-A-T de Google : Le guide SEO complet

Meilleures pratiques et maintenance

Comment assurer la continuité de l’intégration des données ?

Pour garantir une intégration en continu des données de la Google Search Console et BigQuery, l’automatisation est recommandée. Automatisez l’extraction, la transformation et le chargement ! Réduisez au maximum l’intervention manuelle et les erreurs potentielles ! Soyez informé immédiatement en cas de défaillance en bénéficiant des outils de surveillance et d’alerte à votre disposition.

Pourquoi et comment gérer les coûts de BigQuery ?

Gérez scrupuleusement les coûts associés à l’utilisation de BigQuery afin d’éviter toutes dépenses inattendues. Optimisez vos requêtes et profitez des outils de gestion des coûts de BigQuery pour définir budgets et alertes. Supprimez les informations plus d’actualités avec l’intermédiaire des partitions de tables afin de bénéficier d’une performance optimale de vos requêtes sera améliorée et de réduire au mieux vos coûts.

Comment garantir la sécurité et la conformité des données ?

Google recommande certaines pratiques spécifiques de sécurité si vous associez BigQuery à vos analyses. Dès lors que vous traitez des informations clients, la sécurité des données récoltées doit être prise en compte. Veillez à respecter les réglementations applicables (RGPD, CCPA).

Comment assurer la qualité des données dans le temps ?

Pour garantir le niveau de fiabilité de vos données, vous devez procéder à des vérifications de qualité des données dans vos pipelines ETL. L’ajout de solutions de surveillance est idéal pour être informé d’éventuels problèmes liés aux données. Le processus doit être suffisamment approvisionné en information actualisée.

Faites décoller votre référencement naturel avec une agence SEO reconnue à Lille.

FAQ sur l’intégration de GSC et BigQuery

Pourquoi intégrer GSC avec BigQuery ?

L’intégration de GSC et BigQuery est une solution efficace pour accéder à des analyses SEO approfondies, dépassant les capacités d’exportation standard de la Google Search Console. Le volume des données est illimité et l’outil offre puissance et flexibilité.

Quels sont les principaux défis de l’intégration ?

Les défis comprennent la gestion des erreurs d’API, la gestion de volumes de données considérables, et la configuration appropriée de l’API GSC pour assurer un flux de données stable.

Dois-je avoir des compétences en codage pour intégrer GSC et BigQuery ?

Connaître le codage, en particulier Python, offre des avantages certains pour l’extraction des données via API et SQL pour les requêtes dans BigQuery. Mais des outils comme Supermetrics sont des solutions d’intégration accessibles sans codage.

Comment puis-je optimiser les coûts lors de l’utilisation de BigQuery ?

La rédaction de requêtes SQL efficaces vous permet de gérer vos coûts, notamment en effectuant un tri et une mise à jour des données stockées. 

L'actu SEO sur votre mail tous les 15 jours
PartageR :