Instructions et exigences de configuration de l'atelier
Protégez votre compte et votre progression. Utilisez toujours une fenêtre de navigation privée et les identifiants de l'atelier pour exécuter cet atelier.
Concepts fondamentaux de Google Cloud : Premiers pas avec BigQuery
Ce contenu n'est pas encore optimisé pour les appareils mobiles.
Pour une expérience optimale, veuillez accéder à notre site sur un ordinateur de bureau en utilisant un lien envoyé par e-mail.
Présentation
Dans cet atelier, vous allez charger un journal de serveur Web dans une table BigQuery. Une fois les données chargées, vous les interrogerez en utilisant l'interface utilisateur Web et la CLI BigQuery.
BigQuery permet d'analyser des bases de données pouvant atteindre plusieurs pétaoctets de manière interactive et en temps quasi réel. Pour plus de facilité, il permet également d'exploiter les fonctions SQL 2011 et de créer des requêtes dans ce langage.
Les données stockées dans BigQuery ont une très grande durabilité. Les données stockées par Google sont répliquées par défaut, et aucuns frais supplémentaires ne sont facturés pour les instances dupliquées. Avec BigQuery, vous payez uniquement les ressources que vous utilisez. D'un point de vue économique, le stockage de données dans BigQuery est avantageux. Le coût des requêtes est fonction du volume de données traitées : lorsque vous envoyez une demande, les nœuds de calcul vous sont facturés uniquement pendant la durée de traitement de la requête. Aucuns frais ne vous sont facturés lorsque vous n'utilisez pas un cluster de calcul.
Lorsque vous utilisez BigQuery, vous interagissez avec un certain nombre de ressources Google Cloud, y compris des projets (sujet abordé dans une autre section du cours), des ensembles de données, des tables et des jobs. Dans cet atelier, vous allez découvrir certaines de ces ressources. Cette brève présentation résume leur rôle dans l'interaction avec BigQuery.
Ensembles de données : les ensembles de données constituent un mécanisme de regroupement qui contient zéro, une ou plusieurs tables. Les ensembles de données représentent le niveau de contrôle des accès le plus bas. Ils sont la propriété des projets GCP, et peuvent être partagés avec des utilisateurs individuels.
Tables : les tables sont structurées selon un modèle ligne-colonne et contiennent les données. Chaque table dispose d'un schéma qui décrit des colonnes de valeurs fortement typées. Chaque table appartient à un ensemble de données.
Objectifs
Cet atelier va vous apprendre à effectuer les tâches suivantes :
Charger des données de Cloud Storage vers BigQuery
Effectuer une requête sur les données dans BigQuery
Tâche 1 : Se connecter à la console Google Cloud
Pour chaque atelier, nous vous attribuons un nouveau projet Google Cloud et un nouvel ensemble de ressources pour une durée déterminée, sans frais.
Connectez-vous à Qwiklabs dans une fenêtre de navigation privée.
Vérifiez le temps imparti pour l'atelier (par exemple : 01:15:00) : vous devez pouvoir le terminer dans ce délai.
Une fois l'atelier lancé, vous ne pouvez pas le mettre en pause. Si nécessaire, vous pourrez le redémarrer, mais vous devrez tout reprendre depuis le début.
Lorsque vous êtes prêt, cliquez sur Démarrer l'atelier.
Notez vos identifiants pour l'atelier (Nom d'utilisateur et Mot de passe). Ils vous serviront à vous connecter à Google Cloud Console.
Cliquez sur Ouvrir la console Google.
Cliquez sur Utiliser un autre compte, puis copiez-collez les identifiants de cet atelier lorsque vous y êtes invité.
Si vous utilisez d'autres identifiants, des messages d'erreur s'afficheront ou des frais seront appliqués.
Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
Vérifiez si la région qui vous a été attribuée est plus proche des États-Unis ou de l'Europe.
Tâche 2 : Charger des données de Cloud Storage vers BigQuery
Dans cette tâche, vous allez importer des données externes depuis un bucket Cloud Storage public directement dans BigQuery en créant un ensemble de données (logdata) et une table (accesslog). Pour ce faire, vous utiliserez le format de fichier CSV et la fonctionnalité de détection automatique de BigQuery pour créer le schéma.
Dans la console Google Cloud, accédez au menu de navigation () et cliquez sur BigQuery, puis sur OK.
Pour créer un ensemble de données dans votre projet, cliquez sur l'icône Afficher les actions à côté de l'ID de votre projet dans la section "Explorateur". Sélectionnez ensuite Créer un ensemble de données.
Dans la boîte de dialogue Créer un ensemble de données, tapez logdata dans le champ ID de l'ensemble de données.
Pour Type d'emplacement, sélectionnez US (plusieurs régions aux États-Unis).
Cliquez sur Créer un ensemble de données.
Développez l'ID de votre projet, puis cliquez sur l'icône Afficher les actions à côté de l'ensemble de données logdata.
Sélectionnez Créer une table.
Sur la page Créer une table, spécifiez les paramètres suivants et conservez les valeurs par défaut des autres paramètres :
Propriété
Valeur
Créer une table à partir de
Google Cloud Storage
Sélectionner un fichier depuis le bucket GCS
cloud-training/gcpfci/access_log.csv
Format de fichier
CSV
Nom de l'ensemble de données de destination
logdata
Nom de la table de destination
accesslog
Type de table de destination
Table native
Remarque : Si vous avez déjà créé une table, l'option "Créer à partir d'un job précédent" vous permet d'en créer rapidement d'autres du même type en réutilisant vos paramètres.
Dans le champ Schéma, sélectionnez Détection automatique.
Acceptez les autres valeurs par défaut et cliquez sur Créer une table.
BigQuery crée un job de chargement pour générer la table et y importer les données. Cette opération peut prendre quelques secondes.
(Facultatif) Pour suivre la progression de la tâche, cliquez sur Job History (Historique des tâches).
Une fois le chargement terminé, cliquez sur logdata > accesslog.
Sur la page Table Details (Détails de la table), cliquez sur Details (Détails) pour afficher les propriétés de la table, puis sur Preview (Aperçu) pour afficher ses données.
Chaque ligne de cette table enregistre un appel sur un serveur web. Le premier champ, string_field_0, correspond à l'adresse IP du client. Le jour, le mois, l'année, l'heure, la minute et la seconde où l'appel a eu lieu sont répertoriés du quatrième au neuvième champ. Dans cette activité, vous allez observer les caractéristiques de chargement quotidiennes sur ce serveur Web.
Cliquez sur Check my progress (Vérifier ma progression) pour vérifier l'objectif.
Charger des données de Cloud Storage vers BigQuery
Tâche 3 : Effectuer une requête sur les données en utilisant l'UI Web de BigQuery
Dans cette tâche, vous allez utiliser l'interface utilisateur Web de BigQuery pour interroger la table accesslog créée précédemment.
Dans la fenêtre ÉDITEUR, saisissez (ou copiez-collez) la requête suivante.
Étant donné que vous avez demandé à BigQuery de découvrir automatiquement le schéma lorsque vous chargez les données, l'heure d'arrivée de chaque hit Web se trouve dans un champ appelé int_field_6.
select int64_field_6 as hour, count(*) as hitcount from logdata.accesslog
group by hour
order by hour
Vous remarquerez que l'outil de validation des requêtes vous indique, à l'aide d'une coche verte, que la syntaxe de la requête est valide. Il précise également le volume de données que la requête va traiter. Le volume de données traitées vous permet de déterminer le coût de la requête à l'aide du Simulateur de coût Google Cloud.
Cliquez sur Run (Exécuter), puis observez les résultats. À quel moment de la journée le site Web est-il le plus fréquenté ? Et à quel moment est-il le moins fréquenté ?
Tâche 4 : Effectuer une requête sur les données à l'aide de la commande bq
Dans cette tâche, vous allez utiliser la commande bq dans Cloud Shell pour interroger la table accesslog créée précédemment.
Dans la console Google Cloud, cliquez sur Activer Cloud Shell (), puis sur Continuer. Cliquez sur Autoriser si vous y êtes invité.
Lorsque Cloud Shell vous y invite, saisissez la commande suivante :
bq query "select string_field_10 as request, count(*) as requestcount from logdata.accesslog group by request order by requestcount desc"
Lorsque vous utilisez la commande bq pour la première fois, vos identifiants Google Cloud sont mis en cache et vous devez choisir un projet par défaut. Choisissez le projet que Qwiklabs vous a attribué. Le nom de ce projet est qwiklabs-gcp-, suivi d'un nombre hexadécimal.
La commande bq exécute alors l'action demandée sur sa ligne de commande. Quelle URL proposée par ce serveur Web a reçu le plus de visites ? Laquelle a reçu le moins de visites ?
Félicitations !
Dans cet atelier, vous avez chargé des données de Cloud Storage vers une table hébergée par Google BigQuery. Vous avez ensuite interrogé les données pour identifier certaines caractéristiques.
Terminer l'atelier
Une fois l'atelier terminé, cliquez sur Terminer l'atelier. Google Cloud Skills Boost supprime les ressources que vous avez utilisées, puis efface le compte.
Si vous le souhaitez, vous pouvez noter l'atelier. Sélectionnez un nombre d'étoiles, saisissez un commentaire, puis cliquez sur Envoyer.
Le nombre d'étoiles correspond à votre degré de satisfaction :
1 étoile = très insatisfait(e)
2 étoiles = insatisfait(e)
3 étoiles = ni insatisfait(e), ni satisfait(e)
4 étoiles = satisfait(e)
5 étoiles = très satisfait(e)
Si vous ne souhaitez pas donner votre avis, vous pouvez fermer la boîte de dialogue.
Pour soumettre des commentaires, suggestions ou corrections, veuillez accéder à l'onglet Assistance.
Copyright 2026 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms de société et de produit peuvent être des marques des sociétés auxquelles ils sont associés.
Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.
Utilisez la navigation privée
Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
Cliquez sur Ouvrir la console en navigation privée
Connectez-vous à la console
Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.
Ce contenu n'est pas disponible pour le moment
Nous vous préviendrons par e-mail lorsqu'il sera disponible
Parfait !
Nous vous contacterons par e-mail s'il devient disponible
Un atelier à la fois
Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci
Utilisez la navigation privée pour effectuer l'atelier
Le meilleur moyen d'exécuter cet atelier consiste à utiliser une fenêtre de navigation privée. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
Dans cet atelier, vous allez charger un journal de serveur Web dans une table BigQuery. Une fois les données chargées, vous les interrogerez en utilisant l'interface utilisateur Web et la CLI BigQuery.
Durée :
0 min de configuration
·
Accessible pendant 30 min
·
Terminé après 30 min