Instructions et exigences de configuration de l'atelier
Protégez votre compte et votre progression. Utilisez toujours une fenêtre de navigation privée et les identifiants de l'atelier pour exécuter cet atelier.

Exécuter des pipelines sur Vertex AI 2.5

Atelier 1 heure universal_currency_alt 5 crédits show_chart Avancé
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Ce contenu n'est pas encore optimisé pour les appareils mobiles.
Pour une expérience optimale, veuillez accéder à notre site sur un ordinateur de bureau en utilisant un lien envoyé par e-mail.

Présentation

Dans cet atelier, vous allez apprendre à utiliser Vertex AI Pipelines pour exécuter un pipeline de ML simple dérivé du SDK Kubeflow Pipelines.

Objectifs

Dans cet atelier, vous allez réaliser les tâches suivantes :

  • Configurer l'environnement du projet
  • Configurer et inspecter le code du pipeline
  • Exécuter le pipeline d'IA

Préparation

Avant de cliquer sur le bouton "Démarrer l'atelier"

Remarque : Lisez ces instructions.

Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.

Cet atelier pratique Google Skills vous permet de suivre vous-même les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Nous vous fournissons des identifiants temporaires pour vous connecter à Google Cloud le temps de l'atelier.

Ce dont vous avez besoin

Pour réaliser cet atelier, vous devez :

  • avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome) ;
  • disposer de suffisamment de temps pour effectuer l'atelier en une fois.
Remarque : Si vous possédez déjà votre propre compte ou projet Google Cloud, veillez à ne pas l'utiliser pour réaliser cet atelier. Remarque : Si vous utilisez un Pixelbook, veuillez exécuter cet atelier dans une fenêtre de navigation privée.

Démarrer votre atelier et vous connecter à la console

  1. Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, un pop-up s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous verrez un panneau contenant les identifiants temporaires à utiliser pour cet atelier.

    Panneau d'identifiants

  2. Copiez le nom d'utilisateur, puis cliquez sur Ouvrir la console Google. L'atelier lance les ressources, puis la page Sélectionner un compte dans un nouvel onglet.

    Remarque : Ouvrez les onglets dans des fenêtres distinctes, placées côte à côte.
  3. Sur la page "Sélectionner un compte", cliquez sur Utiliser un autre compte. La page de connexion s'affiche.

    Boîte de dialogue "Sélectionner un compte" avec l'option "Utiliser un autre compte" encadrée.

  4. Collez le nom d'utilisateur que vous avez copié dans le panneau "Détails de connexion". Copiez et collez ensuite le mot de passe.

Remarque : Vous devez utiliser les identifiants fournis dans le panneau "Détails de connexion", et non ceux de votre compte Google Skills. Si vous possédez un compte Google Cloud, ne vous en servez pas pour cet atelier (vous éviterez ainsi que des frais vous soient facturés).
  1. Accédez aux pages suivantes :
  • Acceptez les conditions d'utilisation.
  • N'ajoutez pas d'options de récupération ni d'authentification à deux facteurs (ce compte est temporaire).
  • Ne vous inscrivez pas aux essais sans frais.

Après quelques instants, la console Cloud s'ouvre dans cet onglet.

Remarque : Vous pouvez afficher le menu qui contient la liste des produits et services Google Cloud en cliquant sur le menu de navigation en haut à gauche. Menu de la console Cloud

Vérifier les autorisations du projet

Avant de commencer à travailler dans Google Cloud, vous devez vous assurer de disposer des autorisations adéquates pour votre projet dans IAM (Identity and Access Management).

  1. Dans la console Google Cloud, accédez au menu de navigation (Icône du menu de navigation), puis sélectionnez IAM et administration > IAM.

  2. Vérifiez que le compte de service Compute par défaut {project-number}-compute@developer.gserviceaccount.com existe et qu'il est associé au rôle editor (éditeur). Le préfixe du compte correspond au numéro du projet, disponible sur cette page : Menu de navigation > Présentation du cloud > Tableau de bord.

État de l'éditeur et nom du compte de service Compute Engine par défaut mis en évidence sur l'onglet "Autorisations"

Remarque : Si le compte n'est pas disponible dans IAM ou n'est pas associé au rôle editor (éditeur), procédez comme suit pour lui attribuer le rôle approprié.
  1. Dans la console Google Cloud, accédez au menu de navigation et cliquez sur Présentation du cloud > Tableau de bord.
  2. Copiez le numéro du projet (par exemple, 729328892908).
  3. Dans le menu de navigation, sélectionnez IAM et administration > IAM.
  4. Sous Afficher par compte principal, en haut de la table des rôles, cliquez sur Accorder l'accès.
  5. Dans le champ Nouveaux comptes principaux, saisissez :
{project-number}-compute@developer.gserviceaccount.com
  1. Remplacez {project-number} par le numéro de votre projet.
  2. Dans le champ Rôle, sélectionnez Projet (ou Basique) > Éditeur.
  3. Cliquez sur Enregistrer.

Tâche 1 : Configurer l'environnement du projet

Vertex AI Pipelines s'exécute dans un framework sans serveur au sein duquel des pipelines précompilés sont déployés à la demande ou selon une programmation. Il est nécessaire de configurer l'environnement afin de faciliter l'exécution.

Pour une exécution aisée du code de pipeline dans un environnement Qwiklabs, le compte de service Compute doit disposer de droits élevés sur Cloud Storage.

  1. Dans la console Google Cloud, accédez au menu de navigation (Icône du menu de navigation), puis cliquez sur IAM et administration > IAM.

  2. Cliquez sur l'icône en forme de crayon correspondant au compte de service Compute par défaut {numéro-projet}-compute@developer.gserviceaccount.com pour lui attribuer le rôle Administrateur Storage.

  3. Dans la fenêtre latérale, cliquez sur Ajouter un autre rôle. Saisissez Administrateur Storage dans le champ de recherche. Dans la liste des résultats, sélectionnez Administrateur Storage avec Accorde un contrôle complet sur les buckets et les objets.

  4. Cliquez sur Enregistrer pour attribuer le rôle au compte de service Compute.

Boîte de dialogue "Modifier les autorisations", qui inclut les champs précédemment mentionnés et un bouton "Enregistrer"

Les artefacts seront traités au moment de l'ingestion et de l'exportation lors de l'exécution du pipeline.

  1. Exécutez ce bloc de code dans Cloud Shell pour créer un bucket dans votre projet, ainsi que deux dossiers contenant chacun un fichier vide :
gcloud storage buckets create gs://{{{primary_project.project_id|Project ID}}} touch emptyfile1 touch emptyfile2 gcloud storage cp emptyfile1 gs://{{{primary_project.project_id|Project ID}}}/pipeline-output/emptyfile1 gcloud storage cp emptyfile2 gs://{{{primary_project.project_id|Project ID}}}/pipeline-input/emptyfile2

Le pipeline a déjà été créé. Seuls quelques ajustements mineurs sont nécessaires pour autoriser son exécution dans votre projet Qwiklabs.

  1. Téléchargez le pipeline Vertex AI depuis le dossier des ressources de l'atelier :
wget https://storage.googleapis.com/cloud-training/dataengineering/lab_assets/ai_pipelines/basic_pipeline.json

Cliquez sur Vérifier ma progression pour valider l'objectif. Configurer l'environnement

Tâche 2 : Configurer et inspecter le code du pipeline

Le code du pipeline, rédigé en Python, correspond à deux opérations d'IA. Il s'agit d'un exemple très basique, mais qui montre à quel point il est simple d'orchestrer des procédures de ML écrites dans de nombreux langages (TensorFlow, Python, Java, etc.) au sein d'un pipeline Vertex AI facile à déployer. L'exemple de code de l'atelier exécute deux opérations, concaténation et inversion, sur deux valeurs de chaîne.

  1. Tout d'abord, vous devez définir un nouveau dossier de sortie pour l'exécution du pipeline Vertex AI. Dans Cloud Shell, utilisez la commande Linux Stream EDitor (sed) pour ajuster ce paramètre :
sed -i 's/PROJECT_ID/{{{primary_project.project_id|Project ID}}}/g' basic_pipeline.json
  1. Inspectez le fichier basic_pipeline.json pour vérifier que le dossier de sortie est défini sur votre projet :
head -20 basic_pipeline.json

Les portions de code les plus importantes dans basic_pipeline.json sont les blocs deploymentSpec et command. Vous pouvez voir ci-dessous le bloc "command", lequel correspond au job qui concatène les chaînes d'entrée. Il s'agit de code du SDK Kubeflow Pipelines (kfp), destiné à être exécuté par le moteur Python 3.13. Aucune modification n'est à apporter ici, cette portion de code n'est présentée qu'à titre de référence :

"program_path=$(mktemp -d)\n\nprintf \"%s\" \"$0\" > \"$program_path/ephemeral_component.py\"\n_KFP_RUNTIME=true python3 -m kfp.dsl.executor_main --component_module_path \"$program_path/ephemeral_component.py\" \"$@\"\n", "\nimport kfp\nfrom kfp import dsl\nfrom kfp.dsl import *\nfrom typing import *\n\ndef concat(a: str, b: str) -> str:\n return a + b\n\n" ], "image": "python:3.13"
  1. Vous pouvez parcourir l'intégralité du fichier en saisissant la commande suivante :
more basic_pipeline.json Remarque : Appuyez sur la barre d'espace pour faire défiler le fichier jusqu'à la fin. Si vous souhaitez fermer le fichier avant d'atteindre la fin, saisissez q pour arrêter la commande more.
  1. Ensuite, déplacez le fichier basic_pipeline.json mis à jour vers le bucket Cloud Storage créé précédemment. Ainsi, le fichier sera disponible pour l'exécution du pipeline Vertex AI :
gcloud storage cp basic_pipeline.json gs://{{{primary_project.project_id|Project ID}}}/pipeline-input/basic_pipeline.json

Cliquez sur Vérifier ma progression pour valider l'objectif. Déployer le pipeline

Tâche 3 : Exécuter le pipeline Vertex AI

  1. Dans la console, ouvrez le menu de navigation (Icône du menu de navigation), puis cliquez sur Vertex AI > Tableau de bord.

  2. Cliquez sur Activer toutes les API recommandées.

  3. Une fois l'API activée, cliquez sur Pipelines dans le menu de gauche.

  4. Cliquez sur Créer une exécution dans le menu supérieur.

  5. Dans Détails de l'exécution, sélectionnez Importer depuis Cloud Storage et pour URL Cloud Storage, accédez au dossier pipeline-input que vous avez créé dans le bucket Cloud Storage de votre projet. Sélectionnez le fichier basic_pipeline.json.

  6. Cliquez sur Sélectionner.

  7. Pour Région, sélectionnez .

  8. Conservez les autres valeurs par défaut et cliquez sur Continuer.

Vous pouvez laisser les valeurs par défaut pour Configuration de l'environnement d'exécution. Notez que le répertoire de sortie Cloud Storage est défini sur le dossier de bucket créé précédemment. Les champs de paramètres du pipeline sont préremplis à l'aide des valeurs du fichier basic_pipeline.json. Sachez toutefois qu'un assistant vous permet de modifier ces valeurs au moment de l'exécution.

  1. Cliquez sur Envoyer pour lancer l'exécution du pipeline.
Remarque : Si le message Internal error encountered (Erreur interne rencontrée) s'affiche, veuillez patienter une ou deux minutes, puis réessayez d'envoyer le job.
  1. Vous êtes redirigé vers le tableau de bord du pipeline, où vous verrez la tâche passer par ces trois états : En attente, En cours d'exécution, et enfin Réussie.
Remarque : L'exécution totale prend entre trois et six minutes.
  1. Une fois que l'exécution a atteint l'état "Réussie", cliquez sur son nom pour afficher le graphique de l'exécution et les informations détaillées.

Graphique de l'exécution et informations détaillées associées

  1. Un élément de graphique existe pour chaque étape. Cliquez sur l'objet concat pour consulter les détails du job.

  2. Cliquez sur le bouton Afficher le job. Un nouvel onglet s'ouvre avec le job personnalisé Vertex AI qui a été soumis au backend pour faire aboutir la requête de pipeline.

N'hésitez pas à explorer plus en détail l'exécution du pipeline.

Félicitations !

Vous avez utilisé Vertex AI Pipelines pour exécuter un pipeline de ML simple dérivé du SDK Kubeflow Pipelines.

Dernière mise à jour du manuel : 21 novembre 2025

Dernier test de l'atelier : 21 novembre 2025

Copyright 2026 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms de société et de produit peuvent être des marques des sociétés auxquelles ils sont associés.

Avant de commencer

  1. Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
  2. Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
  3. En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.

Utilisez la navigation privée

  1. Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
  2. Cliquez sur Ouvrir la console en navigation privée

Connectez-vous à la console

  1. Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
  2. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
  3. Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible

Un atelier à la fois

Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci

Utilisez la navigation privée pour effectuer l'atelier

Le meilleur moyen d'exécuter cet atelier consiste à utiliser une fenêtre de navigation privée. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.