Rejoindre Se connecter

Arwa Omran

Date d'abonnement : 2024

Ligue d'Argent

9944 points
Traitement des données sans serveur avec Dataflow : développer des pipelines Earned déc. 31, 2025 EST
Ingénierie des données pour la modélisation prédictive avec BigQuery ML Earned déc. 22, 2025 EST
Créer un entrepôt de données avec BigQuery Earned déc. 19, 2025 EST
Préparer des données pour les API de ML sur Google Cloud Earned nov. 26, 2025 EST
Traitement des données sans serveur avec Dataflow : principes de base Earned sept. 11, 2025 EDT
Data Lake Modernization on Google Cloud: Cloud Data Fusion Earned sept. 4, 2025 EDT
Introduction à l'ingénierie des données sur Google Cloud Earned août 4, 2025 EDT
Google Cloud Computing Foundations: Cloud Computing Fundamentals - Français Earned sept. 18, 2024 EDT
Concepts fondamentaux de Google Cloud : infrastructure de base Earned sept. 1, 2024 EDT

Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.

En savoir plus

Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.

En savoir plus

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.

En savoir plus

Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Welcome to Cloud Data Fusion, where we discuss how to use Cloud Data Fusion to build complex data pipelines.

En savoir plus

Dans ce cours, vous allez explorer l'ingénierie de données sur Google Cloud, les rôles et responsabilités des ingénieurs de données, et la façon dont ces éléments se retrouvent dans les offres Google Cloud. Vous apprendrez également à relever les défis liés à l'ingénierie de données.

En savoir plus

Le cours Google Cloud Computing Foundations est destiné aux personnes qui ont peu de connaissances ou d’expérience en cloud computing, voire pas du tout. Il présente de façon détaillée différents concepts (principes de base du cloud, big data et machine learning) et explique dans quels cas utiliser Google Cloud et pourquoi. Au terme de ce cours, les participants sauront expliquer les concepts associés au cloud computing, au big data et au machine learning, et ils auront acquis certaines compétences pratiques. Ce cours fait partie d'une série de cours intitulée Google Cloud Computing Foundations. Les cours doivent être suivis dans l'ordre suivant : Google Cloud Computing Foundations: Cloud Computing Fundamentals - Locales Google Cloud Computing Foundations: Infrastructure in Google Cloud - Locales Google Cloud Computing Foundations: Networking and Security in Google Cloud - Locales Google Cloud Computing Foundations: Data, ML, and AI in Google Cloud…

En savoir plus

"Concepts fondamentaux de Google Cloud : infrastructure de base" présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.

En savoir plus