Unirse Acceder

Stefano Lazzaretti

Miembro desde 2022

Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned may 21, 2024 EDT
Creación de flujos de procesamiento de datos por lotes en Google Cloud Earned abr 3, 2024 EDT
Crea data lakes y almacenes de datos en Google Cloud Earned mar 26, 2024 EDT
Developing Data Models with LookML Earned may 31, 2023 EDT
Exploring and Preparing Your Data with BigQuery - Español Earned may 24, 2023 EDT
Google Cloud Big Data and Machine Learning Fundamentals - Español Earned may 23, 2023 EDT
Analyzing and Visualizing Data in Looker Earned oct 24, 2022 EDT

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

Las canalizaciones de datos suelen realizarse según uno de los paradigmas extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, grafos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.

Más información

Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.

Más información

This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.

Más información

En este curso, veremos cuáles son los desafíos comunes a los que se enfrentan los analistas de datos y cómo resolverlos con las herramientas de macrodatos en Google Cloud. Aprenderás algunos conceptos de SQL y adquirirás conocimientos sobre el uso de BigQuery y Dataprep para analizar y transformar conjuntos de datos. Este es el primer curso de la serie From Data to Insights with Google Cloud. Después de completarlo, inscríbete en el curso Creating New BigQuery Datasets and Visualizing Insights.

Más información

En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.

Más información

In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.

Más información