Unirse Acceder

Maxim Mezhigurskii

Miembro desde 2020

Liga de Bronce

5680 puntos
Integrate Vertex AI Search and Conversation into Voice and Chat Apps Earned oct 18, 2024 EDT
Text Prompt Engineering Techniques Earned oct 16, 2024 EDT
Crea un almacén de datos con BigQuery Earned abr 5, 2023 EDT
Ingeniería de datos para crear modelos predictivos con BigQuery ML Earned abr 4, 2023 EDT
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned abr 3, 2023 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Español Earned mar 23, 2023 EDT
Crea canalizaciones de datos de transmisión en Google Cloud Earned mar 18, 2023 EDT
Crea canalizaciones de datos por lotes en Google Cloud Earned mar 16, 2023 EDT
Implementa Cloud Load Balancing para Compute Engine Earned mar 6, 2023 EST
Google Cloud Big Data and Machine Learning Fundamentals - Español Earned mar 2, 2023 EST
Crea data lakes y almacenes de datos en Google Cloud Earned feb 24, 2023 EST

This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.

Más información

Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.

Más información

Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.

Más información

Obtén la insignia de habilidad intermedia Ingeniería de datos para crear modelos predictivos con BigQuery ML y demuestra tus capacidades para crear canalizaciones de transformación de datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL), y crear modelos de aprendizaje automático con BigQuery ML.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.

Más información

En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.

Más información

En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.

Más información

Completa la insignia de habilidad introductoria Implementa Cloud Load Balancing para Compute Engine y demuestra tus habilidades para realizar las siguientes actividades: crear y, luego, implementar máquinas virtuales en Compute Engine, y configurar balanceadores de cargas de red y de aplicaciones.

Más información

En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.

Más información

Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.

Más información