mylena mahatma
Miembro desde 2024
Liga de Oro
69085 puntos
Miembro desde 2024
En este curso, se te enseña a crear un modelo de generación de leyendas de imágenes con el aprendizaje profundo. Aprenderás sobre los distintos componentes de los modelos de generación de leyendas de imágenes, como el codificador y el decodificador, y cómo entrenar y evaluar tu modelo. Al final del curso, podrás crear tus propios modelos y usarlos para generar leyendas de imágenes.
En este curso, adquirirás experiencia práctica en la aplicación de conceptos avanzados de LookML en Looker. Aprenderás a usar Liquid para personalizar y crear dimensiones y mediciones dinámicas, crear tablas derivadas de SQL dinámicas y tablas derivadas nativas personalizadas, y a utilizar extensiones para modularizar tu código de LookML.
En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
This workload aims to upskill Google Cloud partners to perform specific tasks for modernization using LookML on BigQuery. A proof-of-concept will take learners through the process of creating LookML visualizations on BigQuery. During this course, learners will be guided specifically on how to write Looker modeling language, also known as LookML and create semantic data models, and learn how LookML constructs SQL queries against BigQuery. At a high level, this course will focus on basic LookML to create and access BigQuery objects, and optimize BigQuery objects with LookML.
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
Completa la insignia de habilidad del curso introductorio Diseño de instrucciones en Vertex AI y demuestra tus habilidades para realizar las siguientes actividades: ingeniería de instrucciones, análisis de imágenes y aplicación de técnicas generativas multimodales en Vertex AI. Descubre cómo crear instrucciones eficaces, guía las respuestas de la IA generativa y aplica modelos de Gemini en situaciones de marketing de la vida real.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.
Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.
Welcome Gamers! Train a model on your own image dataset, while having fun! Build, run, and get metadata for an end-to-end ML pipeline on Vertex Pipelines. You will compete to see who can finish the game with the highest score. Earn the points by completing the steps in the lab.... and get bonus points for speed! Be sure to click "End" when you're done with each lab to get the maximum points. All players will be awarded the game badge.
Completa los cursos Introduction to Generative AI, Introduction to Large Language Models e Introduction to Responsible AI para obtener una insignia de habilidad. Aprueba el cuestionario final para demostrar que entiendes los conceptos básicos sobre la IA generativa. Una insignia de habilidad es una insignia digital que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma. Para compartir tu insignia de habilidad, establece tu perfil como público y agrega la insignia a tu perfil de redes sociales.
A Business Leader in Generative AI can articulate the capabilities of core cloud Generative AI products and services and understand how they benefit organizations. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey and how they can leverage Google Cloud's generative AI products to overcome these challenges.
Completa el curso con insignia de habilidad introductoria Crea una malla de datos con Dataplex y demuestra tus habilidades para crear una malla de datos con Dataplex y facilitar la seguridad, la administración y el descubrimiento de datos en Google Cloud. Practicarás y pondrás a prueba tus habilidades para etiquetar recursos, asignar roles de IAM y evaluar la calidad de los datos en Dataplex.
Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.
Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence.
This content is deprecated. Please see the latest version of the course, here.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
A medida que aumenta el uso empresarial de la inteligencia artificial y el aprendizaje automático, también crece la importancia de implementarlo responsablemente. El desafío para muchas personas es que hablar sobre la IA responsable puede ser más fácil que aplicarla. Si te interesa aprender cómo poner en funcionamiento la IA responsable en tu organización, este curso es para ti. En este curso, aprenderás cómo Google Cloud aplica estos principios en la actualidad, junto con las prácticas recomendadas y las lecciones aprendidas, para usarlos como marco de trabajo de modo que puedas crear tu propio enfoque de IA responsable.
Obtén la insignia de habilidad introductoria Preparar datos para paneles de Looker e informes y demuestra tus habilidades para realizar las siguientes tareas: filtrar, ordenar y reorientar datos, combinar resultados de diferentes exploraciones de Looker y usar funciones y operadores para crear informes y paneles de Looker para el análisis y la visualización de datos.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
En este curso, se presenta Vertex AI Studio, una herramienta para interactuar con modelos de IA generativa, crear prototipos de ideas de negocio y llevarlas a producción. A través de un caso de uso envolvente, lecciones atractivas y un lab práctico, explorarás el ciclo de vida desde la instrucción hasta el producto y aprenderás cómo aprovechar Vertex AI Studio para aplicaciones multimodales de Gemini, diseño de instrucciones, ingeniería de instrucciones y ajuste de modelos. El objetivo es permitirte desbloquear el potencial de la IA generativa en tus proyectos con Vertex AI Studio.
Completa el curso con insignia de habilidad de nivel intermedio Administra modelos de datos en Looker y demuestra tus habilidades para realizar las siguientes actividades: mantener el estado de un proyecto de LookML, usar un Ejecutor de SQL para validar datos, aplicar las prácticas recomendadas de LookML, optimizar las consultas y los informes para mejorar el rendimiento, y también implementar tablas derivadas persistentes y políticas de almacenamiento en caché.
Completa el curso introductorio para obtener la insignia de habilidad Crea objetos de LookML en Looker y demuestra tus habilidades para realizar las siguientes actividades: crear nuevas dimensiones y mediciones, vistas y tablas derivadas; establecer filtros y tipos de medición según los requisitos; actualizar dimensiones y mediciones; crear y definir mejor las Exploraciones, unir vistas a Exploraciones existentes y decidir qué objetos de LookML crear en función de los requisitos empresariales.
Data Catalog es un servicio de administración de metadatos completamente administrado y escalable que permite a las organizaciones descubrir, comprender y administrar todos sus datos con rapidez.En esta Quest, comenzará por aprender actividades básicas como buscar y etiquetar recursos de datos y metadatos con Data Catalog. Una vez que aprenda a crear sus propias plantillas de etiquetado que se mapeen a datos de tablas de BigQuery, descubrirá cómo incorporar MySQL, PostgreSQL y SQL Server a conectores de Data Catalog.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA responsable, por qué es importante y cómo la implementa Google en sus productos. También se presentan los 7 principios de la IA de Google.
Obtén la insignia de habilidad intermedia Crea modelos de AA con BigQuery ML y demuestra tus habilidades para crear y evaluar modelos de aprendizaje automático con BigQuery ML para realizar predicciones de datos.
Completa la insignia de habilidad introductoria del curso Obtén estadísticas a partir de datos de BigQuery y demuestra tus habilidades para realizar las siguientes actividades: escribir consultas en SQL, consultar tablas públicas, cargar datos de muestra en BigQuery, solucionar problemas de errores de sintaxis habituales con el validador de consultas en BigQuery y crear informes en Looker Studio con la conexión a datos de BigQuery.
This course is designed for Looker users who want to create their own ad-hoc reports. It assumes experience of everything covered in our Get Started with Looker course (logging in, finding Looks & dashboards, adjusting filters, and sending data)
Este es un curso introductorio de microaprendizaje en el que se explora qué son los modelos de lenguaje grandes (LLM), sus casos de uso y cómo se puede utilizar el ajuste de instrucciones para mejorar el rendimiento de los LLM. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA generativa, cómo se utiliza y en qué se diferencia de los métodos de aprendizaje automático tradicionales. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
En este curso, definimos qué es el aprendizaje automático y cómo puede beneficiar a tu negocio. Verás algunas demostraciones de AA en acción y aprenderás términos clave de AA, como instancias, atributos y etiquetas. En los labs interactivos, practicarás la invocación de las APIs de AA previamente entrenadas que están disponibles y crearás tus propios modelos de aprendizaje automático con solo SQL y BigQuery ML.
This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.
El tercer curso de esta serie es Achieving Advanced Insights with BigQuery. En este curso, aumentarás tu conocimiento de SQL a medida que profundizamos en funciones avanzadas y cómo desglosar una consulta compleja en pasos más sencillos. Abordaremos la arquitectura interna de BigQuery (almacenamiento fragmentado basado en columnas) y temas avanzados de SQL, como los campos anidados y repetidos a través del uso de arrays y structs. Finalmente, profundizaremos en la optimización de tus consultas para mejorar el rendimiento y cómo puedes proteger tus datos con vistas autorizadas. Después de completar este curso, inscríbete en el curso Applying Machine Learning to your Data with Google Cloud.
En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.
In this course, you shadow a series of client meetings led by a Looker Professional Services Consultant.
This course reviews the processes for creating table calculations, pivots and visualizations
In this course you will discover additional tools for your toolbox for working with complex deployments, building robust solutions, and delivering even more value.
Develop technical skills beyond LookML along with basic administration for optimizing Looker instances
By the end of this course, you should feel confident employing technical concepts to fulfill business requirements and be familiar with common complex design patterns.
In this course you will discover Liquid, the templating language invented by Shopify and explore how it can be used in Looker to create dynamic links, content, formatting, and more.
This course is designed to teach you about roles, permission sets and model sets. These are areas that are used together to manage what users can do and what they can see in Looker.
Este es el segundo curso de la serie de cursos Data to Insights. Aquí, veremos cómo transferir nuevos conjuntos de datos externos a BigQuery y visualizarlos con Looker Studio. También analizaremos los conceptos intermedios de SQL, como las operaciones JOIN y UNION de varias tablas, que te permitirán analizar datos de varias fuentes. Nota: Incluso si tienes experiencia en SQL, hay aspectos específicos de BigQuery (como la gestión del almacenamiento en caché de las consultas y los comodines de tablas) que pueden ser nuevos para ti. Después de completar el curso, inscríbete en el curso Achieving Advanced Insights with BigQuery.
Hands on course covering the main uses of extends and the three primary LookML objects extends are used on as well as some advanced usage of extends.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
En este curso, veremos cuáles son los desafíos comunes a los que se enfrentan los analistas de datos y cómo resolverlos con las herramientas de macrodatos en Google Cloud. Aprenderás algunos conceptos de SQL y adquirirás conocimientos sobre el uso de BigQuery y Dataprep para analizar y transformar conjuntos de datos. Este es el primer curso de la serie From Data to Insights with Google Cloud. Después de completarlo, inscríbete en el curso Creating New BigQuery Datasets and Visualizing Insights.
Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.
This course aims to introduce you to the basic concepts of Git: what it is and how it's used in Looker. You will also develop an in-depth knowledge of the caching process on the Looker platform, such as why they are used and why they work
This course provides an introduction to databases and summarized the differences in the main database technologies. This course will also introduce you to Looker and how Looker scales as a modern data platform. In the lessons, you will build and maintain standard Looker data models and establish the foundation necessary to learn Looker's more advanced features.
This course provides an iterative approach to plan, build, launch, and grow a modern, scalable, mature analytics ecosystem and data culture in an organization that consistently achieves established business outcomes. Users will also learn how to design and build a useful, easy-to-use dashboard in Looker. It assumes experience with everything covered in our Getting Started with Looker and Building Reports in Looker courses.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
In this course, we’ll show you how organizations are aligning their BI strategy to most effectively achieve business outcomes with Looker. We'll follow four iterative steps: Plan, Build, Launch, Grow, and provide resources to take into your own services delivery to build Looker with the goal of achieving business outcomes.
By the end of this course, you should be able to articulate Looker's value propositions and what makes it different from other analytics tools in the market. You should also be able to explain how Looker works, and explain the standard components of successful service delivery.