Completa il corso introduttivo con badge delle competenze Implementazione di Cloud Load Balancing per Compute Engine per dimostrare le tue competenze nei seguenti ambiti: creazione ed esecuzione del deployment di macchine virtuali in Compute Engine e configurazione di bilanciatori del carico di rete e delle applicazioni.
Earn a skill badge by completing the The Basics of Google Cloud Compute skill badge course, where you learn how to work with virtual machines (VMs), persistent disks, and web servers using Compute Engine.
Complete the introductory Monitor and Manage Google Cloud Resources skill badge to demonstrate skills in the following: granting and revoking IAM permissions; installing monitoring and logging agents; creating, deploying, and testing an event-driven Cloud Run function.
Complete the introductory Monitoring in Google Cloud skill badge course to demonstrate skills in the following: using Cloud Monitoring tools to monitor resources on Google Cloud.
Earn a skill badge by completing the Analyze Sentiment with Natural Language API quest, where you learn how the API derives sentiment from text.
Complete the introductory Create a Secure Data Lake on Cloud Storage skill badge course to demonstrate skills in the following: securing and configuring a Cloud Storage bucket, using Gemini for text generation, managing IAM access control, and establishing a Dataplex lake for data governance.
Complete the introductory Secure BigLake Data skill badge course to demonstrate skills with IAM, BigQuery, BigLake, and Dataplex to create and secure BigLake tables.
Earn a Skill Badge by completing the Implement Cloud Storage and Data Protection Solutions course. Learn to create a Cloud Storage bucket, use the command line, and protect objects with Bucket Lock.
Earn a skill badge by completing the Implement Event-Driven Messaging and Automation Workflows skill badge course, where you learn how to use Pub/Sub through the Cloud console, how Cloud Scheduler jobs can save you effort, and when Pub/Sub Lite can save you money on high-volume event ingestion.
Earn a skill badge by completing the Configure your Workplace: Google Workspace for IT Admins quest, where you will get try out the Admin role for Workspace and learn to provision Groups, manage applications, security, and manage Meet. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the skill badge quest, and final assessment challenge lab, to receive a digital badge that you can share with your network.
Earn an introductory skill badge by completing the Implement Cloud Collaboration and Productivity Workflows course, where you will get introduced to Google's collaborative platform and learn to use Gmail, Calendar, Meet, Drive, Sheets, and AppSheet.
Complete the intermediate Use Functions, Formulas and Charts in Google Sheets skill badge course to demonstrate skills in the following: analyzing data with functions; visualizing data using charts; and searching, validating, formatting, and displaying data.
Earn a skill badge by completing the Analyze Speech and Language with Google APIs quest, where you learn how to use the Natural Language and Speech APIs in real-world settings.
Complete the intermediate Perform Predictive Data Analysis in BigQuery skill badge course to demonstrate skills in the following: creating datasets in BigQuery by importing CSV and JSON files; harnessing the power of BigQuery with sophisticated SQL analytical concepts, including using BigQuery ML to train an expected goals model on soccer event data and evaluate the impressiveness of World Cup goals.
Earn the intermediate Skill Badge by completing the Classify Images with TensorFlow on Google Cloud skill badge course where you learn how to use TensorFlow and Vertex AI to create and train machine learning models. You primarily interact with Vertex AI Workbench user-managed notebooks.
Complete the intermediate Engineer Data for Predictive Modeling with BigQuery ML skill badge to demonstrate skills in the following: building data transformation pipelines to BigQuery using Dataprep by Trifacta; using Cloud Storage, Dataflow, and BigQuery to build extract, transform, and load (ETL) workflows; and building machine learning models using BigQuery ML.
This course provides hands-on experience with Google Cloud's Search for Retail, focusing on practical skills in setting up and managing retail search functionalities using APIs and console configurations. Participants will engage with real-world scenarios to learn how to import product data, manage user events, configure search parameters, and optimize search results within a retail environment.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
Demonstrate the ability to create and deploy deterministic virtual agents using Dialgflow CX and augment responses by grounding results on your own data integrating with Vertex AI Agent Builder data stores and leveraging Gemini for summarizations. You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Dialogflow CX Gemini
L'elaborazione dei flussi di dati sta diventando sempre più diffusa poiché la modalità flusso consente alle aziende di ottenere parametri in tempo reale sulle operazioni aziendali. Questo corso tratta la creazione di pipeline di dati in modalità flusso su Google Cloud. Pub/Sub viene presentato come strumento per la gestione dei flussi di dati in entrata. Il corso spiega anche come applicare aggregazioni e trasformazioni ai flussi di dati utilizzando Dataflow e come archiviare i record elaborati in BigQuery o Bigtable per l'analisi. Gli studenti acquisiranno esperienza pratica nella creazione di componenti della pipeline di dati in modalità flusso su Google Cloud utilizzando QwikLabs.
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
Questo corso introduce i modelli di diffusione, una famiglia di modelli di machine learning che recentemente si sono dimostrati promettenti nello spazio di generazione delle immagini. I modelli di diffusione traggono ispirazione dalla fisica, in particolare dalla termodinamica. Negli ultimi anni, i modelli di diffusione sono diventati popolari sia nella ricerca che nella produzione. I modelli di diffusione sono alla base di molti modelli e strumenti di generazione di immagini all'avanguardia su Google Cloud. Questo corso ti introduce alla teoria alla base dei modelli di diffusione e a come addestrarli ed eseguirne il deployment su Vertex AI.
Questo corso illustra Generative AI Studio, un prodotto su Vertex AI che ti aiuta a prototipare e personalizzare i modelli di AI generativa in modo da poterne utilizzare le capacità nelle tue applicazioni. In questo corso imparerai cos'è Generative AI Studio, le sue funzionalità e opzioni e come utilizzarlo, esaminando le demo del prodotto. Alla fine, troverai un laboratorio pratico per mettere in pratica ciò che hai imparato e un quiz per testare le tue conoscenze.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
Dal momento che l'uso dell'intelligenza artificiale e del machine learning nelle aziende continua a crescere, cresce anche l'importanza di realizzarli in modo responsabile. Molti sono scoraggiati dal fatto che parlare di IA responsabile può essere più facile che metterla in pratica. Se vuoi imparare come operativizzare l'IA responsabile nella tua organizzazione, questo corso fa per te. In questo corso scoprirai come Google Cloud ci riesce attualmente, oltre alle best practice e alle lezioni apprese, per fungere da framework per costruire il tuo approccio all'IA responsabile.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
Questo corso ti insegna come creare un modello per le didascalie delle immagini utilizzando il deep learning. Scoprirai i diversi componenti di un modello per le didascalie delle immagini, come l'encoder e il decoder, e imparerai ad addestrare e valutare il tuo modello. Alla fine di questo corso, sarai in grado di creare modelli personali per le didascalie delle immagini e utilizzarli per generare didascalie per le immagini.
Questo corso ti introduce all'architettura Transformer e al modello BERT (Bidirectional Encoder Representations from Transformers). Scopri i componenti principali dell'architettura Transformer, come il meccanismo di auto-attenzione, e come viene utilizzata per creare il modello BERT. Imparerai anche le diverse attività per le quali può essere utilizzato il modello BERT, come la classificazione del testo, la risposta alle domande e l'inferenza del linguaggio naturale. Si stima che il completamento di questo corso richieda circa 45 minuti.
Questo corso ti offre un riepilogo dell'architettura encoder-decoder, che è un'architettura di machine learning potente e diffusa per attività da sequenza a sequenza come traduzione automatica, riassunto del testo e risposta alle domande. Apprenderai i componenti principali dell'architettura encoder-decoder e come addestrare e fornire questi modelli. Nella procedura dettagliata del lab corrispondente, implementerai in TensorFlow dall'inizio un semplice codice dell'architettura encoder-decoder per la generazione di poesie da zero.
Questo è un corso di microlearning di livello introduttivo volto a spiegare cos'è l'IA responsabile, perché è importante e in che modo Google implementa l'IA responsabile nei propri prodotti. Introduce anche i 7 principi dell'IA di Google.
Questo corso ti introdurrà al meccanismo di attenzione, una potente tecnica che consente alle reti neurali di concentrarsi su parti specifiche di una sequenza di input. Imparerai come funziona l'attenzione e come può essere utilizzata per migliorare le prestazioni di molte attività di machine learning, come la traduzione automatica, il compendio di testi e la risposta alle domande.
Complete the intermediate Build a Data Warehouse with BigQuery skill badge course to demonstrate skills in the following: joining data to create new tables, troubleshooting joins, appending data with unions, creating date-partitioned tables, and working with JSON, arrays, and structs in BigQuery.
Le pipeline di dati in genere rientrano in uno dei paradigmi EL (Extract, Load), ELT (Extract, Load, Transform) o ETL (Extract, Transform, Load). Questo corso descrive quale paradigma dovrebbe essere utilizzato e quando per i dati in batch. Inoltre, questo corso tratta diverse tecnologie su Google Cloud per la trasformazione dei dati, tra cui BigQuery, l'esecuzione di Spark su Dataproc, i grafici della pipeline in Cloud Data Fusion e trattamento dati serverless con Dataflow. Gli studenti fanno esperienza pratica nella creazione di componenti della pipeline di dati su Google Cloud utilizzando Qwiklabs.
This course covers how to implement the various flavors of production ML systems— static, dynamic, and continuous training; static and dynamic inference; and batch and online processing. You delve into TensorFlow abstraction levels, the various options for doing distributed training, and how to write distributed training models with custom estimators. This is the second course of the Advanced Machine Learning on Google Cloud series. After completing this course, enroll in the Image Understanding with TensorFlow on Google Cloud course.
Earn the intermediate skill badge by completing the Build and Deploy Machine Learning Solutions on Vertex AI skill badge course, where you learn how to use Google Cloud's Vertex AI platform, AutoML, and custom training services to train, evaluate, tune, explain, and deploy machine learning models.
Complete the intermediate Create ML Models with BigQuery ML skill badge to demonstrate skills in creating and evaluating machine learning models with BigQuery ML to make data predictions.
Dataprep is Google's self-service data preparation tool built in collaboration with Alteryx. Learn the basics of cleaning and preparing data for analysis and visualization, all in the Google ecosystem. In this course, you will learn how to connect Dataprep to your data in Cloud Storage and BigQuery, clean data using the interactive UI, profile the data, and publish your results back into the Google ecosystem. You will learn the basics of data transformation, including filtering values, reshaping the data, combining multiple datasets, deriving new values, and aggregating your dataset.
In this advanced-level quest, you will learn how to harness serious Google Cloud computing power to run big data and machine learning jobs. The hands-on labs will give you use cases, and you will be tasked with implementing big data and machine learning practices utilized by Google’s very own Solutions Architecture team. From running Big Query analytics on tens of thousands of basketball games, to training TensorFlow image classifiers, you will quickly see why Google Cloud is the go-to platform for running big data and machine learning jobs.
Ottieni il corso intermedio con badge delle competenze Prepara i dati per le API ML su Google Cloud per dimostrare le tue competenze nei seguenti ambiti: pulizia dei dati con Dataprep di Trifacta, esecuzione delle pipeline di dati in Dataflow, creazione dei cluster ed esecuzione dei job Apache Spark in Dataproc e richiamo delle API ML tra cui l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text e l'API Video Intelligence.
Questo corso adotta un approccio pratico reale al flusso di lavoro ML attraverso un case study. Un team ML è chiamato a rispondere a numerosi requisiti aziendali e ad affrontare vari casi d'uso ML. Deve comprendere gli strumenti necessari per la gestione e la governance dei dati e considerare l'approccio migliore per la pre-elaborazione dei dati. Al team vengono presentate tre opzioni per creare modelli ML per due casi d'uso. Il corso spiega perché il team utilizzerà AutoML, BigQuery ML o l'addestramento personalizzato per raggiungere i propri obiettivi.
Questo corso illustra i vantaggi dell'utilizzo di Vertex AI Feature Store, come migliorare l'accuratezza dei modelli di ML e come trovare le colonne di dati che forniscono le caratteristiche più utili. Il corso include inoltre contenuti e lab sul feature engineering utilizzando BigQuery ML, Keras e TensorFlow.
Questo corso tratta la creazione di modelli ML con TensorFlow e Keras, il miglioramento dell'accuratezza dei modelli ML e la scrittura di modelli ML per l'uso su larga scala.
I due componenti chiave di qualsiasi pipeline di dati sono costituiti dai data lake e dai data warehouse. In questo corso evidenzieremo i casi d'uso per ogni tipo di spazio di archiviazione e approfondiremo i dettagli tecnici delle soluzioni di data lake e data warehouse disponibili su Google Cloud. Inoltre, descriveremo il ruolo di un data engineer, illustreremo i vantaggi di una pipeline di dati di successo per le operazioni aziendali ed esamineremo i motivi per cui il data engineering dovrebbe essere eseguito in un ambiente cloud. Questo è il primo corso della serie Data engineering su Google Cloud. Dopo il completamento di questo corso, iscriviti al corso Creazione di pipeline di dati in batch su Google Cloud.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Il corso inizia con una discussione sui dati: come migliorare la qualità dei dati ed eseguire analisi esplorative dei dati. Descriveremo Vertex AI AutoML e come creare, addestrare ed eseguire il deployment di un modello di ML senza scrivere una sola riga di codice. Comprenderai i vantaggi di Big Query ML. Discuteremo quindi di come ottimizzare un modello di machine learning (ML) e di come la generalizzazione e il campionamento possano aiutare a valutare la qualità dei modelli di ML per l'addestramento personalizzato.
Questo corso presenta le offerte di intelligenza artificiale (AI) e machine learning (ML) su Google Cloud per la creazione di progetti di AI predittiva e generativa. Esplora le tecnologie, i prodotti e gli strumenti disponibili durante tutto il ciclo di vita data-to-AI, includendo le basi, lo sviluppo e le soluzioni di AI. Ha lo scopo di aiutare data scientist, sviluppatori di AI e ML engineer a migliorare le proprie abilità e conoscenze attraverso attività di apprendimento coinvolgenti ed esercizi pratici.