Complete the Extend Gemini with controlled generation and Tool use skill badge to demonstrate your proficiency in connecting models to external tools and APIs. This allows models to augment their knowledge, extend their capabilities and interact with external systems to take actions such as sending an email. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!"
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
Complete the Improve customer and agent satisfaction with Agent Assist skill badge to demonstrate your proficiency in configuring basic conversational agents that can escalate actions to human agents, and configuring Agent Assist to help human agents with customer queries. You prove your knowledge in configuring Generators for summarization, classification and recommendation of tickets as well leverage tools such as Generative Knowledge Assist, to provide further context to human agents. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
In this course you will learn how Agent Assist can enhance the productivity of human agents while interacting with customers through the voice channel, as well as the options available for integration with other platforms in the Conversational AI ecosystem.
This course will focus on Agent Assist, an AI-powered tool designed to enhance customer service interactions. In this course, you will learn how Agent Assist can enhance the productivity of human agents while interacting with customers through the chat channel. You’ll learn how to take full advantage of Agent Assist from Gemini Enterprise for Customer Experience, and its range of Gen AI features and functionality.
Complete the Build search and recommendations AI Applications skill badge to demonstrate your proficiency in deploying search and recommendation applications through AI Applications. Additionally, emphasis is placed on constructing a tailored Q&A system utilizing data stores. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
This course equips learners with the essential knowledge and practical tools to develop and implement artificial intelligence (AI) responsibly. Through an exploration of ethical considerations, best practices, and governance procedures, participants will gain an understanding of how to navigate the complex landscape of AI while upholding ethical standards and minimizing potential risks.
An LLM-based application can process language in a way that resembles thought. But if you want to extend its capabilities to take actions by running other functions you have coded, you will need to use function calling. This can also be referred to as tool use. Additionally, you can give a model the ability to search Google or search a data store of documents to ground its responses. In other words, to base its answers on that information. In this course, you’ll explore these concepts.
With this course you will learn how to use different techniques to fine-tune Gemini. Model tuning is an effective way to customize large models like Gemini for your specific tasks. It's a key step to improve the model's quality and efficiency. This course will give an overview of model tuning, describe the tuning options available for Gemini, help you determine when each tuning option should be used and how to perform tuning.
Ce cours apporte aux professionnels du machine learning les techniques, les bonnes pratiques et les outils essentiels pour évaluer les modèles d'IA prédictive et générative. L'évaluation des modèles est primordiale pour s'assurer que les systèmes de ML fournissent des résultats fiables, précis et de haut niveau en production. Les participants acquerront une connaissance approfondie de diverses métriques et méthodologies d'évaluation, ainsi que de leur application appropriée dans différents types de modèles et tâches. Le cours mettra l'accent sur les défis uniques posés par les modèles d'IA générative et proposera des stratégies pour les relever efficacement. Grâce à la plate-forme Vertex AI de Google Cloud, les participants apprendront à implémenter des processus d'évaluation rigoureux pour la sélection, l'optimisation et la surveillance continue des modèles.
This course delves into the complexities of assessing the quality of large language model outputs. It examines the challenges enterprises face due to the subjective and sometimes incorrect nature of LLM responses, including hallucinations and inconsistent results. The course introduces various evaluation metrics for different tasks like classification, text generation, and question answering, such as Accuracy, Precision, Recall, F1 score, ROUGE, BLEU, and Exact Match. It also explores evaluation methods offered by Vertex AI LLM Evaluation Services, including computation-based, autorater, and human evaluation, providing insights into their application and benefits. Finally, the module covers how to unit test LLM applications within Vertex AI.
In this course, you'll learn to develop AI agents that answer questions using websites, documents, or structured data. You will explore AI Applications and understand the advantages of data store agents, including their scalability and security. You'll learn about different data store types and also discover how to connect data stores to agents and add personalization for enhanced responses. Finally, you'll gain insights into common search configurations and troubleshooting techniques.
Explore the Generative AI features for Conversational Agents and how to incorporate them into stateful Flows. Discover the possibilities with Generators, Generative Fallback, and Data Stores, as well as best practices and security settings for using these features.
Discover flows in Conversational Agents and learn how to build deterministic chat and voice experiences with language models. Explore key concepts like drivers, intents, and entities, and how to use them to create conversational agents.
Model Garden is a model library that helps you discover, test, and deploy models from Google and Google partners. Learn how to explore the available models and select the right ones for your use case. And how to deploy and interact with Model Garden models through the Google Cloud console and APIs.
This lab tests your ability to develop a real-world Generative AI Q&A solution using a RAG framework. You will use Firestore as a vector database and deploy a Flask app as a user interface to query a food safety knowledge base.
Explore Playbooks and their implementation of the ReAct pattern for building conversational agents. You will learn how to construct a Playbook, set up goals and instructions to build a chatbot in natural language, and learn to test and deploy your solution.
This course explores the different products and capabilities of Gemini Enterprise for Customer Experience, including CX Agent Studio, Agent Assist and CX Insights. Additionally, it covers the foundational principles of conversation design to craft engaging and effective experiences that emulate human-like experiences specific to the Chat channel.
In this course you will learn the key architectural considerations that need to be taken into account when designing for the implementation of Conversational AI solutions.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
Learn a variety of strategies and techniques to engineer effective prompts for generative models
Learn how to leverage Gemini multimodal capabilities to process and generate text, images, and audio and to integrate Gemini through APIs to perform tasks such as content creation and summarization.
Complete the Create and maintain Vertex AI Search data stores skill badge to demonstrate your proficiency in building various types of data stores used in Vertex AI Search applications. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Ce cours passe en revue les fonctionnalités de sécurité essentielles de Model Armor et vous prépare à utiliser le service. Vous découvrirez les risques de sécurité associés aux LLM et comment Model Armor protège vos applications d'IA.
Bienvenue dans le cours "AI Infrastructure : techniques de mise en réseau". Dans ce cours, vous apprendrez à exploiter l'infrastructure à large bande passante et à faible latence de Google Cloud pour optimiser le transfert de données et la communication entre tous les composants de votre système d'IA. À la fin de ce cours, vous comprendrez le rôle essentiel que joue la mise en réseau dans l'ensemble du pipeline d'IA, de l'ingestion de données et de l'entraînement à l'inférence. Vous serez également capable d'appliquer les bonnes pratiques pour vous assurer que vos charges de travail s'exécutent à vitesse maximale.
Dans ce cours, vous découvrirez en détail les solutions de stockage disponibles sur Google Cloud, spécialement conçues pour les charges de travail d'IA et de calcul haute performance (HPC). Vous apprendrez à choisir le stockage adapté à chaque étape du cycle de vie du ML. Vous découvrirez comment optimiser les performances d'E/S pendant l'entraînement, à gérer des ensembles de données massifs pour la préparation des données et à livrer les artefacts du modèle avec une faible latence. Grâce à des exemples et à des démonstrations pratiques, vous acquerrez l'expertise nécessaire pour concevoir des solutions de stockage robustes qui accéléreront vos innovations en matière d'IA.
Ce cours constitue un guide complet pour déployer, gérer et optimiser des charges de travail d'IA et de calcul hautes performances (HPC) sur Google Cloud. À travers une série de leçons et de démonstrations pratiques, vous explorerez diverses stratégies de déploiement, allant d'environnements hautement personnalisables utilisant Google Compute Engine (GCE) à des solutions gérées comme Google Kubernetes Engine (GKE). Plus précisément, vous apprendrez à créer des clusters et à déployer GKE pour l'inférence.
Bienvenue dans le cours sur Cloud TPU. Nous allons explorer les avantages et les inconvénients des TPU dans différents scénarios et comparer différents accélérateurs de TPU pour vous aider à choisir celui qui vous convient le mieux. Vous découvrirez des stratégies pour optimiser les performances et l'efficacité de vos modèles d'IA et comprendrez l'importance de l'interopérabilité GPU/TPU pour des flux de travail d'apprentissage automatique flexibles. Grâce à des contenus attrayants et à des démonstrations pratiques, nous vous guiderons étape par étape pour exploiter efficacement les TPU.
Le matériel puissant qui se cache derrière l'IA vous intrigue ? Ce module décortique les ordinateurs à intelligence artificielle optimisés pour les performances et vous montre pourquoi ils sont si importants. Nous allons voir comment les CPU, les GPU et les TPU rendent les tâches d'IA extrêmement rapides, ce qui fait la spécificité de chacun, et comment les logiciels d'IA en tirent le meilleur parti. À la fin de ce module, vous saurez exactement comment sélectionner le GPU adapté à vos projets d'IA, ce qui vous permettra de faire des choix judicieux pour vos charges de travail d'IA.
Vous souhaitez utiliser AI Hypercomputer ? Ce cours est conçu pour vous aider à vous lancer. Nous aborderons les principes de base de cet outil et comment il aide l'IA dans ses charges de travail. Vous découvrirez les différents composants d'un hypercalculateur, tels que les GPU, les TPU et les CPU, et apprendrez à choisir la méthode de déploiement la mieux adaptée à vos besoins.
Demonstrate the ability to create and deploy generative virtual agents with natural language using Vertex AI Agent Builder and augment responses by integrating Gemini responses with third party APIs and your own data stores You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Gemini Cloud Functions
Learn how to create Hybrid Search applications using Vertex AI Vertex Search to combine semantic searching with keyword search to return results based on both semantic meaning and keyword matching.
Learn how to build your own Retrieval-Augmented Generation (RAG) solutions for greater control and flexibility than out-of-the-box implementations. Create a custom RAG solution using Vertex AI APIs, vector stores, and the LangChain framework.
Ce cours présente une solution de génération augmentée par récupération (RAG) dans BigQuery permettant de réduire les hallucinations de l'IA. Il décrit un workflow RAG qui couvre la création d'embeddings, la recherche dans un espace vectoriel et la génération de réponses améliorées. Il explique aussi les raisons conceptuelles derrière ces étapes et leur implémentation pratique avec BigQuery. À la fin du cours, les participants seront à même de créer un pipeline de RAG à l'aide de BigQuery et de modèles d'IA générative tels que Gemini, ainsi que des modèles d'embeddings pour traiter leurs propres cas d'hallucinations de l'IA.
Terminez le cours d'introduction Conception de requêtes dans Vertex AI pour recevoir un badge démontrant vos compétences dans les domaines suivants : le prompt engineering (ingénierie des requêtes), l'analyse d'images et les techniques d'IA générative multimodale dans Vertex AI. Découvrez comment élaborer des requêtes efficaces, guider les résultats de l'IA générative et appliquer des modèles Gemini à des scénarios marketing concrets.
Dans ce cours, vous allez apprendre à développer une application à l'aide de Flutter, le kit d'interface utilisateur portable de Google, et à y intégrer Gemini, la famille de modèles d'IA générative de Google. Vous allez également utiliser Vertex AI Agent Builder, la plate-forme de Google pour développer et gérer des agents d'IA et des applications.
In this course, you'll dive deep into the essential topics you need to know to design, build, and maintain a powerful CES solution. Get ready to transform your understanding of what's possible and create an architecture that drives customer satisfaction. This course is designed to introduce you to the architecture of the Customer Engagement Suite (CES). You'll explore the main considerations for building and implementing Conversational AI solutions including key architectural components and integrations. You'll also explore how Conversational AI interacts with Vertex AI and get a high-level overview of the key features of the Conversational AI Platform.
Ce cours présente Gemini Enterprise, une plate-forme puissante qui rassemble des agents IA, la recherche d’entreprise, NotebookLM et un accès intelligent aux données pour résoudre les défis organisationnels. À travers des exemples concrets et une exploration pratique, les participants pourront lier les capacités de Gemini Enterprise à des besoins métiers réels, décrire son architecture et expliquer comment il gère l'accès aux données et la confidentialité entre les différents rôles.
In this challenge lab, you will demonstrate your ability to author agents using Agent Development Kit (ADK), deploy those agents to Agent Engine, and use them from a web app. Complete the challenge lab to earn a Google Cloud skill badge.
Dans ce cours, vous utiliserez Google Agent Development Kit pour créer des systèmes multi-agents complexes. Vous développerez des agents équipés d'outils qui pourront interagir sur la base de flux et de relations parent-enfant. Vous allez exécuter vos agents en local et les déployer sur Vertex AI Agent Engine sous la forme d'un flux agentif géré, où les décisions concernant l'infrastructure et le scaling des ressources seront traitées par Agent Engine. Veuillez noter que ces ateliers sont basés sur une version préliminaire du produit. Les mises à jour ne seront peut-être pas immédiatement reflétées dans le contenu.