Combinez l'expertise de Google dans les domaines de la recherche et de l'IA grâce à Gemini Enterprise. Cet outil puissant est conçu pour aider les collaborateurs à trouver des informations précises dans des documents stockés, des e-mails, des conversations, des systèmes de suivi des demandes et d'autres sources de données, le tout grâce à une simple barre de recherche. L'assistant Gemini Enterprise peut également les aider à trouver des idées, faire des recherches, résumer des documents et exécuter des tâches comme inviter des collègues à un événement d'agenda pour faciliter la collaboration et l'exploitation des connaissances. (Veuillez noter que Gemini Enterprise s'appelait auparavant Google Agentspace ; il se peut donc que ce cours contienne des références à l'ancien nom du produit.)
This course will focus on Agent Assist, an AI-powered tool designed to enhance customer service interactions. In this course, you will learn how Agent Assist can enhance the productivity of human agents while interacting with customers through the chat channel. You’ll learn how to take full advantage of Agent Assist from Gemini Enterprise for Customer Experience, and its range of Gen AI features and functionality.
In this course, you'll learn to develop AI agents that answer questions using websites, documents, or structured data. You will explore AI Applications and understand the advantages of data store agents, including their scalability and security. You'll learn about different data store types and also discover how to connect data stores to agents and add personalization for enhanced responses. Finally, you'll gain insights into common search configurations and troubleshooting techniques.
In this course you will learn the key architectural considerations that need to be taken into account when designing for the implementation of Conversational AI solutions.
This is an introductory course to all solutions in the Conversational AI portfolio and the Gen AI features that are available to transform them. The course also explores the business case around Conversational AI, and the use cases and user personas addressed by the solution. Please note Dialogflow CX was recently renamed to Conversational Agents and this course is in the process of being updated to reflect the new product name for Dialogflow CX.
Le cours "Configure and Maintain CCAIP as an Admin" fournit aux utilisateurs finaux des connaissances de base sur les caractéristiques essentielles, les fonctionnalités, les informations de configuration et les rapports les plus pertinents pour le rôle d'administrateur. Il est particulièrement adapté aux administrateurs chargés du fonctionnement du centre de contact ainsi qu'à ceux qui analysent, dépannent et configurent la plate-forme afin de répondre au mieux aux demandes des clients. Ce programme examine certains aspects de la surveillance et de la création de rapports. Toutefois, ces sujets sont abordés plus en détail dans le cours intitulé "Managing Functions and Reporting with CCAIP".
Le cours "Manage Functions and Reporting with CCAI Platform" apporte aux utilisateurs finaux des connaissances de base sur les fonctionnalités essentielles, la navigation, la surveillance, la création de rapports et les informations de configuration qui leur sont les plus utiles. Il s'adresse principalement aux équipes managériales des centres de contact, chargées de surveiller l'efficacité, les performances et les objectifs de KPI de l'ensemble des interactions avec les consommateurs. Bien que ce programme aborde certains paramètres et certaines options de configuration, il traite majoritairement de la fonctionnalité de création de rapports dans CCAI Platform.
Ce cours fait découvrir aux agents des centres de contact les principales fonctionnalités de Contact Center AI Platform (CCAIP) qui leur sont destinées. CCAIP est une plate-forme de centre de contact unifiée qui permet aux organisations d'utiliser et de déployer CCAI plus rapidement, sans avoir à passer par plusieurs fournisseurs de technologies. Ce cours est particulièrement indiqué aux agents qui interagissent avec les clients par chat et par téléphone.
An AI-driven Contact Center as a Service (CCaaS) solution that is built natively on Google Cloud. The Implementation course provides Partners with essential training about the delivery of key features and functionality. The course explores how to leverage your key understanding of the product into successful customer implementation engagements with tips, best practices, guides, and more. Note: This product was previously called Contact Center AI (CCAI) Platform you may see references to that name still in the course, however the course is technically correct.
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
Obtenez un badge de compétence en terminant le cours intermédiaire Créer et déployer des solutions de machine learning sur Vertex. Vous y apprendrez à utiliser la plate-forme Vertex AI de Google Cloud, AutoML et les services d'entraînement personnalisés pour entraîner, évaluer, régler, expliquer et déployer des modèles de machine learning. Ce cours, qui ouvre droit à un badge de compétence, est destiné aux data scientists et aux ingénieurs en machine learning. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Terminez le cours intermédiaire Créer des modèles de ML avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'évaluation de modèles de machine learning avec BigQuery ML pour générer des prédictions de données.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.
Ce cours présente les outils et les bonnes pratiques MLOps pour déployer, évaluer, surveiller et exploiter des systèmes de ML en production sur Google Cloud. Le MLOps est une discipline axée sur le déploiement, le test, la surveillance et l'automatisation des systèmes de ML en production. Les ingénieurs en machine learning utilisent des outils pour améliorer et évaluer en permanence les modèles déployés. Ils collaborent avec des data scientists (ou peuvent occuper ce poste) qui développent des modèles permettant de déployer de manière rapide et rigoureuse les solutions de machine learning les plus performantes.
Obtenez un badge de compétence avancé en suivant le cours Utiliser des API de machine learning sur Google Cloud, qui présente les fonctionnalités de base des technologies de machine learning et d'IA suivantes : l'API Cloud Vision, l'API Cloud Translation et l'API Cloud Natural Language.
Quelles sont les bonnes pratiques pour implémenter le machine learning sur Google Cloud ? En quoi consiste la plate-forme Vertex AI et comment pouvez-vous l'utiliser pour créer, entraîner et déployer rapidement des modèles de machine learning AutoML sans écrire une seule ligne de code ? Qu'est-ce que le machine learning et quels types de problèmes permet-il de résoudre ? Google aborde le machine learning d'une façon particulière, qui consiste à fournir une plate-forme unifiée pour les ensembles de données gérés, ainsi qu'un magasin de caractéristiques et un moyen de créer, d'entraîner et de déployer des modèles de machine learning sans écrire une seule ligne de code. Il s'agit également de permettre aux utilisateurs d'étiqueter les données et de créer des notebooks Workbench à l'aide de frameworks tels que TensorFlow, Scikit Learn, Pytorch et R. Avec notre plate-forme Vertex AI, il est également possible d'entraîner des modèles personnalisés, de créer des pipelines de composants, …
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Learn to use LangChain to call Google Cloud LLMs and Generative AI Services and Datastores to simplify complex applications' code.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.
Avec ce cours, explorez les technologies de recherche, les outils et les applications optimisés par l'IA. Découvrez la recherche sémantique, qui utilise les embeddings vectoriels (ou "plongements vectoriels"), la recherche hybride, qui combine les approches sémantique et par mots-clés, et la génération augmentée par récupération (RAG), qui réduit les hallucinations générées par l'IA en agissant comme un agent ancré. Enfin, acquérez une expérience pratique de Vertex AI Vector Search afin de créer votre moteur de recherche intelligent.
(This course was previously named Multimodal Prompt Engineering with Gemini and PaLM) This course teaches how to use Vertex AI Studio, a Google Cloud console tool for rapidly prototyping and testing generative AI models. You learn to test sample prompts, design your own prompts, and customize foundation models to handle tasks that meet your application's needs. Whether you are looking for text, chat, code, image or speech generative experiences Vertex AI Studio offers you an interface to work with and APIs to integrate your production application.
This short course we'll get you up to speed on all the Vertex AI related announcements made at Google Cloud Next '23!
This course explores the different products and capabilities of Gemini Enterprise for Customer Experience and Conversational Agents. Additionally, it covers the foundational principles of conversation design to craft engaging and effective experiences that emulate human-like experiences specific to the Chat channel.
This course will help ML Engineers, Developers, and Data Scientists implement Large Language Models for Generative AI use cases with Vertex AI. The first two modules of this course contain links to videos and prerequisite course materials that will build your knowledge foundation in Generative AI. Please do not skip these modules. The advanced modules in this course assume you have completed these earlier modules.
Avec l'essor de l'utilisation de l'intelligence artificielle et du machine learning en entreprise, il est de plus en plus important de développer ces technologies de manière responsable. Pour beaucoup, le véritable défi réside dans la mise en pratique de l'IA responsable, qui s'avère bien plus complexe que dans la théorie. Si vous souhaitez découvrir comment opérationnaliser l'IA responsable dans votre organisation, ce cours est fait pour vous. Dans ce cours, vous allez apprendre comment Google Cloud procède actuellement, en s'appuyant sur des bonnes pratiques et les enseignements tirés, afin de vous fournir un framework pour élaborer votre propre approche d'IA responsable.
Suivez les cours Introduction to Generative AI, Introduction to Large Language Models et Introduction to Responsible AI, et obtenez un badge de compétence. Votre réussite au quiz final démontrera que vous comprenez les concepts de base relatifs à l'IA générative. Un badge de compétence est un badge numérique délivré par Google Cloud. Il atteste de votre expertise sur les produits et services Google Cloud. Partagez votre badge de compétence en rendant votre profil public et en l'ajoutant à votre profil sur les réseaux sociaux.
Le cours "Explorateur de l'IA générative – Vertex AI" est un ensemble d'ateliers consacrés à l'utilisation de l'IA générative sur Google Cloud. Vous apprendrez à utiliser les modèles de la famille d'API PaLM Vertex AI comme text-bison, chat-bison, et textembedding-gecko. Vous découvrirez également comment rédiger des prompts, quelles bonnes pratiques appliquer, et comment utiliser l'IA générative pour l'idéation, la classification et l'extraction de texte, la création de synthèses, et plus encore. Enfin, vous apprendrez à régler un modèle de fondation à l'aide de l'entraînement personnalisé Vertex AI et à le déployer sur un point de terminaison Vertex AI.
Ce cours présente Vertex AI Studio, un outil permettant d'interagir avec des modèles d'IA générative, de prototyper des idées commerciales et de les envoyer en production. Au moyen d'un cas d'utilisation immersif, de leçons captivantes et d'un atelier pratique, vous allez découvrir le cycle de vie de la requête au produit. Vous apprendrez également à utiliser Vertex AI Studio pour les applications multimodales Gemini, la conception de requêtes, le prompt engineering (ingénierie des requêtes) et le réglage de modèles. L'objectif est de vous permettre d'exploiter tout le potentiel de l'IA générative dans vos projets avec Vertex AI Studio.
Dans ce cours, vous allez apprendre à créer un modèle de sous-titrage d'images à l'aide du deep learning. Vous découvrirez les différents composants de ce type de modèle, comme l'encodeur et le décodeur, et comment l'entraîner et l'évaluer. À la fin du cours, vous serez en mesure de créer vos propres modèles de sous-titrage d'images et de les utiliser pour générer des sous-titres pour des images.
Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.
Ce cours présente les modèles de diffusion, une famille de modèles de machine learning qui s'est récemment révélée prometteuse dans le domaine de la génération d'images. Les modèles de diffusion trouvent leur origine dans la physique, et plus précisément dans la thermodynamique. Au cours des dernières années, ils ont gagné en popularité dans la recherche et l'industrie. Ils sont à la base de nombreux modèles et outils Google Cloud avancés de génération d'images. Ce cours vous présente les bases théoriques des modèles de diffusion, et vous explique comment les entraîner et les déployer sur Vertex AI.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA responsable, souligne son importance et décrit comment Google l'implémente dans ses produits. Il présente également les sept principes de l'IA de Google.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Bienvenue dans le cours "Premiers pas avec Google Kubernetes Engine". Si vous vous intéressez à Kubernetes, une couche logicielle située entre vos applications et votre infrastructure matérielle, vous êtes au bon endroit. Google Kubernetes Engine vous permet d'accéder à Kubernetes en tant que service géré sur Google Cloud. L'objectif de ce cours est de vous présenter les principes de base de Google Kubernetes Engine (GKE), et de vous apprendre à conteneuriser et exécuter des applications dans Google Cloud. Le cours commence par une introduction aux principes de base de Google Cloud, puis se poursuit par une présentation des conteneurs et de Kubernetes, de l'architecture de Kubernetes et des opérations Kubernetes.
This course version is for non-English only. If you wish to take this course in English, please enroll here: Elastic Google Cloud Infrastructure: Scaling and Automation. If you wish to take it in another language, change your language in settings to see availability.
Ce cours accéléré à la demande présente aux participants l'infrastructure complète et flexible de Google Cloud Platform ainsi que les services de plate-forme fournis, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de vidéos de présentation, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que les réseaux, les systèmes et les services applicatifs. Ce cours aborde également le déploiement de solutions pratiques, telles que les clés de chiffrement fournies par le client, la gestion de la sécurité et des accès, les quotas et la facturation, ainsi que la surveillance des ressources.
"Concepts fondamentaux de Google Cloud : infrastructure de base" présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.
Ce cours accéléré à la demande présente aux participants les services complets et flexibles d'infrastructure et de plate-forme offerts par Google Cloud, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de cours vidéo, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que des réseaux, des machines virtuelles et des services d'applications. Vous découvrirez comment utiliser Google Cloud via la console et Cloud Shell. Vous en apprendrez également plus sur le rôle d'un architecte cloud, sur les approches de la conception d'infrastructure et sur la configuration de réseaux virtuels avec Virtual Private Cloud (VPC), les projets, les réseaux, les sous-réseaux, les adresses IP, les routes et les règles de pare-feu.