Gemini Enterprise ist ein leistungsstarkes Tool, das das Fachwissen von Google in den Bereichen Suche und KI zusammenbringt. Mitarbeitende können damit bestimmte Informationen in Dokumentenspeichern, E‑Mails, Chats, Ticketsystemen und anderen Datenquellen über eine einzige Suchleiste finden. Der Gemini Enterprise-Assistent kann sie auch beim Brainstorming, der Recherche oder der Strukturierung von Dokumenten unterstützen und zum Beispiel Kollegen zu einem Kalendertermin einladen, um die Wissensarbeit und Zusammenarbeit zu beschleunigen. (Gemini Enterprise hieß früher Google Agentspace. In diesem Kurs kann es daher noch Verweise auf den alten Produktnamen geben.)
This course will focus on Agent Assist, an AI-powered tool designed to enhance customer service interactions. In this course, you will learn how Agent Assist can enhance the productivity of human agents while interacting with customers through the chat channel. You’ll learn how to take full advantage of Agent Assist from Gemini Enterprise for Customer Experience, and its range of Gen AI features and functionality.
In this course, you'll learn to develop AI agents that answer questions using websites, documents, or structured data. You will explore AI Applications and understand the advantages of data store agents, including their scalability and security. You'll learn about different data store types and also discover how to connect data stores to agents and add personalization for enhanced responses. Finally, you'll gain insights into common search configurations and troubleshooting techniques.
In this course you will learn the key architectural considerations that need to be taken into account when designing for the implementation of Conversational AI solutions.
This is an introductory course to all solutions in the Conversational AI portfolio and the Gen AI features that are available to transform them. The course also explores the business case around Conversational AI, and the use cases and user personas addressed by the solution. Please note Dialogflow CX was recently renamed to Conversational Agents and this course is in the process of being updated to reflect the new product name for Dialogflow CX.
Configure and Maintain CCaaS as an Admin is a course that provides end users with essential learning about the core features, functionality, reporting, and configuration information most relevant to the role. This course is most appropriate for those who perform administrative functions to support the operation of the contact center as well as analyze, troubleshoot, and configure the platform to best meet the demands of customers. Although this program will review some monitoring and reporting aspects, those topics are explored in depth in the course titled "Managing Functions and Reporting with CCaSS."
Manage Functions and Reporting with CCaaS provides end-users with essential training about the core features, functionality, monitoring, reporting, and configuration information that is most relevant to the role. This course is most appropriate for those at the managerial level of the contact center who are tasked with monitoring the effectiveness, efficiency, and KPI attainment for all consumer interactions. While this program will review some aspects of settings and configuration options, the major focus is on reporting functionality in CCaaS.
This course teaches contact center agents about the core agent features and functionality in Contact Center as a Service (CCaaS). CCaaS is a unified contact center platform that accelerates an organization's ability to leverage and deploy contact centers without relying on multiple technology providers. This course is most appropriate for those who handle consumer interactions via chat and call.
An AI-driven Contact Center as a Service (CCaaS) solution that is built natively on Google Cloud. The Implementation course provides Partners with essential training about the delivery of key features and functionality. The course explores how to leverage your key understanding of the product into successful customer implementation engagements with tips, best practices, guides, and more. Note: This product was previously called Contact Center AI (CCAI) Platform you may see references to that name still in the course, however the course is technically correct.
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
Mit dem Skill-Logo zum Kurs ML-Lösungen mit Vertex AI erstellen und bereitstellen weisen Sie fortgeschrittene Kenntnisse nach. Sie lernen in diesem Kurs, wie Sie die Vertex AI-Plattform von Google Cloud, AutoML und benutzerdefinierte Trainingsdienste nutzen, um Machine-Learning-Modelle zu trainieren, zu bewerten, abzustimmen, zu erklären und bereitzustellen. Dieser Kurs richtet sich an professionelle Data Scientists und Machine Learning Engineers. Ein Skill-Logo ist ein exklusives digitales Abzeichen, das von Google Cloud ausgestellt wird und Ihre Kenntnisse über Produkte und Dienste von Google Cloud belegt. In diesem Zusammenhang wird auch die Fähigkeit bewertet, Ihr Wissen in einer interaktiven praxisnahen Umgebung anzuwenden. Absolvieren Sie diese Aufgabenreihe und die Challenge-Lab-Prüfung, um ein digitales Abzeichen zu erhalten, das Sie in Ihrem Netzwerk posten können.
Mit dem Skill-Logo zum Kurs Daten für ML-APIs in Google Cloud vorbereiten weisen Sie Grundkenntnisse in folgenden Bereichen nach: Bereinigen von Daten mit Dataprep von Trifacta, Ausführen von Datenpipelines in Dataflow, Erstellen von Clustern und Ausführen von Apache Spark-Jobs in Dataproc sowie Aufrufen von ML-APIs, einschließlich der Cloud Natural Language API, Cloud Speech-to-Text API und Video Intelligence API.
Mit dem Skill-Logo zum Kurs ML-Modelle mit BigQuery ML erstellen weisen Sie fortgeschrittene Kenntnisse in folgendem Bereich nach: Erstellen und Bewerten von Machine-Learning-Modellen mit BigQuery ML, um Datenvorhersagen zu treffen.
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
This course introduces participants to MLOps tools and best practices for deploying, evaluating, monitoring and operating production ML systems on Google Cloud. MLOps is a discipline focused on the deployment, testing, monitoring, and automation of ML systems in production. Machine Learning Engineering professionals use tools for continuous improvement and evaluation of deployed models. They work with (or can be) Data Scientists, who develop models, to enable velocity and rigor in deploying the best performing models.
Sichern Sie sich das Skill-Logo für Fortgeschrittene, indem Sie den Kurs APIs für Machine Learning in Google Cloud verwenden abschließen – hier lernen Sie die grundlegenden Funktionen der folgenden Machine-Learning- und KI-Technologien kennen: Cloud Vision API, Cloud Translation API und Cloud Natural Language API.
This course explores what ML is and what problems it can solve. The course also discusses best practices for implementing machine learning. You’re introduced to Vertex AI, a unified platform to quickly build, train, and deploy AutoML machine learning models. The course discusses the five phases of converting a candidate use case to be driven by machine learning, and why it’s important to not skip them. The course ends with recognizing the biases that ML can amplify and how to recognize them.
Mit dem Skill-Logo zum Kurs Daten für die Vorhersagemodellierung mit BigQuery ML vorbereiten weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Erstellen von Pipelines für die Datentransformation nach BigQuery mithilfe von Dataprep von Trifacta; Extrahieren, Transformieren und Laden (ETL) von Workflows mit Cloud Storage, Dataflow und BigQuery; und Erstellen von Machine-Learning-Modellen mithilfe von BigQuery ML.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
Learn to use LangChain to call Google Cloud LLMs and Generative AI Services and Datastores to simplify complex applications' code.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.
In diesem Kurs lernen Sie KI-basierte Suchtechnologien, Tools und Anwendungen kennen. Er umfasst folgende Themen: die semantische Suche mithilfe von Vektoreinbettungen, die Hybridsuche, bei der semantische und stichwortbezogene Ansätze kombiniert werden, und Retrieval-Augmented Generation (RAG), die KI-Halluzinationen durch einen fundierten KI-Agenten minimiert. Sie sammeln praktische Erfahrungen mit der Vektorsuche in Vertex AI zum Entwickeln einer intelligenten Suchmaschine.
(This course was previously named Multimodal Prompt Engineering with Gemini and PaLM) This course teaches how to use Vertex AI Studio, a Google Cloud console tool for rapidly prototyping and testing generative AI models. You learn to test sample prompts, design your own prompts, and customize foundation models to handle tasks that meet your application's needs. Whether you are looking for text, chat, code, image or speech generative experiences Vertex AI Studio offers you an interface to work with and APIs to integrate your production application.
This short course we'll get you up to speed on all the Vertex AI related announcements made at Google Cloud Next '23!
This course explores the different products and capabilities of Gemini Enterprise for Customer Experience and Conversational Agents. Additionally, it covers the foundational principles of conversation design to craft engaging and effective experiences that emulate human-like experiences specific to the Chat channel.
This course will help ML Engineers, Developers, and Data Scientists implement Large Language Models for Generative AI use cases with Vertex AI. The first two modules of this course contain links to videos and prerequisite course materials that will build your knowledge foundation in Generative AI. Please do not skip these modules. The advanced modules in this course assume you have completed these earlier modules.
Da die Nutzung von künstlicher Intelligenz und Machine Learning in Unternehmen weiter zunimmt, wird auch deren verantwortungsbewusste Entwicklung ein immer wichtigeres Thema. Dabei ist es für viele schwierig, die Überlegungen zur verantwortungsbewussten Anwendung von KI in die Praxis umzusetzen. Wenn Sie wissen möchten, wie sich die verantwortungsbewusste Anwendung von KI in die Praxis umsetzen, also operationalisieren lässt, finden Sie in diesem Kurs entsprechende Hilfestellungen. In diesem Kurs erfahren Sie, wie dies mit Google Cloud heutzutage möglich ist, inklusive entsprechender Best Practices und Erkenntnisse. Es wird gezeigt, welches Framework Google Cloud bietet, um einen eigenen Ansatz für die verantwortungsbewusste Anwendung von KI zu entwickeln.
Earn a skill badge by completing the Introduction to Generative AI, Introduction to Large Language Models and Introduction to Responsible AI courses. By passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Der Kurs „Generative KI kennenlernen – Vertex AI“ umfasst eine Reihe von Labs zur Verwendung von generativer KI in Google Cloud. In den Labs lernen Sie, wie Sie die Modelle der Vertex AI PaLM API-Familie verwenden, einschließlich text-bison, chat-bison, und textembedding-gecko. Außerdem lernen Sie, wie Sie Prompts gestalten, Best Practices anwenden und die Modelle für Ideenfindung, Textklassifizierung, Textextraktion, Textzusammenfassungen und mehr verwenden. Weiterhin erfahren Sie, wie Sie ein Foundation Model durch das Trainieren über benutzerdefiniertes Training in Vertex AI optimieren und es in einem Vertex AI-Endpunkt bereitstellen.
Dieser Kurs bietet eine Einführung in Vertex AI Studio, ein Tool für die Interaktion mit generativen KI-Modellen sowie das Prototyping von Geschäftsideen und ihre Umsetzung. Anhand eines eindrucksvollen Anwendungsfalls, ansprechender Lektionen und einer praktischen Übung lernen Sie den Lebenszyklus vom Prompt bis zum Produkt kennen und erfahren, wie Sie Vertex AI Studio für multimodale Gemini-Anwendungen, Prompt-Design, Prompt Engineering und Modellabstimmung einsetzen können. Ziel ist es, Ihnen aufzuzeigen, wie Sie das Potenzial von generativer KI in Ihren Projekten mit Vertex AI Studio ausschöpfen.
In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln
Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.
In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.
Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.
In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was verantwortungsbewusste Anwendung von KI bedeutet, warum sie wichtig ist und wie Google dies in seinen Produkten berücksichtigt. Darüber hinaus werden die 7 KI-Grundsätze von Google behandelt.
In diesem Einführungskurs im Microlearning-Format wird untersucht, was Large Language Models (LLM) sind, für welche Anwendungsfälle sie genutzt werden können und wie die LLM-Leistung durch Feinabstimmung von Prompts gesteigert werden kann. Darüber hinaus werden Tools von Google behandelt, die das Entwickeln eigener Anwendungen basierend auf generativer KI ermöglichen.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.
Willkommen beim Kurs „Erste Schritte mit der Google Kubernetes Engine“. Sie interessieren sich für Kubernetes, eine Software-Ebene, die sich zwischen Ihren Anwendungen und der Hardwareinfrastruktur befindet? Dann sind Sie hier genau richtig! Die Google Kubernetes Engine bietet Ihnen Kubernetes als verwalteten Dienst in Google Cloud. In diesem Kurs lernen Sie die Grundlagen der Google Kubernetes Engine (GKE) kennen und erfahren, wie Sie Anwendungen containerisieren und in Google Cloud ausführen. Er beginnt mit einer Einführung in Google Cloud, gefolgt von einem Überblick über Container und Kubernetes, die Kubernetes-Architektur sowie Kubernetes-Vorgänge.
This course version is for non-English only. If you wish to take this course in English, please enroll here: Elastic Google Cloud Infrastructure: Scaling and Automation. If you wish to take it in another language, change your language in settings to see availability.
Dieser On-Demand-Intensivkurs bietet Teilnehmenden eine Einführung in die umfangreiche und flexible Infrastruktur und die Plattformdienste von Google Cloud, mit Schwerpunkt auf der Compute Engine. In Videovorträgen, Demos und praxisorientierten Labs lernen die Teilnehmenden Lösungselemente kennen und stellen sie dann bereit. Dazu gehören Infrastrukturkomponenten wie Netzwerke, Systeme und Anwendungsdienste. Außerdem werden praktische Lösungen vorgestellt, beispielsweise für von Kundinnen und Kunden bereitgestellte Verschlüsselungsschlüssel, die Sicherheits- und Zugriffsverwaltung, Kontingente und Abrechnung sowie das Ressourcenmonitoring.
In „Google Cloud-Grundlagen: Kerninfrastruktur“ werden wichtige Konzepte und die Terminologie für die Arbeit mit Google Cloud vorgestellt. In Videos und praxisorientierten Labs werden viele Computing- und Speicherdienste von Google Cloud sowie wichtige Tools für die Ressourcen- und Richtlinienverwaltung präsentiert und miteinander verglichen.
Dieser On-Demand-Intensivkurs bietet Teilnehmenden eine Einführung in die umfangreiche und flexible Infrastruktur und die Plattformdienste von Google Cloud, mit Schwerpunkt auf der Compute Engine. In Videovorträgen, Demos und praxisorientierten Labs lernen Sie Lösungselemente kennen und stellen sie bereit. Dazu gehören Infrastrukturkomponenten wie Netzwerke, virtuelle Maschinen (VMs) und Anwendungsdienste. Darüber hinaus erfahren Sie, wie Sie über die Console und Cloud Shell mit Google Cloud arbeiten. Außerdem lernen Sie mehr über die Aufgaben eines Cloud Architects, über verschiedene Arten von Infrastrukturdesign und über die Konfiguration virtueller Netzwerke mithilfe von Virtual Private Cloud (VPC), Projekten, Netzwerken, Subnetzwerken, IP-Adressen, Routes und Firewallregeln.