In diesem Kurs lernen Sie, wie Sie mit dem Google Agent Development Kit komplexe Multi-Agent-Systeme entwickeln. Sie erstellen Agenten mit Tools und verbinden sie durch über- und untergeordnete Beziehungen und Abläufe, um festzulegen, wie sie interagieren. Sie führen Ihre Agenten lokal aus und stellen sie in der Vertex AI Agent Engine bereit, um sie als verwalteten Agent-Ablauf auszuführen. Die Entscheidungen zur Infrastruktur und die Ressourcenskalierung werden von der Agent Engine übernommen. Bitte beachten Sie, dass diese Labs auf einer Vorabversion dieses Produkts basieren. Bei diesen Labs kann es zu Verzögerungen kommen, da wir Wartungsupdates bereitstellen.
NotebookLM is an AI-powered collaborator that helps you do your best thinking. After uploading your documents, NotebookLM becomes an instant expert in those sources so you can read, take notes, and collaborate with it to refine and organize your ideas. NotebookLM Pro gives you everything already included with NotebookLM, as well as higher utilization limits, access to premium features, and additional sharing options and analytics.
Gemini Enterprise ist ein leistungsstarkes Tool, das das Fachwissen von Google in den Bereichen Suche und KI zusammenbringt. Mitarbeitende können damit bestimmte Informationen in Dokumentenspeichern, E‑Mails, Chats, Ticketsystemen und anderen Datenquellen über eine einzige Suchleiste finden. Der Gemini Enterprise-Assistent kann sie auch beim Brainstorming, der Recherche oder der Strukturierung von Dokumenten unterstützen und zum Beispiel Kollegen zu einem Kalendertermin einladen, um die Wissensarbeit und Zusammenarbeit zu beschleunigen. (Gemini Enterprise hieß früher Google Agentspace. In diesem Kurs kann es daher noch Verweise auf den alten Produktnamen geben.)
Mit dem Skill-Logo Generative KI mit der Gemini API in Vertex AI nutzen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Textgenerierung, Bild- und Videoanalyse für eine verbesserte Erstellung von Inhalten und die Verwendung von Funktionsaufrufen in der Gemini API. Sie erfahren, wie Sie ausgefeilte Gemini-Techniken einsetzen, multimodale Inhalte erstellen und in KI-Projekten noch mehr Möglichkeiten nutzen können.
(This course was previously named Multimodal Prompt Engineering with Gemini and PaLM) This course teaches how to use Vertex AI Studio, a Google Cloud console tool for rapidly prototyping and testing generative AI models. You learn to test sample prompts, design your own prompts, and customize foundation models to handle tasks that meet your application's needs. Whether you are looking for text, chat, code, image or speech generative experiences Vertex AI Studio offers you an interface to work with and APIs to integrate your production application.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.
In diesem Kurs lernen Sie KI-basierte Suchtechnologien, Tools und Anwendungen kennen. Er umfasst folgende Themen: die semantische Suche mithilfe von Vektoreinbettungen, die Hybridsuche, bei der semantische und stichwortbezogene Ansätze kombiniert werden, und Retrieval-Augmented Generation (RAG), die KI-Halluzinationen durch einen fundierten KI-Agenten minimiert. Sie sammeln praktische Erfahrungen mit der Vektorsuche in Vertex AI zum Entwickeln einer intelligenten Suchmaschine.
This course will help ML Engineers, Developers, and Data Scientists implement Large Language Models for Generative AI use cases with Vertex AI. The first two modules of this course contain links to videos and prerequisite course materials that will build your knowledge foundation in Generative AI. Please do not skip these modules. The advanced modules in this course assume you have completed these earlier modules.
In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln
In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.
Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.
Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.
In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Dieser Kurs behandelt Gemini in BigQuery, eine Suite KI-gesteuerter Funktionen zur Aufbereitung von Daten für die Verwendung in künstlicher Intelligenz. Zu diesen Funktionen gehören explorative Datenanalyse und ‑aufbereitung, Codegenerierung und Fehlerbehebung sowie Workflow-Erkennung und ‑Visualisierung. Durch konzeptionelle Erläuterungen, einen praxisnahen Anwendungsfall und praktische Übungen können Datenexperten mit diesem Kurs ihre Produktivität steigern und die Entwicklungspipeline beschleunigen.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
Dieser Kurs bietet eine Einführung in Vertex AI Studio, ein Tool für die Interaktion mit generativen KI-Modellen sowie das Prototyping von Geschäftsideen und ihre Umsetzung. Anhand eines eindrucksvollen Anwendungsfalls, ansprechender Lektionen und einer praktischen Übung lernen Sie den Lebenszyklus vom Prompt bis zum Produkt kennen und erfahren, wie Sie Vertex AI Studio für multimodale Gemini-Anwendungen, Prompt-Design, Prompt Engineering und Modellabstimmung einsetzen können. Ziel ist es, Ihnen aufzuzeigen, wie Sie das Potenzial von generativer KI in Ihren Projekten mit Vertex AI Studio ausschöpfen.
Da die Nutzung von künstlicher Intelligenz und Machine Learning in Unternehmen weiter zunimmt, wird auch deren verantwortungsbewusste Entwicklung ein immer wichtigeres Thema. Dabei ist es für viele schwierig, die Überlegungen zur verantwortungsbewussten Anwendung von KI in die Praxis umzusetzen. Wenn Sie wissen möchten, wie sich die verantwortungsbewusste Anwendung von KI in die Praxis umsetzen, also operationalisieren lässt, finden Sie in diesem Kurs entsprechende Hilfestellungen. In diesem Kurs erfahren Sie, wie dies mit Google Cloud heutzutage möglich ist, inklusive entsprechender Best Practices und Erkenntnisse. Es wird gezeigt, welches Framework Google Cloud bietet, um einen eigenen Ansatz für die verantwortungsbewusste Anwendung von KI zu entwickeln.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was verantwortungsbewusste Anwendung von KI bedeutet, warum sie wichtig ist und wie Google dies in seinen Produkten berücksichtigt. Darüber hinaus werden die 7 KI-Grundsätze von Google behandelt.
A Business Leader in Generative AI can articulate the capabilities of core cloud Generative AI products and services and understand how they benefit organizations. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey and how they can leverage Google Cloud's generative AI products to overcome these challenges.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
Mit dem Skill-Logo Data Mesh mit Dataplex aufbauen weisen Sie die folgenden Kenntnisse nach: Aufbauen eines Data Mesh mit Dataplex für mehr Datensicherheit, Governance und Discovery in Google Cloud. Sie fördern und testen Ihre Fähigkeiten beim Tagging von Assets, Zuweisen von IAM-Rollen und Bewerten der Datenqualität in Dataplex.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
This workload aims to upskill Google Cloud Partners about what Google Cloud VMware Engine is, design considerations, and basic implementation. It will also cover interoperability with on-premises vSphere and real world use cases for deployment. Finally, it will cover how VMware Engine compares to other cloud providers' offerings of VMware as a Service and future plans for VMware Engine.
This course introduces participants to MLOps tools and best practices for deploying, evaluating, monitoring and operating production ML systems on Google Cloud. MLOps is a discipline focused on the deployment, testing, monitoring, and automation of ML systems in production. Learners will get hands-on practice using Vertex AI Feature Store's streaming ingestion at the SDK layer.
This course introduces participants to MLOps tools and best practices for deploying, evaluating, monitoring and operating production ML systems on Google Cloud. MLOps is a discipline focused on the deployment, testing, monitoring, and automation of ML systems in production. Machine Learning Engineering professionals use tools for continuous improvement and evaluation of deployed models. They work with (or can be) Data Scientists, who develop models, to enable velocity and rigor in deploying the best performing models.
This course helps developers customize Chronicle and augment its abilities with third party integrations.
This course helps you understand how to use Chronicle to properly handle security incidents.
This course will familiarize you with the core functionality of Chronicle, including the user interface, connections, and settings.
Get hands-on experience applying and building rules for Chronicle. You learn what YARA-L is and how to customize & create event rules.
Learn the technical aspects you need to know about Chronicle and how it can help you detect and action threats.
Earn a DRI badge by completing the Infra Foundations - Implementing Least Privilege for Service Accounts quest, where you demonstrate your capabilities to manage service accounts, assign IAM roles, setting up and using impersonation and implementing logging sinks that target GCS buckets. When you complete this activity, you can earn the badge displayed above! View all the badges you have earned by visiting your profile page.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
Mit dem Skill-Logo Infrastruktur mit Terraform in Google Cloud erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Grundsätze von Infrastruktur als Code (IaC) unter Verwendung von Terraform, Bereitstellen und Verwalten von Google Cloud-Ressourcen mit Terraform-Konfigurationen, effektives Statusmanagement (lokal und remote) und die Modularisierung von Terraform-Code für Wiederverwendbarkeit und Organisation.
This course equips students to build highly reliable and efficient solutions on Google Cloud using proven design patterns. It is a continuation of the Architecting with Google Compute Engine or Architecting with Google Kubernetes Engine courses and assumes hands-on experience with the technologies covered in either of those courses. Through a combination of presentations, design activities, and hands-on labs, participants learn to define and balance business and technical requirements to design Google Cloud deployments that are highly reliable, highly available, secure, and cost-effective.
Erhalten Sie ein Skill-Logo, indem Sie den Kurs Google Cloud-Netzwerk entwickeln abschließen. Dabei wird anhand verschiedener Aufgaben behandelt, wie Sie Anwendungen bereitstellen und beobachten, darunter: IAM-Rollen prüfen, den Zugriff auf Projekte ermöglichen/entfernen, VPC-Netzwerke erstellen, Compute Engine-VMs bereitstellen und beobachten, SQL-Abfragen schreiben, VMs in der Compute Engine bereitstellen und beobachten sowie Anwendungen mithilfe von Kubernetes und mehreren Deploymentmodellen bereitstellen.
Willkommen beim Kurs „Erste Schritte mit der Google Kubernetes Engine“. Sie interessieren sich für Kubernetes, eine Software-Ebene, die sich zwischen Ihren Anwendungen und der Hardwareinfrastruktur befindet? Dann sind Sie hier genau richtig! Die Google Kubernetes Engine bietet Ihnen Kubernetes als verwalteten Dienst in Google Cloud. In diesem Kurs lernen Sie die Grundlagen der Google Kubernetes Engine (GKE) kennen und erfahren, wie Sie Anwendungen containerisieren und in Google Cloud ausführen. Er beginnt mit einer Einführung in Google Cloud, gefolgt von einem Überblick über Container und Kubernetes, die Kubernetes-Architektur sowie Kubernetes-Vorgänge.
Mit dem Skill-Logo zum Kurs Cloud Load Balancing in der Compute Engine implementieren weisen Sie Kenntnisse in folgenden Bereichen nach: virtuelle Maschinen in der Compute Engine erstellen und bereitstellen und Netzwerk- und Application Load Balancer konfigurieren.
Erhalten Sie ein Skill-Logo, indem Sie den Kurs „Umgebung für die Anwendungsentwicklung in Google Cloud einrichten“ abschließen. Dabei lernen Sie, wie Sie eine speicherorientierte Cloud-Infrastruktur mithilfe der grundlegenden Funktionen der folgenden Technologien erstellen und verbinden: Cloud Storage, Identity and Access Management, Cloud Functions und Pub/Sub.
Dieser On-Demand-Intensivkurs bietet Teilnehmenden eine Einführung in die umfangreiche und flexible Infrastruktur und die Plattformdienste von Google Cloud. In Videovorträgen, Demos und praxisorientierten Labs lernen Teilnehmende Lösungselemente kennen und stellen sie bereit. Dazu gehören sichere Interconnect-Netzwerke, Load Balancing, Autoscaling, Automatisierung der Infrastruktur und verwaltete Dienste.
Dieser On-Demand-Intensivkurs bietet Teilnehmenden eine Einführung in die umfangreiche und flexible Infrastruktur und die Plattformdienste von Google Cloud, mit Schwerpunkt auf der Compute Engine. In Videovorträgen, Demos und praxisorientierten Labs lernen die Teilnehmenden Lösungselemente kennen und stellen sie dann bereit. Dazu gehören Infrastrukturkomponenten wie Netzwerke, Systeme und Anwendungsdienste. Außerdem werden praktische Lösungen vorgestellt, beispielsweise für von Kundinnen und Kunden bereitgestellte Verschlüsselungsschlüssel, die Sicherheits- und Zugriffsverwaltung, Kontingente und Abrechnung sowie das Ressourcenmonitoring.
Dieser On-Demand-Intensivkurs bietet Teilnehmenden eine Einführung in die umfangreiche und flexible Infrastruktur und die Plattformdienste von Google Cloud, mit Schwerpunkt auf der Compute Engine. In Videovorträgen, Demos und praxisorientierten Labs lernen Sie Lösungselemente kennen und stellen sie bereit. Dazu gehören Infrastrukturkomponenten wie Netzwerke, virtuelle Maschinen (VMs) und Anwendungsdienste. Darüber hinaus erfahren Sie, wie Sie über die Console und Cloud Shell mit Google Cloud arbeiten. Außerdem lernen Sie mehr über die Aufgaben eines Cloud Architects, über verschiedene Arten von Infrastrukturdesign und über die Konfiguration virtueller Netzwerke mithilfe von Virtual Private Cloud (VPC), Projekten, Netzwerken, Subnetzwerken, IP-Adressen, Routes und Firewallregeln.
In „Google Cloud-Grundlagen: Kerninfrastruktur“ werden wichtige Konzepte und die Terminologie für die Arbeit mit Google Cloud vorgestellt. In Videos und praxisorientierten Labs werden viele Computing- und Speicherdienste von Google Cloud sowie wichtige Tools für die Ressourcen- und Richtlinienverwaltung präsentiert und miteinander verglichen.
Welcome Gamers! Today's game is all about experimenting with Big Query for Machine Learning! Use real life case studies to learn various concepts of BQML and have fun. Take labs to earn points. The faster you complete the lab objectives, the higher your score.