Gianluca Mongiello
Mitglied seit 2025
Silver League
1389 Punkte
Mitglied seit 2025
KI‑Agenten stellen einen bedeutenden Wandel gegenüber traditionellen Large Language Models (LLMs) dar: Anstatt lediglich textbasierte Lösungen zu generieren, können sie diese Lösungen auch selbstständig ausführen. Dieser Kurs behandelt die Grundlagen von KI‑Agenten und zeigt, wie sie sich von LLM-APIs unterscheiden und in der realen Welt einen Mehrwert bieten. Er basiert auf dem Whitepaper zu Agenten von Google und bietet eine theoretische Grundlage, die man kennen sollte, bevor man die ersten Zeilen Code für einen KI‑Agenten schreibt. Der Kurs ist somit ideal für Personen in der Softwareentwicklung und -Architektur sowie für all diejenigen, die technische Entscheidungen fällen müssen und KI‑Systeme im Kontext von selbstständigen, zielorientierten Handlungen (Anstatt nur als Textgeneratoren) verstehen möchten. In unserem Community-Forum können Sie sich am Diskurs beteiligen.
Willkommen beim Kurs „Cloud TPUs“. Wir sehen uns die Vor- und Nachteile von TPUs in verschiedenen Szenarien an und vergleichen unterschiedliche TPU-Beschleuniger, um Ihnen bei der Auswahl des richtigen Produkts zu helfen. Sie lernen Strategien zur Maximierung der Leistung und Effizienz Ihrer KI-Modelle sowie die Bedeutung der GPU/TPU-Interoperabilität für flexible Machine-Learning-Workflows kennen. Mithilfe ansprechender Inhalte und praktischer Demos zeigen wir Ihnen Schritt für Schritt, wie Sie TPUs effektiv einsetzen können.
Möchten Sie mehr über die leistungsstarke Hardware hinter KI erfahren? Dieses Modul erklärt die Funktionsweise von leistungsoptimierten KI-Computern und zeigt Ihnen, warum sie so wichtig sind. Wir gehen dabei darauf ein, wie CPUs, GPUs und TPUs die Ausführung von KI-Aufgaben extrem beschleunigen, was die einzelnen Komponenten auszeichnet und wie deren Potenzial durch KI-Software optimal genutzt werden kann. Am Ende dieses Moduls wissen Sie genau, wie Sie die richtige GPU für Ihre KI-Projekte auswählen, und können so die optimale Lösung für Ihre KI-Workloads finden.
Sind Sie bereit, mit AI Hypercomputer loszulegen? Dieser Grundlagenkurs erleichtert Ihnen den Einstieg. Er vermittelt Ihnen, was AI Hypercomputer ist und wie damit KI bei KI-Arbeitslasten unterstützt wird. Sie lernen die verschiedenen Komponenten eines Hypercomputers kennen, wie GPUs, TPUs und CPUs, und erfahren, wie Sie den richtigen Ansatz hinsichtlich der Bereitstellung Ihren Anforderungen entsprechend auswählen.
Dieser Kurs vermittelt Ihnen das Wissen und die nötigen Tools, um die speziellen Herausforderungen zu erkennen, mit denen MLOps-Teams bei der Bereitstellung und Verwaltung von Modellen basierend auf generativer KI konfrontiert sind. Sie erfahren, wie KI-Teams durch Vertex AI dabei unterstützt werden, MLOps-Prozesse zu optimieren und mit Projekten erfolgreich zu sein, in denen generative KI zum Einsatz kommt.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was verantwortungsbewusste Anwendung von KI bedeutet, warum sie wichtig ist und wie Google dies in seinen Produkten berücksichtigt. Darüber hinaus werden die 7 KI-Grundsätze von Google behandelt.
In diesem Einführungskurs im Microlearning-Format wird untersucht, was Large Language Models (LLM) sind, für welche Anwendungsfälle sie genutzt werden können und wie die LLM-Leistung durch Feinabstimmung von Prompts gesteigert werden kann. Darüber hinaus werden Tools von Google behandelt, die das Entwickeln eigener Anwendungen basierend auf generativer KI ermöglichen.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.