Gianluca Mongiello
Date d'abonnement : 2025
Ligue d'Argent
1389 points
Date d'abonnement : 2025
Les agents IA représentent une évolution majeure par rapport aux grands modèles de langage traditionnels (LLM) : au lieu de simplement générer des solutions textuelles, ils peuvent également agir de manière autonome pour les exécuter. Ce cours présente les principes de base des agents IA, leurs différences avec les API LLM et les cas où ils apportent une réelle valeur. Basé sur le livre blanc de Google consacré aux agents, il fournit les bases théoriques nécessaires avant d'écrire vos premières lignes de code d'agent. Il est idéal pour les développeurs, les architectes et les décideurs techniques qui souhaitent comprendre les systèmes d'IA à travers le prisme du comportement autonome et orienté vers des objectifs, plutôt que simplement comme des générateurs de texte. Rejoindre le forum de la communauté pour poser des questions et discuter
Bienvenue dans le cours sur Cloud TPU. Nous allons explorer les avantages et les inconvénients des TPU dans différents scénarios et comparer différents accélérateurs de TPU pour vous aider à choisir celui qui vous convient le mieux. Vous découvrirez des stratégies pour optimiser les performances et l'efficacité de vos modèles d'IA et comprendrez l'importance de l'interopérabilité GPU/TPU pour des flux de travail d'apprentissage automatique flexibles. Grâce à des contenus attrayants et à des démonstrations pratiques, nous vous guiderons étape par étape pour exploiter efficacement les TPU.
Le matériel puissant qui se cache derrière l'IA vous intrigue ? Ce module décortique les ordinateurs à intelligence artificielle optimisés pour les performances et vous montre pourquoi ils sont si importants. Nous allons voir comment les CPU, les GPU et les TPU rendent les tâches d'IA extrêmement rapides, ce qui fait la spécificité de chacun, et comment les logiciels d'IA en tirent le meilleur parti. À la fin de ce module, vous saurez exactement comment sélectionner le GPU adapté à vos projets d'IA, ce qui vous permettra de faire des choix judicieux pour vos charges de travail d'IA.
Vous souhaitez utiliser AI Hypercomputer ? Ce cours est conçu pour vous aider à vous lancer. Nous aborderons les principes de base de cet outil et comment il aide l'IA dans ses charges de travail. Vous découvrirez les différents composants d'un hypercalculateur, tels que les GPU, les TPU et les CPU, et apprendrez à choisir la méthode de déploiement la mieux adaptée à vos besoins.
Dans ce cours, vous allez acquérir les connaissances et les outils nécessaires pour identifier les problématiques uniques auxquelles les équipes MLOps sont confrontées lors du déploiement et de la gestion de modèles d'IA générative. Vous verrez également en quoi Vertex AI permet aux équipes d'IA de simplifier les processus MLOps et de faire aboutir leurs projets d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA responsable, souligne son importance et décrit comment Google l'implémente dans ses produits. Il présente également les sept principes de l'IA de Google.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.