Jordan Victor Scher
Date d'abonnement : 2024
Ligue de Diamant
41710 points
Date d'abonnement : 2024
Les applications d'IA générative peuvent créer de nouvelles expériences utilisateur qu'il était quasiment impossible d'obtenir avant l'invention des grands modèles de langage (LLM). En tant que développeur d'applications, comment pouvez-vous utiliser l'IA générative pour créer des applications interactives et performantes sur Google Cloud ? Dans ce cours, vous allez découvrir les applications d'IA générative, et comment vous pouvez utiliser la conception de requêtes et la génération augmentée par récupération (RAG) pour créer des applications performantes à l'aide de LLM. Vous allez vous familiariser avec une architecture prête pour la production qui peut être utilisée pour les applications d'IA générative, et vous allez créer une application de chat basée sur des LLM et sur le RAG.
Ce cours présente des points importants au sujet de la confidentialité et de la sécurité de l'IA. Vous découvrirez des méthodes pratiques et des outils pour mettre en place des pratiques recommandées de confidentialité et de sécurité de l'IA à l'aide de produits Google Cloud et d'outils Open Source.
Ce cours apporte aux professionnels du machine learning les techniques, les bonnes pratiques et les outils essentiels pour évaluer les modèles d'IA prédictive et générative. L'évaluation des modèles est primordiale pour s'assurer que les systèmes de ML fournissent des résultats fiables, précis et de haut niveau en production. Les participants acquerront une connaissance approfondie de diverses métriques et méthodologies d'évaluation, ainsi que de leur application appropriée dans différents types de modèles et tâches. Le cours mettra l'accent sur les défis uniques posés par les modèles d'IA générative et proposera des stratégies pour les relever efficacement. Grâce à la plate-forme Vertex AI de Google Cloud, les participants apprendront à implémenter des processus d'évaluation rigoureux pour la sélection, l'optimisation et la surveillance continue des modèles.
Ce cours présente les concepts d'interprétabilité et de transparence de l'IA. Il explique en quoi la transparence de l'IA est importante pour les développeurs et les ingénieurs. Il explore des méthodes et des outils pratiques permettant d'atteindre l'interprétabilité et la transparence des modèles d'IA et des données.
Ce cours présente le concept d'IA responsable et les principes associés. Il met en avant des techniques permettant d'identifier des données équitables ou biaisées, et de limiter les biais lors de l'utilisation de l'IA/du ML. Vous découvrirez des méthodes pratiques et des outils pour mettre en place de bonnes pratiques d'IA responsable à l'aide des produits Google Cloud et des outils Open Source.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Dans ce cours, vous allez acquérir les connaissances et les outils nécessaires pour identifier les problématiques uniques auxquelles les équipes MLOps sont confrontées lors du déploiement et de la gestion de modèles d'IA générative. Vous verrez également en quoi Vertex AI permet aux équipes d'IA de simplifier les processus MLOps et de faire aboutir leurs projets d'IA générative.
Ce cours est une introduction aux notebooks Vertex AI, des environnements basés sur des notebooks Jupyter qui proposent une plate-forme unifiée pour l'ensemble du workflow de machine learning, de la préparation des données jusqu'au déploiement et à la surveillance des modèles. Le cours aborde les sujets suivants : (1) Les différents types de notebooks Vertex AI et leurs fonctionnalités, et (2) comment en créer et les gérer.
Ce cours présente les fonctionnalités d'IA et de machine learning (ML) de Google Cloud, en mettant l'accent sur le développement de projets d'IA prédictive et générative. Il explore les différentes technologies, produits et outils disponibles tout au long du cycle de vie des données à l'IA, et permet aux data scientists, aux développeurs d'IA et aux ingénieurs en ML d'améliorer leur expertise grâce à des exercices interactifs.
Ce cours aide les participants à créer un plan de formation pour l'examen de certification afin de devenir ingénieur professionnel en machine learning (PMLE, Professional Machine Learning Engineer). Ils découvriront l'ampleur et le champ d'application des domaines abordés lors de l'examen. Ils détermineront s'ils sont prêts à passer l'examen et créeront leur propre plan de formation.
Avec l'essor de l'utilisation de l'intelligence artificielle et du machine learning en entreprise, il est de plus en plus important de développer ces technologies de manière responsable. Pour beaucoup, le véritable défi réside dans la mise en pratique de l'IA responsable, qui s'avère bien plus complexe que dans la théorie. Si vous souhaitez découvrir comment opérationnaliser l'IA responsable dans votre organisation, ce cours est fait pour vous. Dans ce cours, vous allez apprendre comment Google Cloud procède actuellement, en s'appuyant sur des bonnes pratiques et les enseignements tirés, afin de vous fournir un framework pour élaborer votre propre approche d'IA responsable.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.
Terminez le cours d'introduction Créer un maillage de données avec Dataplex pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création d'un maillage de données avec Dataplex pour faciliter la sécurité, la gouvernance et la découverte des données sur Google Cloud. Cela comprend l'ajout de tags à des éléments, l'attribution de rôles IAM et l'évaluation de la qualité des données dans Dataplex.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.
Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.
Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.