Rejoindre Se connecter

Jordan Victor Scher

Date d'abonnement : 2024

Ligue de Diamant

41710 points
Créer des applications d'IA générative sur Google Cloud Earned mars 11, 2025 EDT
IA responsable pour les développeurs : confidentialité et sécurité Earned mars 11, 2025 EDT
Machine Learning Operations (MLOps) avec Vertex AI : évaluation des modèles Earned mars 11, 2025 EDT
IA responsable pour les développeurs : interprétabilité et transparence Earned fév. 28, 2025 EST
IA responsable pour les développeurs : équité et biais Earned fév. 28, 2025 EST
Présentation de l'IA générative Earned fév. 21, 2025 EST
Présentation des grands modèles de langage Earned fév. 21, 2025 EST
Machine Learning Operations (MLOps) pour l'IA générative Earned fév. 21, 2025 EST
Utiliser des notebooks dans Vertex AI Earned fév. 21, 2025 EST
Présentation de l'IA et du machine learning sur Google Cloud Earned fév. 20, 2025 EST
Guide de préparation pour devenir ingénieur professionnel en machine learning Earned fév. 13, 2025 EST
IA responsable : appliquer les principes concernant l'IA avec Google Cloud Earned jan. 14, 2025 EST
Préparer des données pour les API de ML sur Google Cloud Earned oct. 11, 2024 EDT
Ingénierie des données pour la modélisation prédictive avec BigQuery ML Earned oct. 10, 2024 EDT
Créer un entrepôt de données avec BigQuery Earned oct. 10, 2024 EDT
Créer un maillage de données avec Dataplex Earned oct. 5, 2024 EDT
Se préparer à devenir Professional Data Engineer Earned oct. 2, 2024 EDT
Traitement des données sans serveur avec Dataflow : opérations Earned sept. 29, 2024 EDT
Traitement des données sans serveur avec Dataflow : développer des pipelines Earned sept. 29, 2024 EDT
Traitement des données sans serveur avec Dataflow : principes de base Earned sept. 8, 2024 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Français Earned sept. 7, 2024 EDT
Créer des pipelines de flux de données sur Google Cloud Earned sept. 3, 2024 EDT
Créer des pipelines de données en batch sur Google Cloud Earned août 31, 2024 EDT
Créer des lacs de données et des entrepôts de données sur Google Cloud Earned août 25, 2024 EDT

Les applications d'IA générative peuvent créer de nouvelles expériences utilisateur qu'il était quasiment impossible d'obtenir avant l'invention des grands modèles de langage (LLM). En tant que développeur d'applications, comment pouvez-vous utiliser l'IA générative pour créer des applications interactives et performantes sur Google Cloud ? Dans ce cours, vous allez découvrir les applications d'IA générative, et comment vous pouvez utiliser la conception de requêtes et la génération augmentée par récupération (RAG) pour créer des applications performantes à l'aide de LLM. Vous allez vous familiariser avec une architecture prête pour la production qui peut être utilisée pour les applications d'IA générative, et vous allez créer une application de chat basée sur des LLM et sur le RAG.

En savoir plus

Ce cours présente des points importants au sujet de la confidentialité et de la sécurité de l'IA. Vous découvrirez des méthodes pratiques et des outils pour mettre en place des pratiques recommandées de confidentialité et de sécurité de l'IA à l'aide de produits Google Cloud et d'outils Open Source.

En savoir plus

Ce cours apporte aux professionnels du machine learning les techniques, les bonnes pratiques et les outils essentiels pour évaluer les modèles d'IA prédictive et générative. L'évaluation des modèles est primordiale pour s'assurer que les systèmes de ML fournissent des résultats fiables, précis et de haut niveau en production. Les participants acquerront une connaissance approfondie de diverses métriques et méthodologies d'évaluation, ainsi que de leur application appropriée dans différents types de modèles et tâches. Le cours mettra l'accent sur les défis uniques posés par les modèles d'IA générative et proposera des stratégies pour les relever efficacement. Grâce à la plate-forme Vertex AI de Google Cloud, les participants apprendront à implémenter des processus d'évaluation rigoureux pour la sélection, l'optimisation et la surveillance continue des modèles.

En savoir plus

Ce cours présente les concepts d'interprétabilité et de transparence de l'IA. Il explique en quoi la transparence de l'IA est importante pour les développeurs et les ingénieurs. Il explore des méthodes et des outils pratiques permettant d'atteindre l'interprétabilité et la transparence des modèles d'IA et des données.

En savoir plus

Ce cours présente le concept d'IA responsable et les principes associés. Il met en avant des techniques permettant d'identifier des données équitables ou biaisées, et de limiter les biais lors de l'utilisation de l'IA/du ML. Vous découvrirez des méthodes pratiques et des outils pour mettre en place de bonnes pratiques d'IA responsable à l'aide des produits Google Cloud et des outils Open Source.

En savoir plus

Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.

En savoir plus

Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.

En savoir plus

Dans ce cours, vous allez acquérir les connaissances et les outils nécessaires pour identifier les problématiques uniques auxquelles les équipes MLOps sont confrontées lors du déploiement et de la gestion de modèles d'IA générative. Vous verrez également en quoi Vertex AI permet aux équipes d'IA de simplifier les processus MLOps et de faire aboutir leurs projets d'IA générative.

En savoir plus

Ce cours est une introduction aux notebooks Vertex AI, des environnements basés sur des notebooks Jupyter qui proposent une plate-forme unifiée pour l'ensemble du workflow de machine learning, de la préparation des données jusqu'au déploiement et à la surveillance des modèles. Le cours aborde les sujets suivants : (1) Les différents types de notebooks Vertex AI et leurs fonctionnalités, et (2) comment en créer et les gérer.

En savoir plus

Ce cours présente les fonctionnalités d'IA et de machine learning (ML) de Google Cloud, en mettant l'accent sur le développement de projets d'IA prédictive et générative. Il explore les différentes technologies, produits et outils disponibles tout au long du cycle de vie des données à l'IA, et permet aux data scientists, aux développeurs d'IA et aux ingénieurs en ML d'améliorer leur expertise grâce à des exercices interactifs.

En savoir plus

Ce cours aide les participants à créer un plan de formation pour l'examen de certification afin de devenir ingénieur professionnel en machine learning (PMLE, Professional Machine Learning Engineer). Ils découvriront l'ampleur et le champ d'application des domaines abordés lors de l'examen. Ils détermineront s'ils sont prêts à passer l'examen et créeront leur propre plan de formation.

En savoir plus

Avec l'essor de l'utilisation de l'intelligence artificielle et du machine learning en entreprise, il est de plus en plus important de développer ces technologies de manière responsable. Pour beaucoup, le véritable défi réside dans la mise en pratique de l'IA responsable, qui s'avère bien plus complexe que dans la théorie. Si vous souhaitez découvrir comment opérationnaliser l'IA responsable dans votre organisation, ce cours est fait pour vous. Dans ce cours, vous allez apprendre comment Google Cloud procède actuellement, en s'appuyant sur des bonnes pratiques et les enseignements tirés, afin de vous fournir un framework pour élaborer votre propre approche d'IA responsable.

En savoir plus

Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.

En savoir plus

Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.

En savoir plus

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.

En savoir plus

Terminez le cours d'introduction Créer un maillage de données avec Dataplex pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création d'un maillage de données avec Dataplex pour faciliter la sécurité, la gouvernance et la découverte des données sur Google Cloud. Cela comprend l'ajout de tags à des éléments, l'attribution de rôles IAM et l'évaluation de la qualité des données dans Dataplex.

En savoir plus

Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.

En savoir plus

Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.

En savoir plus

Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.

En savoir plus

Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.

En savoir plus

Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.

En savoir plus

Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.

En savoir plus