Jordan Victor Scher
Miembro desde 2024
Liga de Diamantes
41710 puntos
Miembro desde 2024
Las aplicaciones de IA generativa pueden producir nuevas experiencias de usuario que eran casi imposibles antes de la invención de los modelos de lenguaje grandes (LLM). Como desarrollador de aplicaciones, ¿cómo puedes utilizar la IA generativa para crear apps interesantes y potentes en Google Cloud? En este curso, aprenderás sobre las aplicaciones de IA generativa y cómo puedes utilizar el diseño de instrucciones y la generación mejorada por recuperación (RAG) para crear aplicaciones potentes utilizando LLM. Aprenderás sobre una arquitectura lista para producción que puede utilizarse para aplicaciones basadas en IA generativa y crearás una app de chat basada en un LLM y RAG.
En este curso, se presentan temas importantes relacionados con la privacidad y seguridad de la IA. Se exploran herramientas y métodos prácticos para implementar prácticas recomendadas de privacidad y seguridad de la IA a través del uso de productos de Google Cloud y herramientas de código abierto.
En este curso, los profesionales del aprendizaje automático aprenderán a utilizar las herramientas, las técnicas y las prácticas recomendadas indispensables para evaluar los modelos de IA generativa y predictiva. La evaluación de modelos es una disciplina esencial para garantizar que los sistemas de AA arrojen resultados confiables, exactos y de alto rendimiento en la producción. Los participantes obtendrán información exhaustiva sobre diversas métricas y metodologías de evaluación, además de su aplicación adecuada en diferentes tipos de modelos y tareas. En este curso, se hará énfasis en los desafíos únicos que presentan los modelos de IA generativa y se ofrecerán estrategias para abordarlos de manera eficaz. Con la plataforma de Vertex AI de Google Cloud, los participantes aprenderán a implementar los procesos sólidos de evaluación para la selección, optimización y supervisión continua de modelos.
En este curso, se presentan los conceptos de interpretabilidad y transparencia de la IA, así como se menciona la importancia de la transparencia de la IA para los ingenieros y desarrolladores. Se exploran métodos y herramientas funcionales para ayudar a lograr la interpretabilidad y transparencia en los modelos de IA y datos.
En este curso, se presentan los conceptos de la IA responsable y los principios de la IA. Se abordan técnicas para identificar de forma práctica la equidad y los sesgos, y mitigar los sesgos en las prácticas de IA/AA. Se exploran métodos y herramientas funcionales para implementar prácticas recomendadas de la IA responsable con productos de Google Cloud y herramientas de código abierto.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA generativa, cómo se utiliza y en qué se diferencia de los métodos de aprendizaje automático tradicionales. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
Este es un curso introductorio de microaprendizaje en el que se explora qué son los modelos de lenguaje grandes (LLM), sus casos de uso y cómo se puede utilizar el ajuste de instrucciones para mejorar el rendimiento de los LLM. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
El objetivo de este curso es equiparte con los conocimientos y las herramientas que necesitas para descubrir los desafíos únicos que enfrentan los equipos de MLOps cuando implementan y administran modelos de IA generativa, y explorar cómo Vertex AI fortalece a los equipos de IA para optimizar los procesos de MLOps y alcanzar el éxito en los proyectos de IA generativa.
Este curso es una introducción a Notebooks de Vertex AI, que son entornos basados en notebooks de Jupyter que proporcionan una plataforma unificada para todo el flujo de trabajo de aprendizaje automático, desde la preparación de los datos hasta la implementación y supervisión de los modelos. Se abordan los siguientes temas: (1) Los diferentes tipos de Notebooks de Vertex AI y sus funciones y (2) cómo crear y administrar Notebooks de Vertex AI.
En este curso, se presentan las funciones de IA y aprendizaje automático (AA) de Google Cloud, con un enfoque en el desarrollo de proyectos de IA generativa y predictiva. Se exploran las diversas tecnologías, productos y herramientas disponibles durante el ciclo de vida desde los datos hasta la IA, y se trabaja con ejercicios interactivos para que los científicos de datos, ingenieros de AA y desarrolladores de IA puedan enriquecer su experiencia.
Este curso ayuda a los participantes a crear un plan de estudios para el examen de certificación de PMLE (Professional Machine Learning Engineer). Los estudiantes conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
A medida que aumenta el uso empresarial de la inteligencia artificial y el aprendizaje automático, también crece la importancia de implementarlo responsablemente. El desafío para muchas personas es que hablar sobre la IA responsable puede ser más fácil que aplicarla. Si te interesa aprender cómo poner en funcionamiento la IA responsable en tu organización, este curso es para ti. En este curso, aprenderás cómo Google Cloud aplica estos principios en la actualidad, junto con las prácticas recomendadas y las lecciones aprendidas, para usarlos como marco de trabajo de modo que puedas crear tu propio enfoque de IA responsable.
Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence.
Obtén la insignia de habilidad intermedia Ingeniería de datos para crear modelos predictivos con BigQuery ML y demuestra tus capacidades para crear canalizaciones de transformación de datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL), y crear modelos de aprendizaje automático con BigQuery ML.
Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.
Completa el curso con insignia de habilidad introductoria Crea una malla de datos con Dataplex y demuestra tus habilidades para crear una malla de datos con Dataplex y facilitar la seguridad, la administración y el descubrimiento de datos en Google Cloud. Practicarás y pondrás a prueba tus habilidades para etiquetar recursos, asignar roles de IAM y evaluar la calidad de los datos en Dataplex.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.
En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.
Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.