Os aplicativos de IA generativa proporcionam novas experiências de usuário que eram quase impossíveis antes da invenção dos modelos de linguagem grandes (LLMs). Ao desenvolver aplicativos, como você pode usar a IA generativa para criar apps potentes e interativos no Google Cloud? Neste curso, você vai conhecer os aplicativos de IA generativa e aprender a usar o design de comandos e a geração aumentada de recuperação (RAG) para criar apps avançados com a ajuda dos LLMs. Você também vai saber o que é a arquitetura pronta para produção, usada nos aplicativos de IA generativa, e vai criar um aplicativo de chat com base em RAG e LLM.
Este curso apresenta tópicos importantes sobre privacidade e segurança da IA. Ele também aborda recursos e métodos úteis para implementar práticas recomendadas de privacidade e segurança da IA com o uso de produtos do Google Cloud e ferramentas de código aberto.
Neste curso, profissionais de machine learning vão conhecer as principais ferramentas, técnicas e práticas recomendadas para avaliar modelos de IA generativa e preditiva. Essa avaliação é muito importante para garantir que os sistemas de ML produzam resultados confiáveis, precisos e de alto desempenho na produção. Os participantes vão entender em detalhes as várias métricas e metodologias de avaliação, além da aplicação correta delas em diferentes tarefas e tipos de modelo. O foco do curso está nos desafios específicos dos modelos de IA generativa e nas estratégias para lidar com eles de forma eficaz. Usando a plataforma Vertex AI do Google Cloud, os participantes vão aprender a implementar processos robustos de avaliação para selecionar e otimizar os modelos, com monitoramento contínuo.
Neste curso, apresentamos os conceitos de interpretabilidade e transparência em IA. Vamos abordar a importância da transparência em IA para desenvolvedores e engenheiros. O curso também abrange ferramentas e métodos práticos para ajudar a alcançar a interpretabilidade e a transparência em dados e modelos de IA.
Neste curso, apresentamos conceitos de IA responsável e princípios de IA. Ele contém técnicas para identificar e reduzir o viés e aplicar a imparcialidade nas práticas de ML/IA. Vamos abordar ferramentas e métodos práticos para implementar as práticas recomendadas de IA responsável usando produtos do Google Cloud e ferramentas de código aberto.
Este é um curso de microaprendizagem introdutório que busca explicar a IA generativa: o que é, como é usada e por que ela é diferente de métodos tradicionais de machine learning. O curso também aborda as ferramentas do Google que ajudam você a desenvolver apps de IA generativa.
Este é um curso de microlearning de nível introdutório que explica o que são modelos de linguagem grandes (LLM), os casos de uso em que podem ser aplicados e como é possível fazer o ajuste de comandos para aprimorar o desempenho dos LLMs. O curso também aborda as ferramentas do Google que ajudam a desenvolver seus próprios apps de IA generativa.
O objetivo desse curso é equipar você com o conhecimento e as ferramentas necessários para resolver os desafios enfrentados por equipes de MLOps durante o desenvolvimento e gerenciamento de modelos de IA generativa. Também queremos mostrar como a Vertex AI ajuda equipes de IA a simplificar processos de MLOps e a alcançar o sucesso em projetos de IA generativa.
Este curso é uma introdução aos Notebooks da Vertex AI, que são ambientes baseados em notebooks do Jupyter. Eles fornecem uma plataforma unificada para todo o fluxo de trabalho de machine learning, desde a preparação de dados até a implantação e monitoramento de modelos. Tópicos do curso: (1) Diferentes tipos de Notebooks da Vertex AI e os recursos deles e (2) Como criar e gerenciar Notebooks da Vertex AI.
Neste curso, apresentamos os recursos de IA e machine learning (ML) do Google Cloud, com foco no desenvolvimento de projetos de IA generativa e preditiva. Vamos conhecer as tecnologias, os produtos e as ferramentas disponíveis em todo o ciclo de vida de dados para IA, capacitando cientistas de dados, desenvolvedores de IA e engenheiros de ML para aprimorar a experiência com exercícios interativos.
Este curso ajuda a criar um plano de estudo para o exame de certificação Professional Machine Learning Engineer (PMLE). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudo individuais.
Quanto maior é o uso da inteligência artificial empresarial e do machine learning, mais importante é desenvolvê-los de maneira responsável. Para muitos, falar sobre a IA responsável pode ser mais fácil, mas colocá-la em prática é um desafio. Se você tem interesse em aprender a operacionalizar a IA responsável na sua organização, este curso é para você. Nele, você vai aprender como o Google Cloud faz isso hoje, além de analisar práticas recomendadas e lições aprendidas, a fim de criar uma base para elaborar sua própria abordagem de IA responsável.
Conquiste o selo de habilidade introdutório Preparar dados para APIs de ML no Google Cloud para demonstrar que você é capaz de: limpar dados com o Dataprep by Trifacta, executar pipelines de dados no Dataflow, criar clusters e executar jobs do Apache Spark no Dataproc e chamar APIs de ML, incluindo as APIs Cloud Natural Language, Google Cloud Speech-to-Text e Video Intelligence.
Conclua o selo de habilidade intermediário Dados de engenharia para modelagem preditiva com o BigQuery ML para mostrar que você sabe: criar pipelines de transformação de dados no BigQuery usando o Dataprep by Trifacta; usar o Cloud Storage, o Dataflow e o BigQuery para criar fluxos de trabalho de extração, transformação e carregamento de dados (ELT); e criar modelos de machine learning usando o BigQuery ML.
Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery.
Conclua o selo de habilidade introdutório Como criar uma malha de dados com o Dataplex para mostrar sua capacidade de usar o Dataplex para criar uma malha de dados e assim facilitar a segurança, a governança e a descoberta de dados no Google Cloud. Você vai praticar e testar suas habilidades em aplicar tags a recursos, atribuir papéis do IAM e avaliar a qualidade dos dados no Dataplex.
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.
Na última parte da série de cursos do Dataflow, vamos abordar os componentes do modelo operacional do Dataflow. Veremos ferramentas e técnicas para solucionar problemas e otimizar o desempenho do pipeline. Depois analisaremos as práticas recomendadas de teste, implantação e confiabilidade para pipelines do Dataflow. Por fim, faremos uma revisão dos modelos, que facilitam o escalonamento dos pipelines do Dataflow para organizações com centenas de usuários. Essas lições garantem que a plataforma de dados seja estável e resiliente a circunstâncias imprevistas.
Na segunda parte desta série, vamos nos aprofundar no desenvolvimento de pipelines usando o SDK do Beam. Primeiro, vamos conferir um resumo dos conceitos do Apache Beam. Depois disso, falaremos sobre como processar dados de streaming usando janelas, marcas d’água e gatilhos. Em seguida, vamos ver as opções de origens e coletores para seus pipelines, além de esquemas para expressar seus dados estruturados e como fazer transformações com estado usando as APIs State e Timer. A próxima tarefa será conferir as práticas recomendadas para maximizar o desempenho do pipeline. No final do curso, apresentaremos as APIs SQL e Dataframes, que representam sua lógica de negócios no Beam. Além disso, veremos como desenvolver pipelines de maneira iterativa usando os notebooks do Beam.
Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.
A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.
Neste curso, você vai resolver desafios reais enfrentados na criação de pipelines de dados de streaming. O foco é gerenciar dados contínuos e ilimitados com os produtos do Google Cloud.
Neste curso intermediário, você aprenderá a projetar, criar e otimizar pipelines de dados em lote robustos no Google Cloud. Além do tratamento básico de dados, você vai aprender sobre transformações em grande escala e orquestração eficiente de fluxos de trabalho, essenciais para a eficiência em Business Intelligence e relatórios importantes. Pratique o uso do Dataflow para Apache Beam e do Serverless para Apache Spark (Dataproc sem servidor) na implementação e resolva questões importantes em qualidade de dados, monitoramento e alertas, garantindo um pipeline confiável e excelência operacional. Recomendamos ter conhecimento básico de armazenamento em data warehouse, ETL/ELT, SQL, Python e conceitos do Google Cloud.
Embora as abordagens tradicionais de uso de data lakes e data warehouses possam ser eficazes, elas têm alguns problemas, principalmente em grandes ambientes corporativos. Este curso apresenta o conceito de data lakehouse e os produtos do Google Cloud usados para criar um. Uma arquitetura de lakehouse usa fontes de dados de padrão aberto e combina os melhores atributos de data lakes e data warehouses, o que resolve muitos desses problemas.