Sai Shiva Gangula
Participante desde 2023
Participante desde 2023
Em muitas organizações de TI, os objetivos não estão alinhados entre desenvolvedores, que buscam por agilidade, e operadores, que focam na estabilidade. A engenharia de confiabilidade do site (SRE) é o método usado pelo Google para alinhar incentivos entre o desenvolvimento e as operações, além de prestar suporte essencial à produção. A adoção das práticas culturais e técnicas de SRE pode ajudar a melhorar a colaboração entre os departamentos comercial e de TI. Neste curso, apresentamos as principais práticas de SRE do Google e o papel importante que os líderes de TI e de negócios desempenham em uma adoção organizacional de SRE bem-sucedida.
"Noções básicas do Google Cloud: infraestrutura principal" é uma apresentação da terminologia e de conceitos importantes para trabalhar com o Google Cloud. Usando vídeos e laboratórios práticos, o curso apresenta e compara vários serviços de armazenamento e computação do Google Cloud, além de ferramentas importantes para o gerenciamento de políticas e recursos.
Conclua o curso introdutório Criação de comandos na Vertex AI para: Demonstrar suas habilidades nas áreas de engenharia de comandos, análise de imagens e técnicas generativas multimodais na Vertex AI Descobrir como criar comandos eficientes, guiar as respostas da IA generativa e aplicar os modelos do Gemini em cenários reais de marketing.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Este curso é uma introdução à arquitetura de transformador e ao modelo de Bidirectional Encoder Representations from Transformers (BERT, na sigla em inglês). Você vai aprender sobre os principais componentes da arquitetura de transformador, como o mecanismo de autoatenção, e como eles são usados para construir o modelo de BERT. Também vai conhecer as diferentes tarefas onde é possível usar o BERT, como classificação de texto, respostas a perguntas e inferência de linguagem natural. O curso leva aproximadamente 45 minutos.
Este curso apresenta um resumo da arquitetura de codificador-decodificador, que é uma arquitetura de machine learning avançada e frequentemente usada para tarefas sequência para sequência (como tradução automática, resumo de textos e respostas a perguntas). Você vai conhecer os principais componentes da arquitetura de codificador-decodificador e aprender a treinar e disponibilizar esses modelos. No tutorial do laboratório relacionado, você vai codificar uma implementação simples da arquitetura de codificador-decodificador para geração de poesia desde a etapa inicial no TensorFlow.
Este curso é uma introdução ao mecanismo de atenção, uma técnica avançada que permite que as redes neurais se concentrem em partes específicas de uma sequência de entrada. Você vai entender como a atenção funciona e como ela pode ser usada para melhorar o desempenho de várias tarefas de machine learning (como tradução automática, resumo de texto e resposta a perguntas).
Neste curso, apresentamos os modelos de difusão, uma família de modelos de machine learning promissora no campo da geração de imagens. Os modelos de difusão são baseados na física, mais especificamente na termodinâmica. Nos últimos anos, eles se popularizaram no setor e nas pesquisas. Esses modelos servem de base para ferramentas e modelos avançados de geração de imagem no Google Cloud. Este curso é uma introdução à teoria dos modelos de difusão e como eles devem ser treinados e implantados na Vertex AI.
Este é um curso de microaprendizagem introdutório que busca explicar a IA responsável: o que é, qual é a importância dela e como ela é aplicada nos produtos do Google. Ele também contém os 7 princípios de IA do Google.
Este é um curso de microlearning de nível introdutório que explica o que são modelos de linguagem grandes (LLM), os casos de uso em que podem ser aplicados e como é possível fazer o ajuste de comandos para aprimorar o desempenho dos LLMs. O curso também aborda as ferramentas do Google que ajudam a desenvolver seus próprios apps de IA generativa.
Este é um curso de microaprendizagem introdutório que busca explicar a IA generativa: o que é, como é usada e por que ela é diferente de métodos tradicionais de machine learning. O curso também aborda as ferramentas do Google que ajudam você a desenvolver apps de IA generativa.
Conclua o selo de habilidade introdutório Implementação do Cloud Load Balancing no Compute Engine para demonstrar que você sabe: criar e implantar máquinas virtuais no Compute Engine; configurar balanceadores de carga de rede e de aplicativo.
Conquiste um selo de habilidade ao concluir o curso Como configurar um ambiente de desenvolvimento de apps no Google Cloud. Nele, você aprende a criar e conectar uma infraestrutura em nuvem focada em armazenamento usando recursos básicos das seguintes tecnologias: Cloud Storage, Identity and Access Management, Cloud Functions e Pub/Sub.