Pietras Ilona
メンバー加入日: 2022
ブロンズリーグ
16435 ポイント
メンバー加入日: 2022
Data stores represent a simple way to make content available to many types of generative AI applications, including search applications, recommendations engines, Gemini Enterprise apps, Agent Development Kit agents, and apps built with Google Gen AI or LangChain SDKs. Connect data from many sources include Cloud Storage, Google Drive, chat apps, mail apps, ticketing systems, third-party file storage providers, Salesforce, and many more.
Complete the Build search and recommendations AI Applications skill badge to demonstrate your proficiency in deploying search and recommendation applications through AI Applications. Additionally, emphasis is placed on constructing a tailored Q&A system utilizing data stores. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
This course introduces AI Applications. You will learn about the types of apps that you can create using AI Applications, the high-level steps that its data stores automate for you, and what advanced features can be enabled for Search apps. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
This course explores how to leverage Looker to create data experiences and gain insights with modern business intelligence (BI) and reporting.
Learn to use LangChain to call Google Cloud LLMs and Generative AI Services and Datastores to simplify complex applications' code.
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
「Looker でのデータモデルの管理」スキルバッジを獲得できる中級コースを修了すると、 次のスキルを身につけていることを実証できます。LookML プロジェクトを健全に維持する、SQL Runner を利用してデータを検証する、 LookML のベスト プラクティスを実践する、パフォーマンス向上のためにクエリとレポートを最適化する、 永続的な派生テーブルとキャッシュ保存ポリシーを実装する。
このコースでは、Looker における高度な LookML の概念を 実践的に学びます。Liquid を使用して動的なディメンションやメジャーをカスタマイズ、作成する方法、 動的 SQL 派生テーブルやカスタマイズされたネイティブ派生テーブルの作成方法、 さらに extends を使って LookML コードをモジュール化する方法を習得します。
「Looker での LookML オブジェクトの構築」スキルバッジを獲得できる入門コース を修了すると、 新しいディメンション、メジャー、ビュー、派生テーブルの構築、要件に基づくメジャー フィルタとメジャー タイプの設定、 ディメンションとメジャーの更新、 Explore の構築と改良、ビューと既存の Explore との結合、 ビジネス要件に基づいて作成すべき LookML オブジェクトの決定に関するスキルがあることを証明できます。
「Looker ダッシュボードとレポート用にデータを準備する」スキルバッジを獲得できる入門コースを修了すると、 データのフィルタ、並べ替え、ピボット、異なる Looker Explore から取得した結果の統合、 関数と演算子を使用してデータを分析し可視化するための Looker ダッシュボードとレポートの作成に関するスキルを実証できます。
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。
データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
「Google Cloud における Terraform を使用したインフラストラクチャの構築」の中級スキルバッジを獲得すると、 Terraform を使用した Infrastructure as Code(IaC)の原則、Terraform 構成を使用した Google Cloud リソースのプロビジョニングと管理、 状態の効果的な管理(ローカルおよびリモート)、組織内での再利用性を念頭に置いた Terraform コードのモジュール化といったスキルを実証できます。
「Google Cloud ネットワークの構築」コースを修了してスキルバッジを獲得しましょう。このコースでは、 アプリケーションをデプロイしてモニタリングするための複数の方法について学びます。具体的には、IAM ロールの確認とプロジェクト アクセスの追加 / 削除、 VPC ネットワークの作成、Compute Engine VM のデプロイとモニタリング、 SQL クエリの記述、Compute Engine での VM のデプロイとモニタリング、Kubernetes を使用した複数のデプロイ アプローチによるアプリケーションのデプロイなどです。
「Compute Engine での Cloud Load Balancing の実装」入門コースを修了してスキルバッジを獲得すると、次のスキルを実証できます: Compute Engine における仮想マシンの作成とデプロイ、 ネットワーク ロードバランサとアプリケーション ロードバランサの構成。
「Google Cloud におけるアプリ開発環境の設定」コースを完了すると、スキルバッジを獲得できます。このコースでは、 Cloud Storage、Identity and Access Management、Cloud Functions、Pub/Sub のテクノロジーの基本機能を使用して、ストレージ中心のクラウド インフラストラクチャを構築し接続する方法を学びます。
"「Google Kubernetes Engine を使ってみる」コースへようこそ。Kubernetes にご興味をお持ちいただきありがとうございます。Kubernetes は、アプリケーションとハードウェア インフラストラクチャとの間にあるソフトウェア レイヤです。Google Kubernetes Engine は、Google Cloud 上のマネージド サービスとしての Kubernetes を提供します。 このコースでは、Google Kubernetes Engine(一般に GKE と呼ばれています)の基礎と、Google Cloud でアプリケーションをコンテナ化して実行する方法を学びます。このコースでは、まず Google Cloud の基本事項を確認します。続けて、コンテナ、Kubernetes、Kubernetes アーキテクチャ、Kubernetes オペレーションの概要について学びます。"
このオンデマンド速習コースでは、Google Cloud が提供する包括的で柔軟なインフラストラクチャとプラットフォーム サービスについて紹介します。動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの要素について学び、実際にデプロイしてみます。これにはセキュリティを維持しながらネットワークを相互接続する方法や、ロード バランシング、自動スケーリング、インフラストラクチャの自動化、マネージド サービスも含まれます。
This course introduces participants to the strategies to migrate from a source environment to Google Cloud. Participants are introduced to Google Cloud's fundamental concepts and more in depth topics, like creating virtual machines, configuring networks and managing access and identities. The course then covers the installation and migration process of Migrate for Compute Engine, including special features like test clones and wave migrations.
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してソリューションの各要素について学習し、演習を行います。これらの要素には、ネットワーク、システム、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。また、実践的なソリューションの実装も取り上げ、顧客指定の暗号鍵、セキュリティとアクセス管理、割り当てと課金、リソース モニタリングなどについても学習します。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの各要素について学習し、実際のデプロイを演習します。これらの要素には、ネットワークや仮想マシン、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。コンソールと Cloud Shell を使用して Google Cloud を運用する方法についても学習します。また、クラウド アーキテクトの役割、インフラストラクチャ設計の方法、Virtual Private Cloud(VPC)を使用した仮想ネットワークの構成、プロジェクト、ネットワーク、サブネットワーク、IP アドレス、ルート、ファイアウォール ルールについても学習します。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。