Mukwevho Nkhangweleni Arnold
メンバー加入日: 2025
ゴールドリーグ
42611 ポイント
メンバー加入日: 2025
Learn about the fundamental features of Security Command Center on Google Cloud. Spend time in this course to understand assets, detection and compliance. Security Command Center is a key part of your Google Cloud security journey, complete these modules and quiz to earn a completion badge.
このコースでは、Google Cloud のインフラストラクチャとアプリケーションのパフォーマンスをモニタリングして改善するための手法を学びます。 プレゼンテーション、デモ、ハンズオンラボ、実際の事例紹介を組み合わせて活用することにより、フルスタック モニタリング、リアルタイムでのログ管理と分析、本番環境でのコードのデバッグ、アプリケーション パフォーマンスのボトルネックのトレース、CPU とメモリ使用量のプロファイリングに関する経験を積むことができます。
「Google Cloud における Terraform を使用したインフラストラクチャの構築」の中級スキルバッジを獲得すると、 Terraform を使用した Infrastructure as Code(IaC)の原則、Terraform 構成を使用した Google Cloud リソースのプロビジョニングと管理、 状態の効果的な管理(ローカルおよびリモート)、組織内での再利用性を念頭に置いた Terraform コードのモジュール化といったスキルを実証できます。
このコースでは、実績ある設計パターンを利用して、信頼性と効率に優れたソリューションを Google Cloud で構築する方法を学習します。本コースは、Google Compute Engine を使用した構築 または Google Kubernetes Engine を使用した構築 のコースの続きで、これらのコースで取り上げているテクノロジーの実践経験があることを前提としています。参加者は、講義、設計アクティビティ、ハンズオンラボを通して、ビジネス要件と技術要件を定義し、バランスを取りながら、信頼性、可用性、安全性、費用対効果に優れた Google Cloud のデプロイを設計する方法を学びます。
入門スキルバッジ コース「Google Cloud Observability を使用したモニタリングとロギング」を修了すると、 Compute Engine における仮想マシンのモニタリング、 複数プロジェクトの監視を目的とした Cloud Monitoring の利用、モニタリング機能とロギング機能の Cloud Functions への拡張、 アプリケーションに対するカスタム指標の作成と送信、カスタム指標に基づく Cloud Monitoring アラートの構成に関するスキルを実証できます。
Google Cloud での DevOps ワークフローの実装 コースの中級スキルバッジを獲得できるアクティビティを修了すると、 Cloud Source Repositories を使用した Git リポジトリの作成、 Google Kubernetes Engine(GKE)上でのデプロイのリリース、管理、スケール、 コンテナ イメージのビルドと GKE へのデプロイを自動化する CI / CD パイプラインの設計といったスキルを実証できます。
「Google Cloud におけるアプリ開発環境の設定」コースを完了すると、スキルバッジを獲得できます。このコースでは、 Cloud Storage、Identity and Access Management、Cloud Functions、Pub/Sub のテクノロジーの基本機能を使用して、ストレージ中心のクラウド インフラストラクチャを構築し接続する方法を学びます。
このコースでは、Google Cloud 向けに Terraform を使用する方法の概要を説明します。このコースを受講すると、Terraform を使用して Infrastructure as Code を実装し、その主要な特性と機能を使って Google Cloud インフラストラクチャを作成および管理する方法について説明できるようになります。 また、Terraform を使用して Google Cloud のリソースを構築、管理する実践的な演習を受けられます。
多くの IT 組織では、アジリティを求める開発者と、安定性を重視する運用担当者の間で、インセンティブが調整されていません。サイト信頼性エンジニアリング(SRE)は、Google が開発と運用の間のインセンティブを調整し、ミッション クリティカルな本番環境サポートを行う方法です。SRE の文化的および技術的手法を導入することで、ビジネスと IT の連携を改善できます。このコースでは、Google の SRE の主な手法を紹介し、SRE の組織的な導入を成功させるうえで IT リーダーとビジネス リーダーが果たす重要な役割について説明します。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。
「Dataplex を使用したデータメッシュの構築」入門コースを修了してスキルバッジを獲得すると、Dataplex を使用してデータメッシュを構築し、 Google Cloud 上のデータ セキュリティ、ガバナンス、検出を強化するスキルを実証できます。このコースでは、Dataplex でアセットにタグを付け、IAM ロールを割り当て、データ品質を評価する方法を練習し、そのスキルをテストします。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
「BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
このコースでは、データを AI 活用へつなげるためのワークフローに役立つ AI 搭載の機能スイート、Gemini in BigQuery について説明します。この機能スイートには、データの探索と準備、コード生成とトラブルシューティング、ワークフローの検出と可視化などが含まれます。このコースでは、概念の説明、実際のユースケース、ハンズオンラボを通じて、データ実務者が生産性を高め、開発パイプラインを迅速化できるよう支援します。
このコースでは、BigQuery の生成 AI タスクで AI / ML モデルを使用する方法をご紹介します。顧客管理を含む実際のユースケースを通して、Gemini モデルを使用してビジネス上の問題を解決するワークフローを学びます。また、理解を深めるために、このコースでは SQL クエリと Python ノートブックの両方を使用したコーディング ソリューションの詳細な手順も提供しています。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
このコースでは、ストリーミング データ パイプラインの構築時に直面する実際の問題を解決するために、実践的な演習を行います。ポイントは、Google Cloud プロダクトを使用して、絶えず流れ続けるデータを効果的に管理することです。
この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。
データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。
このコースでは、Google Cloud におけるデータ エンジニアリング、データ エンジニアの役割と責任、それらが Google Cloud の各サービスにどのように対応しているかについて学びます。また、データ エンジニアリングの課題に対処する方法も学習します。