Victor Scher Jordan
メンバー加入日: 2024
ダイヤモンド リーグ
41710 ポイント
メンバー加入日: 2024
生成 AI アプリケーションは、大規模言語モデル(LLM)の発明以前にはほぼ不可能であった、新しいユーザー エクスペリエンスを生み出すことができます。アプリケーション デベロッパーが Google Cloud 上で生成 AI を活用し、魅力的で強力なアプリを構築するにはどうすればよいでしょうか? このコースでは、生成 AI アプリケーションについて学びます。また、プロンプト設計と検索拡張生成(RAG)を使用して、LLM を活用した強力なアプリケーションを構築する方法についても学びます。さらに、生成 AI アプリケーションで使用できるプロダクション レディなアーキテクチャについて学び、LLM と RAG ベースのチャット アプリケーションを構築します。
このコースでは、AI のプライバシーと安全性に関する重要なトピックを紹介します。具体的には、Google Cloud プロダクトとオープンソース ツールを使用して AI のプライバシーと安全性の推奨プラクティスを実装するための実践的な方法とツールを検証します。
このコースでは、ML の実務担当者に、生成 AI モデルと予測 AI モデルの両方を評価するための重要なツール、手法、ベスト プラクティスを身につけていただきます。モデル評価は、ML システムが本番環境で信頼性が高く、正確で、高性能な結果を確実に提供するための重要な分野です。 参加者は、さまざまな評価指標、方法論のほか、さまざまなモデルタイプやタスクにおけるそれらの適切な適用について理解を深めます。このコースでは、生成 AI モデルによってもたらされる固有の課題に重点を置き、それらの課題に効果的に取り組むための戦略を提供します。参加者は、Google Cloud の Vertex AI プラットフォームを活用して、モデルの選択、最適化、継続的なモニタリングのための堅牢な評価プロセスを実装する方法を学びます。
このコースでは、AI の解釈可能性と透明性のコンセプトを紹介します。デベロッパーとエンジニアにとって AI の透明性が重要であることについて説明します。データと AI モデルの両方で解釈可能性と透明性を達成できる実践的な方法とツールを検証します。
このコースでは、責任ある AI および AI に関する原則のコンセプトを紹介します。AI / ML の実践における公平性とバイアスを特定し、バイアスを軽減するための実践的な手法を取り扱います。具体的には、Google Cloud プロダクトとオープンソース ツールを使用して責任ある AI のベスト プラクティスを実装するための実践的な方法とツールを検証します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
このコースでは、生成 AI モデルのデプロイと管理において MLOps チームが直面する特有の課題に対処するために必要な知識とツールを提供し、AI チームが MLOps プロセスを合理化して生成 AI プロジェクトを成功させるうえで Vertex AI がどのように役立つかを説明します。
このコースは、Vertex AI Notebooks に関する入門コースです。Vertex AI Notebooks は Jupyter ノートブックをベースとした環境であり、データの準備からモデルのデプロイとモニタリングに至るまで ML のワークフロー全体をサポートする統合プラットフォームを提供します。このコースでは、(1)Vertex AI Notebooks の種類とそれぞれの機能、(2)Vertex AI Notebooks の作成と管理の方法について説明します。
このコースでは、Google Cloud の AI および ML 機能について紹介します。特に、生成 AI と予測 AI の両方のプロジェクトの開発に重点を置きます。データから AI へのライフサイクル全体で利用可能なさまざまなテクノロジー、プロダクト、ツールについて説明するとともに、データ サイエンティスト、AI デベロッパー、ML エンジニアがインタラクティブな演習を通じて専門知識を強化できるよう支援します。
このコースでは、PMLE(Professional Machine Learning Engineer)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握したうえで、また、試験への準備状況を把握して、個々の学習計画を作成します。
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
「BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。
「Dataplex を使用したデータメッシュの構築」入門コースを修了してスキルバッジを獲得すると、Dataplex を使用してデータメッシュを構築し、 Google Cloud 上のデータ セキュリティ、ガバナンス、検出を強化するスキルを実証できます。このコースでは、Dataplex でアセットにタグを付け、IAM ロールを割り当て、データ品質を評価する方法を練習し、そのスキルをテストします。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
このコースでは、ストリーミング データ パイプラインの構築時に直面する実際の問題を解決するために、実践的な演習を行います。ポイントは、Google Cloud プロダクトを使用して、絶えず流れ続けるデータを効果的に管理することです。
この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。
データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。