Google が持つ検索と AI の専門知識を Gemini Enterprise と融合させましょう。Gemini Enterprise は、従業員が単一の検索バーでドキュメント ストレージ、メール、チャット、チケット発行システム、その他のデータソースから特定の情報を検索できるよう設計された強力なツールです。また、Gemini Enterprise アシスタントは、ブレインストーミング、調査、ドキュメントの概要作成、カレンダーの予定への同僚の招待といったアクションの実行を支援し、あらゆる種類の知識労働や共同作業を加速させます。(Gemini Enterprise は以前 Google Agentspace という名前でした。このコースでは以前のプロダクト名が使用されている場合があります。)
This course will focus on Agent Assist, an AI-powered tool designed to enhance customer service interactions. In this course, you will learn how Agent Assist can enhance the productivity of human agents while interacting with customers through the chat channel. You’ll learn how to take full advantage of Agent Assist from Gemini Enterprise for Customer Experience, and its range of Gen AI features and functionality.
In this course, you'll learn to develop AI agents that answer questions using websites, documents, or structured data. You will explore AI Applications and understand the advantages of data store agents, including their scalability and security. You'll learn about different data store types and also discover how to connect data stores to agents and add personalization for enhanced responses. Finally, you'll gain insights into common search configurations and troubleshooting techniques.
In this course you will learn the key architectural considerations that need to be taken into account when designing for the implementation of Conversational AI solutions.
This is an introductory course to all solutions in the Conversational AI portfolio and the Gen AI features that are available to transform them. The course also explores the business case around Conversational AI, and the use cases and user personas addressed by the solution. Please note Dialogflow CX was recently renamed to Conversational Agents and this course is in the process of being updated to reflect the new product name for Dialogflow CX.
Configure and Maintain CCaaS as an Admin is a course that provides end users with essential learning about the core features, functionality, reporting, and configuration information most relevant to the role. This course is most appropriate for those who perform administrative functions to support the operation of the contact center as well as analyze, troubleshoot, and configure the platform to best meet the demands of customers. Although this program will review some monitoring and reporting aspects, those topics are explored in depth in the course titled "Managing Functions and Reporting with CCaSS."
Manage Functions and Reporting with CCaaS provides end-users with essential training about the core features, functionality, monitoring, reporting, and configuration information that is most relevant to the role. This course is most appropriate for those at the managerial level of the contact center who are tasked with monitoring the effectiveness, efficiency, and KPI attainment for all consumer interactions. While this program will review some aspects of settings and configuration options, the major focus is on reporting functionality in CCaaS.
This course teaches contact center agents about the core agent features and functionality in Contact Center as a Service (CCaaS). CCaaS is a unified contact center platform that accelerates an organization's ability to leverage and deploy contact centers without relying on multiple technology providers. This course is most appropriate for those who handle consumer interactions via chat and call.
An AI-driven Contact Center as a Service (CCaaS) solution that is built natively on Google Cloud. The Implementation course provides Partners with essential training about the delivery of key features and functionality. The course explores how to leverage your key understanding of the product into successful customer implementation engagements with tips, best practices, guides, and more. Note: This product was previously called Contact Center AI (CCAI) Platform you may see references to that name still in the course, however the course is technically correct.
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
Vertex AI での ML ソリューションの構築とデプロイ コースを修了して、 中級スキルバッジを獲得しましょう。このコースでは、Google Cloud の Vertex AI プラットフォーム、AutoML、カスタム トレーニング サービスを使用して、 ML モデルのトレーニング、評価、チューニング、説明、デプロイを行う方法を学びます。 このスキルバッジ コースは、データ サイエンティストと ML エンジニアのプロフェッショナルを 対象としています。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキルバッジと 最終評価チャレンジラボを完了し、デジタルバッジを獲得して ネットワークで共有しましょう。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
「BigQuery ML を使用した ML モデルの作成」コースの中級スキルバッジを獲得できるアクティビティを修了すると、 BigQuery ML を使用して ML モデルを作成および評価し、データを予測するスキルを証明できます。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
このコースでは、Google Cloud 上で本番環境の ML システムをデプロイ、評価、モニタリング、運用するための MLOps ツールとベスト プラクティスについて説明します。MLOps は、本番環境 ML システムのデプロイ、テスト、モニタリング、自動化に重点を置いた規範です。機械学習エンジニアリングの担当者は、ツールを活用して、デプロイしたモデルの継続的な改善と評価を行います。また、データ サイエンティストと協力して、あるいは自らがデータ サイエンティストとして、最も効果的なモデルを迅速かつ正確にデプロイできるようモデルを開発します。
「Google Cloud での ML の API の使用 」コースを修了して、上級スキルバッジを獲得しましょう。このコースでは、ML と AI テクノロジーを活用する 3 つの API(Cloud Vision API、Cloud Translation API、Cloud Natural Language API) の基本機能について学習します。
Google Cloud で機械学習を実装する際のベスト プラクティスには何があるでしょうか。Vertex AI とは何であり、このプラットフォームを使用してコードを 1 行も記述せずに AutoML 機械学習モデルを迅速に構築、トレーニング、デプロイするにはどうすればよいでしょうか。機械学習とはどのようなもので、どのような問題の解決に役立つのでしょうか。 Google では機械学習について独自の視点で考えています。マネージド データセット、特徴量ストア、そしてコードを 1 行も記述せずに迅速に機械学習モデルを構築、トレーニング、デプロイする手段を 1 つにまとめた統合プラットフォームを提供するとともに、データにラベル付けし、TensorFlow、SciKit Learn、Pytorch、R やその他のフレームワークを使用して Workbench ノートブックを作成できるようにすることが、Google の考える機械学習の在り方です。Google の Vertex AI プラットフォームでは、カスタムモデルをトレーニングしたり、コンポーネント パイプラインを構築したりすることもできます。さらに、オンライン予測とバッチ予測の両方を実施できます。このコースでは、候補となるユースケースを機械学習で学習できる形に変換する 5 つのフェーズについても説明し、これらのフェーズを省略しないことが重要である理由について論じます。最後に、機械学習によって増幅される可能性のあるバイアスの認識と、それを識別する方法について説明します。
「BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。
Learn to use LangChain to call Google Cloud LLMs and Generative AI Services and Datastores to simplify complex applications' code.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.
このコースでは、AI を活用した検索テクノロジー、ツール、アプリケーションについて学びます。ベクトル エンベディングを利用するセマンティック検索、セマンティック アプローチとキーワード アプローチを組み合わせたハイブリッド検索、グラウンディング対応 AI エージェントとして AI のハルシネーションを最小限に抑える検索拡張生成(RAG)をご紹介します。Vertex AI Vector Search を実践的な経験を積んで、インテリジェントな検索エンジンを構築しましょう。
(This course was previously named Multimodal Prompt Engineering with Gemini and PaLM) This course teaches how to use Vertex AI Studio, a Google Cloud console tool for rapidly prototyping and testing generative AI models. You learn to test sample prompts, design your own prompts, and customize foundation models to handle tasks that meet your application's needs. Whether you are looking for text, chat, code, image or speech generative experiences Vertex AI Studio offers you an interface to work with and APIs to integrate your production application.
This short course we'll get you up to speed on all the Vertex AI related announcements made at Google Cloud Next '23!
This course explores the different products and capabilities of Gemini Enterprise for Customer Experience and Conversational Agents. Additionally, it covers the foundational principles of conversation design to craft engaging and effective experiences that emulate human-like experiences specific to the Chat channel.
This course will help ML Engineers, Developers, and Data Scientists implement Large Language Models for Generative AI use cases with Vertex AI. The first two modules of this course contain links to videos and prerequisite course materials that will build your knowledge foundation in Generative AI. Please do not skip these modules. The advanced modules in this course assume you have completed these earlier modules.
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
「Introduction to Generative AI」、「Introduction to Large Language Models」、「Introduction to Responsible AI」の各コースを修了すると、スキルバッジを獲得できます。最終テストに合格することで、ジェネレーティブ AI の基礎概念を理解していることが証明されます。 スキルバッジは、Google Cloud のプロダクトとサービスに関する知識を認定するために Google Cloud が発行するデジタルバッジです。スキルバッジは、ソーシャル メディアの公開プロフィールを作成してそこに追加することで一般向けに共有できます。
「Generative AI Explorer - Vertex AI」コースには、 Google Cloud での生成 AI の使用方法に関する複数のラボが含まれます。ラボでは、Vertex AI PaLM API ファミリーの text-bison、chat-bison、 textembedding-gecko などのモデルの使用方法を確認し、プロンプト設計やベスト プラクティス、さらに Vertex AI を活用した アイディエーション、テキスト分類、テキスト抽出、テキスト要約について 学びます。また、 Vertex AI カスタム トレーニングによって基盤モデルをチューニングし、Vertex AI エンドポイントにデプロイする方法も学びます。
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
このコースでは、ディープ ラーニングを使用して画像キャプション生成モデルを作成する方法について学習します。エンコーダやデコーダなどの画像キャプション生成モデルのさまざまなコンポーネントと、モデルをトレーニングして評価する方法を学びます。このコースを修了すると、独自の画像キャプション生成モデルを作成し、それを使用して画像のキャプションを生成できるようになります。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
"「Google Kubernetes Engine を使ってみる」コースへようこそ。Kubernetes にご興味をお持ちいただきありがとうございます。Kubernetes は、アプリケーションとハードウェア インフラストラクチャとの間にあるソフトウェア レイヤです。Google Kubernetes Engine は、Google Cloud 上のマネージド サービスとしての Kubernetes を提供します。 このコースでは、Google Kubernetes Engine(一般に GKE と呼ばれています)の基礎と、Google Cloud でアプリケーションをコンテナ化して実行する方法を学びます。このコースでは、まず Google Cloud の基本事項を確認します。続けて、コンテナ、Kubernetes、Kubernetes アーキテクチャ、Kubernetes オペレーションの概要について学びます。"
このオンデマンド速習コースでは、Google Cloud Platform が提供する包括的で柔軟なインフラストラクチャとプラットフォーム サービスについて紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してソリューションの各要素について学習し、演習を行います。これらの要素には、ネットワーク、システム、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。また、ネットワークの安全な相互接続、負荷分散、自動スケーリング、インフラストラクチャの自動化、マネージド サービスなど、実用的なソリューションの演習も行います。 受講条件: このコースで効果的に学習するには、次の条件を満たしている必要があります。 • Google Cloud Platform Fundamentals(Core Infrastructure または AWS Professionals)を修了しているか、同等の経験がある ##a dummy change • Essential Cloud Infrastructure: Foundation を修了しているか、同等の経験がある • Essential Cloud Infrastructure: Core Services を修了しているか、同等の経験がある • コマンドライン ツールと Linux オペレーティング システム環境についての基本的なスキルがある • システム運用の経験がある(オンプレミスまたはパブリック クラウド環境でのアプリケーションのデプロイと管理を含む) >>> よくある質問に記載のとおり、このコースに登録すると Qwiklabs の利用規約(https://qwiklabs.com/terms_of_service)に同意したことになります。<<<
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してソリューションの各要素について学習し、演習を行います。これらの要素には、ネットワーク、システム、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。また、実践的なソリューションの実装も取り上げ、顧客指定の暗号鍵、セキュリティとアクセス管理、割り当てと課金、リソース モニタリングなどについても学習します。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの各要素について学習し、実際のデプロイを演習します。これらの要素には、ネットワークや仮想マシン、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。コンソールと Cloud Shell を使用して Google Cloud を運用する方法についても学習します。また、クラウド アーキテクトの役割、インフラストラクチャ設計の方法、Virtual Private Cloud(VPC)を使用した仮想ネットワークの構成、プロジェクト、ネットワーク、サブネットワーク、IP アドレス、ルート、ファイアウォール ルールについても学習します。