始める前に
- ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
- ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
- 画面左上の [ラボを開始] をクリックして開始します
Load data from Cloud Storage into BigQuery
/ 10
このラボでは、ウェブサーバーのログを BigQuery テーブルに読み込みます。データを読み込んだ後、BigQuery ウェブユーザー インターフェースと BigQuery CLI を使用して、そのデータに対するクエリを実行します。
BigQuery は、ペタバイト規模のデータベースをインタラクティブに分析する場合に役立ち、大規模なデータセットをほぼリアルタイムで分析することができます。また、一般的な SQL 2011 のクエリ言語と関数が提供されます。
BigQuery に保存されたデータは耐久性に優れています。Google では、デフォルトでデータを無料でレプリカとして保存します。BigQuery では、使用したリソースに対してのみ支払いが発生します。BigQuery のデータ ストレージは低価格です。クエリの料金は、処理するデータ量に基づいて発生します。クエリを送信した場合は、そのクエリの期間中のみコンピューティング ノードの料金が発生します。コンピューティング クラスタを稼働した状態で維持するための費用はかかりません。
BigQuery を使用すると、プロジェクト(このコースの別の場所で扱います)、データセット、テーブル、ジョブなど、Google Cloud のさまざまなリソースとのやり取りが発生します。このラボではこれらのリソースの一部を紹介し、BigQuery とのやり取りにおけるそれぞれの役割を簡単に説明します。
データセット: 0 個以上のテーブルを保持しているグループ化メカニズムです。データセットは、アクセス制御の最も低いレベルの単位です。データセットは GCP プロジェクトが所有します。各データセットは個々のユーザーと共有できます。
テーブル: テーブルは、実際のデータを含む行と列の構造です。各テーブルには、厳密に型指定された値の列を記述するスキーマがあります。各テーブルは 1 つのデータセットに属します。
このラボでは、次のタスクの実行方法について学びます。
各ラボでは、新しい Google Cloud プロジェクトとリソースセットを一定時間無料で利用できます。
Qwiklabs にシークレット ウィンドウでログインします。
ラボのアクセス時間(例: 1:15:00)に注意し、時間内に完了できるようにしてください。
一時停止機能はありません。必要な場合はやり直せますが、最初からになります。
準備ができたら、[ラボを開始] をクリックします。
ラボの認証情報(ユーザー名とパスワード)をメモしておきます。この情報は、Google Cloud Console にログインする際に使用します。
[Google Console を開く] をクリックします。
[別のアカウントを使用] をクリックし、このラボの認証情報をコピーしてプロンプトに貼り付けます。
他の認証情報を使用すると、エラーが発生したり、料金の請求が発生したりします。
利用規約に同意し、再設定用のリソースページをスキップします。
割り当てられたリージョンが米国とヨーロッパのどちらに近いかをメモしておきます。
このタスクでは、CSV ファイル形式を使用し、スキーマ作成に BigQuery の自動検出機能を利用して新しいデータセット(logdata)とテーブル(accesslog)を作成することにより、Cloud Storage の公開バケットから外部データを BigQuery に直接読み込みます。
Google Cloud コンソールのナビゲーション メニュー()で、[BigQuery]、[完了] の順にクリックします。
[エクスプローラ] で、プロジェクト ID の横にある [アクションを表示] アイコンをクリックして、プロジェクト内に新しいデータセットを作成します。次に、[データセットを作成] を選択します。
[データセットを作成] ダイアログで、[データセット ID] に「logdata」と入力します。
[ロケーション タイプ] で [US(米国の複数のリージョン)] を選択します。
[データセットを作成] をクリックします。
プロジェクト ID を開き、logdata データセットの横にある [アクションを表示] アイコンをクリックします。
[テーブルを作成] を選択します。
[テーブルを作成] ページで次のように指定し、残りの設定はデフォルトのままにします。
| プロパティ | 値 |
|---|---|
| テーブルの作成元 | Google Cloud Storage |
| GCS バケットからファイルを選択 | cloud-training/gcpfci/access_log.csv |
| ファイル形式 | CSV |
| 宛先データセット名 | logdata |
| 宛先テーブル名 | accesslog |
| 宛先テーブルのタイプ | ネイティブのテーブル |
[スキーマ] で、[自動検出] を選択します。
残りの設定はデフォルト値をそのまま使用して、[テーブルを作成] をクリックします。
BigQuery は、テーブルを作成してそのテーブルにデータをアップロードする読み込みジョブを作成します(これには数秒かかる場合があります)。
(オプション)ジョブの処理状況を追跡するには、[ジョブ履歴] をクリックします。
読み込みが完了したら、logdata > accesslog をクリックします。
テーブルの詳細ページで、[詳細] をクリックしてテーブルのプロパティを表示し、[プレビュー] をクリックしてテーブルのデータを表示します。
このテーブルの各行には、ウェブサーバーでのヒットが記録されます。最初のフィールドの string_field_0 は、クライアントの IP アドレスです。4 番目から 9 番目のフィールドには、ヒットが発生した日、月、年、時、分、秒が記録されます。このアクティビティでは、このウェブサーバーの負荷の日次パターンについて学習します。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このタスクでは、BigQuery ウェブ UI を使用して、先ほど作成した accesslog テーブルのクエリを実行します。
クエリエディタで、以下のクエリを入力します(またはコピーして貼り付けます)。
BigQuery に、データを読み込むときにスキーマを自動的に検出するように指示したため、各ウェブヒットが到着した時間帯は int_field_6 というフィールドに記録されます。
クエリ検証ツールにより、クエリ構文が有効であること(緑色のチェックマークで示されます)とクエリが処理するデータ量が示されます。処理されるデータ量がわかると、Google Cloud 料金計算ツールを使用してクエリにかかる料金を判断できます。
[実行] をクリックして結果を確認します。ウェブサイトが最も混雑する時間帯と最も混雑しない時間帯はいつでしょうか。
このタスクでは、Cloud Shell で bq コマンドを使用して、先ほど作成した accesslog テーブルのクエリを実行します。
Google Cloud コンソールで、[Cloud Shell をアクティブにする]()、[続行] の順にクリックします。プロンプトが表示されたら、[承認] をクリックします。
Cloud Shell プロンプトで、次のコマンドを入力します。
初めて bq コマンドを使用するときは、Google Cloud の認証情報がキャッシュに保存され、デフォルトのプロジェクトを選択するように求められます。この場合、Qwiklabs によって割り当てられたプロジェクトを選択します。その名前は qwiklabs-gcp- の後に 16 進数が付加されたものになります。
bq コマンドは、そのコマンドラインでリクエストされた操作を実行します。このウェブサーバーによって提供された URL で最も一般的なものと最も一般的でないものはどれですか?
このラボでは、Cloud Storage に保存されているデータを Google BigQuery でホストされているテーブルに読み込みました。その後、パターンを検出するためにデータのクエリを実行しました。
ラボが完了したら、[ラボを終了] をクリックします。ラボで使用したリソースが Google Cloud Skills Boost から削除され、アカウントの情報も消去されます。
ラボの評価を求めるダイアログが表示されたら、星の数を選択してコメントを入力し、[送信] をクリックします。
星の数は、それぞれ次の評価を表します。
フィードバックを送信しない場合は、ダイアログ ボックスを閉じてください。
フィードバックやご提案の送信、修正が必要な箇所をご報告いただく際は、[サポート] タブをご利用ください。
Copyright 2026 Google LLC All rights reserved. Google および Google のロゴは、Google LLC の商標です。その他すべての社名および製品名は、それぞれ該当する企業の商標である可能性があります。
このコンテンツは現在ご利用いただけません
利用可能になりましたら、メールでお知らせいたします
ありがとうございます。
利用可能になりましたら、メールでご連絡いたします
1 回に 1 つのラボ
既存のラボをすべて終了して、このラボを開始することを確認してください