시작하기 전에
- 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
- 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
- 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.
Create Alerting Policy
/ 10
Failure starting the pipeline on Dataflow
/ 10
Invalid Bigquery table
/ 10
Too Much Logging
/ 10
이 실습에서 학습할 내용은 다음과 같습니다.
Python에 대한 기본 지식
각 실습에서는 정해진 기간 동안 새 Google Cloud 프로젝트와 리소스 집합이 무료로 제공됩니다.
시크릿 창을 사용하여 Google Skills에 로그인합니다.
실습 사용 가능 시간(예: 1:15:00)을 참고하여 해당 시간 내에 완료합니다.
일시중지 기능은 없습니다. 필요한 경우 다시 시작할 수 있지만 처음부터 시작해야 합니다.
준비가 되면 실습 시작을 클릭합니다.
실습 사용자 인증 정보(사용자 이름 및 비밀번호)를 기록해 두세요. Google Cloud Console에 로그인합니다.
Google Console 열기를 클릭합니다.
다른 계정 사용을 클릭한 다음, 안내 메시지에 이 실습에 대한 사용자 인증 정보를 복사하여 붙여넣습니다. 다른 사용자 인증 정보를 사용하는 경우 오류가 발생하거나 요금이 부과됩니다.
약관에 동의하고 리소스 복구 페이지를 건너뜁니다.
Google Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다.
Google Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.
Cloud 콘솔의 오른쪽 상단 툴바에서 'Cloud Shell 열기' 버튼을 클릭합니다.
계속을 클릭합니다.
환경을 프로비저닝하고 연결하는 데 몇 분 정도 소요됩니다. 연결되면 사용자가 미리 인증되어 프로젝트가 PROJECT_ID로 설정됩니다. 예:
gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.
출력:
출력 예시:
출력:
출력 예시:
Google Cloud에서 작업을 시작하기 전에 프로젝트가 Identity and Access Management(IAM) 내에서 올바른 권한을 보유하고 있는지 확인해야 합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 IAM 및 관리자 > IAM을 선택합니다.
기본 컴퓨팅 서비스 계정 {project-number}-compute@developer.gserviceaccount.com이 있고 editor 역할이 할당되어 있는지 확인하세요. 계정 프리픽스는 프로젝트 번호이며, 이 번호는 탐색 메뉴 > Cloud 개요 > 대시보드에서 확인할 수 있습니다.
editor 역할이 없는 경우 다음 단계에 따라 필요한 역할을 할당합니다.729328892908)를 복사합니다.{project-number}는 프로젝트 번호로 바꿉니다.이 섹션에서는 조건이 충족되면 트리거되는 알림 정책을 만듭니다.
Google Cloud 콘솔 제목 표시줄의 검색 필드에 Monitoring을 입력하고 검색을 클릭한 다음 Monitoring을 클릭합니다.
왼쪽 탐색창에서 알림을 클릭합니다.
알림 페이지에서 + 정책 만들기를 클릭합니다.
측정항목 선택 드롭다운을 클릭하고 활성을 선택 해제합니다.
a. 필터에 리소스 및 측정항목 이름으로 Dataflow 작업을 입력하고 Dataflow 작업 > 작업을 클릭합니다. Failed를 선택하고 적용을 클릭합니다.
b. 순환 기간 함수를 Sum으로 설정합니다.
c. 다음을 클릭합니다. 기준값으로 0을 설정합니다.
다음 버튼을 클릭하여 알림 구성 및 알림 완료 단계로 이동합니다.
로드된 양식에서 알림 채널 드롭다운 메뉴를 클릭한 다음 알림 채널 관리를 클릭합니다.
그러면 지원되는 알림 채널 유형이 나열된 새 창이 열립니다.
이메일이라고 표시된 행으로 스크롤한 다음, 맨 오른쪽에 있는 새로 추가를 클릭합니다.
a. 이메일 주소에 개인 이메일 주소를 입력합니다.
b. 표시 이름에 Qwiklabs Student를 입력합니다.
c. 저장을 클릭합니다. 이제 이 창을 닫고 이전의 알림 정책 만들기 창으로 돌아갑니다.
알림 채널 관리 왼쪽에 있는 새로고침 아이콘을 클릭합니다.
그런 다음 알림 채널 드롭다운 메뉴를 다시 클릭합니다. 이번에는 방금 추가한 학생 계정의 표시 이름이 표시됩니다.
표시 이름인 Qwiklabs Student 왼쪽에 있는 체크박스를 선택하고 확인을 클릭합니다.
텍스트 상자에 Failed Dataflow Job을 알림 이름으로 입력합니다.
다음을 다시 클릭합니다.
알림을 검토한 후 정책 만들기를 클릭합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
my_pipeline.py라는 새 파일을 엽니다. 위의 코드를 복사하여 이 파일에 붙여넣고 원하는 텍스트 편집기(아래 예시는 Vim)를 사용하여 저장합니다.코드를 파일에 붙여넣은 후에는 반드시 저장해야 합니다.
아래 명령어를 실행하여 스토리지 버킷을 만듭니다.
위의 파이프라인 실행 명령어는 아래 스크린샷에 표시된 것과 비슷한 스택 트레이스가 표시되며 실패합니다.
이 오류는 Beam 측에서 발생합니다. 코드에서 WriteToText(known_args.output)를 지정합니다.
--output 플래그를 전달하지 않았으므로 코드가 Beam 검증을 통과하지 못했고 Dataflow에서 실행할 수 없었습니다. 이 작업이 Dataflow에 도달하지 않았으므로 이 시작 작업과 연결된 작업 ID가 없습니다. 즉, 받은편지함에 알림 이메일이 표시되지 않아야 합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
이 섹션에서는 필수 --output 플래그를 사용하여 파이프라인을 다시 실행해 봅니다. 이렇게 하면 Dataflow 파이프라인이 성공적으로 실행되지만, 잘못된 BigQuery 테이블을 의도적으로 추가했기 때문에 몇 분 후에 작업이 실패합니다. 이렇게 하면 알림 정책이 트리거되고 알림 이메일이 전송됩니다.
Google Cloud 콘솔 제목 표시줄의 검색 필드에 Dataflow를 입력하고 검색을 클릭한 다음, Dataflow를 클릭합니다.
작업을 클릭합니다.
해당 페이지에 나열된 Dataflow 작업을 클릭합니다.
약 4분 정도 기다리면 작업이 실패하는 것을 확인할 수 있습니다. 그러면 알림 정책이 트리거되고 이메일 받은편지함에서 알림 이메일을 확인할 수 있습니다.
Dataflow 파이프라인 작업 그래프 아래에 로그 패널이 표시됩니다. 표시를 클릭합니다. 그러면 작업 로그, 작업자 로그, 진단, BigQuery 작업, 데이터 샘플링 탭이 표시됩니다.
작업 로그 탭을 클릭하고 로그 항목을 살펴봅니다.
다음으로 작업자 로그 탭을 클릭하고 해당 로그도 살펴봅니다.
진단 탭을 클릭하면 클릭 가능한 링크가 표시됩니다.
클릭하면 Error Reporting 페이지로 이동합니다. 이렇게 하면 오류의 확장된 뷰가 표시됩니다. 스택 트레이스를 살펴보면 파이프라인 코드에 오타가 있는 문제를 확인할 수 있습니다.
코드에서 bigquery가 의도적으로 bugquery로 잘못 입력되어 있으므로 Dataflow 작업이 실패하고 이메일을 보내도록 알림 정책이 트리거됩니다. 다음 섹션에서는 코드를 수정하고 파이프라인을 다시 실행합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
텍스트 편집기(예: Vim 또는 선호하는 편집기)를 사용하여 my_pipeline.py 파일을 열고 bugquery를 bigquery로 바꿔 코드를 수정합니다.
bugquery-public-data.crypto_bitcoin.transactions로 bugquery라는 오타가 있는 것을 확인할 수 있습니다. bigquery-public-data.crypto_bitcoin.transactions로 변경합니다.
터미널에서 다음 명령어를 실행하여 파이프라인을 실행합니다.
파이프라인이 완료되는 데 약 7분이 소요됩니다.
Google Cloud 콘솔 제목 표시줄의 검색 필드에 Dataflow를 입력하고 검색을 클릭한 다음, Dataflow를 클릭합니다.
작업을 클릭합니다. 이 새 작업을 클릭하면 작업 그래프 페이지의 맨 오른쪽에 작업 상태가 succeeded로 표시됩니다. 작업이 완료되지 않은 경우 성공적으로 완료될 때까지 기다려 주세요.
하단의 로그를 펼치고 작업자 로그 탭에서 로그를 검토합니다.
아래 스크린샷과 같이 작업자 로그 탭에 the element is {'version' : ....... } 형식의 로그 항목이 표시됩니다.
이러한 항목은 파이프라인 코드의 다음 줄 때문에 로깅됩니다.
이 문제를 간단히 해결하려면 파이프라인 코드에서 로깅 코드 줄을 삭제하고 Dataflow 파이프라인을 다시 실행하면 됩니다. 완료되면 진단 탭에 동일한 메시지가 더 이상 표시되지 않습니다.
브라우저에서 뒤로 버튼을 클릭하여 Dataflow 작업 페이지로 돌아갑니다.
확장된 로그 패널에서 BigQuery 작업 탭을 클릭합니다. 데이터 위치 드롭다운 메뉴에서 us(미국 내 여러 리전)를 선택하고 BigQuery 작업 로드를 클릭합니다. 그런 다음 확인을 클릭합니다.
파이프라인의 일부였던 두 개의 작업이 나열됩니다.
그러면 명령어가 Cloud Shell에 붙여넣어집니다. 명령어를 실행해야 합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
실습을 완료하면 실습 종료를 클릭합니다. Google Skills에서 사용된 리소스를 자동으로 삭제하고 계정을 지웁니다.
실습 경험을 평가할 수 있습니다. 해당하는 별표 수를 선택하고 의견을 입력한 후 제출을 클릭합니다.
별점의 의미는 다음과 같습니다.
의견을 제공하고 싶지 않다면 대화상자를 닫으면 됩니다.
의견이나 제안 또는 수정할 사항이 있다면 지원 탭을 사용하세요.
Copyright 2026 Google LLC All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.
현재 이 콘텐츠를 이용할 수 없습니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
감사합니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
한 번에 실습 1개만 가능
모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.