Opiniones sobre Cómo ejecutar trabajos de Apache Spark en Cloud Dataproc

46090 opiniones

Manh H. · Se revisó hace casi 2 años

Praba V. · Se revisó hace casi 2 años

Tristan C. · Se revisó hace casi 2 años

Emily D. · Se revisó hace casi 2 años

Leonel A. · Se revisó hace casi 2 años

Manjunath K. · Se revisó hace casi 2 años

Leonardo H. · Se revisó hace casi 2 años

Hitesh K. · Se revisó hace casi 2 años

Vishnuvardhan P. · Se revisó hace casi 2 años

Mallikarjun S. · Se revisó hace casi 2 años

kishore m. · Se revisó hace casi 2 años

Leandro G. · Se revisó hace casi 2 años

Digvijay P. · Se revisó hace casi 2 años

Thomas G. · Se revisó hace casi 2 años

Olivier M. · Se revisó hace casi 2 años

Sotiria S. · Se revisó hace casi 2 años

Sushrut A. · Se revisó hace casi 2 años

Yuliia M. · Se revisó hace casi 2 años

Apporv D. · Se revisó hace casi 2 años

ok

Phoutthakone B. · Se revisó hace casi 2 años

There where some erros in the last part.

SERGIO ENRIQUE Y. · Se revisó hace casi 2 años

excellent experience

Diego C. · Se revisó hace casi 2 años

Luigino N. · Se revisó hace casi 2 años

Hello, I found an issue where I had to replace the name "sparktodp" by the correct name of my cluster ("cluster-e93e") in the command and script below: export DP_STORAGE="gs://$(gcloud dataproc clusters describe sparktodp --region=us-east1 --format=json | jq -r '.config.configBucket')" #!/bin/bash gcloud dataproc jobs submit pyspark \ --cluster sparktodp \ --region us-east1 \ spark_analysis.py \ -- --bucket=$1

Crhistian S. · Se revisó hace casi 2 años

Great learning!

Jitendra J. · Se revisó hace casi 2 años

No garantizamos que las opiniones publicadas provengan de consumidores que hayan comprado o utilizado los productos. Google no verifica las opiniones.