Opiniones sobre Cómo ejecutar trabajos de Apache Spark en Cloud Dataproc
46090 opiniones
Manh H. · Se revisó hace casi 2 años
Praba V. · Se revisó hace casi 2 años
Tristan C. · Se revisó hace casi 2 años
Emily D. · Se revisó hace casi 2 años
Leonel A. · Se revisó hace casi 2 años
Manjunath K. · Se revisó hace casi 2 años
Leonardo H. · Se revisó hace casi 2 años
Hitesh K. · Se revisó hace casi 2 años
Vishnuvardhan P. · Se revisó hace casi 2 años
Mallikarjun S. · Se revisó hace casi 2 años
kishore m. · Se revisó hace casi 2 años
Leandro G. · Se revisó hace casi 2 años
Digvijay P. · Se revisó hace casi 2 años
Thomas G. · Se revisó hace casi 2 años
Olivier M. · Se revisó hace casi 2 años
Sotiria S. · Se revisó hace casi 2 años
Sushrut A. · Se revisó hace casi 2 años
Yuliia M. · Se revisó hace casi 2 años
Apporv D. · Se revisó hace casi 2 años
ok
Phoutthakone B. · Se revisó hace casi 2 años
There where some erros in the last part.
SERGIO ENRIQUE Y. · Se revisó hace casi 2 años
excellent experience
Diego C. · Se revisó hace casi 2 años
Luigino N. · Se revisó hace casi 2 años
Hello, I found an issue where I had to replace the name "sparktodp" by the correct name of my cluster ("cluster-e93e") in the command and script below: export DP_STORAGE="gs://$(gcloud dataproc clusters describe sparktodp --region=us-east1 --format=json | jq -r '.config.configBucket')" #!/bin/bash gcloud dataproc jobs submit pyspark \ --cluster sparktodp \ --region us-east1 \ spark_analysis.py \ -- --bucket=$1
Crhistian S. · Se revisó hace casi 2 años
Great learning!
Jitendra J. · Se revisó hace casi 2 años
No garantizamos que las opiniones publicadas provengan de consumidores que hayan comprado o utilizado los productos. Google no verifica las opiniones.