3 Réponses :
Essayez ceci -
spark-submit \ . . --conf "spark.service.user.startdate=2019-03-04" \ --conf "spark.service.user.enddate=2019-03-07" \ . . In your code refer above config property as - spark.sparkContext.getConf.get("spark.service.user.startdate") spark.sparkContext.getConf.get("spark.service.user.enddate")
Si c'est un script Python, essayez avec le module SYS.
C'est un script de pyspark, importerait des systèmes de travail? Utilisé et il dit ne peut pas reconnaître sys
Essayez de courir avec Python ScriptName arg1 arg2 code>
Le moyen le plus propre de passer l'argument à Spark Script est en passant des arguments nommés à l'aide du module ARGS Parser.
Do Pip Installez argparse p>
code d'échantillon: p> plus sur args parser:
https://docs.python.org/2/library/argparse.htmlled/a > p> p>