Comme la question le suggère, j'ai une liste de chemins s3 dans une listedf = spark.read.format("com.databricks.spark.xml").option("rowTag", "head").load(s3_paths)
J'utilise P ...
J'utilise le notebook Databricks sur Azure et j'avais un notebook Pyspark parfaitement parfait qui avait bien fonctionné toute la journée d'hier. Mais à la fin de la journ&eac ...
J'utilise le bloc-notes Azure DataBricks avec la bibliothèque Azure pour obtenir la liste des fichiers dans le stockage Blob. Cette tâche est planifiée et le cluster est arr&ec ...