Apache Spark SQL est un outil de «traitement SQL et de données structurées» sur Spark, un système de calcul en cluster rapide et polyvalent. Il peut être utilisé pour récupérer des données de Hive, Parquet, etc. et exécuter des requêtes SQL sur les RDD et les ensembles de données existants.
Cadre de données affichant _c0, _c1 à la place de mes noms de colonne d'origine dans la première ligne.
je veux afficher le nom de ma colonne qui se trouve sur la pre ...
J'ai une colonne date dans un dataframe pySpark avec des dates au format suivant: df_new = df.withColumn(
'date1',
F.to_timestamp("date", "yyyy-dd-MM'T'hh:mm:ss.s")
)
...