Questions et réponses pour le apache-spark-sql :

Apache Spark SQL est un outil de «traitement SQL et de données structurées» sur Spark, un système de calcul en cluster rapide et polyvalent. Il peut être utilisé pour récupérer des données de Hive, Parquet, etc. et exécuter des requêtes SQL sur les RDD et les ensembles de données existants.

1
votes
J'ai 2 dataframes comme ci-dessous, val x = Seq((Seq(4,5),"XXX"),(Seq(7),"XYX")).toDF("X","NAME") val y = Seq((5)).toDF("Y") Je veux joindre les deux dataframes en recherchant la v ...

1
votes
J'ai créé un ensemble de données dans Spark en utilisant Java en lisant un fichier csv. Voici mon ensemble de données initial: +---+-----+ |_c0| _c2| +---+-----+ ...

1
votes
J'utilise Scala Notebook sur Databricks. J'ai besoin d'effectuer un INSERT de données à partir d'un dataframe vers une table dans le serveur SQL. Si les données existent d&eac ...

1
votes
Je voudrais transformer certaines colonnes de mon dataframe en fonction de la configuration représentée par les cartes Scala. J'ai 2 cas: Réception d'une car ...