Apache Spark est un moteur de traitement de données distribué open source écrit en Scala fournissant une API unifiée et des ensembles de données distribués aux utilisateurs pour le traitement par lots et en continu. Les cas d'utilisation d'Apache Spark sont souvent liés à l'apprentissage automatique / profond, au traitement des graphiques.
Je veux utiliser le sténographique $ avec des applications d'étincelles écrites à Scala. Mais j'ai un grand nombre de colonnes que je voudrais faire référ ...
J'ai une liste RDD [(chaîne, liste [int])] comme liste (("a", liste (1,2,3,4)), ("B", liste (5,6,7 )))))
Comment les transformer en liste (("A", 1), ("A", 2), ("A", 3), ("A", 4), ...