J'ai un tableau comme [1,2]
J'ai créé un UDF qui fera une opération spécifique.Below est l'UDF p> donc la sortiep est comme
Je veux le convertir en paires de la valeur clé p> La finale O / P doit être quelque chose comme p> [["ID", "A-1", "V", "IN"]], ["ID", "A-2", "V", "IN"]] p>
3 Réponses :
Vous pouvez essayer après une approche suivante
ive ajouté si la condition de manipuler si le nombre d'éléments n'est même pas
Cette approche vous donnera une carte mutable p> autre option pour obtenir le résultat dans une carte immuable p>
Il devrait fonctionner avec l'UDF que j'ai fourni.Il fonctionne différemment
Il devrait fonctionner avec l'UDF que j'ai fourni.Je avait réellement utilisé votre deuxième méthode après la suggestion de quelqu'un d'autre, mais j'ai besoin de le faire fonctionner avec l'UDF
Oui j'ai changé, mais je n'ai pas changé l'exigence. Je viens d'ajouter une nouvelle valeur de sortie.Requirement est toujours la même
Essayez ceci
J'utilise Spark 2.3.3.Ce est lié à la même question que je posais aujourd'hui la matinée à toi.Je devait créer un UDF ne peut pas utiliser Spark 2.4.Leystead de la transformation J'ai créé l'UDF "Def Addone (Éléments: SEQ [String]) = éléments.map (Element => ("ID", "CIS-$ ELEMENT", "CISKEY", "IND")) "Mais maintenant bloqué avec la conversion en une paire de valeur clé
J'ai pu résoudre celui-ci merci tout pour votre réponse. p> p>
Qu'est-ce que tu as essayé jusque-là?
J'essayais en fait de faire appel à une structure nommée et j'essayais également d'utiliser une déclaration de cas, mais rien ne semble fonctionner
Voir Zip éléments avec des indices impairs et paires dans une liste < / a>