J'ai configuré un cluster Hadoop contenant 5 nœuds sur Amazon EC2. Maintenant, lorsque je me connecte au nœud maître et soumettez la commande suivante
1116 NameNode 1699 Jps 1180 JobTracker
4 Réponses :
Vous voulez probablement utiliser S3N: // URL, pas S3: // URLS. S3N: // signifie "un fichier ordinaire, lisible du monde extérieur, à cette URL S3". S3: // fait référence à un système de fichiers HDFS mappé dans un godet S3.
Pour éviter le problème d'échappement de l'URL pour la clé d'accès (et pour rendre la vie beaucoup plus facile), mettez-les dans le / etc / hadoop / Conf / Core-Site.xml Code> Fichier: P>
<property>
<name>fs.s3.awsAccessKeyId</name>
<value>0123458712355</value>
</property>
<property>
<name>fs.s3.awsSecretAccessKey</name>
<value>hi/momasgasfglskfghaslkfjg</value>
</property>
<property>
<name>fs.s3n.awsAccessKeyId</name>
<value>0123458712355</value>
</property>
<property>
<name>fs.s3n.awsSecretAccessKey</name>
<value>hi/momasgasfglskfghaslkfjg</value>
</property>
hadoop fs -cp s3n: // myhappyBucket / code> ou
hadoop fs -cp s3n: //myhappyBucket/happyfile.txt / tmp / DEST1 code> et même
hadoop fs -CP / TMP / ONE_HDFS_FILE S3N: // myHappyBucket / will_be_put_into_s3 code> li>
distsCP code> exécute une commande uniquement uniquement pour copier un arbre à partir de là ici. Utilisez-le si vous souhaitez copier un très grand nombre de fichiers sur les HDFS. (Pour une utilisation quotidienne,
Hadoop FS -CP SRC DEST code> fonctionne tout à fait). LI>
SocketTimeException code> 's, Appliquer le patch Pour Hadoop-6254 . Nous étions, et nous l'avons fait, et ils sont partis. Li>
ul> p>
À partir du 21/01/2014, cette réponse est toujours assez pertinente et très utile. Mods, je vais ajouter quelques drapeaux dans cette phrase suivante pour aider les recherches futures: si vous rencontrez des problèmes avec CDH5 ou CDH4 et DISCCP, je vous recommande vivement de modifier votre site core-site.xml comme indiqué ci-dessus.
Essayez d'utiliser Amazon Elastic Mapreduce. Il supprime la nécessité de configurer les nœuds Hadoop et vous pouvez simplement accéder aux objets dans votre compte S3 de la manière dont vous vous attendez. P>
@Deepak Essayez ceci, il y a beaucoup d'informations ici. aws.amazon.com/documentation/elasticMapreduce
Vous pouvez également vous Apache Whirir pour ce flux de travail. Vérifiez le Guide de démarrage rapide et le guide 5 minutes Pour plus d'informations. p>
Disclaimer: Je suis l'un des prisonniers. p>
Utilisez
hadoop fs -Dfs.s3n.awsAccessKeyId=<your-key> -Dfs.s3n.awsSecretAccessKey=<your-secret-key> -<subsubcommand> <args>