Questions et réponses pour le hdfs :

Le système de fichiers distribués Hadoop (HDFS) est le système de stockage de fichiers par défaut utilisé par Apache Hadoop. HDFS crée plusieurs répliques de blocs de données et les distribue sur des nœuds de données dans un cluster pour permettre un calcul fiable et une énorme quantité de données sur du matériel de base.

8
votes
J'ai configuré un cluster Hadoop contenant 5 nœuds sur Amazon EC2. Maintenant, lorsque je me connecte au nœud maître et soumettez la commande suivante 1116 NameNode 1 ...

8
votes
Cela peut être une question fondamentale, mais je ne pouvais pas trouver une réponse pour cela sur Google. J'ai un travail de carte de carte de carte qui crée plusieurs f ...

7
votes
Je suis une nouvelle solution NosqL et je veux jouer avec la ruche. Mais l'installation de HDFS / Hadoop prend beaucoup de ressources et de temps (peut-être sans expérience mais je n' ...

7
votes
Un collègue de mine pense que HDFS n'a pas de taille maximale de fichier, c'est-à-dire en partitionnement dans 128/256 MEG CHUnks Toute taille de fichier peut être stocké ...