Questions et réponses pour le hdfs :

Le système de fichiers distribués Hadoop (HDFS) est le système de stockage de fichiers par défaut utilisé par Apache Hadoop. HDFS crée plusieurs répliques de blocs de données et les distribue sur des nœuds de données dans un cluster pour permettre un calcul fiable et une énorme quantité de données sur du matériel de base.

2
votes
Je suis nouveau sur Hadoop et HDFS, j'essaie de voir pourquoi les commandes Hadoop fs sont nécessaires par rapport à l'utilisation des équivalents de commande Unix. Ils semble ...

0
votes
Je me demande si Greenplum PXF peut profiter du court-circuit HDFS en lecture lorsque nous placons PXF et Datanode sur le même hôte. Nous avons fait un test de préliminaire, cep ...

0
votes
Je importe actuellement des données postgres sur HDFS. Je prévois de déplacer le stockage de HDFS en S3. Lorsque j'essaie de fournir un emplacement S3, le travail SQOP é ...

0
votes
J'apprends à propos de Apache Spark and HDFS. Je comprends les deux pour la plupart bien que je sois confus à propos d'une chose. Ma question est la suivante: Les nœuds de donn ...