6
votes

$ Hadoop_home est obsolète, hadoop

J'ai essayé d'installer Hadoop sur un seul cluster de noeud (mon propre labTop-Ubuntu 12.04). J'ai suivi ce tutoriel et j'ai vérifié la ligne de la ligne deux fois. http: //www.michael- noll.com/tatudials/running-haadoop-on-ubuntu-linux-single-node-Cluster/

Tout semble correct. J'ai défini tout le Core-Site.xml, Mapred-Site.xml, HDFS-SITE.XML. P>

Lorsque j'exécute la commande suivante dans HDUSER SU: P>

maziyar@maziyar-Lenovo-IdeaPad-U300s:/usr/local/hadoop$ ls -lha
total 20K
drwxr-xr-x  5 hduser hadoop 4.0K May 30 15:25 .
drwxr-xr-x 12 root   root   4.0K May 30 15:25 ..
drwxr-xr-x  4 hduser hadoop 4.0K May 30 15:25 etc
drwxr-xr-x 12 hduser hadoop 4.0K Jun  4 21:29 usr
drwxr-xr-x  4 hduser hadoop 4.0K May 30 15:25 var


4 commentaires

Quelle version de Hadoop utilisez-vous?


@Twid - ressemble à 1.1.2


Vous pouvez obtenir la version par version Hadoop


@Twid 1.1.2 est utilisé


5 Réponses :


6
votes

J'ai essayé de régler export hadoop_home_warn_suppress = "true" dans mon conf / hadoop-env.sh fichier et l'avertissement a disparu. Bien que je ne suis toujours pas sûr de savoir pourquoi cet avertissement est arrivé en premier lieu.


0 commentaires

2
votes

Votre session Bash peut toujours avoir hadoop_home variable définie. Essayez de Echo $ $ Hadoop_Home et voyez si vous obtenez une valeur.

Si vous obtenez une valeur pour hadoop_home , la coquille l'obtient à partir de certains fichiers de configuration, cochez ces fichiers ( ~ / .bashrc , ~ /. Profil , / etc / code / , /etc/bash.bashrc , etc.) et supprimez la variable exportée hadoop_home variable.

Ouvrir une nouvelle session après avoir défini hadioop_prefix variable d'environnement au lieu de hadoop_home dans ~ / .bstrucc et vous êtes sûr que vous êtes sûr < code> $ hadoop_home n'est pas exporté dans aucun fichier de configuration et vous ne devriez pas voir ce message d'avertissement.


0 commentaires

0
votes

$ hadoop_home est obsolète est un message d'avertissement. Aujourd'hui, j'ai installé à l'aide de l'enseignement du site Web de Micheal sur Ubuntu et cela a fonctionné bien.


0 commentaires

3
votes

Remplacement de hadoop_home par hadoop_prefix dans le ~ / .bstrucrc résout cela pour moi.

Avez-vous essayé de vous déconnecter de la session en cours après ce changement et essayé à nouveau? Les modifications que vous apportez sur votre profil Bash entreront en vigueur lorsque vous vous connectez à nouveau à la coque.


0 commentaires

1
votes

Erreur obsolète signifie qu'une version particulière que vous utilisez est considérée comme sans importance ou qu'elle cessera de prendre en charge bientôt lisée sur le site Web.

Par ceci, je veux dire que vous avez installé OpenJDK à Hadoop. Ce que j'ai fait est au lieu d'installer OpenJDK, j'ai installé Oraclejdk. Peut-être que vous devriez essayer de faire ça.

lemme savoir si cela a aidé.

Cordialement.


0 commentaires