Je suis une nouvelle solution NosqL et je veux jouer avec la ruche. Mais l'installation de HDFS / Hadoop prend beaucoup de ressources et de temps (peut-être sans expérience mais je n'ai pas eu le temps de le faire). p>
Y a-t-il des moyens d'installer et d'utiliser la ruche sur une machine locale sans HDFS / Hadoop? P>
5 Réponses :
La ruche nécessite des HDFS et de la carte / réduire afin que vous en auriez besoin. L'autre réponse a un certain mérite dans le sens de recommander un moyen simple em> / pré-configuré pour obtenir tous les composants pour vous. P>
Mais le gist de celui-ci est: Hive Besoin Hadoop et M / R Donc, dans une certaine mesure, vous devrez y faire face. P> ruche sur Spark code> Il n'est plus nécessaire d'avoir
HDFS < / code> support. p>
Mal, la ruche peut fonctionner sans HDFS et mapper / réduire, il y a un mode appelé "local"; En outre, la ruche peut courir contre le moteur Tez au lieu de la carte / réduire.
@Thomasdecaux Vérifiez vos dates: ceci a été écrit en janvier 2014. C'est plus le cas i> que cette restriction est en place. Cela rend votre déclaration trompeuse sans éclaircir.
Oui tu as raison, c'est toujours difficile avec des réponses
HIVE Besoin de bibliothèques Hadoop, et l'utilisation de la ruche pour exécuter des requêtes nécessite Hadoop et la carte réduite. Mais ... Puis-je installer Hadoop et ne pas l'exécuter réellement si je veux juste utiliser le métastour de la ruche? J'avais hâte d'utiliser le métastore "autonome" dans la ruche 3, mais cela ne joue pas bien avec Presto mais malheureusement.
Si vous ne faites que parler de la ruche avant de prendre une décision, vous pouvez simplement utiliser une machine virtuelle préconfigurée car @Maltram suggéré (HortonWorks, Cloudera, IBM et d'autres personnes offrent tous des VMS) P>
Ce que vous devriez garder à l'esprit que vous ne pourrez pas utiliser la ruche dans la production sans Hadoop ni HDFS afin que cela vous pose problème, vous devez envisager des alternatives à la ruche p>
Oui, vous pouvez exécuter la ruche sans Hadoop 1.Créez votre entrepôt sur votre système local 2. Donnez par défaut FS en tant que fichier: /// que vous pouvez exécuter la ruche en mode local avec l'installation de Hadoop
dans hive-site.xml p>
Mettez ces configurations à l'intérieur de votre hive-site.xml xml version = "1.0"?> xml-stylesheet Type = "Texte / xsl" href = "configuration.xsl"?>
Pour être précis, cela signifie courir la ruche sans HDF à partir d'un cluster Hadoop, il a toujours besoin de bocaux de Hadoop-noyau dans CLASSPATH afin que Hive Server / CLI / Services puisse être démarré. BTW, hive.metastore.schema.Verification code> est à propos de la vérification du schéma métastore, il est facultatif pour cette réponse si vous avez une DB métastore avec schéma existant.
J'ai installé la ruche de la fondation Apache sans Hadoop. Parce que je vais quitter Hadoop depuis que sa nette est pas gratuite. Je voudrais utiliser la ruche métastore par Prestosql. Mais j'ai eu une erreur lorsque je lance la ruche Metastore: Impossible de déterminer les informations de version Hadoop. "Version Hadoop" renvoyée: Erreur: impossible d'exécuter /usr/bin/../libexec/hadoop-config.sh Une personne s'il vous plaît peut vous aider s'il vous plaît? Je suis ces liens moyenne.com/@binfan_alluxio/... et PRESTODB.IO/ Documents / actuels / Installation / Déploiement.html
Vous ne pouvez pas, il suffit de télécharger la ruche et exécutez:
./bin/hiveserver2 Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path
Droite, j'ai exactement la même chose. Cependant, après le téléchargement / extrait Hadoop Core et la configuration $ Hadoop_Home CODE>, la ruche peut être lancée avec des HDF car il a besoin de métastore uniquement lorsqu'il intervient contre les données sur S3
Oui, vous avez raison, mais pour moi Hadoop! = HDFS, HDFS est un composant plus un composant, comme le fil /ez etc ...
Bien que vous devez garder quelques détails que vous devez garder à l'esprit qu'il est complètement normal d'utiliser la ruche sans HDFS. Il y a quelques détails à garder à l'esprit. P>
SCHEMATOOL CODE> LI>
ol>
Vous pouvez utiliser Site.xml CODE> Fichier pointant vers le système de fichiers POSIX local, mais vous pouvez également définir ces options dans hive_opts code> variable de l'environnement.
J'ai couvert qu'avec des exemples d'erreurs que j'ai vues sur mon Blog Post P>
Vous voulez dire HDFS? Hadoop est un éco-système, Hive, fait partie de Hadoop.