Hadoop Datanode kann nicht abgerufen werden, es wurde jedoch kein Fehler angezeigt. Daher kann nicht ermittelt werden, welche Fehlerquelle vorliegt
321
Myeongjang JO
Ich habe eine Frage. Ich mache derzeit ein Projekt zum Aufbau von Data Governance.
Ich habe bereits Master-IP und Slave1-IP miteinander verbunden. Dann habe ich SSH-Schlüssel gemacht und kopiert.
Ich glaube nicht, dass ich Fehler im Netzwerk habe.
Als nächstes versuchte ich, Hadoop wie folgt zu verwenden.
hdfs namenode -format
und ich habe eine Warnung erhalten
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Obwohl ich ein Warnzeichen erhalten habe, glaube ich nicht, dass es ein Problem ist. Nach dem Ausführen von start-dfs.sh und start-garne kann ich jedoch auch ohne Probleme datanode erhalten
[Problem]
[hduser@master hadoop]$ jps 3877 SecondaryNameNode 4053 ResourceManager 5166 Jps 3647 NameNode [hduser@slave1 ~]$ jps 4423 Jps
Kann mir jemand sagen, warum ich dieses Problem habe?
[Start-DFS und Garn ausführen]
[hduser@master hadoop]$ start-dfs.sh 18/11/16 13:49:46 WARN util.NativeCodeLoader: Unable to load native- hadoop library for your platform... using builtin-java classes where applicable Starting namenodes on [master] master: namenode running as process 3647. Stop it first. slave1: starting datanode, logging to /home/hduser/hadoop/logs/hadoop- hduser-datanode-slave1.out Starting secondary namenodes [0.0.0.0] 0.0.0.0: secondarynamenode running as process 3877. Stop it first. 18/11/16 13:49:56 WARN util.NativeCodeLoader: Unable to load native- hadoop library for your platform... using builtin-java classes where applicable [hduser@master hadoop]$ start-yarn.sh starting yarn daemons resourcemanager running as process 4053. Stop it first. slave1: starting nodemanager, logging to /home/hduser/hadoop- 2.9.1/logs/yarn-hduser-nodemanager-slave1.out
Hadoop konfigurieren bekomme ich wie folgt:
[yarn_site.xml]
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value> </property> </configuration>
[mapred_site.xml]
<!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapreduce.jobtracker.address</name> <value>master:54311</value> </property> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
[core_site.xml]
<!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>
[hdfs_site.xml]
<configuration> <property> <name>dfs.data.dir</name> <value>/opt/dfs/datanode</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/dfs/namenode</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
0 Antworten auf die Frage
Verwandte Probleme
-
1
MapReduce und Hadoop: Welche Probleme lösen sie gut?
-
1
Hadoop unter Windows 8 ausführen
-
1
Ändern Sie LD_LIBRARY_PATH und CLASSPATH auf dem Clusterknoten, bevor Sie einen Hadoop-Job ausführen
-
1
Fehler beim Starten des CYGWin SSH-Daemons unter Windows 7 Home Edition
-
1
JAVA_HOME nicht richtig gesetzt
-
1
Hadoop-Ergebnisse in "/ bin / java: keine solche Datei oder Verzeichnis" konfigurieren
-
0
IDE und SCSI-Festplatte beim Ausführen von Cloudera Hadoop VMWare CDH 4.2.0
-
1
Hadoop-Installation auf Ubuntu
-
1
Wie kann ich mit ssh-Tunneling auf die Ganglia-Weboberfläche zugreifen, um meinen EMR-Job zu überwac...
-
2
Festlegen des Hostnamens als IP unter Linux für Hadoop VM