it-swarm.com.de

http: // localhost: 50070 funktioniert nicht HADOOP

Ich habe Hadoop bereits auf meinem Rechner "Ubuntu 13.05" installiert und habe jetzt beim Durchsuchen von localhost einen Fehler: 50070 Der Browser sagt, dass die Seite nicht existiert.

27
deltascience

Seit Hadoop 3.0.0 - Alpha 1 gab es eine Änderung in der Portkonfiguration:

http://localhost:50070 

wurde umgezogen 

http://localhost:9870

siehe https://issues.Apache.org/jira/browse/HDFS-9427

64
Benvorth

port 50070 wurde in 3.0.0-alpha1 auf 9870 geändert

In der Tat haben sich auch viele andere Ports geändert. Aussehen:

Namenode ports: 50470 --> 9871, 50070 --> 9870, 8020 --> 9820
Secondary NN ports: 50091 --> 9869, 50090 --> 9868
Datanode ports: 50020 --> 9867, 50010 --> 9866, 50475 --> 9865, 50075 --> 9864

Quelle

33
Vitor Alves

Überprüfen Sie zunächst, ob Java-Prozesse ausgeführt werden, und verwenden Sie "jps". Wenn Sie sich in einem pseudo-verteilten Modus befinden, müssen Sie über folgende Prozesse verfügen:

  • Namenode
  • Jobtracker
  • Tasktracker
  • Datanode
  • SekundärerNamenode

Wenn Sie irgendwelche vermissen, verwenden Sie die Neustartbefehle:

$HADOOP_INSTALL/bin/stop-all.sh
$HADOOP_INSTALL/bin/start-all.sh

Es kann auch sein, dass Sie diesen Port auf dem Computer nicht geöffnet haben:

iptables -A INPUT -p tcp --dport 50070 -j ACCEPT
7
MaC
  • schritt 1: bin/stop-all.sh
  • schritt 2: bin/hadoop namenode -format
  • schritt 3: bin/start-all.sh
6
Azhar Ak

Für die letzten hadoop-Versionen (ich verwende 2.7.1)

Die start\stop-Skripts befinden sich im Ordner sbin. Die Skripte sind:

  • ./sbin/start-dfs.sh
  • ./sbin/stop-dfs.sh
  • ./sbin/start-yarn.sh
  • ./sbin/stop-yarn.sh

Ich musste nichts mit yarn tun, um die NameNodeServer Instanz zum Laufen zu bringen.

Nun war mein Fehler, dass ich den NameNodeServer HDFS nicht formatiert habe.

bin/hdfs namenode -format

Ich bin nicht ganz sicher, was das im Moment tut, aber es bereitet offensichtlich den Platz vor, auf dem der NameNodeServer arbeiten soll.

6

Wenn Sie den http: // localhost: 8088/cluster öffnen können, aber http: // localhost: 50070/ nicht öffnen können. Möglicherweise startete datanode nicht oder namenode wurde nicht formatiert.

Hadoop-Version 2.6.4

  • schritt 1:

Überprüfen Sie, ob Ihr Name-Name formatiert wurde. Wenn nicht, geben Sie Folgendes ein:

$ stop-all.sh
$ /path/to/hdfs namenode -format
$ start-all.sh
  • schritt 2: 

Überprüfen Sie Ihren Dateinamen-Dateinamenpfad, um in /tmp zu sehen. Wenn sich das Namenode-Verzeichnis in /tmp befindet, müssen Sie den Pfad für tmp-Pfad in core-site.xml festlegen. Jedes Mal, wenn Sie Ihren Computer neu starten oder starten, werden die Dateien in /tmp gesetzt ein tmp-Verzeichnispfad.

fügen Sie folgendes hinzu.

<property>
    <name>hadoop.tmp.dir</name>
    <value>/path/to/hadoop/tmp</value>
</property>
  • schritt 3:

Überprüfen Sie Schritt 2, stoppen Sie hadoop und entfernen Sie das namenode tmp-Verzeichnis in /tmp. Geben Sie dann /path/to/hdfs namenode -format ein und starten Sie den hadoop. Das ist auch ein tmp dir in $HADOOP_HOME

Wenn alle oben genannten Punkte nicht helfen, kommentieren Sie bitte unten!

1
GoingMyWay

Aktivieren Sie den Port in Ihrem System. Dies ist für CentOS 7 Der folgende Befehl

1.Firewall-cmd - aktiv-aktive Zonen

2.firewall-cmd --zone = dmz --add-port = 50070/tcp --permanent

3.firewall-cmd --zone = public --add-port = 50070/tcp --permanent

4.firewall-cmd --zone = dmz --add-port = 9000/tcp --permanent 

5.firewall-cmd --zone = public --add-port = 9000/tcp --permanent 6.firewall-cmd --reload

1
Godasi Satish

Versuchen

namenode -format
start-all.sh
stop-all.sh
jps

siehe, namenode und datanode laufen und durchsuchen

localhost:50070

Wenn localhost:50070 immer noch nicht funktioniert, müssen Sie Ports zulassen. Also nachsehen

netstat -anp | grep 50070
1
Tikky Mahesh

Zuerst müssen Sie hadoop-Knoten und Trackers starten, indem Sie einfach __. start-all.sh auf Ihrem Terminal ..__ eingeben. Um zu überprüfen, ob alle Tracker und Knoten gestartet sind, schreiben Sie den 'jps'-Befehl ..__ ist in Ordnung und funktioniert.... Gehen Sie in Ihren Browser. Geben Sie die folgende URL ein http: // localhost: 50070

0
Vishal Jogiya

wenn Sie eine alte Version von Hadoop (hadoop 1.2) ausführen, erhalten Sie eine Fehlermeldung, weil http: // localhost: 50070/dfshealth.html nicht beendet wird. Überprüfen Sie http: // localhost: 50070/dfshealth.jsp das funktioniert!

0
gerard

Es gibt eine ähnliche Frage und Antwort unter: Start Hadoop 50075 Port wurde nicht aufgelöst

Sehen Sie sich Ihre Datei core-site.xml an, um festzustellen, auf welchen Port sie eingestellt ist. Bei 0 wird zufällig ein Port ausgewählt. Stellen Sie also sicher, dass Sie einen Port festlegen.

0
Josh