Stworzyłem klaster Spark na Openstack działającym na Ubuntu14.04 z 8gb pamięci RAM. Stworzyłem dwie maszyny wirtualne o pojemności 3 gb każda (z zachowaniem 2 GB na system macierzysty). Ponadto tworzę master i 2 pracowników z pierwszej wirtualnej maszyny i 3 pracowników z drugiej maszyny.Apache Spark: "nie udało się uruchomić org.apache.spark.deploy.worker.Worker" lub Master
Plik spark-env.sh ma podstawowe ustawienie z
export SPARK_MASTER_IP=10.0.0.30
export SPARK_WORKER_INSTANCES=2
export SPARK_WORKER_MEMORY=1g
export SPARK_WORKER_CORES=1
Ilekroć rozmieścić klaster z start-all.sh, ja się „nie udało się uruchomić org.apache.spark.deploy.worker. Pracownik "i kilka razy" nie uruchomił org.apache.spark.deploy.master.Master ". Kiedy widzę plik dziennika, aby szukać błędu pojawia się następujący
Spark Polecenie:/usr/lib/jvm/java-7-openjdk-amd64/bin/java Cp>/home/ubuntu/iskrę -1.5.1/sbin /../ conf /:/home/ubuntu/spark-> 1.5.1/assembly/target/scala-2.10/spark-assembly-1.5.1-> hadoop2.2.0.jar:/home /ubuntu/spark-1.5.1/lib_managed/jars/datanucleus-api->jdo-3.2.6.jar:/home/ubuntu/spark-1.5.1/lib_managed/jars/datanucleus-core->3.2.10. jar: /home/ubuntu/spark-1.5.1/lib_managed/jars/datanucleus-rdbms-> 3.2.9.jar -Xms1g -Xmx1g -XX: MaxPermSize = 256m> org.apache.spark.deploy.master.Master - -ip 10.0.0.30 --port 7077 --webui-> port 8080
Chociaż otrzymałem wiadomość o błędzie, ale master lub w orker ożywają po kilku sekundach.
Czy ktoś może wyjaśnić przyczynę?
Przełączyłem logi z ERROR na INFO i zobaczyłem dwa ostrzeżenia. 1. Twoja nazwa hosta, pracownik1 rozpatruje adres zwrotny: 127.0.1.1; zamiast tego używają 10.0.0.30 (na etykiecie interfejsu) i 2. Nie można załadować natywnej biblioteki hadoop dla twojej platformy ... używając klas wbudowanych java tam, gdzie ma to zastosowanie. Czy mogą przeszkadzać we wdrożeniu klastra? – jsingh13