Zainstalowałem Zeppelin 0.7.1
. Kiedy próbowałem uruchomić program Przykład zapłonową (który był dostępny z Zeppelin Tutorial
notebook), otrzymuję następujący błądUzyskiwanie wyjątku NullPointerException podczas działania kodu Spark w urządzeniu Zeppelin 0.7.1
java.lang.NullPointerException
at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38)
at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33)
at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext_2(SparkInterpreter.java:391)
at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext(SparkInterpreter.java:380)
at org.apache.zeppelin.spark.SparkInterpreter.getSparkContext(SparkInterpreter.java:146)
at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:828)
at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:70)
at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:483)
at org.apache.zeppelin.scheduler.Job.run(Job.java:175)
at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
Mam również skonfigurować plik konfiguracyjny (zeppelin-env.sh
), aby wskazać na mojej instalacji Spark & konfiguracji Hadoop katalog
export SPARK_HOME="/${homedir}/sk"
export HADOOP_CONF_DIR="/${homedir}/hp/etc/hadoop"
wersja Spark używam to 2.1.0 & Hadoop jest 2.7.3
również używam domyślnego Spark Interpreter Configu racja (więc Spark jest gotowy do uruchomienia w Local mode
)
Czy brakuje mi tutaj czegoś?
PS: Jestem w stanie połączyć się iskra z terminalu używając spark-shell
Tak, właśnie tam zainstalowałem Spark :). to jest katalog domowy instalacji Spark'a – Raj