This page inspirował mnie do wypróbowania zapłonową-CSV do odczytu pliku .csv w Pyspark znalazłem kilka stanowisk, takich jak this opisujących jak używać spark-csvJak załadować dependenices słoik ipython Notebook
Ale jestem nie można zainicjować instancji ipython, włączając do rozruchu plik .jar lub rozszerzenie pakietu, które można wykonać za pomocą iskrzenia powłoki.
Oznacza to, że zamiast ipython notebook --profile=pyspark
, wypróbowałem ipython notebook --profile=pyspark --packages com.databricks:spark-csv_2.10:1.0.3
, ale nie jest to obsługiwane.
Prosimy o radę.
Czy to nie zastąpi wszystkiego, co jest już w "os.environ [" PYSPARK_SUBMIT_ARGS "]'? Myślę, że trzeba o tym wspomnieć, ponieważ spędziłem dużo czasu, zastanawiając się, co się stało –