Wykonałem już instalację iskry i wykonałem kilka testów ustawiając węzły główne i robocze. Powiedział, że mam bardzo grubą pomyłkę, co dokładnie oznacza praca w kontekście Sparka (nie SparkContext). Mam poniżej pytania:Co to jest praca Spark?
- Czym różni się praca od programu Driver.
- Aplikacja sama w sobie jest częścią programu Driver?
- Spark poddać się w pewien sposób to praca?
Przeczytałem Spark documention, ale nadal nie jest to dla mnie jasne.
Powiedziawszy, moja implementacja polega na pisaniu prac iskrowych {programowo}, które byłyby wynikiem iskrzenia.
Prosimy o pomoc w przypadku niektórych przykładów, jeśli to możliwe. Byłoby bardzo pomocne.
Uwaga: Prosimy nie umieszczać ogniw iskrowych, ponieważ już je wypróbowałem. Chociaż pytania brzmią naiwnie, ale nadal potrzebuję większej jasności w zrozumieniu.
jasne jest dla mnie teraz :) ale mimo wszystko mam zapytanie o pisanie harmonogramu zadań. Czytałem dokumenty, ale nie mogłem uzyskać podpięcia kodu. – chaosguru
Cóż, to zależy w dużej mierze od rodzaju infrastruktury, którą posiadasz (czy na przykład używasz Spark on Yarn?) Nie mojego silnego koloru, ale w zasadzie uruchamiam wszystkie moje programy sterowników ze skryptów Bash (w celu zapamiętania parametrów, tworzyć foldery wyjściowe itp.). Każde normalne narzędzie do planowania, zdolne do uruchamiania polecenia konsoli, powinno działać w trybie IMHO. Jeśli każde zadanie wykorzystuje wszystkie zasoby w klastrze, możesz po prostu przesłać programy i będą czekać na uwolnienie zasobów. –
Byłoby miło, gdybyś mógł zaakceptować odpowiedź, gdyby to wyjaśniło. Pomaga osobom, które szukają pytań bez odpowiedzi, a tym samym więcej odpowiedzi na pytania ;-) –