Załóżmy, że mam 2 lub więcej executorów w aplikacji Spark Streaming.W jaki sposób zadania są przypisywane do executorów w strumieniu Spark?
Ustawiłem czas wsadowy na 10 sekund, więc zadanie jest uruchamiane co 10 sekund, odczytując dane wejściowe z mojego HDFS.
Jeśli każde zadanie trwa dłużej niż 10 sekund, nowe zadanie, które jest uruchamiane, jest przypisane do wolnego executora, prawda?
Nawet jeśli poprzednia nie została zakończona?
Wiem, że wydaje się oczywistą odpowiedzią, ale nie znalazłem nic na temat planowania pracy na stronie internetowej lub na papierze związanym ze Spark Streaming.
Jeśli znasz kilka linków, w których wyjaśniono wszystkie te rzeczy, naprawdę byłbym wdzięczny za ich obejrzenie.
Dziękuję.
Pracujemy nad projektem związanym z tymi rzeczami, więc z chęcią zajrzę do slajdów, aby zrozumieć więcej. Dziękuję. – gprivitera