Podczas korzystania spark-1.6.2 i pyspark, widziałem to:Całość zadania jest liczbą ujemną w Spark UI
, gdzie można zobaczyć, że aktywne zadania są ujemny numer (różnicę The suma zadań z wykonanych zadań).
Jakie jest źródło tego błędu?
Węzeł że mam wiele wykonawców. Wydaje się jednak, że istnieje zadanie, które wydaje się być bezczynne (nie widzę postępu), podczas gdy inne identyczne zadanie ukończyło normalnie.
Również jest to związane: mail że mogę potwierdzić, że wiele zadań są tworzone, ponieważ używam 1k lub 2k wykonawców.
Błąd Dostaję jest nieco inna:
16/08/15 20:03:38 ERROR LiveListenerBus: Dropping SparkListenerEvent because no remaining room in event queue. This likely means one of the SparkListeners is too slow and cannot keep up with the rate at which tasks are being started by the scheduler.
16/08/15 20:07:18 WARN TaskSetManager: Lost task 20652.0 in stage 4.0 (TID 116652, myfoo.com): FetchFailed(BlockManagerId(61, mybar.com, 7337), shuffleId=0, mapId=328, reduceId=20652, message=
org.apache.spark.shuffle.FetchFailedException: java.util.concurrent.TimeoutException: Timeout waiting for task.
Hokam, wygląda na to, że nasze odpowiedzi są zgodne! Świetnie, dzięki za awans! Przyjmę twój, jako ruch fair-play. :) – gsamaras