Chcę używać RangePartitioner w mojej aplikacji Java Spark, ale nie mam pojęcia, jak ustawić dwa parametry scala: scala.math.Ordering<K> evidence$1
i scala.reflect.ClassTag<K> evidence$2
. Czy ktoś może dać mi przykład?Jak korzystać z RangePartitioner w Spark
Oto link do JavaDoc of RangePartitioner (było żadnej pomocy dla mnie, bo jestem nowy Spark i Scala ...):
mój kod faktycznie wygląda:
JavaPairRDD<Integer, String> partitionedRDD = rdd.partitionBy(new RangePartitioner<Integer, String>(10, rdd, true, evidence$1, evidence$2));
Czy zorientowali się, jak wywołać konstruktor RangePartitioner z Java? – hanslovsky