Innym przykładem tego samego pojęcia - ale powiedzieć - masz 2 różnych kolumn - i chcesz zastosować różne funkcje AGG do każdego z nich, tj
f.groupBy("col1").agg(sum("col2").alias("col2"), avg("col3").alias("col3"), ...)
Oto sposób, aby go osiągnąć - choć jeszcze nie wiem jak dodać alias w tym przypadku
patrz przykład poniżej - za pomocą mapy
val Claim1 = StructType(Seq(StructField("pid", StringType, true),StructField("diag1", StringType, true),StructField("diag2", StringType, true), StructField("allowed", IntegerType, true), StructField("allowed1", IntegerType, true)))
val claimsData1 = Seq(("PID1", "diag1", "diag2", 100, 200), ("PID1", "diag2", "diag3", 300, 600), ("PID1", "diag1", "diag5", 340, 680), ("PID2", "diag3", "diag4", 245, 490), ("PID2", "diag2", "diag1", 124, 248))
val claimRDD1 = sc.parallelize(claimsData1)
val claimRDDRow1 = claimRDD1.map(p => Row(p._1, p._2, p._3, p._4, p._5))
val claimRDD2DF1 = sqlContext.createDataFrame(claimRDDRow1, Claim1)
val l = List("allowed", "allowed1")
val exprs = l.map((_ -> "sum")).toMap
claimRDD2DF1.groupBy("pid").agg(exprs) show false
val exprs = Map("allowed" -> "sum", "allowed1" -> "avg")
claimRDD2DF1.groupBy("pid").agg(exprs) show false
wydaje 'aggregateBy' byłoby tu zastosowanie. Jest szybszy (znacznie szybciej) niż 'groupBy'.Och, czekaj - 'DataFrame' nie eksponuje' aggregateBy' - 'agg' wskazuje na' groupBy'. Cóż, to oznacza, że 'DataFrames' są * wolne * .. – javadba
@javadba Nie, to oznacza tylko, że' Dataset.groupBy'/'Dataset.groupByKey' i' RDD.groupBy'/'RDD.groupByKey' mają, w ogólnym przypadku, inna semantyka. W przypadku prostych agregacji 'DataFrame' [sprawdź to] (http://stackoverflow.com/a/32903568/1560062). Jest w tym coś więcej, ale nie jest to tutaj ważne. – zero323
Ładne informacje! przegłosował inną odpowiedź – javadba