Pyspark - 枢轴函数问题

索拉布

输入应如下所示:

公司 销售量
亚马逊 100
翻转卡丁车 900
易趣 890
亚马逊 100
翻转卡丁车 100
易趣 10
亚马逊 100
翻转卡丁车 90
易趣 10

预期输出应如下所示:

亚马逊 翻转卡丁车 易趣
300 1090 910

尝试使用枢轴函数,但它不起作用。对此的任何帮助将不胜感激.. 提前致谢..

不列颠哥伦比亚省莫哈纳

您可以使用pivot()其他答案中所示的函数。

这是groupBy()pivot()组合的较短版本

>>> data = [("amazon", 100), ("flipkart", 300), ("amazon", 50), ("ebay", 50), ("ebay", 150), ("amazon", 300)]
>>> df = spark.createDataFrame(data,["company","sales"])
>>> df.groupBy().pivot('company').sum('sales').show()
+------+----+--------+
|amazon|ebay|flipkart|
+------+----+--------+
|   450| 200|     300|
+------+----+--------+

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章