输入应如下所示:
公司 | 销售量 |
---|---|
亚马逊 | 100 |
翻转卡丁车 | 900 |
易趣 | 890 |
亚马逊 | 100 |
翻转卡丁车 | 100 |
易趣 | 10 |
亚马逊 | 100 |
翻转卡丁车 | 90 |
易趣 | 10 |
预期输出应如下所示:
亚马逊 | 翻转卡丁车 | 易趣 |
---|---|---|
300 | 1090 | 910 |
尝试使用枢轴函数,但它不起作用。对此的任何帮助将不胜感激.. 提前致谢..
您可以使用pivot()
其他答案中所示的函数。
这是groupBy()
和pivot()
组合的较短版本。
>>> data = [("amazon", 100), ("flipkart", 300), ("amazon", 50), ("ebay", 50), ("ebay", 150), ("amazon", 300)]
>>> df = spark.createDataFrame(data,["company","sales"])
>>> df.groupBy().pivot('company').sum('sales').show()
+------+----+--------+
|amazon|ebay|flipkart|
+------+----+--------+
| 450| 200| 300|
+------+----+--------+
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句