RDD操作对pyspark中的值进行排序

质量17

我的档案格式如下

0, Alpha,-3.9, 4, 2001-02-01, 5, 20
0, Beta,-3.8, 3, 2002-02-01, 6, 21
1, Gamma,-3.7, 8, 2003-02-01, 7, 22
0, Alpha,-3.5, 4, 2004-02-01, 8, 23
0, Alpha,-3.9, 4, 2005-02-01, 8, 27

我想1st elements通过3rd elements使用rdd操作在每一行中进行排序我更喜欢得到以下输出,

(Beta, 3)
(Alpha, 4)
(Gamma, 8)

这是我目前所做的

rdd = sc.textFile(myDataset)
list_ = rdd.map(lambda line: line.split(",")).map(lambda e : e[1]).distinct().collect() 
new_ = list_.sortBy(lambda e : e[2])

但是我无法按照自己的意愿进行排序。谁能说出仅基于rdd的操作方法吗?

科泽克

rdd = sc.textFile(myDataset) 是正确的。

list_ = rdd.map(lambda line: line.split(",")).map(lambda e : e[1]).distinct().collect() 
new_ = list_.sortBy(lambda e : e[2]) # e[2] does not exist.

您已经调用collect on list_,因此它不再是RDD。然后,您继续对其进行调用sortBy,因此它将无法正常工作。也许您在发布时犯了这个错误。主要问题是地图操作。您需要创建一个pairWiseRdd,但尚未创建一个。因此,没有e[2]可排序的。见下文。

>>> rdd.map(lambda line: line.split(",")).map(lambda e : e[1]).collect()
[' Alpha', ' Beta', ' Gamma', ' Alpha', ' Alpha']

上面没有您需要使用的值。distinct()相反,您需要这样做

>>> list_ = rdd.map(lambda line: line.split(",")).map(lambda e : (e[1],e[3]))
>>> list_.collect()
[(' Alpha', ' 4'),
 (' Beta', ' 3'),
 (' Gamma', ' 8'),
 (' Alpha', ' 4'),
 (' Alpha', ' 4')]
>>> distinct_rdd = list_.distinct() #making stuff distinct
>>> distinct_rdd.collect()
[(' Alpha', ' 4'), (' Beta', ' 3'), (' Gamma', ' 8')]

现在我们已经创建了pairWiseRdd,我们可以使用每对的第二个值对其进行排序。

>>> sorted_rdd = distinct_rdd.sortBy( lambda x:x[1] )
>>> sorted_rdd.collect()
[(' Beta', ' 3'), (' Alpha', ' 4'), (' Gamma', ' 8')]

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章