我有一个Spark数据框,看起来如下:
+-----------+-------------------+
| ID | features |
+-----------+-------------------+
| 18156431|(5,[0,1,4],[1,1,1])|
| 20260831|(5,[0,4,5],[2,1,1])|
| 91859831|(5,[0,1],[1,3]) |
| 206186631|(5,[3,4,5],[1,5]) |
| 223134831|(5,[2,3,5],[1,1,1])|
+-----------+-------------------+
在此数据框中,特征列是稀疏向量。在我的脚本中,我必须将此DF作为文件保存在磁盘上。这样做时,features列另存为text列:example "(5,[0,1,4],[1,1,1])"
。如您所料,在Spark中再次导入时,该列将保留字符串。如何将列转换回(稀疏)矢量格式?
由于UDF开销不是特别有效(使用保留类型的格式是一个好主意),但是您可以执行以下操作:
from pyspark.mllib.linalg import Vectors, VectorUDT
from pyspark.sql.functions import udf
df = sc.parallelize([
(18156431, "(5,[0,1,4],[1,1,1])")
]).toDF(["id", "features"])
parse = udf(lambda s: Vectors.parse(s), VectorUDT())
df.select(parse("features"))
请注意,这不会直接移植到2.0.0+和ML
Vector
。由于ML向量不提供parse
您必须解析MLLib
并使用的方法asML
:
parse = udf(lambda s: Vectors.parse(s).asML(), VectorUDT())
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句