经过漫长而艰苦的SparkR安装过程,我遇到了启动SparkR的新问题。
我的设置
R 3.2.0
RStudio 0.98.1103
Rtools 3.3
Spark 1.4.0
Java Version 8
SparkR 1.4.0
Windows 7 SP 1 64 Bit
现在我尝试在R中使用以下代码:
library(devtools)
library(SparkR)
Sys.setenv(SPARK_MEM="1g")
Sys.setenv(SPARK_HOME="C:/spark-1.4.0")
sc <- sparkR.init(master="local")
我收到以下消息:
JVM is not ready after 10 seconds
我也在尝试添加一些系统变量,例如spark路径或java路径。
您对我有什么建议可以解决该问题。
在测试本地主机之后,下一步对我来说就是在运行中的hadoop集群上开始测试。
我认为这是一个已解决的错误。尝试以下方法,
Sys.setenv(SPARK_HOME="C:\\spark-1.4.0")
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library("SparkR", lib.loc="C:\\spark-1.4.0\\lib") # The use of \\ is for windows environment.
library(SparkR)
sc=sparkR.init(master="local")
使用spark-submit命令启动Java C:\spark-1.4.0/bin/spark-submit.cmd sparkr-shell
C:\Users\Ashish\AppData\Local\Temp\RtmpWqFsOB\backend_portbdc329477c6
希望这可以帮助。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句