处理方法:我们授予777的权限
Linux环境,我们在root下操作:
sudo chmod 777 /home/hadoop/spark #为了方便,可以给所有的权限 sudo chmod a+w /home/hadoop/spark
window环境下:
存放Spark的文件夹不能设为只读和隐藏,如图所示:
授予完全控制的权限,如图所示:
经过这几个步骤之后,然后再次开启一个新的cmd窗口,如果正常的话,应该就可以通过直接输入spark-shell
来运行Spark了。正常的运行界面应该如下图所示:
六、Python下Spark开发环境搭建
下面简单讲解Python下怎么搭建Spark环境
1、将spark目录下的pyspark文件夹(C:\Spark\python\pyspark)复制到python安装目录C:\Python\Python35\Lib\site-packages里。如图所示
spark的pysaprk
将pyspark拷贝至Python的安装的packages目录下。
2、然后使用cd命令,进入目录D:\python27\Scripts,运行pip install py4j安装py4j库。如图所示:
如果需要在python中或者在类似于IDEA IntelliJ或者PyCharm(笔者用的就是PyCharm)等IDE中使用PySpark的话,需要在系统变量中新建一个PYTHONPATH的系统变量,然后设置好下面变量值就可以了
PATHONPATH=%SPARK_HOME%\python;%SPARK_HOME%\python\lib\py4j-0.10.4-src.zip
后面的事情就交给PyCharm了。
至此,Spark在Windows环境下的搭建讲解已结束。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持黑区网络。