现在,一切正确配置,我们可以测试,以确保一切正常。 你将需要你的mesos masters的zookeeper地址格式如下:
mesos://zk://mesos1:2181,mesos2:2181,mesos3:2181/mesos我实际上使用IP地址进行安装,当我们启动python客户端时,这将是必需的。导出环境变量MESOS_NATIVE_JAVA_LIBRARY设置为您的libmesos.so位置,如果您按照上面的说明执行操作:
export MESOS_NATIVE_JAVA_LIBRARY=/usr/local/lib/libmesos.so使用以下命令运行客户端:
# ./bin/pyspark --master mesos://zk://mesos1:2181,mesos2:2181,mesos3:2181/mesos这将加载python Spark客户端,并在Mesos上启动一些任务。 您可以通过转到您的mesos集群GUI({mesos-ip}:5050)并查看Active Tasks来验证。 你应该看到两个PySparkShell的任务名称。 您还应该看到您的CLI正在运行:
Welcome to ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /__ / .__/\_,_/_/ /_/\_\ version 2.2.0 /_/ Using Python version 2.7.14 (default, Sep 23 2017 22:06:14) SparkSession available as 'spark'. >>>您还可以在以下位置查看Spark应用程序UI:
{spark-ip}:4040我希望你喜欢这个帖子。 如果有帮助或者如果有问题,请发表评论并告诉我。
更多Spark相关教程见以下内容:
CentOS 7.0下安装并配置Spark
CentOS 6.2(64位)下安装Spark0.8.0详细记录
Spark2.0.2 Hadoop2.6.4全分布式配置详解