Spark本地开发环境搭建(2)

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>${spark.version}</version>
</dependency>

注意:测试时发现 scala.math.random 无法正常引入,因为我写入了自己packagecom.wankun,这样导致在import时,提示无法importcom.wankun.scala.math,应该是scala中的包机制和Java中的包机制不同导致的把。

更多Spark相关教程见以下内容

CentOS 7.0下安装并配置Spark 

Spark1.0.0部署指南

CentOS 6.2(64位)下安装Spark0.8.0详细记录

Spark简介及其在Ubuntu下的安装使用

安装Spark集群(在CentOS上)

Hadoop vs Spark性能对比

Spark安装与学习

Spark 并行计算模型

Spark 的详细介绍请点这里
Spark 的下载地址请点这里

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/df1992826071a40e99c9e6e02c925cc8.html