25.Spark下载源码和安装和使用

安装scala

上传安装包

25.Spark下载源码和安装和使用

解压

25.Spark下载源码和安装和使用

配置scala相关的环境变量

export SCALA_HOME=/opt/modules/scala-2.11.4
  export PATH=$PATH:$SCALA_HOME/bin

验证scala安装是否成功

25.Spark下载源码和安装和使用

把scala分发给node2  node3  node4

scp -r scala-2.11.4/ :/opt/modules/

scp -r scala-2.11.4/ :/opt/modules/

scp -r scala-2.11.4/ :/opt/modules/

分别给node2  node3  node4配置scala的环境变量,并使其生效

#scala
export SCALA_HOME=/opt/modules/scala-2.11.4
export PATH=$PATH:$SCALA_HOME/bin

25.Spark下载源码和安装和使用

25.Spark下载源码和安装和使用

25.Spark下载源码和安装和使用

spark安装包下载地址:https://archive.apache.org/dist/spark/spark-1.5.1/

25.Spark下载源码和安装和使用

上传安装包导集群

25.Spark下载源码和安装和使用

解压安装包

25.Spark下载源码和安装和使用

配置spark的环境变量

25.Spark下载源码和安装和使用

#spark
export SPARK_HOME=/opt/modules/spark-1.5.1-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

使环境变量生效

25.Spark下载源码和安装和使用

修改spark配置文件

25.Spark下载源码和安装和使用

修改spark-env.sh文件

vim spark-env.sh文件

添加以下语句

25.Spark下载源码和安装和使用

export JAVA_HOME=/opt/modules/jdk1.8.0_65
export SCALA_HOME=/opt/modules/scala-2.11.4
export SPARK_MASTER_IP=node1
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/opt/modules/hadoop-2.6.0/etc/hadoop

修改slaves文件

vim slaves

25.Spark下载源码和安装和使用

将spark安装包分发给node2 node3 node4

scp -r spark-1.5.1-bin-hadoop2.6/ :/opt/modules/

scp -r spark-1.5.1-bin-hadoop2.6/ :/opt/modules/

scp -r spark-1.5.1-bin-hadoop2.6/ :/opt/modules/

再给node2 node3 node4配置spark的环境变量

#spark
export SPARK_HOME=/opt/modules/spark-1.5.1-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

在spark目录下的sbin目录执行./start-all.sh

25.Spark下载源码和安装和使用

25.Spark下载源码和安装和使用

25.Spark下载源码和安装和使用

25.Spark下载源码和安装和使用

在浏览器打开地址http://node1:8080/

25.Spark下载源码和安装和使用

启动spark-shell

25.Spark下载源码和安装和使用

 25.Spark下载源码和安装和使用

启动成功!!!!

相关推荐