Spark在Hadoop集群上的配置(spark-1.1.0-bin-hadoop2.4)

运行Spark服务,需要在每个节点上部署Spark。

可以先从主节点上将配置修改好,然后把Spark直接scp到其他目录。

关键配置

修改conf/spark-env.sh文件:

export JAVA_HOME=/usr/java/latest
export Hadoop_CONF_DIR=/opt/hadoop-2.4.1/etc/hadoop/
export SPARK_MASTER_IP=master

以上是必要的几个配置,详细的配置说明,请参见官网的Document。

修改conf/slaves,slave节点配置,将worker节点的主机名直接添加进去即可。

启动集群

sbin/start-all.sh

jps查看本机java进程,主节点应该有Master进程,worker节点应该有个Worker进程。

WebUI地址:http://master:8080

测试Spark,bin/run-example SparkPi,正常的话,可以看到以下测试结果:

相关推荐