Spark在Hadoop集群上的配置(spark-1.1.0-bin-hadoop2.4)
运行Spark服务,需要在每个节点上部署Spark。
可以先从主节点上将配置修改好,然后把Spark直接scp到其他目录。
关键配置
修改conf/spark-env.sh
文件:
export JAVA_HOME=/usr/java/latest export Hadoop_CONF_DIR=/opt/hadoop-2.4.1/etc/hadoop/ export SPARK_MASTER_IP=master
以上是必要的几个配置,详细的配置说明,请参见官网的Document。
修改conf/slaves
,slave节点配置,将worker节点的主机名直接添加进去即可。
启动集群
sbin/start-all.sh
jps
查看本机java进程,主节点应该有Master
进程,worker节点应该有个Worker
进程。
WebUI地址:http://master:8080
测试Spark,bin/run-example SparkPi
,正常的话,可以看到以下测试结果:
相关推荐
Hhanwen 2020-06-25
xclxcl 2020-05-31
BornZhu 2020-05-20
Johnson0 2020-07-28
Hhanwen 2020-07-26
zhixingheyitian 2020-07-19
yanqianglifei 2020-07-07
Hhanwen 2020-07-05
rongwenbin 2020-06-15
sxyhetao 2020-06-12
hovermenu 2020-06-10
Oeljeklaus 2020-06-10
zhixingheyitian 2020-06-08
Johnson0 2020-06-08
zhixingheyitian 2020-06-01
Hhanwen 2020-05-29
zhixingheyitian 2020-05-29