Spark History Server配置
本文是对于自己编译的Spark部署,如果是CDH集成的Spark则可直接在管理界面中查看。
1.在hdfs中创建一个目录,用于保存Spark运行日志信息。
]$ hdfs dfs -mkdir /spark/historylog
2.配置spark conf,使Spark History Server从此目录中读取日志信息
]$ vim spark-defaults.conf spark.eventLog.compress true spark.eventLog.dir hdfs://nameservice1/spark/historylog spark.yarn.historyServer.address hadoop002:18080
其中spark.eventLog.dir
保存日志相关信息的路径,可以是hdfs://开头的HDFS路径,也可以是file://开头的本地路径,都需要提前创建。
3.添加环境参数
]$ vim spark-env.sh export SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://mycluster/spark/historylog \ -Dspark.history.ui.port=18080 \ -Dspark.history.retainedApplications=20"
4.启动服务
]# ./sbin/start-history-server.sh
相关推荐
adayan0 2020-05-19
tugangkai 2020-05-09
Johnson0 2020-07-28
Hhanwen 2020-07-26
zhixingheyitian 2020-07-19
yanqianglifei 2020-07-07
Hhanwen 2020-07-05
Hhanwen 2020-06-25
rongwenbin 2020-06-15
sxyhetao 2020-06-12
hovermenu 2020-06-10
Oeljeklaus 2020-06-10
zhixingheyitian 2020-06-08
Johnson0 2020-06-08
zhixingheyitian 2020-06-01
xclxcl 2020-05-31
Hhanwen 2020-05-29