spark查看历史任务的信息
1、在spark-default.conf中增加:
spark.eventLog.enabled true
spark.eventLog.dir hdfs://10.0.0.37:9000/sparklogs
spark.eventLog.compress true
2、在spark-env.sh中增加:
export SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://10.0.0.37:9000/sparklogs"
(加入改行可以在start-history-server.sh启动中,不再加入hdfs://10.0.0.37:9000/sparklogs)
3、启动 start-history-server.sh 命令
4、然后就可以看到历史任务的详细信息
相关推荐
adayan0 2020-05-19
tugangkai 2020-05-09
Johnson0 2020-07-28
Hhanwen 2020-07-26
zhixingheyitian 2020-07-19
yanqianglifei 2020-07-07
Hhanwen 2020-07-05
Hhanwen 2020-06-25
rongwenbin 2020-06-15
sxyhetao 2020-06-12
hovermenu 2020-06-10
Oeljeklaus 2020-06-10
zhixingheyitian 2020-06-08
Johnson0 2020-06-08
zhixingheyitian 2020-06-01
xclxcl 2020-05-31
Hhanwen 2020-05-29