关于sparkHA这里有一篇比较好的博客,可以参考! 首先将spark的压缩包解压到指定的路径;然后进行配置;
分发之后就可以了;这样的话就是在主节点上启动master就是SPARK_MASTER_HOST这个配置项后面所带的主机上启动master!
这里以我的为例: 三台主机:master、slave01、slave02 目标: master:master(ALIVE)、worker slave01:master(STANDBY)、worker slave02:worker 我的三台主机上是都 装好了zookeeper的; 还是进入到conf/目录下修改配置文件spark-env.sh
首先将以上的SPARK_MASTER_HOST这项配置删除(三台节点都需要删除),然后添加一项配置,如下面所示: export JAVA_HOME=/usr/local/src/jdk1.8.0_201/ export SPARK_MASTER_PORT=7077 export SPARK_DAEMON_JAVA_OPTS="-Dspark.depoly.recoveryMode=ZOOKEEPER -Dspark.depoly.zookeeper.url=master:2181,slave01:2181,slave02:2181 -Dspark.depoly.zookeeper.dir=/sparkHA"启动spark集群; 在主节点上启动执行命令:
bin/start-all.sh (在master节点执行;) bin/start-master.sh (在备份节点上启动master进程)到这里就完成了sparkHA的配置了,可以通过8080这个端口去访问master的web界面;