Docker搭建Spark集群,你学会了吗?

有个小技巧:先配置好一个,在(宿主机上)复制scp -r拷贝Spark到其他Slaves。,【在test-cluster-hap-master-01虚拟主机上】,将已下载好的Spark压缩包(spark-3.1.1-bin-hadoop-3.2.2-lbx-jszt.tgz)通过工具【XFtp】拷贝到虚拟主机的opt目录下:,在容器映射目录下 :/opt/data/test-cluster-spk-slave-01/data,用Xftp上传包,图片,这里需要上传两个,使用的是spark-3.1.1-bin-without-hadoop.tgz,但是需要将spark-3.1.1-bin-hadoop-3.2.2-lbx-jszt下的jars包移到/usr/local/spark-3.1.1/jars下,图片,图片,图片,编辑全局变量,增加以下全局变量,即时生效,(4)配置workers,图片,图片,(宿主机上)复制scp -r拷贝Spark到其他Slaves节点:,如执行命令出现出现问题时,请现在相应的Slave节点执行mkdir -p /usr/local/spark,复制到master-02时,使用start-mater.sh启动master-02,原本是访问http://10.8.46.35:8080 就可,但是我这里在配置镜像的时候,多了8080,导致这里访问不了。看日志可以知道,已经走向8081,所以http://10.8.46.35:8081/即可,这里遇到了许多问题,第一个是包不兼容,导致搭建两次失败,图片,然后换了官方的包spark-3.1.1-bin-without-hadoop,启动还是有问题。,最后通过替换jars才成功。(使用spark-3.1.1-bin-hadoop-3.2.2-lbx-jszt下的jars),done~

文章版权声明

 1 原创文章作者:cmcc,如若转载,请注明出处: https://www.52hwl.com/26340.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年6月23日
下一篇 2023年7月15日