Could not find or load main class org.apache.spark.deploy.yarn.ApplicationMaster

阅读: 评论:0

Could not find or load main class org.apache.spark.deploy.yarn.ApplicationMaster

Could not find or load main class org.apache.spark.deploy.yarn.ApplicationMaster

问题描述

场景:
在小海豚里面调度Spark任务是出现这个问题。
spark 3.0.1
yarn:3.1.1
日志:

Container exited with a non-zero exit code 1. Error file: Last 4096 bytes  :Last 4096 bytes of stderr :Error: Could not find or load main class org.apache.spark.deploy.yarn.ApplicationMaster

解决方案:

1.配置 spark.yarn.jars

  • 1 上传jars到Hdfs
hadoop fs -mkdir -p  /spark-yarn/jarshadoop fs -put $SPARK_HOME/jars/* /spark-yarn/jars/
  • 2 修改f
spark.yarn.jars hdfs://hadoop218:8020/spark-yarn/jars/*.jar

这个是网上的大多数的解决方案,但是我配置了,还是出现上述的错误。于是我找到了下面的解决方式

2.配置 spark.yarn.archive

针对1不起作用的情况

  • 1打包jar
cd  $SPARK_HOME/jars/zip -q -r spark_jars_.zip *hadoop fs -mkdir /spark-yarn/ziphadoop fs -put spark_jars.zip /spark-yarn/zip/
  • 2修改修改f
spark.yarn.archive hdfs://hadoop218:8020/spark-yarn/zip/spark_jars.zip

参数分析:

Spark官网介绍:

使用yarn的方式提交spark应用时,在没有配置spark.yarn.archive或者spark.yarn.jars时, 看到输出的日志在输出Neither spark.yarn.jars nor spark.yarn.archive is set;一段指令后,会看到不停地上传本地jar到HDFS上,内容如下,这个过程会非常耗时。可以通过在f配置里添加spark.yarn.archive或spark.yarn.jars来缩小spark应用的启动时间

spark.yarn.archive有个说明是,说如果两个参数都配置,应用程序会优先使用 spark.yarn.archive会代替 spark.yarn.jars 在所有容器中使用打包文件。

同样这是一项优化手段,配置spark.yarn.archive并且上传了程序所有的依赖jar的方式能减少资源的上传。


本文发布于:2024-01-28 06:51:43,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/17063959065587.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:class   org   main   find   load
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23