spark任务运行及jar包

论坛 期权论坛 脚本     
匿名网站用户   2020-12-20 06:05   52   0

spark的jar包没必要把所有相关的依赖都打进一个jar包中,因为这样会把spark、hadoop本身相关的jar包也打进去,但是这些依赖在用spark-submit命令运行时,会自动加载部署环境中已有的。

/opt/cloudera/parcels/CDH/bin/spark-submit \

--class "cn.icarevision.its007.upgrade.EsIndexUpgrade" \

--jars ~/its007/its007-upgrade/lib/dependency/*.jar \

~/its007/its007-upgrade/lib/hello-es-hadoop_2.10-1.0.jar

其中--jars是是所有依赖的jar包,这里我把所有依赖的jar包放到了dependency这个目录。

分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:1136255
帖子:227251
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP