Nebula-Exchange包Java客户端提交Spark任务传参问题

(1)Linux服务器执行构图流程
可以通过官方提供的 nebula-exchange-2.0.0.jar 包,然后指定参数,在yarn上执行(client或cluster)如下所示:


(2)请问Java客户端下通过spark执行yarn任务如何传参?


希望官网能解答一下我的疑问,谢谢

你的 Nebula 版本是多少?

用SparkLauncher提交时你要把所有参数都放到一起,作为一个String传给addAppArgs

这是官网说明:SparkLauncher (Spark 3.2.0 JavaDoc)

nebua版本2.0.0

您说的这种方式刚开始也试过了,还是报错,InValid Argument

你第一个截图里面参数组合错误了, 不是两个arg,是三个arg
三个arg分别这样配置: (我们自己项目中是这样配置 可以正常使用)
addAppArgs("-c",“path”,"-h")

1 个赞

好的,谢谢您 ,我试试您这种方式

可以了,谢谢您


如果你觉得 Nicole 的回复解决了你的问题,记得勾选为【解决方案】方便下次遇到相似问题的小伙伴能快速找到答案~ 谢谢 duspring

好勒 已勾选 :heart: