Nebula 2.0.1 exchange 使用spark on yarn 导入player数据成功,但spark on yarn 任务失败

使用spark-on yarn 模式进行数据导入, 导入前执行如下语句:
DROP SPACE IF EXISTS player;
CREATE SPACE IF NOT EXISTS player(partition_num=5, replica_factor=1, vid_type=FIXED_STRING(10));
USE player;
CREATE TAG player(name string, age int);
CREATE TAG team(name string);
CREATE EDGE follow(degree int);
CREATE EDGE serve(start_year int, end_year int);

提交spark-submit 命令:
./spark-submit --master yarn --deploy-mode cluster --class com.vesoft.nebula.exchange.Exchange /cib/softs/nebula-exchange-2.1.0.jar -c /data/nebula-datas/player-csv-hdfs.conf

导入后spark 任务报失败:
正在上传:1.jpg…

在CDH yarn中也没有找到错误日志信息,请问这是什么原因

另外,spark submit 的时候指定的配置参数 -c /data/nebula-datas/player-csv-hdfs.conf 在我当前提交任务的机器上执行就报错,报这个文件不存在,我把这个文件上传到cdh 集群的每个节点的/data/nebula-datas/下就可以running 了,这是为什么呢? 难道每次提交前都必须上传到集群中对应目录?

这里是有图片,然后没上传成功吗

Readme中有 如何进行yarn模式提交任务的说明: