导入数据出现错误

https://nebula-graph.com.cn/posts/

使用nebula-ecchange的时候无论是local模式还是yarn模式都报这个异常

你spark环境没装好吧,看下有个file not exist的错误。

环境应该没问题,我之前用exchange导过csv文件,我现在是导入sst文件,而且我本地模式和yarn模式分别装的, 它一直报获取不到主类

你看下file not exist那个错误, 提示不存在的是个什么目录,在哪里用到这个目录了。
ps:你的–conf 配置参数写的不对,partition 少了个s。

1 个赞


这是我的提交命令

还是报这个错
那个说文件不存在指的是我spark本地模式的bin目录不存在,但它肯定存在啊,我就在它的目录下提交命令的


刚才那个解决了 这个又是报什么错啊

spark版本不匹配。 文档有说明,需要spark2.4.x版本。

好的 知道了 谢谢


sst文件已经生成成功了 为什么下载不下来

8020 你确定是对的端口么, 默认的hdfs namenode filesystem 连接端口是9000.

我的hadoop是3以上的,配置文件中已经是8020了,我试了9000还是不行,报一样的错

  1. 你先在自己机器上执行下 hadoop fs -ls “hdfs://192.168.88.102:8020/sst”, 如果地址无误你能看到hdfs上sst目录下的内容

  2. check下这几项前提是否有做。导入 SST 文件数据 - Nebula Graph Database 手册


配置文件也检查了,默认的就没有动过,写权限也有,之前就用这个账户用spark connect 导入数据的,