https://nebula-graph.com.cn/posts/
使用nebula-ecchange的时候无论是local模式还是yarn模式都报这个异常
你spark环境没装好吧,看下有个file not exist的错误。
环境应该没问题,我之前用exchange导过csv文件,我现在是导入sst文件,而且我本地模式和yarn模式分别装的, 它一直报获取不到主类
你看下file not exist那个错误, 提示不存在的是个什么目录,在哪里用到这个目录了。
ps:你的–conf 配置参数写的不对,partition 少了个s。
spark版本不匹配。 文档有说明,需要spark2.4.x版本。
好的 知道了 谢谢
8020 你确定是对的端口么, 默认的hdfs namenode filesystem 连接端口是9000.
我的hadoop是3以上的,配置文件中已经是8020了,我试了9000还是不行,报一样的错
你先在自己机器上执行下 hadoop fs -ls “hdfs://192.168.88.102:8020/sst”, 如果地址无误你能看到hdfs上sst目录下的内容
check下这几项前提是否有做。导入 SST 文件数据 - Nebula Graph Database 手册