Nebula 2.5.0 使用exchange 生成sst文件报错java.io.NotSerializableException: com.google.common.net.HostAndPort

看到了,这块可以在脚本中发送查询space_id的语句么,就类似hive -e “xxx” 我得到 space_id后,然后就可以得到我的nebula_home/data/storage/nebula/space_id/download 完整目录了,如果我对Nebula集群中nebula_home/data/storage/nebula/目录做NFS共享存储,那我只需要scp 一次就够了, 但是通过这种scp 方式,太依赖于系统级别了,总觉得哪里怪怪的。。。

我们目前没有rest 或http接口查询space_id, 你对nebula目录设置nfs会有问题吧,毕竟每个机器的nebula目录下内容不一样啊。 如果你后续有频繁的sst导入,那还是每台机器都装一下hadoop吧,麻烦一次,方便后续。

嗯嗯,我在看部署Nebula的文档,没有找到相关配置hadoop的说明呀,我想知道这种场景下怎么配置?
我们CDH 集群是5台机器,比如192.168.1.[1-5]
Nebula集群部署在192.168.[6-10]
按照您说的需要在每台storage服务器上都要安装hadoop以及配置hadoop_home,因为CDH 的hadoop 版本是3.0.0,是不是我只需要在hadoop官网下载一个hadoop3.0.0的hadoop安装包,然后配一下hadoop_home即可?

最后一条有说明,可能不是很清晰,我们文档上完善一下。@lzy
只要装一下Hadoop,确保hadoop fs -get 命令可用就行。 要记得配置HADOOP_HOME和JAVA_HOME.

Graph服务和Meta服务的IP地址和端口号, 可以在console中执行 show hosts meta 和 show hosts graph

明白,谢谢了,我先按照说明配置一下环境,测试一下整个流程走通,后面有问题,再麻烦,谢谢


你自己的配置文件里面

浙ICP备20010487号