感谢感谢
所以, 问题解决了吗?我百分之八十肯定是 meta 地址有问题,你记得去问问部署的同学
还没解决好
你先内部确定下端口号
大佬 我们安装图库的老师想要直接跟您交流下 可以不
上论坛呗,或者最简单的,你贴下 Nebula 的部署配置就行,更简单
大佬,请教三个问题哈:
1.download hdfs的URL能不能使用域名代替host:port这样的形式呀
2.安装的集群,是不是每一个节点都要安装hadoop呀
3.SST文件能不能从hdfs能不能下载下来手动添加到集群,不执行download hdfs呀
根据你们的配置文件,你去吧 45500 这个端口改成 9559, 我很困惑为啥你们添加的 45500,文档上面示例也是 9559,你们配置的 meta address 的端口也是 9559。很好奇为啥你们会配 45500
端口改了之后应该就可以了。
我理解是可以,这块需要一个域名到 ip 的映射解析,我记得 v2.6.2 版本是支持的 cc @wey 我没记错对吧。
我理解是不需要的,你在哪台机器用 exchange 那台装上就好了,剩下就是 Nebula 集群的内部数据同步问题了。
如果是符合格式的数据,应该直接 ingest 导入就好了 https://docs.nebula-graph.com.cn/2.6.2/nebula-exchange/use-exchange/ex-ug-import-from-sst/#5_sst (第三步)
之前确实有域名解析的问题,但是那个是 meta 地址,2.6 最后一个小版本修复支持了,HDFS 地址我不记得有不支持域名的问题哈
看起来您的 path
写的有点问题,local, remote 不用写 schema hdfs://
部分,下边是我文章里的配置例子
path:{
local:"/tmp"
remote:"/sst"
hdfs.namenode: "hdfs://192.168.8.128:9000"
}
= =。要强调下,meta 地址也是配不对的。
这个 meta 地址应该是 docker/k8s 暴露出来的外部地址,从配置截图看,也可能是正确的(如果对应内部 xxx:9559),不过,exchange 会去通过 meta 拿到配置了的 storaged 的地址,请注意,storaged地址也需要在 spark 里边可以访问。
看你的 tree 应该是对的,如果space id 是 1 的话
download 里边的层级好像我写的 cp 命令有问题,可以参考这一楼
嗯嗯,容器里 /data/storage 应该对应 裸机默认的 /usr/local/nebula/data/storage/
到 download 一级之后,内部文件的层级对么?比如是不是多套了一层? 我手上暂时没有环境,不过你结合我贴那个评论应该能推出来对的情况,或者两种都试一下
此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。