2.5.0版本 单机部署问题

提问参考模版:

  • nebula 版本:(
  • 部署方式(单机 ):
  • 是否为线上版本:Y
  • 硬件信息
  • 问题的具体描述

rpm部署单机2.5.0版,修改meta/storage/graph配置文件,将local-host/meta_server_addrs 修改为服务器ip,


),此时使用studio发现报了storage错误(服务status正常)


请问问题在哪里呢

看host怎么多了个呢

从nebula-console执行查询还是出现space not found错误,应该不是studio部署的问题。那请问一下meta/graph/storage配置 IP 和端口改如何修改才能正确运行spark-connector从库中读取数据呢?spark用的是本地windows2.4.7版本

你的服务的 ip 是不是 10.123.xx.59 ?

问个很基础的问题。。你 CREATE 过 Space 吗?

…当然啊。。。数据都已经导进去了,只要storage的local-ip修改为服务器的ip,就会出现spcae not found

嗯嗯是的

我理解没错的话,你是用的 Connector 来导入数据,然后用 Studio 来做查询对吗?可以把你 Connector 的配置贴一下吗?

不知道哪里出了问题,只要不修改local_ip就是正常的,主要是为了使用spark-connector读数据要去改local_ip…

感觉是配置有问题,所以需要你把配置文件贴一下

嗯嗯使用connector查询,把查到的数据用到算法上


spark我用的是本地windows 2.4.7版本,多谢了!

好的 稍等一下

你原先用的local ip是127.0.0.1,那spark-connector获取到的storage ip其实是meta 返回的,就是你show hosts 所看到的127.0.0.1.
如果你的spark-connector 是在其他机器上执行的, 这个地址肯定访问不到的。

nebula-graphd.conf (3.0 KB)
nebula-metad.conf (1.8 KB)
nebula-storaged.conf (4.2 KB)

嗯嗯,因为现在我已经把所有的meta_server_addrs 和local_ip修改成了服务器的ip,调试connector也能看到addr是服务器ip:9779,但是这个时候还是会报错,同事不管是studio还是console查询数据都会报space_not_found

如果你更改过 ip 的话。。是需要重新创建 space,也就意味着之前的数据就是无法访问了。

太感谢了!重新创建了个space,导入数据之后就可以了,感谢!!

1 个赞

此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。