spark-connector本地调试无法连接storage client

  • nebula 版本:(为节省回复者核对版本信息的时间,首次发帖的版本信息记得以截图形式展示)
  • 部署方式(分布式 / 单机 / Docker / DBaaS):分布式
  • 是否为线上版本:Y / N
  • 硬件信息
    • 磁盘( 推荐使用 SSD)SSD
    • CPU、内存信息 96C 256G
  • 问题的具体描述
  • 相关的 meta / storage / graph info 日志信息(尽量使用文本形式方便检索)

本地开发运行timeout,将程序打包上传到服务器上则可以正常运行。
使用spark-connector读取数据,无法连接到storage,一直重试,一直报错。
有遇到metaclient链接timeout的问题,但是我调整代码增加了timeout就可以了。
防火墙也关闭了,不知道是网络的问题还是storage配置的问题,是否有排查的思路。。。
代码如下:
image

  1. 你的服务是部署在本地服务器还是云上
  2. nebula的配置文件发一下, 看storage配置的地址
    盲猜你的问题是:metad服务返回的storaged地址是访问不了的。 你可以这样验证下,用console 执行show hosts 看下显示的storaged地址, 然后再执行spark-connector的机器上执行 telnet storaged地址 port 看是否可以访问到。
1 个赞

嗯 应该找到问题了,集群在创建时用的是万M网的ip,外网访问不到…

1 个赞