将nebula集群的数据同步到另一个nebula该怎么实现?

我现在有一个nebula已经存了蛮多的数据,我想要把这些数据全量同步到另一个nebula集群应该怎么做,我看现在好像没有现成的组件可以使用。
或者说我自己开发,有什么命令或者办法可以遍历我nebula所有的数据吗?现在那种随机获取数据都需要limit,在大量数据的情况下无法完成遍历。

  1. NebulaGraph 有自己的集群间数据同步工具,工具是企业版的
  2. 自己写的话,用存储的扫描接口
  3. 个人觉得不如客户端双写简单

你好:
1.工具的话 我看到有个nebula spark conector 是不是可以先读成DataFrame数据,然后再写入,我看文档上写的可以支持不同集群间同步
2.存储的扫描接口是什么,我看看怎么写,我现在不知道这个接口是啥
3.早期你不知道想要这些数据迁移,没有做双写,现在来不及了,数据都进去了

  1. 是的,spark connector 可以做兼容版本的任意两个space之间的数据迁移,具体代码就几行,你可以参考github 上的example。 先read出来,再write进去。
  2. 扫描接口是指 nebula-java 里面的scanVertex/scanEdge接口

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。