为什么使用提供的spark connector程序会有误?

版本:nebula 2.0.1
读取数据报错


注:本人尚不熟悉spark

不熟悉 spark 的话,如果是导入数据的话,建议用 importer。以及不熟悉 spark,至少应该熟悉提问的礼仪,你的报错信息呢?

importer是CSV小规模的迁移,数据量太大不能使用吧?

你的数据量大概多少,:thinking: 没超过亿的话,可以用它试试,毕竟操作起来没那么复杂,或者你真的不熟悉的话,就用 exchange,spark connector 是需要自己动手来写代码实现导入的,可能会要求高点。

大约600G的数据量

:thinking: 上 exchange 吧。没那么复杂,跟着文档操作就好了

好的,我尝试一下。感谢!

嗯嗯。记得看文档,对着操作,别自由发挥。

好。是可以从旧nebula集群读取数据写入到新nebula集群的,是吧?

跨版本?

暂不跨版本


每台新机器上都要满足这样的条件吗?还是只是leader满足即可?

:thinking: 我理解是使用 exchange 的那台机器就行,剩下的就是各节点通信的问题了。

好的,我尝试一下,再给你反馈

:joy: 所以就是个迁移工作吗,你可以看下我们实施同学之前写的 利用 snapshot 进行集群迁移 - #5,来自 bai 看了下你好像在问他,你可以试试这个法子。

大佬。exchange 2.0.1(对应nebula2.0.1)版本可以导入nebula数据吗?

exchange 3.x版本我看到才可以导入nebula数据?

用 3.0.0 的 exchange 呀,版本要对齐的。

我是nebula 2.0.1的集群,那这样还能用exchange 2.0.1导入nebula数据吗?

你用什么版本的内核,就用什么版本的 exchange,看什么版本的文档,对齐就行

nebula-exchange 2.0.1版本没有关于导入nebula数据的特有参数,这样就不用配置了吗?