Spark reader两次读入的vertice和edge的数量不一致

好的,我们这边试试复现一下

好的。麻烦啦

这个版本包括1.2嘛?

你好,这边需要知道几项信息:

  1. 你读取的space副本数
  2. 通过show configs查看enable_multi_versions这个配置是否开启

ps:不包括1.2版本的,且只会在多副本情况下出现数据读取不全。


总共有3个副本,enable_multi_versions配置没有开启

mark

我用nebula1.2 服务试了下,多副本space,导入一亿的点,是可以读出来,你docker ps贴一下吧

=

你好,我这个时docker swarm部署的

可以直接 docker ps, 贴一下结果信息吧


这是docker ps结果信息,麻烦看一下

看你的 nebula 的镜像的 tag 都是打的 v1.1.0,这不是 1.2.0 的版本呀,你确认更新一下,再验证试试

很明确,你用的1.1.0的版本。1.2之前存在这个问题的。

镜像已经换为了1.2,只是打的tag还是1.1.0 :upside_down_face:

如果服务镜像是 1.2 并重启服务后,spark reader 依然会出现最早的问题吗?

是的,测试上重启了还是出现一样的问题

按道理讲是不会出现这种情况,我们这边已经验证过,我只是有点怀疑你们那边因为跟老的 docker image 使用的 tag 是一样的,会不会对应的服务没有再次拉取镜像?你能否再执行一下强制拉取镜像的操作?或者干脆 tag 打成 v1.2.0 重新启动服务。

正在打新的tag部署

你好,更新tag为1.2之后,经过几次的测试,spark reader读点时两个tag的数目在几次测试的结果中都保持一致,读边时有一个tag count出来的数目在几次测试中都不一致,另外一个边的tag比较稳定 :exploding_head: :exploding_head:

这边尝试了三次,都没有复现你的情况。
你那边服务应该还是有问题,还是用一个比较干净的环境插入数据并读取吧。

:exploding_head:好的