好的,我们这边试试复现一下
好的。麻烦啦
这个版本包括1.2嘛?
你好,这边需要知道几项信息:
- 你读取的space副本数
- 通过show configs查看enable_multi_versions这个配置是否开启
ps:不包括1.2版本的,且只会在多副本情况下出现数据读取不全。
mark
你好,我这个时docker swarm部署的
可以直接 docker ps, 贴一下结果信息吧
看你的 nebula 的镜像的 tag 都是打的 v1.1.0
,这不是 1.2.0 的版本呀,你确认更新一下,再验证试试
很明确,你用的1.1.0的版本。1.2之前存在这个问题的。
镜像已经换为了1.2,只是打的tag还是1.1.0
如果服务镜像是 1.2 并重启服务后,spark reader 依然会出现最早的问题吗?
是的,测试上重启了还是出现一样的问题
按道理讲是不会出现这种情况,我们这边已经验证过,我只是有点怀疑你们那边因为跟老的 docker image 使用的 tag 是一样的,会不会对应的服务没有再次拉取镜像?你能否再执行一下强制拉取镜像的操作?或者干脆 tag 打成 v1.2.0 重新启动服务。
正在打新的tag部署
你好,更新tag为1.2之后,经过几次的测试,spark reader读点时两个tag的数目在几次测试的结果中都保持一致,读边时有一个tag count出来的数目在几次测试中都不一致,另外一个边的tag比较稳定
这边尝试了三次,都没有复现你的情况。
你那边服务应该还是有问题,还是用一个比较干净的环境插入数据并读取吧。
好的