Spark reader两次读入的vertice和edge的数量不一致

是的,测试上重启了还是出现一样的问题

按道理讲是不会出现这种情况,我们这边已经验证过,我只是有点怀疑你们那边因为跟老的 docker image 使用的 tag 是一样的,会不会对应的服务没有再次拉取镜像?你能否再执行一下强制拉取镜像的操作?或者干脆 tag 打成 v1.2.0 重新启动服务。

正在打新的tag部署

你好,更新tag为1.2之后,经过几次的测试,spark reader读点时两个tag的数目在几次测试的结果中都保持一致,读边时有一个tag count出来的数目在几次测试中都不一致,另外一个边的tag比较稳定 :exploding_head: :exploding_head:

这边尝试了三次,都没有复现你的情况。
你那边服务应该还是有问题,还是用一个比较干净的环境插入数据并读取吧。

:exploding_head:好的