balance之后partition数量变多了

nebula graph 2.5.0. 原本设置的是100个partition,5副本

之前总量一直是500,但最近一次balance之后变成了501

这是什么原因?

1 个赞

稳定显示这个吗?

另外, 可以详细的描述下从 balance 到最后显示的过程吗?

我们有10台storaged,准备替换掉其中3台,先 balance data remove 1台,然后再 balance data remove 2台,然后增加了3台之后balance data,执行的过程中没有注意看,执行完了show hosts之后,发现有一台多了一个分片

然后就稳定的多一个了吗? show host 的显示结果可能比实际的结果, 晚一个心跳的时间. 比如 30s 这种

稳定多

balance data 先瞅一眼是否成功结束了吧?

如果没有可以再敲一下 balance data 让他继续跑.

另外贴一下 show parts 的结果吧

这个是会检查的,每次都是等全部成功了,再执行下一次

好的, 麻烦贴下 show parts 的结果.

分片2有6个副本,其他99个分片都是正常5个

多出来一个分片的那台机器, 是新加的机器吗? 还是原有的?

分片数没多,还是100个分片,但其中一个分片的replica多了一个,是在原有的服务上

要是每一步都跑完的话, 有可能是 bug.

不过您要是网络不出现分区的话, 应该还不影响日常用?

想让他恢复正常的话, 可能得下线一台机器重新 balance

(谨慎执行, 如果您想这么干, 建议再详细聊聊)

我们正基于代码结构的考虑对 balance 做重构, 您这个问题我们也会考虑下怎么处理.

能把meta日志给我们一份吗 这样也容易定位一点 这个出来6个有点匪夷所思

1 个赞

如果job信息和part信息还在的话,麻烦贴一下show parts; 和 show job ${job_id}的结果。

我这边复现了会少一个part的场景,但是没有成功复现多一个part的场景。

1 个赞

没有了,因为一些别的原因,我们把集群都重做了,改成了2.6.1了

浙ICP备20010487号