nebula operator扩容storage

  • nebula 版本:2.0.1
  • 部署方式(分布式 / 单机 / Docker / DBaaS):nebula operator
  • 是否为线上版本:Y

原有集群只有3个storage。后修改storage副本数为5,执行命令
kubectl apply -f config/samples/apps_v1alpha1_nebulacluster.yaml


成功启动后,执行BALANCE DATA报错

kubectl describe pod nebula-storaged-3 结果如下

有一样的问题 :joy:

您好,麻烦你把storage3、storage4、metad的日志取一下

可以贴一下日志吗,方便我们定位


进入容器nebula-metad-0,日志报错如下

进入容器nebula-graphd-0,日志报错如下

进入容器nebula-storaged-3,日志报错如下

进入容器nebula-storaged-4,日志报错如下

进入容器nebula-storaged-0,日志报错如下

你创建的图空间参数replicas_factor是多少?

create space lineage_name(partition_num=15,replica_factor=3,vid_type=fixed_string(200));
3

还有个问题,假如执行了 kubectl delete -f config/samples/apps_v1alpha1_nebulacluster.yaml
然后重启 kubectl create -f config/samples/apps_v1alpha1_nebulacluster.yaml
连接console发现新启动的集群没有历史数据,如何配置或者迁移数据,可以找回数据呢

在执行 delete 的时候,nebula-storaged pod 使用的 pv 被删除了。
可以手动克隆 pv 来迁移保存数据。

具体如何操作咧

replicas_factor为1的情况下balance data存在问题

operator是默认回收pv的,如果你需要保留pv,可以到github上提个issue,我们提供一个开关配置

我的目的不是保留pv,目的是
1,k8s中 nebula集群重启,如何恢复数据,
2,如果当前的k8s环境要下线了,迁移nebula服务到另一个k8s集群,这样的情况如果做数据迁移;

ps:如果是在物理机上面直接安装rpm包,那么1、直接重启的话数据是直接可用的,2,使用snapshot功能,迁移数据就可以实现数据迁移

  1. 重启nebula集群是怎么操作的
  2. 数据迁移可以使用br工具

kubectl delete -f config/samples/apps_v1alpha1_nebulacluster.yaml
kubectl create -f config/samples/apps_v1alpha1_nebulacluster.yaml

这个不是重启 是删了重建。把数据导出,重建之后导入就行了。

如何使用呢

可以描述具体点么,比如如何导出,使用什么工具,如何导入,使用什么工具

config 下有配置文件示例,可以参考配置来试试