- nebula 版本:2.0.1
- 部署方式(分布式 / 单机 / Docker / DBaaS):nebula operator
- 是否为线上版本:Y
原有集群只有3个storage。后修改storage副本数为5,执行命令
kubectl apply -f config/samples/apps_v1alpha1_nebulacluster.yaml
成功启动后,执行BALANCE DATA报错
kubectl describe pod nebula-storaged-3 结果如下
原有集群只有3个storage。后修改storage副本数为5,执行命令
kubectl apply -f config/samples/apps_v1alpha1_nebulacluster.yaml
有一样的问题
您好,麻烦你把storage3、storage4、metad的日志取一下
可以贴一下日志吗,方便我们定位
你创建的图空间参数replicas_factor是多少?
create space lineage_name(partition_num=15,replica_factor=3,vid_type=fixed_string(200));
3
还有个问题,假如执行了 kubectl delete -f config/samples/apps_v1alpha1_nebulacluster.yaml
然后重启 kubectl create -f config/samples/apps_v1alpha1_nebulacluster.yaml
连接console发现新启动的集群没有历史数据,如何配置或者迁移数据,可以找回数据呢
在执行 delete 的时候,nebula-storaged pod 使用的 pv 被删除了。
可以手动克隆 pv 来迁移保存数据。
具体如何操作咧
replicas_factor为1的情况下balance data存在问题
我的目的不是保留pv,目的是
1,k8s中 nebula集群重启,如何恢复数据,
2,如果当前的k8s环境要下线了,迁移nebula服务到另一个k8s集群,这样的情况如果做数据迁移;
ps:如果是在物理机上面直接安装rpm包,那么1、直接重启的话数据是直接可用的,2,使用snapshot功能,迁移数据就可以实现数据迁移
kubectl delete -f config/samples/apps_v1alpha1_nebulacluster.yaml
kubectl create -f config/samples/apps_v1alpha1_nebulacluster.yaml
这个不是重启 是删了重建。把数据导出,重建之后导入就行了。
可以描述具体点么,比如如何导出,使用什么工具,如何导入,使用什么工具