nebula故障节点下线

版本:3.5.0
现在有3个节点,127.0.0.3宕机了,无法开机,状态如下
±----------------±-----±----------±-------------±---------------------±-----------------------±--------+
| Host | Port | Status | Leader count | Leader distribution | Partition distribution | Version |
±----------------±-----±----------±-------------±---------------------±-----------------------±--------+
| “127.0.0.1” | 9779 | “ONLINE” | 2 | “test:2” | “test:6” | “3.5.0” |
| “127.0.0.2” | 9779 | “ONLINE” | 4 | “test:4” | “test:6” | “3.5.0” |
| “127.0.0.3” | 9779 | “OFFLINE” | 0 | “No valid partition” | “test:6” | |
±----------------±-----±----------±-------------±---------------------±-----------------------±--------+

目前打算把故障节点从集群中提出,执行下列2个操作都有报错,有什么其他方式处理吗
(root@nebula) [test]> DROP HOSTS 127.0.0.3:9779; //能针对实例进行删除空间?
[ERROR (-1005)]: There are still space on the host

(root@nebula) [test]> BALANCE DATA REMOVE 127.0.0.3:9779;
[ERROR (-1009)]: SemanticError: Data balance not support

你有先删除关联的图空间嘛?Drop Space, 先删除空间才能删除主机

如果是企业版的话,高可靠要满足至少 3 台机器。因此应该先添加一个新的节点比如 127.0.0.4,然后执行 balance data remove 127.0.0.3:9779,就行了
社区版data balance是实验性功能,存在未知风险,不建议使用。只能通过spark connector 做数据同步或者重新导数来解决

是社区版的,目前在学习。删除图空间,那数据不就没了?,现在是故障一台无法开机,另外2台还是正常的