集群环境下,storage某个节点磁盘满了,exchange入库程序会写入不了数据

nebula 版本:v3.5.0
部署方式:分布式
安装方式:Docker
是否上生产环境:Y
硬件信息
磁盘 SATA
64C 128G
-storage有4个节点 , 其中1个storage节点 数据磁盘满了,通过spark-submit提交spark-streaming程序消费topic数据,会出现数据入库不了的情况。请问需要如何处理,可以让某个节点的数据盘满了还能正常插入数据。

满了话就写不了。这种情况下连compactition也做不了。。

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。