logs文件夹下文件过大导致nebula报错

nebula2.5.0
nebula-python2 2.0.0

一直使用python端搭建图谱,之前用过importer插入比较大的数据集。最近报了好几个硬盘/内存错误,而且是重启修复之后用着用着nebula graph就崩了,看了一下logs文件夹,有600多g,只能手动删除。
这个问题应该不是我一个人遇到,想问下有没有好的解决办法
手动召唤大佬@wey

这两个版本号是不对齐的。如果你要用 2.5.0 版本的 Nebula 记得用 2.5.0 版本的客户端。参见

https://github.com/vesoft-inc/nebula-python#how-to-choose-nebula-python

好的,我之后只用匹配版本。
上面反应的logs问题应该还是存在的。有没有可以修改配置的地方,不记录warning呢?

你看下 log 你的配置的级别

抱歉哈,可以调一下 log level 吐得慢点。

另外, 可以考虑用crontab 去定期 rotate log Glog should delete old log files automaticly · Issue #423 · google/glog · GitHub

最后,这个问题(https://github.com/vesoft-inc/nebula/issues/3066 ) 我们在最新master里通过引入了 log ratation 解决了,https://github.com/vesoft-inc/nebula/pull/3519 ,master(是马上发布的 3.0 的 rc)就不会有这个问题了,建议先手动删一下 log,等 3.0 出来了 数据库和 python 一起升级一下哈。

1 个赞

此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。