图数据库某个space下的数据突然消失掉了,另一个space不受影响
里面数据很大,导入一次很麻烦,每周都会出现,和服务器CPU利用率有关么,难道挂掉了么,开源版的有容量限制么?
所有的 tag 和 edge 数据都没有么(看看是不是设置了 TTL), 你们是不是有啥机制,定期清理 data 目录下的数据?
没有设置ttl,所有的表和边都没了,产品经理给我来电了,我们用的是nightly版本,可能不行
nightly 版本也不至于数据会丢失啊。你们有做过什么操作么?看看磁盘是不是满了之类的?
数据用量大概1t,我们服务器磁盘还有7-8个t,并且另一个database一点问题没有
,如果服务器cpu利用率高会导致nebula出故障丢数据么
数据是持久化在盘的啊,虽然内存也会缓存部分数据。
I20231110 06:43:05.405365 1 RocksEngine.h:247] Release rocksdb on /data/storage/nebula/2
I20231110 06:43:05.408962 1 NebulaStore.cpp:44] ~NebulaStore()
I20231110 06:43:05.409373 1 StorageDaemon.cpp:186] The storage Daemon stopped
metad-stderr.log (7.5 KB)
nebula-metad.ERROR (313 字节)
storaged-stderr.log (620.5 KB)
这是日志文件,大神们帮忙看看,还有个问题补充,我服务器在跑较大模型,CPU占用率很高
这个不是很正常么。
这个日志有啥问题么?刚刚换了新的nebula版本又被清空了
你们俩是一个团队的么?
对,他也提问了
哦,那合并成一个吧,我把原贴关了。我看了下日志,你们的 storage 的 9779 是不是没 add hosts 过,提示说 storage 尚未注册。
我们这是用docker-compose启动的,启动后没有单独进行注册操作,我们应该怎么操作啊
参考这个(记得改成自己的 ip 和端口号),执行完之后,你连上 graphd,show hosts,服务正常了再插入一条数据看看。
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。