nebula stroge 占用内存非常高

schema有默认值吗 可以看下这个帖子 nebula-storage内存占用持续上涨的问题

这个我已经修改过了,我用jeprof 分析了下 

jeprof看起来有读数据啊 compaction开着还是关掉了 另外关注下是刚启动就很大 还是导入过程中变大的

谢谢已解决

请问能分享下解决的方法么?

通过jeprof定位到索引和过滤块,调整max_open_files、cache_index_and_filter_blocks 解决,但会产生性能问题,发现默认块block_size为8k太小,准备调整这个来减少索引内存,过滤器换成Ribbon Filter (准备测试中)

2 个赞

太棒了:+1:t2:,期待您的更多成果和分享

期待写个文章分享下具体的分析过程和思路

2 个赞

可以的,这个提交到哪

1 个赞

@steam 小姐姐应该会联系您发布文章哈:blush:

话说你们数据量有多大?开了rocksdb的partition_index_filter之后 应该只有第一层的index/filter在内存诶?

没多大,只有150G左右,一个节点

看到发表的blog了 :+1:
我和critical27有同样的疑问,按说开了partition_index_filter(这个参数同时将cache_index_and_filter_blocks设为true)能更好控制内存才对。你导入的时候是否关闭了auto-compaction呢?能否看下rocksdb中的每层的大小呢?

没有对auto compaction关闭,都是采用官方默认的配置,看Rocksdb官网max_open_files = -1能最大提高性能,但一打开就用了很大内存

1 个赞

开启了这个参数,max_open_files = -1 rocksdb 内

cat /data/nebula/data/storage/nebula/3/data/LOG | grep pin
  pin_l0_filter_and_index_blocks_in_cache: 1
  pin_top_level_index_and_filter: 1
2022/03/21-10:36:41.466636 2b3ad9856740

一样OOM

请问大佬分析和解决这个问题的文章发布了吗,我也想学习一下 :pleading_face:

发了,在博客分类

好的,谢谢。

这个设为-1的意思是会将所有的索引块都加载进内存,性能肯定高,但是内存占用肯定就很大 :rofl:

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。