Nebula生产环境部署规模评估

各位大佬们,在部署Nebula集群时,大家是怎样粗略评估硬件资源的呢?

比如,要存储1000万个点,1万亿条边,假设每个点只有一个Tag,最少应该使用几台节点,每台节点的配置最少应该是多少呢。

存储空间可以参考上面。

计算资源的话需要看你的查询的吞吐量以及你的查询一般是怎样的查询来判断,目前这块基本上是靠经验为主。

另外,你1000万点,1万亿条边,密度很高,这样在查询的时候会遇到很多超级节点,建议:

  1. 进行点的拆分,比如按日期、按不同类型等。
  2. 边的合并(汇总边、最新边等),不过这个取决于业务
  3. 在满足业务的情况下,配置截断。主要是max_edge_returned_per_vertex参数,可以参考:
    Storage 服务配置 - NebulaGraph Database 手册

补充下,一般你这种配置,可能内存要大点会比较稳妥

感谢感谢,还有个问题哈

在部署了3个storaged的环境中,如果只有一个图空间,那么RocksDB的实例数量应该是1还是3呢?

至少三,因为一个 storage 服务对应至少一个 rocksdb 实例。

1 个赞